Resúmenes por Área


Cargando resúmenes...

Área VII: Ingeniería e Industria

Abarca Reyes Karla Iveth, Instituto Tecnológico de Morelia
Asesor: Dr. Antonio Contreras Cuevas, Instituto Mexicano del Petróleo

SELECCIóN Y CARACTERIZACIóN DE MATERIALES PARA EL DISEñO Y FABRICACIóN DE HERRAMIENTAS PARA POZOS PETROLEROS.


SELECCIóN Y CARACTERIZACIóN DE MATERIALES PARA EL DISEñO Y FABRICACIóN DE HERRAMIENTAS PARA POZOS PETROLEROS.

Abarca Reyes Karla Iveth, Instituto Tecnológico de Morelia. Asesor: Dr. Antonio Contreras Cuevas, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

Las condiciones extremas de operación a las que se ven sometidos los materiales dentro de la industria del petróleo (altas presiones y temperaturas, abrasión, erosión, corrosión, ataque por hidrógeno, etc.) suponen un gran reto de análisis para tratar de mitigar los efectos negativos que son causales de pérdidas significativas en este tipo de aplicación; es por esto, que la selección adecuada de materiales que puedan resistir condiciones severas de presión, temperatura, desgaste, etc., sin verse afectados, se ha convertido en una prioridad para tratar de reducir costos y mejorar la efectividad de los procesos. Las normas ISO y ASTM son esenciales para garantizar la calidad, seguridad y eficiencia en la fabricación y uso de materiales y productos. Facilitan el comercio internacional al armonizar requisitos técnicos, reduciendo barreras y aumentando la confianza entre fabricantes y consumidores. Además, estas normas contribuyen a la sostenibilidad y la innovación, promoviendo mejores prácticas industriales y tecnologías avanzadas y proporcionan directrices esenciales para la selección de materiales. Estas normas aseguran que los materiales cumplan con especificaciones técnicas y de seguridad, promoviendo la uniformidad y la calidad en la fabricación. [2]



METODOLOGÍA

Para llevar a cabo la selección de materiales para el diseño de herramientas para pozos petroleros lo realizamos por medio del Método de selección de materiales y procesos desarrollada por el Dr. Mike Ashby. [1] En el método de diseño apoyado con estrategias para selección de materiales propuesto por el Dr. Mike Ashby conocido como: pensamiento estrategico, para adecuar el material al diseño (Strategic thinking: matching material to design), se presenta una taxonomía de clasificación de materiales que permite seleccionar los más adecuados de acuerdo con las propiedades que requiere el producto a diseñar, entre miles de materiales. Del mismo modo, la taxonomía de clasificación de procesos permite seleccionar los procesos que se necesitan para elaborar el producto según el diseño planteado. Las estrategias de selección de materiales y de procesos se involucran a la metodología de diseño tradicional, lo cual permite involucrar estas estrategias en todas las etapas del proceso de diseño, justificando su selección.  Para llevar a cabo una selección de materiales, seguimos los siguientes pasos. Análisis de requisitos operacionales, donde revisamos las condiciones a las que se someterán las herramientas, como resistencia y dureza. Investigación y evaluación de materiales, por medio de fichas técnicas de materiales, artículos y normas específicas determinamos los materiales más comunes para el desarrollo de herramientas en la industria petrolera en la cual se encontraron que los materiales comunes fueron: AISI 4140-T, AISI 4140-R, Latón 360, AISI 4340 condición A, Viton 90, P20, D2 y ALLOY 31, inoxidable 304, inoxidable 316L, titanio 6Al-4V y ASTM A36. Evaluación de propiedades de materiales, donde se llevaron a cabo pruebas de laboratorio en las cuales sometimos los materiales a ensayos de dureza y resistencia, en específico a: AISI 4340, AISI 4140-T, inoxidable 316L. pruebas de corrosión con ensayos en ambientes simulados en condiciones similares a las operativas. Modelado y simulación, usamos softwares de diseño y simulación en los cuales predecimos el comportamiento de los materiales bajo diferentes condiciones de operación. Validación y pruebas, se realizaron prototipos de herramientas con diferentes materiales para ver el comportamiento en condiciones de operación más reales y seleccionar los materiales más ópticos para la fabricación de las herramientas. Selección final, de acuerdo a los resultados obtenidos de las pruebas de laboratorios con diferentes materiales se eligen los materiales mas adecuados y con mejores propiedades físicas, mecánicas y químicas para las herramientas.


CONCLUSIONES

Durante la estancia de verano para llevar a cabo la selección adecuada de un material se tuvo que definir las condiciones operacionales a las cuales va ser sometido, así como las propiedades mecánicas, físicas o químicas que requeríamos, evaluamos el entorno de uso del material (temperatura y presión), después las consideraciones de fabricación (coste y disponibilidad), también contemplamos las normativas y regularizaciones estándares como normas ISO y ASTM, e hicimos una evaluación comparativa con diferentes materiales basándonos en las propiedades requeridas, realizamos simulaciones en softwares de diseño para predecir el comportamiento de los materiales bajo diferentes condiciones operativas y la creación de prototipos para pruebas físicas para validar el comportamiento del material bajo condiciones reales para tomar una decisión y selección final.   REFERENCIAS  [1] ASHBY, M. F. (1999). MATERIALS SELECTION IN MECHANICAL DESING SECOND EDITION. BOSTON: MICHAEL F. ASHBY. [2] MANGONON, P. L. (2002). CIENCIA DE LOS MATERIALES SELECCION Y DISEÑO. PRENTICE HALL.  
Acevedo Oviedo Omar Jose, Universidad de la Guajira
Asesor: Mtra. Aurora Ayerim Reyes Zaldivar, Tecnológico de Estudios Superiores de San Felipe del Progreso

DISEñO RESILIENTE DE EDIFICIOS EN ZONIFICACIóN SíSMICA EN MéXICO


DISEñO RESILIENTE DE EDIFICIOS EN ZONIFICACIóN SíSMICA EN MéXICO

Acevedo Oviedo Omar Jose, Universidad de la Guajira. Asesor: Mtra. Aurora Ayerim Reyes Zaldivar, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

Los sismos son fenómenos naturales que ocurren cuando existe un choque o una rotura repentina dentro de la litosfera, estos eventos catastróficos son los causantes de pérdidas materiales y numerosas muertes alrededor del mundo, por otro lado, generan inseguridad en las estructuras, ya que afecta de manera directa a las mismas, ocasionando grietas, desprendimiento de materiales hasta el punto de derrumbar por completo la infraestructura. Al momento de diseñar cualquier tipo de estructura se deben de tener en cuenta factores como lo son, la sostenibilidad, seguridad, economía, entre otras. Actualmente existe un fenómeno natural en particular llamado movimientos telúricos o sismos, del cual es deseado mitigar los efectos causados a las estructuras, la importancia de estudiarlos y ver cómo afectan a las estructuras, es observar y analizar los daños estructurales irreversibles generados en edificios, casas, vías entre otros. Cuando los ingenieros civiles se encuentran diseñando se contempla el apartado de la resiliencia estructural, esta se refiere a la capacidad que tiene una estructura en resistir y recuperarse de los fenómenos naturales, eventos catastróficos e incluso daños causados por el mismo hombre. Existen normas que albergan características estructurales mínimas para realizar un correcto diseño, es decir que las estructuras que se vayan a construir deben cumplir con una serie de requisitos para que sean seguras y capaces de soportar o mitigar estos pandeos, los requerimientos para la construcción varían según las zonas sísmicas del país.  



METODOLOGÍA

Se realizaron investigaciones acerca de la zona de es estudio la cual es la ciudad de México y se logro encontrar que el tipo de suelo de bastante blando, es decir que al colocarle cualquier tipo de peso o ejercerle un esfuerzo este se va deformar, gracias a esta misma información se logró deducir que las cimentaciones utilizadas son: Pilotes de fricción Pilotes o pilas de punta Cimentaciones compensadas Losas de cimentación Zapatas de mampostería Con esta investigación se logro conocer acerca del fenómeno de hundimiento regional o subsidencia definida por Roberto Gayol, la cual afecta a las cimentaciones construidas en las arcillas del valle de México. Por otra parte, se encuentra lo que sería la dinámica estructural la cual nos permitió ver las propiedades estructurales que se expresan mediante una serie de parámetros modales. Se trabajo el software Robot Estructural, ingresando estructuras, se hizo una breve introducción al software, sus usos, características, los distintos tipos de análisis que nos permite realizar, como es el análisis de vientos, de cargas y de movimientos telúricos, entre otros.


CONCLUSIONES

A lo largo de las 7 semanas de investigación se puedo realizar investigaciones de carácter teórico, se utilizó el software Robot Estructural, con estos conocimientos adquiridos se genero una base investigativa bastante rica en características topográfica, sísmicas de la ciudad México, para finalizar toda esta investigación permitió realizar una retro alimentación de nuevos conocimientos y afianzar conceptos calves.
Acevedo Ruiz Maria Julieta, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Mg. Ever Ángel Fuentes Rojas, Universidad Libre

SISTEMA DE INFORMACIóN TURíSTICA EN BOYACá


SISTEMA DE INFORMACIóN TURíSTICA EN BOYACá

Acevedo Ruiz Maria Julieta, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Mg. Ever Ángel Fuentes Rojas, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

PLANTEAMIENTO DEL PROBLEMA En el departamento de Boyacá, Colombia, se encuentra el municipio de Turmequé, un lugar lleno de múltiples áreas verdes y páramos que nos ofrecen unas vistas inigualables, este municipio es rico en cultura e historia, dentro de sus iglesias podemos encontrar historias que nos remontan a sus tiempos de construcción y colonización, cuando recorremos este municipio podemos encontrarnos con su arquitectura colonial, la vejez de algunas de sus casas aún está presente. Además de ser un lugar para despejarnos de la multitud, también debemos de saber que es un municipio que cuenta con su bella cultura artesanal y degustar de su gastronomía es otro de los placeres que nos otorga Turmequé. Si bien, el municipio de Turmequé cuenta con todas estas y más atracciones, no es algo que la mayoría de la gente conozca debido a que se cuenta con un bajo nivel de publicidad e información acerca de todo este contenido. JUSTIFICACIÓN Esta investigación contribuirá a la visualización y futuro aprovechamiento de los Sistemas de Información Turística como entes promotores de la oferta turístico-recreativa del municipio de Boyacá y para la toma de decisiones por parte de las entidades gestoras sobre las posibles acciones de ordenamiento y planificación territorial que ejecutar para propiciar un desarrollo turístico sostenible tomando en cuenta sus fuertes atractivos y recursos. Un sistema de información turística también es una fuente encargada de recopilar, procesar, almacenar y distribuir información relevante sobre destinos turísticos, servicios, actividades y recursos relacionados con el turismo.   Este sistema se convierte en un elemento importante para la toma de decisiones en cada una de las etapas del proceso de planeación y administración del turismo ya que busca facilitar la planificación y gestión de viajes tanto para los turistas como para las organizaciones turísticas. Promoción del Turismo: Promocionar destinos turísticos al presentar de manera atractiva sus atractivos y servicios. Accesibilidad de Información: Proporciona información detallada y actualizada sobre destinos, hoteles, restaurantes, actividades, transporte y eventos. Optimización de Recursos: Permite a las empresas turísticas gestionar sus recursos de manera más eficiente, mejorando la calidad del servicio y la satisfacción del cliente. Toma de Decisiones: Proporciona datos y análisis que ayudan a las autoridades y empresas turísticas a tomar decisiones informadas sobre inversiones y estrategias de desarrollo turístico.



METODOLOGÍA

METODOLOGÍA Análisis de Requerimientos: Recolección de Datos: Realizar entrevistas y encuestas con usuarios potenciales para identificar sus necesidades y expectativas. Revisión de Sistemas Existentes: Analizar sistemas de información turísticos ya existentes para identificar mejores prácticas y áreas de mejora.  Diseño del Sistema: Desarrollo de la Base de Datos: Crear una base de datos robusta que almacene toda la información turística relevante, asegurando su accesibilidad y seguridad. Interfaz de Usuario: Diseñar una interfaz amigable e intuitiva que permita a los usuarios acceder y navegar por la información de manera eficiente. Desarrollo e Implementación: Integración de Servicios: Incorporar servicios adicionales como mapas interactivos, sistemas de reservas, y herramientas de búsqueda y filtrado. Pruebas: Realizar pruebas exhaustivas para garantizar el correcto funcionamiento del sistema, la integridad de los datos y la seguridad. Despliegue y Capacitación:  Instalación: Implementar el sistema en un entorno real, asegurando su accesibilidad desde múltiples dispositivos. Capacitación: Proporcionar formación a los usuarios finales y al personal de soporte para asegurar un uso efectivo del sistema. Mantenimiento y Actualización:   Retroalimentación y mejora continua: Recopilar información (feedback) de los usuarios para identificar áreas de mejora y actualizar el sistema en consecuencia a los resultados. Este enfoque metodológico asegura que el sistema de información turístico dado a conocer sea efectivo, eficiente y adaptable a las necesidades cambiantes del sector turístico. Para maximizar los beneficios de un sistema de información turística, es recomendable: Actualizar constantemente la información disponible para asegurar su relevancia y precisión. Fomentar alianzas estratégicas con empresas del sector turístico y tecnológico para mejorar y expandir los servicios ofrecidos. Involucrar a la comunidad local en la creación y promoción del sistema, garantizando que se reflejan auténticamente la cultura y las tradiciones del municipio.


CONCLUSIONES

CONCLUSIÓN Este sistema de información turística puede transformar significativamente la dinámica turística de Turmequé potenciando sus recursos y posicionándolo como un destino atractivo y competitivo. De manera conclusiva se puede decir que Turmequé es un prometedor destino turístico por su incontable riqueza cultural, historia e intangible patrimonio, una vez que se le den a este municipio los valores que merece, se den a conocer y se promuevan de la manera más ágil y correcta posible, será más fácil aumentar el turismo en Turmequé.  Una vez fomentando el turismo al municipio, será de gran apoyo para la sostenibilidad del mismo y su crecimiento económico como ingresos local.  
Acosta Cruz Ronny Xavier, Instituto Tecnológico de Puebla
Asesor: Mg. Jesus Jimenez Aguilar, Corporación Universitaria Americana

ANáLISIS DE RENTABILIDAD Y DISEñO DE SISTEMAS FOTOVOLTAICOS EN EMPRESAS: COMPARACIóN ENTRE SISTEMAS AUTóNOMOS E INTERCONECTADOS


ANáLISIS DE RENTABILIDAD Y DISEñO DE SISTEMAS FOTOVOLTAICOS EN EMPRESAS: COMPARACIóN ENTRE SISTEMAS AUTóNOMOS E INTERCONECTADOS

Acosta Cruz Ronny Xavier, Instituto Tecnológico de Puebla. Asesor: Mg. Jesus Jimenez Aguilar, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

Se analiza la rentabilidad y el diseño de sistemas fotovoltaicos autónomos e interconectados en empresas, con un enfoque práctico en una empresa farmacéutica en México. Se comparan ambos sistemas utilizando paneles solares monocristalinos de 550 W y se aplican modelos matemáticos y simulaciones en Matlab-Simulink para evaluar diferentes ángulos de instalación. El estudio incluye la determinación de irradiancia solar y cálculos de capacidad para baterías, controladores e inversores. Los resultados indican que el sistema interconectado ofrece ventajas significativas en términos de costos y recuperación de inversión a largo plazo, en comparación con el sistema autónomo. Este análisis proporciona una guía integral para la selección de sistemas fotovoltaicos eficientes y rentables en el ámbito empresarial.



METODOLOGÍA

La investigación se realizó de manera virtual, en continuación del artículo anterior de Modelado y simulación de paneles solares fotovoltaicos monocristalinos, la cual se realizó en el año 2023. para lo cual se consultaron diferentes artículos científicos para llegar a resolver la hipótesis del problema. Se comienza a plantear una empresa de grandes escalas de consumo energético para la evaluación y análisis de dos sistemas fotovoltaicos: autónomo e interconectado. Teniendo enfoque de una empresa farmacéutica Pzifer, se toma en cuenta el consumo energético de CFE, para posteriormente, obtener su ubicación, coordenadas y a partir de esos datos poder evaluar las condiciones climatologías y solares. Se realizan simulaciones de 1 y 1072 paneles solares fotovoltaicos monocristalinos para analizar el comportamiento de corriente—voltaje y potencia voltaje, se evaluaron a 3 angulos de inclinación de 72°, 45°, y 30° respectivamente con respecto del suelo. Se evalúan costos y beneficios para cada uno de los proyectos implementados y analizar cuál es más factible en términos monetarios.


CONCLUSIONES

Tras un análisis exhaustivo de los sistemas fotovoltaicos autónomos e interconectados, se determinó que la implementación de un sistema autónomo no es viable para la empresa Pfizer. Este sistema presenta una tasa de costo-beneficio de -0.84, con un costo total de $44,194,933.38 pesos mexicanos para un proyecto de autonomía de 5 días. En contraste, el sistema interconectado demuestra ser mucho más rentable, con una tasa de retorno del 25% y una tasa de costo-beneficio de 2.96, a un costo de $7,630,955.21 pesos mexicanos. Este sistema permite una recuperación rápida de la inversión en aproximadamente 6 años, generando beneficios sustanciales. Además, se proyecta un ahorro anual en costos energéticos de $1,587,771.87 pesos mexicanos, con una tasa de interés del 4.65%. Las simulaciones de corriente-voltaje y potencia-voltaje, tanto para un panel como para el parque solar de 1072 paneles, indican que la instalación es más eficiente con una inclinación de 72°, aunque una inclinación de 45° también es viable, pero con una ligera disminución en la eficiencia.   En conclusión, el sistema interconectado no solo es más rentable en términos de costos y beneficios, sino que también proporciona una solución sostenible y eficiente para satisfacer las necesidades energéticas de Pfizer, asegurando un aprovechamiento óptimo de la energía solar disponible.
Acosta Espinoza Angel Arturo, Instituto Tecnológico de Morelia
Asesor: Mg. Fernando Aricapa Palacio, Fundación Universitaria Tecnológico Comfenalco

ELABORACIóN DE UN PROTOTIPO DE COLECTOR SOLAR COMO ALTERNATIVA DE DESINFECCIóN DEL AGUA EN ZONAS NO INTERCONECTADAS A PARTIR DE LA ESTIMACIóN POTENCIAL ENERGéTICO SOLAR DISPONIBLE


ELABORACIóN DE UN PROTOTIPO DE COLECTOR SOLAR COMO ALTERNATIVA DE DESINFECCIóN DEL AGUA EN ZONAS NO INTERCONECTADAS A PARTIR DE LA ESTIMACIóN POTENCIAL ENERGéTICO SOLAR DISPONIBLE

Acosta Espinoza Angel Arturo, Instituto Tecnológico de Morelia. Cortes Curiel Sonia Getsemani, Universidad de Guadalajara. Santiago Maldonado Karla Jaquelin, Universidad Autónoma de Tamaulipas. Asesor: Mg. Fernando Aricapa Palacio, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

Las principales problemáticas relacionadas a las zonas rurales están asociadas a la contaminación del recurso hídrico y el saneamiento básico, las cuales representan altos costos por la prestación de servicios en la instalación de sistemas centralizados. Sin embargo, estas comunidades poseen diversos recursos y en especial potencial energético en radiación para implementar alternativas de solución. Desde la perspectiva de los objetivos de desarrollo sostenible, se espera que para el 2030, las comunidades rurales presenten una mejor calidad de vida, es por ello que se promueve el desarrollo rural integral, el cual es el conjunto de actividades que vinculan los agentes económicos, sociales y ambientales para satisfacer las necesidades básicas, haciendo uso de los recursos renovables.   Una de las actividades que promueve el desarrollo rural integral es la inclusión de soluciones energéticas no convencionales, la cual mediante su implementación ha logrado mejorar la gestión y aprovechamiento de los recursos en países en vías de desarrollo. Dadas estas condiciones se plantea la elaboración de un prototipo de colector solar que permita la desinfección del agua en las comunidades que no poseen sistemas de tratamiento. 



METODOLOGÍA

Dimensionamiento del colector solar cilíndrico parabólico  Los componentes principales de un CCP, son un concentrador o reflector, en forma de parábola, y un tubo receptor, ubicado en el eje focal de la parábola (Deebhesh et al., 2020). Para el dimensionamiento del concentrador se tomaron en cuenta algunos parámetros como el lado recto, Lr, ángulo de borde, ϕ, lado curvo, S, y la distancia focal, f.   Primero se seleccionó el lado recto, de 86.2 cm, y la distancia focal de 14 cm. A partir de ahí, los otros parámetros se calcularon utilizando las ecuaciones de Bharti y Paul (2017), determinando un ángulo de borde de 113.98°. Así mismo, se seleccionó el largo del colector de 1 metro. El diámetro mínimo calculado para el tubo receptor, fue de 4.36 mm. Sin embargo, se utilizó un tubo de 3.4 cm de diámetro.  Modelación de la eficiencia y transferencia de calor en el CCP  Como ya es conocido, los métodos de transferencia de calor son radiación, conducción y convección; a continuación, se enunciarán cómo se afectaron cada uno de ellos al CCP  Radiación: debido al ángulo de incidencia casi perpendicular durante el día, la radiación es el método predominante.   Conducción: ocurre en 2 momentos: el primero es la transferencia entre la superficie externa del cristal donde incide la radiación solar, hacia la superficie interna que está en contacto con el fluido de trabajo; y también debido al inevitable contacto del cristal receptor con el soporte del colector. En la bibliografía consultada se menciona una transferencia de calor del tubo receptor hacia el soporte, sin embargo, debido a las diferencias entre el colector analizado y el colector puesto en práctica se presentó una transferencia del soporte hacia el tubo receptor debido a una mayor temperatura del soporte causada por las propiedades del material del que está hecho.  Convección: debido a las condiciones ambientales, se puede decir que, en comparación con los otros métodos de transferencia, la convección tiene una muy baja influencia en el sistema en cuestión.  Validación de la eficiencia y perfil térmico longitudinal mediante prototipo experimental  Se realizaron pruebas experimentales durante tres días seguidos en un horario de 9:00 am hasta 12:00 pm, en proceso estacionario. Al iniciar las pruebas se orientó el CCP de este a oeste para obtener la mayor radiación solar, se colocó agua en el tubo de cristal y se tomó su temperatura inicial con ayuda de un pirómetro. La temperatura ambiente se obtuvo de los datos de la estación meteorología ubicada en la Universidad Tecnológica Comfenalco Sede España, la velocidad del viento se midió con ayuda de un anemómetro digital. Luego de haber contenido el flujo de manera fija se tomaron los datos cada 30 minutos después de la última prueba. 


CONCLUSIONES

Se pudo concluir que el prototipo tenía mejor rendimiento en los días con mayor radiación solar (despejados) y con menor velocidad de viento. Así mismo, se observó que entre mayor sean las horas de exposición, mayor será el aumento de la temperatura. Aunque los resultados obtenidos no fueron los deseados para la desinfección, se seguirá trabajando en la mejora del prototipo para dicho propósito. Adicionalmente, se realizarán pruebas microbiológicas para determinar si existe una disminución de bacterias y dentro de que rangos de temperatura se obtendrían los mejores resultados. 
Acosta Mora Violeta, Universidad de Guadalajara
Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional

SISTEMA DE RECONSTRUCCIóN Y DESPLIEGUE 3D CON CONTROL DE PERSPECTIVA SIN CONTACTO.


SISTEMA DE RECONSTRUCCIóN Y DESPLIEGUE 3D CON CONTROL DE PERSPECTIVA SIN CONTACTO.

Acosta Mora Violeta, Universidad de Guadalajara. García Herrera Edgar, Universidad de Guadalajara. Languren Giselle, Universidad de Guadalajara. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Actualmente, existen múltiples tecnologías de visualización y control de objetos y escenas 3D, como Microsoft y la red neuronal hNet, que se emplean principalmente para fines de investigación. El principal problema con las tecnologías existentes es su costo y poca accesibilidad, ya que están privatizadas. Esta situación impide que los avances en tecnologías 3D no puedan adquirirse en lugares y aplicaciones de impacto significativo, como escuelas, museos, hospitales, pequeñas y medianas empresas. En este proyecto se propone la creación de una interfaz holográfica que permita visualizar en tres dimensiones objetos digitalizados a través de la técnica de proyección de franjas, adicionalmente, el dispositivo propuesto estará equipado con sensores ultrasónicos para control de perspectiva del objeto a través de gestos manuales. La interfaz holográfica con control sin contacto podrá ser utilizada para mostrar objetos y manejarlos de forma dinámica e intuitiva, permitiendo a las personas aprender sobre diversos temas.



METODOLOGÍA

Digitalización 3D En este proyecto, se llevó a cabo la digitalización 3D de objetos mediante el uso de la técnica de luz estructurada conocida como proyección de franjas. Este proceso implicó la captura de imágenes del objeto desde diferentes perspectivas, utilizando un proyector, se desplegaron franjas de luz a frecuencias y amplitudes específicas sobre el objeto. Estas franjas permitieron determinar las coordenadas del objeto en los ejes x, y, z, basándose en la relación entre los puntos de la imagen obtenidos por la cámara, el objeto a digitalizar y el proyector. Para la digitalización 3D, fue necesario realizar un proceso de calibración previo, que consistió en capturar una serie de imágenes utilizando patrones de calibración, con el fin de determinar las matrices de parámetros intrínsecos (K), las matrices de rotación (R1, R2, …, Rn), y los vectores de traslación (t1, t2, …, tn), tanto del proyector como de la cámara.  Con la calibración finalizada, se procedió a la digitalización utilizando la proyección de franjas. Esta técnica involucró la toma de múltiples patrones de franjas variando frecuencia y fase, mismas que sirvieron como referencia para determinar a qué píxel de la cámara y a qué punto del proyector correspondía cada punto en el objeto a digitalizar. Los datos obtenidos se utilizaron para crear vectores de dirección basados en la información de la calibración, y estos permitieron triangular la profundidad del objeto. Finalmente, se calculó el promedio de la información RGB obtenida en todas las imágenes capturadas para recuperar el color del objeto sin las franjas proyectadas. Este procedimiento se realizó desde diferentes ángulos del objeto, obteniendo una nube de puntos que representa la digitalización 3D desde una perspectiva específica. Una vez obtenidos los modelos tridimensionales de todas las caras del objeto (en este caso, se trabajó con 21 ángulos diferentes), se procedió a la unión de las nubes de puntos. Al unir todas estas nubes, se logró una digitalización completa en 360 grados. Para el proceso de unir las 21 nubes de puntos obtenidas, fue necesario calcular la matriz de rotación y el vector de traslación. Esto se pudo realizar mediante diferentes métodos, uno de ellos consiste en la obtención de puntos de correspondencia, que son coordenadas que representan la misma información desde dos perspectivas diferentes (obtenidas manual o automáticamente). Con estos puntos, se calcula la matriz de rotación y su vector de traslación utilizando un algoritmo de optimización. No obstante, en este proyecto, se empleó el algoritmo ICP (Iterative Closest Point), que minimiza la diferencia entre dos nubes de puntos y proporciona la matriz de rotación y su vector de traslación sin necesidad de puntos de correspondencia. Con esta información, se calculó la alineación de puntos de una nube respecto a otra. Interfaz holográfica Después de digitalizar el modelo 3D, se diseñó una interfaz visual para desplegar el modelo. Para esto, se utilizó un prototipo constituido por una estructura de cartón y una lámina de acetato dispuesta a 45° respecto a la horizontal, de este modo al colocar el equipo de computo debajo de la lámina una parte del haz de luz proyectado fue absorbido por el acetato, aislando la proyección a la superficie de la lámina, dando una ilusión holográfica. Para la interfaz de control, se emplearon sensores ultrasónicos que miden la distancia mediante el uso de ondas ultrasónicas. El cabezal del sensor emite una onda ultrasónica y recibe la onda reflejada que retorna desde el objeto. Esta información se utilizó para calcular la dirección en la que se movía la mano del usuario tanto en el eje x como en el eje y. Este aditamento permite al usuario interactuar dinámicamente con el sistema manipulando la rotación del modelo 3D.


CONCLUSIONES

Mediante el desarrollo del presente proyecto se adquirieron aprendizajes relativos a las técnicas de luz estructurada, desde sus principios algebraicos hasta sus aplicaciones y limitaciones. La etapa de implementación se realizó la digitalización tridimensional de objetos. Posteriormente, se diseñó y construyó un dispositivo holográfico equipado con dos sensores ultrasónicos que permitieron manipular la perspectiva del objeto proyectado rotándolo sobre los ejes x y y, sin necesidad de contacto físico con la interfaz de control. Se procuró además que el prototipo final resultara económico, accesible e intuitivo tanto para la enseñanza como para la visualización de información y de procesos complejos, donde el manejo de una perspectiva tridimensional resultó funcional y beneficiosa para nuestra comunidad. Como trabajo a futuro, se plantea integrar el sistema propuesto al área educativa, cultural, e industrial, para este objetivo será necesario establecer mejoras tanto en el prototipado como en el sistema de control de perspectiva, así como automatizar el método de digitalización para una implementación óptima.
Acosta Rincon Kevin Santiago, Universitaria Agustiniana Uniagustiniana
Asesor: Dr. Ángel Gabriel Andrade Reátiga, Universidad Autónoma de Baja California

DESARROLLO DE ALGORITMOS QUE EFICIENTE EL USO DEL ESPECTRO RADIOELéCTRICO QUE UTILIZAN LAS REDES MóVILES


DESARROLLO DE ALGORITMOS QUE EFICIENTE EL USO DEL ESPECTRO RADIOELéCTRICO QUE UTILIZAN LAS REDES MóVILES

Acosta Rincon Kevin Santiago, Universitaria Agustiniana Uniagustiniana. Asesor: Dr. Ángel Gabriel Andrade Reátiga, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El espectro radioeléctrico, es un recurso finito y escaso que funciona desde los 0Hz hasta aproximadamente los 300GHz, lo que garantiza una protección contra la interferencia, permitiendo segmentarla en bandas bajas, bandas medias y bandas altas, estas son reguladas y distribuidas por un ente regulador según cada país, en donde en cada banda se encuentran diferentes tecnologías, ya sea desde la comunicación móvil hasta la televisión. Actualmente es difícil encontrar bandas libres en el espectro, ya que la asignación se realiza de manera fija, lo que por un lado permite obtener mayor seguridad y mantener una armonización, pero del mismo modo no existen bandas libres para nuevas tecnologías, empezando así la búsqueda de alternativas que puedan cubrir con esta necesidad, mas aun con la llegada del 5G, la cual utiliza frecuencias de 700MHz y 3.5GHz.. Pero han surgido varias alternativas, como solución a la escasez de bandas libres, en el verano de investigación analizamos e investigamos un espectro radioeléctrico dinámico, y otras posibles soluciones, centrándonos en la red móvil, tanto en el 5G como en el 6G 



METODOLOGÍA

Como inicio, se realizó una conceptualización, en donde se comprendió una red celular como una red inalámbrica que habilita el intercambio de datos entre dispositivos usando señales de radio de baja potencia, por lo cual la calidad es trascendental en la red celular, esta variable es medida mediante la relación de señal ruido, entre mayor es el valor, mejor será la calidad, por lo contrario si es más pequeño, se refiere que hay más ruido que señal, lo que se desea es buscar reducir el ruido, mas no aumentar la potencia. A partir de esta contextualización se realiza una investigación sobre la tecnología 6G, realizando una investigación de esta tecnología, observando los avances, su historia, como aportan a la sociedad, sus bandas de frecuencia, cuales son los actuales problemas entre otras cuestiones, como el espectro, como se mencionó anteriormente, es muy difícil encontrar bandas de frecuencia libres, por lo cual el Dr. Ángel Andrade, propone una asignación del espectro de manera dinámica, esto es posible gracias a que las bandas no siempre se encuentran ocupadas, gran parte del tiempo las bandas se encuentran vacías, la posible solución es la utilización de inteligencia Artificial para las redes móviles, atendiendo las nuevas tecnologías, en donde se aproveche de la mejor manera el espectro, usando las bandas cuando se encuentran vacías, asignando la señal según la banda libre. Otra solución, es la banda 6Hz, esta banda se pensó primordialmente para el Wifi 6, ya que, al ser la única señal en esta banda, permite mejorar la calidad de la señal, el intercambio de datos, permitiría también más usuarios en la red, pero también se encuentra la posibilidad de la utilización de esta banda para diversas tecnologías, entre ellas el 5G, es un tema que sigue en discusión, ya que países, como Brasil y china están realizando pruebas para poder usar esta banda para el 5G, mientras otros países la usaran para el Wifi las señales que se propagan desde la radio base al usuario móvil, estas se van atenuando según la distancia, siendo un efecto natural de la propagación, entre mas alta sea la frecuencia, se atenúa mucho más rápido, ya que su longitud de onda es mas pequeña, por ende, va a sufrir mucho mas rápido la atenuación, es por esto que las longitudes de ondas grande pueden recorrer mucho más. En las comunicaciones móviles existen redes heterogéneas, en donde se encuentra una macro celda, dentro de ellas celdas y dentro de ella pico celdas como en el caso del wifi, entre mas grande la celda, tiene mas cantidad de usuarios, necesitando mas potencia o menos interferencia, para ello se ha ideado una red con antenas inteligentes, MIMO, que enfoca directamente al usuario que esta consumiendo el servicio y saca a los usuarios que no, con esto reduce la interferencia y mejora la velocidad, la propagación es parte fundamental, las señales llegan a nuestros dispositivos de dos maneras, una es de manera directa, la cual se refiere a que la señal no choca con ningún objeto, mientras que la segunda es por reflexión, se refiere que la señal choca con varios elementos, recibiendo el dispositivo varios fragmentos de la misma señal, este fenómeno es conocido como multitrayectoria, por lo cual el dispositivo lo que hace, es retardar la señales, luego las junta y las amplifica, es por esto que se trabajan frecuencias bajas, ya que tiene mejor recepción, Por esto se han creado modelos de propagación, existiendo modelos básicos y muy concretos, como son el modelo de Friss y el modelo de Tierra plana, pero también existen modelos más especializados y complejos, los cuales se realizan por medio de simulaciones, en donde se tiene en cuenta muchos aspectos, como el viento, la temperatura, los edificios, las personas, la humedad, y muchas propiedades que pueden llegar a afectar a la propagación de la señal,. Para estos y otros modelos es difícil encontrar una ecuación que incluya todos los factores, solo se pueden realizar estimaciones, también los modelos de propagación no siempre funcionan para todos los ámbitos, ya que cada lugar es diferente Como solución, existe la posibilidad de crear un modelo de propagación según cada situación, contexto o ambiente en el que nos encontremos. A través de esto pudimos crear nuestro modelo de propagación según las condiciones, usando el lenguaje de programación de Python referenciando nuestro modelo, y comparándolo con diversos modelos


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre redes móviles, espectro radioeléctrico, propagación, nuevas tecnologías, del mismo modo, se logro crear nuestro propio modelo de propagación, se incentivó la investigación, fue un proceso muy satisfactorio y enriquecedor , aunque no se dio como finalizado por completo el estudio del proyecto, ya que necesita mucha conceptualización y conocimientos previos, del mismo modo es un tema muy extenso, y se necesitan varios conceptos, ya que su impacto es trascendental, para la evolución de la humanidad y tecnologia
Acuña Arciniegas Slendy Zareth, Universidad de Investigación y Desarrollo
Asesor: Mtra. Alexandra Espinosa Espinosa, Universidad Católica de Cuenca

TRANSFORMACIONES SOCIOAMBIENTALES DE LA EXPANSION URBANA EN CUENCA, ECUADOR


TRANSFORMACIONES SOCIOAMBIENTALES DE LA EXPANSION URBANA EN CUENCA, ECUADOR

Acuña Arciniegas Slendy Zareth, Universidad de Investigación y Desarrollo. Asesor: Mtra. Alexandra Espinosa Espinosa, Universidad Católica de Cuenca



PLANTEAMIENTO DEL PROBLEMA

La expansión urbana en Cuenca, Ecuador, se ha caracterizado por un crecimiento acelerado y descontrolado que no ha sido acompañado por una planificación adecuada, lo que ha generado una serie de problemas socioambientales críticos. Este fenómeno ha llevado a la ocupación de áreas de riesgo, como zonas propensas a deslizamientos e inundaciones, poniendo en peligro la seguridad de los residentes. Además, la poca infraestructura y servicios básicos adecuados han contribuido a la desigualdad social, limitando el acceso a recursos esenciales y afectando la calidad de vida de la población. A pesar de las mejoras en ciertos aspectos de la infraestructura, persisten deficiencias en la gestión del crecimiento urbano, lo que resulta en asentamientos desordenados y una incompatibilidad en el uso del suelo. La pérdida de suelos agrícolas y espacios naturales, junto con la creciente densidad poblacional en áreas vulnerables, plantea un desafío urgente para la sostenibilidad y habitabilidad de la ciudad. Por lo tanto, es fundamental investigar y comprender las dinámicas de la expansión urbana en Cuenca, así como sus implicaciones, para desarrollar estrategias de planificación que promuevan un desarrollo urbano más sostenible y equitativo.



METODOLOGÍA

La investigación sobre la expansión urbana en Cuenca, Ecuador, se fundamentó en una metodología mixta que combina enfoques cualitativos y cuantitativos, permitiendo un análisis integral de la problemática. Esta metodología se dividió en dos etapas principales: la recolección de datos y el análisis de datos. 1. Recolección de Datos En la primera etapa, se utilizó una ficha de observación como herramienta principal para el levantamiento de información. Esta herramienta fue diseñada para minimizar el sesgo subjetivo y proporcionar una guía clara durante el proceso de recolección. A través de la ficha de observación, se recopiló información sobre el crecimiento urbano, la disponibilidad de espacios públicos, la infraestructura existente y los aspectos socioambientales en las diferentes zonas de estudio. Además, se llevaron a cabo encuestas a residentes para evaluar su percepción sobre el entorno urbano y la calidad de vida en sus áreas de residencia. Estas encuestas incluyeron preguntas sobre la accesibilidad a servicios básicos, la seguridad en el vecindario y la satisfacción general con el entorno urbano. La combinación de datos cualitativos y cuantitativos permitió obtener una visión más completa de la situación en Cuenca. 2. Análisis de Datos En la segunda etapa, los datos recolectados fueron procesados utilizando estadística descriptiva, lo que facilitó la organización, resumen y visualización de la información. Se generaron tablas y gráficos que representaron de manera clara los hallazgos, permitiendo identificar patrones y tendencias en el crecimiento urbano y sus efectos en la calidad de vida. Para el análisis espacial, se aplicó georreferenciación mediante Sistemas de Información Geográfica (SIG). Esta técnica permitió mapear la ubicación de los datos recolectados y realizar un análisis espacial detallado, lo que facilitó la identificación de áreas de riesgo y la evaluación de la distribución de servicios e infraestructura en relación con la expansión urbana. Esta metodología integral permitió no solo evaluar la habitabilidad en conjuntos residenciales, sino también comprender las dinámicas de la expansión urbana en Cuenca y sus implicaciones para la planificación y desarrollo sostenible de la ciudad.


CONCLUSIONES

Durante la estancia de verano y en el desarrollo de esta investigación se logró adquirir un entendimiento profundo sobre las incidencias de la expansión urbana en Cuenca, aplicando técnicas de análisis espacial y georreferenciación para evaluar su impacto en el entorno socioambiental. Concluyendo que la expansión descontrolada ha resultado en la pérdida significativa de suelos agrícolas, lo que no solo afecta la producción local de alimentos, sino que también contribuye a la degradación del paisaje natural. Además, se observó una fragmentación del tejido urbano, que ha llevado a una distribución desigual de servicios e infraestructura, resultando en una segregación socioespacial y afectando negativamente la calidad de vida de los residentes. También, se identificaron problemas relacionados con la falta de espacios públicos y áreas verdes, lo que limita las oportunidades de recreación y socialización para la población. Estos hallazgos resaltan la necesidad urgente de implementar políticas de planificación urbana más sostenibles y equitativas, que no solo aborden los desafíos derivados de la expansión urbana, sino que también promuevan un desarrollo más armonioso con el entorno. Es  fundamental que los planificadores urbanos establezcan estrategias que prioricen la integración social, la protección del medio ambiente y el bienestar de la comunidad para un crecimiento urbano continuo.
Acundo Tellez Xochitl, Universidad Tecnológica de Xicotepec de Juárez
Asesor: Post-doc Jose Luddey Marulanda Arevalo, Universidad Tecnológica de Pereira

CARACTERIZACIÓN DE RECUBRIMIENTOS DUROS APLICADOS POR SOLDADURA SMAW: EVALUACIÓN POR DESGASTE ABRASIVO BAJO NORMA TECNICA ASTM G-65.


CARACTERIZACIÓN DE RECUBRIMIENTOS DUROS APLICADOS POR SOLDADURA SMAW: EVALUACIÓN POR DESGASTE ABRASIVO BAJO NORMA TECNICA ASTM G-65.

Acundo Tellez Xochitl, Universidad Tecnológica de Xicotepec de Juárez. Avila Pérez Esmeralda, Universidad Tecnológica de Xicotepec de Juárez. Cervantes Arellano Samantha, Instituto Tecnológico de Morelia. Lemus Chávez Martín, Instituto Tecnológico de Morelia. Zacarias Rocha Osbaldo, Instituto Tecnológico de Morelia. Asesor: Post-doc Jose Luddey Marulanda Arevalo, Universidad Tecnológica de Pereira



PLANTEAMIENTO DEL PROBLEMA

Los aceros juegan un papel fundamental en la vida útil de las herramentas que son sometidos a distintos trabajos; es por eso que la aplicación de estos recubrimientos es de ayuda importante para mejorar las propiedades mecánicas que requerimos ayudando a alargar su vida util, de esta manera podemos ahorrar capital.



METODOLOGÍA

Se aplicaron 2 tipos de recubrimientos duros Gridur 600 y Gridur 350, además de un electrodo de aporte E 6011 a  placas de acero de bajo carbono para posteriormete a estos recubrimientos y electrodo aplicarles prubeas de dureza Rockwell , aplicar pruebas de de desgaste abrasivo en una máquina que cumple con la Norma Técnica ASTM G-65 y finalmente realizar pruebas de cacterizacion. 


CONCLUSIONES

Con los datos obtenidos apartir de las pruebas podemos concluir que es muy importante saber a que trabajo sera sometidos nuestros aceros, la dureza que buscamos siempre se encontraran apartir de aplicar varias capas de recubrimiento esto es porque en la primera capa siempre encontraremos una mezcla de composicion del acero base con recubrimiento mientras en la tercera capa en su mayoria encontraremos un % de recubrimiento mayor aportando mayores durezas.
Agudelo Salgado Elkin Mauricio, Institución Universitaria Esumer
Asesor: Mtra. Ivon Sanchez Contreras, Universidad Tecnológica Fidel Velázquez

LOGISTICA 4.0 COMO SOPORTE DE SATISFACCIóN AL CLIENTE


LOGISTICA 4.0 COMO SOPORTE DE SATISFACCIóN AL CLIENTE

Agudelo Salgado Elkin Mauricio, Institución Universitaria Esumer. Garcia Lara Itzayana, Instituto Tecnológico de Ciudad Juárez. Asesor: Mtra. Ivon Sanchez Contreras, Universidad Tecnológica Fidel Velázquez



PLANTEAMIENTO DEL PROBLEMA

Investigar del 17 de junio al 2 de agosto cómo la logística 4.0 puede ser utilizada para dar soporte y mejorar la satisfacción del cliente en la cadena de suministro, identificando sus beneficios y costos logísticos. Para ello, se llevará a cabo un estudio de caso en una empresa del sector logístico (Industrias Haceb S.A.) quien ha implementado estas tecnologías, con el fin de identificar si es rentable y útil llevar a cabo esta transformación digital en el área del servicio al cliente.



METODOLOGÍA

Se va a interpretar por medio de entrevistas, cómo la empresa Industrias Haceb S.A. ha incorporado la Logística 4.0 para mejorar la satisfacción de sus clientes. Este enfoque cualitativo permitirá obtener información detallada y significativa sobre las herramientas de logística 4.0 utilizadas, así como también las experiencias, percepciones de los involucrados en el proceso y los costos que conlleva el mantenimiento de estas.


CONCLUSIONES

Por medio de un analisis de los datos obtenidos por medio de la entrevista, se hizo una comparacion entre gastos mensuales utilizados para mantenimiento y sostenimiento de las plataformas y el nivel de servicio alcanzado. Asi observamos que los gastos mensuales no son elevados  y el nivel de servicio alcanzado es óptimo, por lo que ambos van a la par dando rentabilidad a las herramientas de logistica 4.0 utilizadas en la empresa Haceb S.A.
Aguilar Aviles Sharon Guadalupe, Instituto Tecnológico Superior de Guasave
Asesor: Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez

APLICACIóN AVANZADA DE IA PARA LA PREDICCIóN PRECISA DE TIEMPOS EN COMPETENCIAS DE ATLETISMO


APLICACIóN AVANZADA DE IA PARA LA PREDICCIóN PRECISA DE TIEMPOS EN COMPETENCIAS DE ATLETISMO

Aguilar Aviles Sharon Guadalupe, Instituto Tecnológico Superior de Guasave. Pinzon Huaza Nicolas, Universidad Cooperativa de Colombia. Asesor: Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Uno de los principales problemas en las competencias de velocidad en el atletismo es la falta de un enfoque sistemático y basado en datos para optimizar el entrenamiento de los atletas. A pesar de que los Juegos Olímpicos de Verano son un evento que atrae a millones de espectadores y a numerosos apostadores en las pruebas de velocidad, muchos programas de entrenamiento no logran maximizar las capacidades físico-atléticas de los corredores. Los tiempos de los ganadores en estas competencias han mostrado una tendencia a disminuir de forma exponencial, lo que hace que la victoria sea cada vez más difícil sin un sistema avanzado de análisis de información. Investigaciones actuales en el ámbito del aprendizaje automático (Machine Learning) han demostrado que estos sistemas pueden proporcionar un entrenamiento óptimo para los atletas, permitiéndoles mejorar significativamente sus habilidades. Sin embargo, hasta ahora, muchos entrenadores y equipos no han adoptado completamente estas tecnologías. La falta de implementación de sistemas basados en machine learning limita la capacidad de los atletas para predecir y alcanzar los tiempos necesarios para clasificarse en las finales o ganar competencias de alto rendimiento. La ausencia de un sistema de análisis de información eficaz impide que los atletas determinen con precisión los tiempos objetivos que deben alcanzar para tener éxito en sus carreras. Esto subraya la necesidad de integrar tecnologías avanzadas en el entrenamiento de velocidad para ayudar a los atletas a mejorar sus rendimientos y aumentar sus posibilidades de subir al podio en los eventos más prestigiosos del mundo.



METODOLOGÍA

En este estudio, se propuso recopilar los datos para las pruebas de 100, 200 y 400 metros planos de los Juegos Olímpicos de Verano, abarcando el período desde 1968 hasta 2021 (ya que a partir de 1968 se comenzaron a registrar los tiempos con cronómetros digitales). Estos datos se obtuvieron de la página oficial de los Juegos Olímpicos y, mediante una investigación de las bases de datos proporcionadas por dicho sitio, se permitió recopilar información que incluye tiempos, años, sedes, entre otros, obteniendo un conjunto de tiempos digitales que se utilizaron para el análisis y la aplicación de modelos predictivos. Posteriormente, se realizó el tratamiento de los datos. Los tiempos recolectados se dividieron en dos categorías: femenino y masculino. A su vez, los datos se organizaron por el tipo de medalla (oro, plata y bronce), y se estructuraron en cuatro columnas: año, tiempo oro, plata y bronce, dependiendo de la distancia en metros. Toda esta información se transfirió de Excel a CSV, separado por comas, y se graficó un histograma para visualizar la distribución de los tiempos. Para analizar los datos CSV, se utilizaron varios modelos predictivos supervisados, incluidos el Random Forest, K-Nearest Neighbors (KNN), el Árbol de Decisión y la Regresión Lineal. Se cargaron las bibliotecas necesarias, como pandas, numpy y sklearn, y se leyó un archivo CSV que contenía diferentes datos de tiempo. Se extrajo 'X' como variable característica y los tiempos de medalla de oro, plata y bronce como variables objetivo (y_gold, y_silver, y_bronze). Para garantizar una evaluación precisa, se dividieron los datos en conjuntos de entrenamiento y validación con una proporción 80-20. Para cada tipo de medalla, se definieron y entrenaron modelos específicos. Estos modelos se evaluaron utilizando métricas como el error cuadrático medio (MSE), el error absoluto medio (MAE) y el coeficiente de determinación R2. Dentro de la representación visual de los resultados y el desempeño de los modelos utilizados, se consideraron varias gráficas. La gráfica de dispersión se empleó para representar el modelo de Bosque Aleatorio, permitiendo observar la distribución de los datos y las predicciones realizadas por este algoritmo. Por otro lado, se utilizó el gráfico de caja, la matriz de confusión y el gráfico de barrera de decisión para el modelo K-Nearest Neighbors (KNN), proporcionando una visión detallada de la dispersión de los datos, la precisión de las predicciones y las zonas de decisión del modelo. Finalmente, los modelos de Regresión Lineal y Árbol de Decisión se representaron visualmente mediante un árbol de decisión, facilitando la interpretación de las decisiones tomadas por estos algoritmos y su relación con las variables predictoras. Además, se calcularon estadísticas descriptivas, incluyendo la media, la desviación estándar y los intervalos de confianza, para los tiempos asociados con cada medalla.


CONCLUSIONES

En esta investigación, se desarrolló un modelo de inteligencia artificial para predecir los tiempos de los atletas en las pruebas de velocidad de 100, 200 y 400 metros en las próximas Olimpiadas de Verano. Utilizando datos históricos de los Juegos Olímpicos desde 1968 hasta 2021, se entrenaron cuatro algoritmos supervisados (Random Forest, K-Nearest Neighbors, árbol de decisión y regresión lineal) para estimar los tiempos de los ganadores. La precisión de los modelos se benefició del uso de cronómetros digitales, introducidos en 1968, lo que permitió minimizar errores humanos en la medición de los tiempos. En la construcción de un modelo predictivo para las pruebas de 100, 200 y 400 metros planos masculinas y femeninas, se utilizó Google Colab para facilitar la experimentación con diferentes algoritmos. Para las pruebas masculinas, la Regresión Lineal fue la mejor opción para 100 y 200 metros, mientras que Random Forest se destacó en los 400 metros. En las pruebas femeninas, K-Nearest Neighbors (KNN) fue más preciso para 100 y 400 metros, y Random Forest para 200 metros. La precisión de estos modelos fue validada usando métricas como MSE, MAE y R², destacando que Random Forest ofreció un rendimiento excepcional hasta considerarse el mas adecuado.
Aguilar Fragoso Damaris, Instituto Politécnico Nacional
Asesor: Dr. Isidro Isidro Arguello, Universidad Iberoamericana, Ciudad de México

LOGíSTICA INTELIGENTE APLICADA A SISTEMAS DE DISTRIBUCIóN


LOGíSTICA INTELIGENTE APLICADA A SISTEMAS DE DISTRIBUCIóN

Aguilar Fragoso Damaris, Instituto Politécnico Nacional. Asesor: Dr. Isidro Isidro Arguello, Universidad Iberoamericana, Ciudad de México



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, la industria de bebidas gaseosas ha experimentado un notable crecimiento a escala global. En 2022, el mercado mundial de refrescos alcanzó un valor aproximado de 489.500 millones de dólares estadounidenses y se espera que supere los 757.500 millones para 2030. México encabeza el consumo per cápita de refresco, seguido de Estados Unidos y Brasil en tercer lugar. El conjunto de empresas mexicanas dedicadas a la producción y comercialización de bebidas no alcohólicas generan más de 1.9 millones de empleos en toda la cadena de valor en México y un valor de producción superior a 1.15 billones de pesos, equivalente a 3.1% del PIB total. De 2012 a 2016, los activos fijos aumentaron en promedio un 22%, mientras que la inversión extranjera directa creció un 12.8%. Esto consolida a la industria refresquera como una de las principales áreas de inversión en el país. Actualmente, las empresas buscan minimizar los costos de operación en cada una de sus áreas, incluyendo la gestión de almacenes e inventarios, elementos clave en la red logística. Esto les permite ser más competitivas, reducir costos de operación, ofrecer mejores precios al mercado, aumentar la satisfacción del cliente y, por ende, crear mayor rentabilidad f inanciera. Por lo tanto, es crucial proponer mejores estrategias de distribución para reducir los costos asociados. Debido a lo anterior, durante el verano de investigación se realizó una revisión bibliográfica sobre temas relacionados a ergonomía en los centros de trabajo y sus costos, logística inteligente, redes de distribución, diseño de almacenes, el concepto del almacén cross docking y su relación con el estudio de caso en desarrollo del sistema de distribución de un grupo embotellador.  



METODOLOGÍA

La metodología empleada en este estudio comienza con un análisis de los antecedentes y alcances presentes de la línea de investigación titulada Logística inteligente aplicada a sistemas de distribución. Además de un estudio detallado de los procesos dentro de los almacenes y la red logística del grupo embotellador en cuestión, con el objetivo claro de definir una propuesta de rediseño, haciendo uso de softwares especializados. Se llevo a cabo una investigación documental exhaustiva que abarca la estrategia logística de "Cross-docking" ampliamente utilizada en las redes logísticas, así como el estudio del "Levantamiento de cargas, ergonomía y costos", considerado un tema importante dentro de los centros de distribución donde se implementa esta estrategia. De igual forma, se realizó la documentación pertinente sobre la relevancia de la "Logística inteligente" y el Diseño de redes de distribución y almacenes. Adicionalmente se diseñaron diagramas que comparan de forma clara los procesos en el estudio de caso y lo que se pretende lograr con la implementación de la estrategia en desarrollo. En la presente investigación el objetivo fue ofrecer recomendaciones para mejorar la gestión logística mediante estrategias inteligentes de diseño y distribución de almacenes. Un almacén cross-docking convencional, se configura como un edificio rectangular grande con numerosas puertas de muelle a lo largo de su perímetro. En este caso, el grupo embotellador optó por adoptar almacenes tradicionales y convertirlos en macrocentros que desempeñan la función de cross-docking dentro de la red de distribución. Como parte de la metodología, se desarrolla una estrategia específica para determinar la ubicación óptima de unidades de alta demanda dentro del almacén, basada en el número de desplazamientos diarios de los operadores. Finalmente, se trabaja en evaluar el impacto de implementar la estrategia de descomposición en el sistema de distribución del grupo embotellador y comparar los beneficios de utilizar almacenes tradicionales convertidos en macrocentros de cross-docking versus los almacenes cross-docking convencionales en términos de eficiencia y costos. Además, se analizan las decisiones estratégicas relacionadas con la inversión en infraestructura logística y la importancia de la ergonomía en los centros de trabajo, así como los costos que implica para las empresas. Considerando de esta manera que el proceso sea sostenible, buscando que los costos de la cadena de suministro sean menores y asegurando la seguridad de los trabajadores a través del estudio ergonómico. 


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre los sistemas de distribución actuales, explorando sus antecedentes y alcances, así como su relación con aspectos operativos y financieros. El objetivo fue proponer un nuevo diseño de red de distribución que minimizara los desplazamientos dentro de los almacenes, mejorara los procesos y redujera costos de trasportación internos, utilizando la infraestructura existente.
Aguilar Juárez Leonardo, Universidad Tecnológica de Tecamachalco
Asesor: Dr. Hugo Gaspar Hernández Palma, Corporación Universitaria Latinoamericana

REVISION DOCUMENTAL EN EL USO DE ENERGIA RENOVABLES PARAR SERVICIOS DE SALUD EN EQUIPOS MEDICOS ESPECIALIZADOS


REVISION DOCUMENTAL EN EL USO DE ENERGIA RENOVABLES PARAR SERVICIOS DE SALUD EN EQUIPOS MEDICOS ESPECIALIZADOS

Aguilar Juárez Leonardo, Universidad Tecnológica de Tecamachalco. Melchor López Miguel Angel, Universidad Tecnológica de Tecamachalco. Asesor: Dr. Hugo Gaspar Hernández Palma, Corporación Universitaria Latinoamericana



PLANTEAMIENTO DEL PROBLEMA

Es crucial abordar la problemática de la dependencia del consumo energético generado dentro de hospitales provocando una mayor dependencia de las energías fósiles para el uso de equipos médicos que llegan a ser utilizados dentro de los hospitales provocando una demanda de energía excesiva a redes eléctricas. Al ser esta su única fuente energía para poder seguir su función provocando no voltear a ver o no recurrir a otras fuentes de energías que existen actualmente, siendo una de ellas la energía solar fotovoltaica una fuente alternativa de energía limpia, confiable e inagotable ya que proviene de la fuente de luz más grande que existe la luz solar. Siendo una fuente funcionan cumpliendo con suministrar la energía para la operación de dichos equipos mitigando el consumo de la energía fósil dentro del hospital y a su vez contribuyendo con el medio ambiente. Al ser una energía nueva y que se está consolidando dentro del ámbito hospitalario la energía solar no cuenta con la confianza o respaldo de los hospitales siendo las clínicas rurales las que usan y fomentan su implementación de las energía renovables para su operación por lo que dentro de hospitales por lo que no se sienten seguros de apostar por nuevas alternativas de suministrar energía a sus equipos de trabajo solo subsistiendo con plantas de emergencia y de energía fósil para sus labores y actividades dentro del mismo. Por ende, al no tener conocimiento de este y por el poco énfasis en que este hace en la implementación a los hospitales estos no terminan de confiar en su uso de operación para equipos. No es tomada en cuenta ya que requiere de una inversión inicial alta, esta inversión inicial es recuperada en un cierto periodo de tiempo y es más factible y rentable a la energía eléctrica que comúnmente es utilizada en los hospitales. Son complejos con un alto consumo energético debido a su operación ininterrumpida a lo largo de todos los días del año. Además, la constante demanda de energía, el uso de equipamiento médico especializado, contribuyen a que su consumo de energía sea considerablemente superior al de otros tipos de edificaciones dentro del sector terciario. Buscando la implementación de la energía solar en el sector hospitalario centrándonos en los equipos especializados disminuyendo la carga que estos demandan en el consumo energético.



METODOLOGÍA

Para el desarrollo de este proyecto de investigación, se utilizó información confiable y real acerca del estado de la implementación de paneles solares fotovoltaicos en el sector salud, así como los consumos de energía eléctrica y costos asociados al funcionamiento en prestar los servicios de salud. De tal modo, se plantea que esta revisión documental pueda dar información con fundamentos verídicos. En la elaboración de esta revisión documental se realizó una tabla  donde se hizo una exhaustiva búsqueda de artículos relacionados a energía solar fotovoltaica y su impacto dentro de hospitales. Con el propósito de realizar esta búsqueda es analizar y proporcionar información sobre el uso de la energía solar. Haciendo una búsqueda en diferentes bases de datos donde se adquieren artículos y revistas con relación al tema en cuestión haciendo así la búsqueda sea más rápida y la información sea sustentada. Al iniciar con esta revisión documental se busca proporcionar información  al sector hospitalario que cuente con los equipos médicos especializado que estos les genere un consumo excesivo por la alta demanda de estos equipos al ser utilizados, también es dar a conocer al sector salud una forma de utilizar la misma naturaleza ya que es un recurso inagotable y podemos utilizarla a nuestro favor en nuestro día a día, reduciendo costos de energía eléctrica convencional y del mismo modo   aprovechar la energía solar fotovoltaica.


CONCLUSIONES

En esta revisión documental investigamos la importancia de la implementación de paneles solares, dentro de hospitales que trabajan con equipos médicos de alto consumo de energía y su demanda es grande provocando una mayor contaminación al medio ambiente y lo que esto provoca. Al realizar esta investigación se busca que los hospitales y centros de salud puedan contemplar como una opción viable el uso de energía renovable como lo  es la fotovoltaica logrando así reducir la carga que estos generan y poder minimizar el costo que esta demanda energética, de esta manera cuidar el medio ambiente y por su parte un ahorro económico dentro de los mismos hospitales.
Aguilar Montes Sabine Michelle, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Christian Abraham Dios Castillo, Universidad Tecnológica del Perú

IMPLEMENTACIóN DE TECNOLOGíAS E-COMMERCE PARA MIPYMES DE GASTRONOMíA.


IMPLEMENTACIóN DE TECNOLOGíAS E-COMMERCE PARA MIPYMES DE GASTRONOMíA.

Aguilar Montes Sabine Michelle, Instituto Tecnológico Superior de Apatzingán. Salgado Sandoval Edward, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Christian Abraham Dios Castillo, Universidad Tecnológica del Perú



PLANTEAMIENTO DEL PROBLEMA

Proyectos complementarios:  La implementación de una plataforma de prueba de comercio electrónico, conlleva a capacitar a los usuarios potenciales en el uso de tecnologías de información. Por esa razón, se obtuvieron resultados en los siguientes proyectos de investigación, conexos al presente:  Implementación de tecnologías e-commerce para mipymes de gastronomía. Resultados de investigación en Ingeniería de Sistemas e Informática Modelo Tecnológico andragógico para optimizar el rendimiento académico estudiantil universitario en escenarios pandémicos.  Percepción y prácticas evaluativas de los docentes universitarios



METODOLOGÍA

Implementación de tecnologías e-commerce para mipymes de gastronomía. Resultados de investigación en Ingeniería de Sistemas e Informática El objetivo de investigación es implementar tecnologías ecommerce en las MiPyME de gastronomía que permitan la productividad y competitividad en la ciudad de Chiclayo. Descripción General del Proyecto Ecommerce principal: Muestra categorías, productos, login de clientes, carrito de compras, formas de pago. Plataforma de gestión: Gestor de productos, clientes, usuarios y roles, pedidos, ventas y reportes, análisis de ventas. Percepción y prácticas evaluativas de los docentes universitarios La educación universitaria tiene entre sus objetivos formar a la juventud en las competencias profesionales que aseguren su éxito en su vida laboral; actualmente, para evaluar los aprendizajes de estas competencias se continúa clasificándose, usando exámenes escritos.  El primer objetivo se logró usando el enfoque cuantitativo a través del cuestionario ActEval y el cualitativo mediante el análisis documental. Los hallazgos respecto a la percepción de los docentes indican que ellos valoran la importancia de la evaluación y tienen las competencias para llevarlas a la práctica, sin embargo, reconocen no llevarlas a la práctica frecuentemente.   Modelo Tecnológico andragógico para optimizar el rendimiento académico estudiantil universitario en escenarios pandémicos​ Problemática Los sujetos investigados son adultos que estudian y trabajan y afirmaron que poseen escaso conocimiento sobre el manejo de las herramientas tecnológicas, presentan problemas de salud, algunos cursos como inglés son difíciles de comprender por la modalidad on line, también manifiestan que tienen saturación de conectividad, equipos y programas informáticos de Microsoft office desfasados. ​ Objetivos Diagnosticar el rendimiento académico en diversas dimensiones del programa de estudiantes universitarios de carreras de gente que trabaja en escenario pandémico.​ Diseñar el Modelo Tecnológico andragógico para optimizar el rendimiento académico estudiantil universitario en escenarios pandémicos.​


CONCLUSIONES

Implementación de tecnologías e-commerce para mipymes de gastronomía. Resultados de investigación en Ingeniería de Sistemas e Informático Los resultados obtenidos respecto a las prácticas de evaluación son los siguientes: Las tareas evaluativas que se describen en los 30 sílabos seleccionados en la revisión documental se agrupan en las siguientes categorías: examen parcial, examen final, práctica calificada, proyecto, participación en clase, tarea de investigación y sustentación oral. Los sílabos analizados fueron codificados y analizados utilizando la siguiente tabla, indicando en cada uno, las tareas evaluativas halladas en el documento. La tarea con mayor porcentaje es la práctica calificada (73%), seguida de la  participación en clase (67%), en el tercer lugar, el proyecto (60%). Les siguen el examen final y el proyecto con el mismo porcentaje (40%) y en los últimos lugares, el examen parcial (33%) y la sustentación oral (30%). Percepción y prácticas evaluativas de los docentes universitarios Los resultados obtenidos después de haber aplicado el cuestionario ActEval son los siguientes: en la primera dimensión, con una media global de 5.37, en una escala del 1 al 6; los docentes perciben una significativa importancia sobre las prácticas evaluativas en el proceso de aprendizaje, esto se ve en las medias y desviaciones obtenidas en la aplicación del cuestionario, con una media de: 5.67. La competencia de los docentes es percibida por ellos con un valor alto, pero menor al criterio anterior; este criterio ocupa el segundo lugar con una media de 5.27. Finalmente, el criterio de utilización tiene el menor puntaje, aunque éste sigue siendo alto en la escala, con una media de 5.18. Modelo Tecnológico Andragógico para Optimizar el Rendimiento Académico en Escenarios Pandémicos La educación en línea durante la pandemia ha revelado múltiples desafíos para los estudiantes adultos que trabajan y estudian simultáneamente. Estos desafíos incluyen el manejo limitado de herramientas tecnológicas, problemas de salud, dificultades en la comprensión de ciertos cursos y saturación de conectividad. El desarrollo de un modelo tecnológico andragógico busca optimizar el rendimiento académico de estos estudiantes al abordar sus necesidades específicas y mejorar su interacción con las plataformas educativas. Los resultados indican que la modalidad virtual presenta limitaciones significativas para los estudiantes adultos, destacando la necesidad de un enfoque educativo más adaptativo y soportado tecnológicamente.
Aguilar Ramírez Monica, Instituto Tecnológico Superior de Apatzingán
Asesor: Mg. Nelson Mora Calderon, Fundación Universitaria Empresarial

EXPLORAR EN FUENTES SECUNDARIAS EL PAPEL DE LA TECNOLOGíA Y LA INDUSTRIA 4.0 EN LA MEJORA DE LAS PRáCTICAS DE LEAN MANUFACTURING EN AMéRICA LATINA.


EXPLORAR EN FUENTES SECUNDARIAS EL PAPEL DE LA TECNOLOGíA Y LA INDUSTRIA 4.0 EN LA MEJORA DE LAS PRáCTICAS DE LEAN MANUFACTURING EN AMéRICA LATINA.

Aguilar Ramírez Monica, Instituto Tecnológico Superior de Apatzingán. Diaz Barriga Velasco Jaquelyn, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Nelson Mora Calderon, Fundación Universitaria Empresarial



PLANTEAMIENTO DEL PROBLEMA

La industria manufacturera enfrenta un cambio significativo con la incorporación de conceptos avanzados (Péter, 2023), como la Industria 4.0, enfocada en la automatización, inteligencia artificial, IoT, Big Data y computación en la nube, promoviendo la transformación hacia fábricas inteligentes (Péter, 2023). Y Lean Manufacturing enfocado en la minimización de desperdicios y la maximización a través de la mejora continua (Muchtaridi, 2023). La fusión de estos dos paradigmas, conocida como Lean-Industry 4.0 (Arey et al., 2021), representa una oportunidad significativa pero también desafíos únicos en América Latina (Juman, 2023). Por lo tanto, es fundamental fomentar una mayor comprensión en las empresas Latinoamericanas sobre los beneficios que brinda la adopción de tecnologías 4.0, tales como la reducción de costos, reducción de costos, desarrollo de nuevos modelos de negocio, flexibilidad y personalización de productos, así como aceleración del time-tomarket (R. Carmona, 2020). 



METODOLOGÍA

La investigación se centró en la integración de Lean Manufacturing e Industria 4.0 en América Latina, utilizando una revisión sistemática de la literatura para recolectar información. Se exploraron sitios web y bases de datos especializadas como Google, Google Scholar, Scopus, TDR, NDLTD, OpenThesis, Dialnet y OATD, empleando términos relevantes para las búsquedas como "Lean Manufacturing y Lean Manufacturing en América Latina," "Industria 4.0 e Industria 4.0 en América Latina," "Tecnología e Industria 4.0 en las prácticas Lean Manufacturing." "Lean-Industry 4.0," y "'Lean-Industry 4.0 en América Latina." Metodología: Se consultaron un total de 74 documentos. De los cuales, 37 (el 50%) se centraron en el tema Lean-Industry 4.0, y el 43% relacionados o provenientes específicamente de América Latina. De estos 37 documentos, 10 (el 27%) corresponden a casos de estudio, incluyendo algunos como "Caso práctico Lean Industria 4.0 en Audi" (Borja, 2022), "Influencia de Lean Manufacturing en la implementación de tecnologías de la Industria 4.0 en un estudio de caso múltiple en empresas manufactureras de la provincia de Pichincha" (Guzmán et al., 2023), e "Implementación de Lean Manufacturing e Industria 4.0 para mejorar el sistema de producción automatizado y semi-automatizado en la empresa Cilindros Company S.A.S," entre otros. Los 27 documentos restantes (el 73%), correspondieron a artículos tales como Estudio de la irrupción de la Industria 4.0 en la metodología Lean Manufacturing" (Arripol, 2020), "Lean Industry 4.0: Past, present and future" (Hines et al., 2023), y "Hacia la 'Industria Lean 4.0': Tendencias actuales y perspectivas futuras" (Ejsmont et al., 2020), entre otros. Del total de documentos consultados sobre Lean-Industry 4.0, el año 2023 destaca como el de mayor cantidad de publicaciones, representando el 32% del total, seguido de 2019 con un 27%. Estos resultados reflejan un creciente interés y un enfoque renovado hacia Lean-Industry 4.0, indicando que este tema está ganando relevancia en el ámbito académico y empresarial. Se optó por implementar una revisión sistemática de la literatura en esta investigación debido a varias razones clave. En primer lugar, este método proporciona una manera estructurada y reproducible de reunir y analizar la información existente, lo cual es esencial para garantizar la integridad y la validez de los hallazgos. A través de una revisión sistemática, es posible identificar de manera exhaustiva todas las investigaciones relevantes sobre un tema específico, lo que permite obtener una visión completa y actualizada del estado del conocimiento en el campo de estudio.  El primer paso en el plan de análisis de datos consistió en la identificación y categorización de temas. En esta fase, se examinaron los estudios y artículos disponibles sobre la adopción de Lean Manufacturing e Industria 4.0 en América Latina. La meta fue identificar y categorizar los temas, conceptos y patrones clave presentes en la información recopilada. Esto incluyó analizar los niveles de adopción de Lean Manufacturing e Industria 4.0 en diferentes países de América Latina, identificar las principales barreras y facilitadores para la implementación, y determinar cuáles fueron los sectores industriales más avanzados en la adopción de estas prácticas. El siguiente paso fue la organización de la información en categorías temáticas relevantes. En esta etapa, la información se agrupó en categorías tales como las tecnologías clave de la Industria 4.0 que habían sido implementadas, las estrategias de Lean Manufacturing adoptadas, y los casos de éxito y mejores prácticas de la implementación conjunta de Lean Manufacturing e Industria 4.0.   


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la integración de la Industria 4.0 con las prácticas de Lean Manufacturing en las empresas manufactureras de América Latina mediante una investigación exhaustiva de fuentes secundarias. Se comprobó que esta integración es viable y beneficiosa, permitiendo a las empresas mejorar su eficiencia, productividad y valor para el cliente, lo que resulta en una mayor competitividad y sostenibilidad en el mercado global. Sin embargo, se identificaron barreras significativas que deben superarse para una adopción efectiva, como la falta de infraestructura tecnológica, la resistencia al cambio organizacional, la escasez de habilidades técnicas y la necesidad de fomentar una cultura de innovación. Aunque el trabajo aún está en progreso, los conocimientos adquiridos a partir de esta investigación son fundamentales para avanzar en la implementación exitosa de estas metodologías.
Aguilar Rangel Omar Antonio, Universidad Tecnologica de León
Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León

ANáLISIS DE REMOCIóN DE FOSFATOS DEL AGUA POR MEDIO DEL PROCESO DE ELECTROCOAGULACIóN EN UN REACTOR DE COLUMNA DE ELECTRODOS PERFORADOS


ANáLISIS DE REMOCIóN DE FOSFATOS DEL AGUA POR MEDIO DEL PROCESO DE ELECTROCOAGULACIóN EN UN REACTOR DE COLUMNA DE ELECTRODOS PERFORADOS

Aguilar Rangel Omar Antonio, Universidad Tecnologica de León. Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

La intoxicación por compuestos organofosforados causa en el ser humano distintas afecciones como taquicardias, hipertensión arterial, debilidad, mialgias, parálisis flácida, hiperglicemia, cefalea, convulsiones e incluso estado de coma. En los ecosistemas, los compuestos organofosforados provocan intoxicaciones agudas en los peces, fomenta la eutrofización de algas al elevar la presencia de fósforo en el agua, lo que favorece un rápido crecimiento de estas y a su vez, disminuye el oxigeno disuelto en los cuerpos de aguas donde estas habitan, dejando sin oxígeno a peces, crustáceos y otros seres vivos habitantes de los mismos. Esto da como resultado la alteración o destrucción de los ecosistemas acuáticos lo que impacta a su vez en las cadenas tróficas donde estos ecosistemas intervienen. La contaminación por compuestos organofosforados es de gran relevancia ya que en países en desarrollo y con abundante industria agrícola se utilizan por toneladas en pesticidas y herbicidas que contienen gran concentración de estos compuestos, quienes son los agentes responsables de exterminar plagas no deseadas para la cosecha. Gracias a esto, dichas sustancias son esparcidas en las numerosas hectáreas que abarcan los terrenos de cultivo y como resultado del uso intensivo de estas, cierta cantidad termina infiltrándose en el suelo, llegando a mantos acuíferos o a cuerpos de agua superficiales cercanos a los cultivos, contaminando así volúmenes de agua con compuestos organofosforados que resultan tóxicos para los seres vivos que los habitan, y a su vez, resultan en recursos inutilizables o dañinos para la humanidad.



METODOLOGÍA

Se realizaron 2 experimentos, cada uno con una solución problema de 100 partes por millón y 50 ppm respectivamente de concentración de Glifosato. Para la remoción de fósforo se utilizó un reactor de electrocoagulaión de columna de electrodos perforados operando con una variación de 0.74 Amperios, 0.54 A y 0.24 A de corriente para cada experimento, con un flujo de entrada de 3 litros por minuto por un tiempo de operación de 80 minutos. Mientras se efectuaba el tiempo de tratamiento, se extrajeron muestras a los 0, 10, 20, 40 y 60 min, una vez extraídas, las muestras se dejaron reposar hasta observar dos fases en ellas, una fase de sustancia sedimentada en el fondo y otra fase de sobrenadante claro en la superficie. Posterior mente se extrajo 50 mililitros del sobrenadante de cada muestra y se depositaron en un vaso de precipitado cada una; en cada muestra se disolvió 0.4 gramos de persulfato de amonio y 1 ml de ácido fuerte, después se llevaron a digestión en una parrilla de calentamiento por 2 horas a 240°C. Una ves trascurrido el tiempo se dejaron enfriar y se les adiciono una gota de fenolftaleína a cada muestra, después se neutralizaron con hidróxido de sodio hasta obtener un rosa pálido y se adiciono una gota de la solución de ácido fuerte a cada muestra a fin de asegurar un pH neutro, posteriormente se tomaron 25 ml de cada muestra y fueron depositadas un matraces volumétricos de 100ml, a cada matraz se le adiciono 10 ml de la solución de vanado- molibdato y se aforo a 100 ml con agua destilada, posteriormente se agitaron y se dejaron reposar por 25 min, una vez transcurrido el tiempo de reposo, las muestras fueron ingresadas en el espectrofotómetro para obtener las lecturas de absorbancia. Por último, se calculó la concentración de fósforo utilizando la ecuación lineal obtenida de la curva de calibración previamente realizada del reactivo de vanado- molibdato.


CONCLUSIONES

Durante la estancia de verano se logro demostrar que la técnica de tratamiento de electrocoagulación para aguas es capaz de remover el fósforo de la partícula contaminante de glifosato disuelta en el agua. Durante los experimentos realizados se alcanzaron tasas de remoción de fósforo bastante altas cercanas al 90% cuando se utilizó la corriente eléctrica de 0.74 Amperios, disminuyendo la concentración de fósforo de 14 ppm a 1.37 ppm, esta concentración de fósforo entra en los limites permisibles para el agua residual que se descargue en cuerpos de agua o que pueda ser reutilizada conforme a la normatividad vigente en México. Cabe mencionar que este proyecto se realizo a nivel piloto, por lo cual aún no es posible aplicarlo en grandes volúmenes de agua, pues aún existen muchas variables que se pueden estudiar y modificar a fin de mejorar esta técnica de tratamiento dando como resultado mejor eficiencia energética, la disminución del gasto eléctrico del reactor de electrocoagulación, o un mejor rendimiento de remoción en menos tiempo de operación e incluso la remoción de otros contaminantes cambiando el material de los electrodos etc. No obstante, se trata de una tecnología prometedora para el tratamiento de agua que vale la pena seguir estudiando en futuras investigaciones.
Aguilera Baeza Andrea Jael, Instituto Tecnológico de Querétaro
Asesor: Dra. Maria Blanca Becerra Rodriguez, Instituto Tecnológico de Querétaro

FACTORES CRíTICOS PARA IMPLEMENTAR LEAN MAUFACTURING Y ECONOMíA CIRCULAR EN LAS EMPRESAS QUERETANAS


FACTORES CRíTICOS PARA IMPLEMENTAR LEAN MAUFACTURING Y ECONOMíA CIRCULAR EN LAS EMPRESAS QUERETANAS

Aguilera Baeza Andrea Jael, Instituto Tecnológico de Querétaro. Ávalos Alegría Alexandro, Instituto Tecnológico de Querétaro. Juárez Vargas Felipe Neri, Instituto Tecnológico de Querétaro. Asesor: Dra. Maria Blanca Becerra Rodriguez, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En este proyecto de investigación se hizo medir si las empresas queretanas han implementado la metodología de Lean Manufacturing y Economía Circular para mejorar su productividad. Además, de evaluar los factores críticos de otro país.



METODOLOGÍA

El diseño de investigación adoptado para el proyecto fue de tipo mixto, permitiendo obtener datos combinandos tanto cuantitativos como cualitativos para obtener una comprensión integral sobre el uso de economía circular y lean manufacturing en las empresas de los parques industriales de Querétaro, utilizando el método de encuesta como herramienta principal para la recolección de datos.   


CONCLUSIONES

Los resultados obtenidos han resaltado la importancia de varios elementos clave como: la cultura organizacional, la resistencia al cambio y la infraestructura y sistemas facilitadores para la separación en origen; también la existencia de procedimientos y estándares bien definidos, y el compromiso de los beneficiarios directos del proyecto. Estos factores han demostrado ser determinantes en la adopción de prácticas, que no solo optimizan la eficiencia operativa, sino que también promueven la sostenibilidad ambiental, alineando a las empresas con las tendencias globales de Economía Circular y Lean Manufacturing.  
Aguilera Mora Jorge Alexandro, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Mtra. Adriana Hernández Beristain, Benemérita Universidad Autónoma de Puebla

IDENTIFICACIóN DE VULNERABILIDADES EN LAS REDES SOCIALES Y COMO LOGRAR LA PROTECCIóN DE LA PRIVACIDAD EN LINEA


IDENTIFICACIóN DE VULNERABILIDADES EN LAS REDES SOCIALES Y COMO LOGRAR LA PROTECCIóN DE LA PRIVACIDAD EN LINEA

Aguilera Mora Jorge Alexandro, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Mtra. Adriana Hernández Beristain, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la era digital de hoy en día las redes sociales se han convertido en una herramienta del uso cotidiano, ya que nos facilitan la comunicación y el intercambio de información, pero con todo este crecimiento en las redes sociales también ha crecido el riesgo en la seguridad y la privacidad de la información y de sus usuarios. Solamente en México se registraron más de 110,000 casos de robo de identidad en 2024 y estos son datos que con el tiempo no dejan de aumentar. Con este proyecto de investigación se tiene como propósito el concientizar a los usuarios, para que conozcan sobre la identidad en línea y sobre la privacidad en línea, ya que es de gran importancia para poder evitar el robo de identidad y además conservar nuestra privacidad.  



METODOLOGÍA

Para comprender la información que se manejara y tener el conocimiento básico necesario, se inicia con cursar un curso de Cisco "introducción a la ciberseguridad" el cual me permitió obtener la información para poder entender en que consiste la ciberseguridad. Una vez terminado el curso se inicia con la investigación, la metodología es documentada, se desarrollan 4 fases, la investigación representada en un documento pdf, la generación de un formulario, la creación de una historia para instagram, el material gráfico el cual consiste en una píldora, cápsula o vídeo.Los temas a investigar son los siguientes: identidad en línea, los datos personales, el robo de identidad y quienes quieren mis datos. Las evidencias generadas son: FASE 1 1)Documento de texto: Es un PDF el cual contiene toda la investigación detallada y se crea un QR para el 2)Formulario: Se crea un formulario gmail sobre un ataque de robo de identidad actual, es un robo masivo de identidad a varias cuentas de los usuarios. 3)Historia o post: se crea un post de como evitar un robo de identidad al publicar datos en redes sociales, 4)Material gráfico: se crea una píldora informativa la cual mostraba la información de: ejemplo de lo que es una publicación de información incorrecta identificar lo que se publica mal y mostrar el motivo por el que roban la información de los usuarios. FASE 2) 1)Documento de texto:segunda investigación que trato sobre la privacidad en línea la cual nos habla sobre el uso de autenticación en dos factores, el uso del protocolo open autorización y la privacidad de correo y navegador web. 2)Formulario: Se crea un formulario gmail sobre una noticia de un ataque que se dio por las fotos que se publicaron con las ubicaciones de donde el usuario estuvo, se el segundo formulario trata de una noticias sobre un robo de credenciales de los usuarios por no usar un gestor de contraseñas e igual con sus preguntas. 3)Historia o post: Se realiza el segundo post que trata sobre como lograr la privacidad de los datos para evitar el robo de identidad, la historia se subirá en el perfil de Instagram de la universidad. 4)Material gráfico: se crea una píldora informativa la cual mostraba sobre: crear el acceso a sitios con contraseñas simples y no usar dos factores, identificar la falta de dos factores y la falta del protocolo OAUTH, mostrar el motivo por el que roban la información


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de la introducción a la ciberseguridad, el buen manejo de las redes sociales de lo que es la identidad en línea y sobre la privacidad en línea, poderlas ver en ejemplos de situaciones de casos reales ocurridos con sus consecuencias. Se espera que con la información que se genero, se pueda llegar a través de redes sociales a muchos usuarios de las mismas y con los formularios se expanda mucho más esta información y que sirva para concientizar, ya con esto solo nos quedaría obtener los resultados de la concientización, del alcance que tuvo y de cuantos usuarios respondieron asertivamente a nuestros formularios y pudieron ver el apoyo gráfico de las cápsulas o vídeos.
Aguilera Saenz Miguel Angel, Universidad Autónoma de Ciudad Juárez
Asesor: Mg. Andrea Goméz Alzate, Universidad Autónoma de Manizales

PROYECTO 1: GUÍA PARA LA ELECCIÓN, ADAPTACIÓN Y USO DE PRÓTESIS TRANSTIBIAL PROYECTO 2: DISEÑO DE AYUDAS TÉCNICAS DEPORTIVAS: APUNTADORES DE BOCCIA


PROYECTO 1: GUÍA PARA LA ELECCIÓN, ADAPTACIÓN Y USO DE PRÓTESIS TRANSTIBIAL PROYECTO 2: DISEÑO DE AYUDAS TÉCNICAS DEPORTIVAS: APUNTADORES DE BOCCIA

Aguilera Saenz Miguel Angel, Universidad Autónoma de Ciudad Juárez. Cobos Lazcano Cristian Yahir, Instituto Tecnológico de Puebla. Asesor: Mg. Andrea Goméz Alzate, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

  Proyecto 1  La elección de una prótesis transtibial adecuada es un desafío complejo debido a las necesidades únicas de niños, adultos y adultos mayores y la falta de una guía estructurada puede resultar en decisiones no adecuadas. La búsqueda de materiales innovadores y sostenibles para prótesis añade complejidad, por esto se realizó una investigación con dos objetivos: desarrollar un mapa mental para guiar la elección de prótesis transtibiales según la edad y tipo de amputación y realizar pruebas de laboratorio para crear un material compuesto de fibras naturales. Se usa como fundamento el trabajo realizado en años anteriores, sobre la contextualización, el análisis y la elaboración de una tabla guía para la elección de prótesis transtibiales. Sin embargo, se requiere ajustes significativos. Proyecto 2 Boccia es un deporte paralímpico para personas con discapacidad motriz por la parálisis cerebral, requiere habilidades, estrategia y coordinación; los jugadores usan diferentes técnicas y equipamientos, según la categoría del juego. Existen estudios e investigaciones enfocados en aspectos psicológicos, sociales, físicos, entre otros, sin embargo, los enfocados en innovar en el equipo deportivo utilizado son muy pocos.  Existen empresas que venden los implementos deportivos, sin embargo, son pocas y en general tiene un alto costo; por esto, el jugador tiene pocas opciones y construyen sus propios elementos de manera artesanal, sin ergonomía ni para el jugador, ni para el auxiliar. El enfoque de esta investigación será el diseño del apuntador, usado específicamente en la categoría BC3, (jugadores con alto nivel de discapacidad motriz que requieren de un auxiliar para jugar), el cual sirve para impulsar las bochas desde la rampa; este elemento tiene diferentes formas de uso que dependen del nivel funcional del deportista y de la necesidad de alcance en el juego. Se pretende impactar positivamente a los jugadores de la categoría BC3 elaborando una propuesta de diseño apropiada para los usuarios.



METODOLOGÍA

  P1:contextualización, sobre  prótesis transtibial y  su uso correcto, además sobre cada una de las prótesis listadas, recopilando información sobre sus características, rendimiento, uso, mantenimiento y ergonomía. Evaluación de los rasgos establecidos en la tabla, determinando su importancia para la evaluación de prótesis. Se analizó cada calificación asignada mediante la información obtenida de cada prótesis y se ajustó la tabla. Además se apoyó el desarrollo de un material compuesto de fibras naturales para la fabricación de prótesis, mediante la preparación de fibras,(limpieza y peinado para eliminar impurezas y alinearlas de manera uniforme y secado al  horno a 40°C eliminar cualquier humedad residual) y pruebas de resistencia de las fibras (muestras del material y se sometieron a pruebas de tensión para medir su resistencia). Los datos obtenidos de estas pruebas fueron analizados para identificar patrones y propiedades mecánicas del material. P2:Contextualización: barrido documental para la comprensión del juego, entender las necesidades de cada usuario (jugadores y asistentes). Estudio de mercado para identificar el equipo existente, sus características, sus ventajas y desventajas, con el fin de identificar elementos susceptibles de rediseño. Se identificaron los requerimientos y restricciones de diseño con base en el usuario, el objeto y el contexto; para establecer parámetros de diseño. Ideación: Se elaboraron propuestas basadas en los parámetros de diseño establecidos de los tres soportes de puntero que utiliza el jugador (cabeza, mano y boca). Se analizaron las propuestas elaboradas para identificar aspectos a mejorar o cambiar y así obtener propuestas ajustadas. Esta etapa está relacionada con el segundo objetivo de la investigación, por lo que los resultados esperados son propuestas de diseño mejoradas que cumplan con los criterios establecidos. Evaluación: Se evaluaron la propuestas para asegurar cumplimiento de los parámetros de diseños y realizar las mejoras necesarias en caso de que no cumplieran, para así determinar el diseño conceptual final.


CONCLUSIONES

P1: Adquirimos conocimientos teóricos sobre el desarrollo de materiales compuestos con fibras naturales, al ser un trabajo extenso aún se encuentra en fase de pruebas por lo que no se pueden mostrar los datos obtenidos en su totalidad. P2: Para realizar el diseño de los apuntadores de boccia, es fundamental considerar las necesidades ergonómicas tanto del jugador como del auxiliar.  En la categoría BC3, donde la participación del auxiliar es obligatoria, la interacción y coordinación entre el jugador y su auxiliar son esenciales para maximizar el rendimiento y la efectividad durante las competiciones. Por lo tanto, cualquier diseño de apuntador debe facilitar no sólo la comodidad y eficiencia del jugador, sino también la del auxiliar. El análisis del mercado y la revisión de las tecnologías existentes revelaron que el desarrollo tecnológico en deportes en general es  más avanzado que en los deportes practicados por personas con discapacidad. Esta disparidad señala una oportunidad para la innovación en las disciplinas deportivas paralímpicas. La falta de atención y recursos dedicados a estos deportes ha resultado en una brecha tecnológica que debe ser reducida para asegurar que los atletas paralímpicos tengan acceso a equipamientos de alta calidad y rendimiento. Las propuestas desarrolladas hasta el momento no son las definitivas,  se deben realizar evaluaciones detalladas con los jugadores y sus asistentes para recoger datos sobre el desempeño y la comodidad de los apuntadores en un entorno real de juego; para identificar mejoras y ajustes, asegurando que los diseños satisfagan sus necesidades ergonómicas y funcionales. La retroalimentación directa guiará la refinación de los diseños, proporcionando comodidad y eficiencia tanto para los jugadores como para los auxiliares.
Aguirre Bejarano Alondra Lizette, Universidad Autónoma de Ciudad Juárez
Asesor: Mg. Mateo Hurtado Hernández, Universidad Autónoma de Manizales

DESARROLLO E IMPLEMENTACIóN DE UN SISTEMA PARA LA GESTIóN DE INVENTARIOS DE EQUIPOS MéDICOS MEDIANTE TECNOLOGíA RFID E INTERNET DE LAS COSAS


DESARROLLO E IMPLEMENTACIóN DE UN SISTEMA PARA LA GESTIóN DE INVENTARIOS DE EQUIPOS MéDICOS MEDIANTE TECNOLOGíA RFID E INTERNET DE LAS COSAS

Aguirre Bejarano Alondra Lizette, Universidad Autónoma de Ciudad Juárez. Asesor: Mg. Mateo Hurtado Hernández, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

La falta de un inventario preciso y actualizado de dispositivos médicos en los centros de salud puede llevar a retrasos en tratamientos, pérdida de tiempo y recursos, y afectar negativamente la calidad de la atención médica. Además, los robos y pérdidas de dispositivos y equipos en entornos hospitalarios tienen consecuencias graves para las operaciones diarias, la seguridad del paciente y la eficiencia del personal. Aunque existen esfuerzos para mejorar la gestión de inventarios a través de la implementación de sistemas digitales, estos aún enfrentan desafíos significativos, como la dependencia de dispositivos móviles, la conectividad a internet y la seguridad de los datos. Explorar y desarrollar herramientas y métodos eficaces para la toma y almacenamiento de inventarios es crucial para mejorar la precisión, eficiencia y seguridad en la gestión de recursos médicos.



METODOLOGÍA

Investigación Inicial Inicialmente, se realizó una investigación para entender el funcionamiento de la tecnología RFID y su aplicación en el Internet de las Cosas (IoT). Esta etapa incluyó los siguientes pasos: 1. Estudiar el funcionamiento de la tecnología RFID y su aplicación en el Internet de las Cosas (IoT). 2. Leer materiales sobre cómo funcionan las etiquetas y lectores RFID. 3. Analizar casos de uso y aplicaciones prácticas de RFID en IoT.   Adquisición de Componentes y Herramientas Luego, se adquirieron los componentes y herramientas necesarios para el proyecto. Los componentes reunidos fueron: 1. Arduino UNO 2. Pantalla OLED de 128x64 píxeles 3. Botones pulsadores (x2) 4. Cables y protoboard   Se configuraron las herramientas de software de la siguiente manera: 1. Instalar Arduino IDE 2. Descargar e instalar las bibliotecas necesarias (por ejemplo, U8glib para la pantalla OLED)   Conocimiento y Programación de Pantallas OLED con Arduino A continuación, se procedió a aprender cómo programar y usar la pantalla OLED con el Arduino: 1. Configuración inicial de la pantalla OLED:    - Conectar la pantalla OLED al Arduino UNO utilizando los pines I2C.    - Instalar la biblioteca U8glib en el Arduino IDE.    - Realizar pruebas básicas para mostrar texto e imágenes en la pantalla OLED.   2. Programación básica:    - Desarrollar un código inicial para mostrar texto en la pantalla.    - Aprender funciones básicas para controlar la pantalla OLED.   Diseño e Implementación de la Interfaz de Usuario Se avanzó con el diseño y la implementación de la interfaz de usuario: 1. Diseño de la interfaz:    - Colaborar con el asesor para definir las opciones de la interfaz de usuario.    - Diseñar la navegación a través de la pantalla OLED utilizando los dos botones.    - Definir las opciones de menú y submenú en la interfaz.   2. Programación de la interfaz de usuario:    - Implementar la navegación en la pantalla OLED:      - Botón 1: Cambio de opciones en el menú.      - Botón 2: Selección de la opción actual.    - Desarrollar funciones para mostrar diferentes pantallas y opciones en la OLED.    - Crear un menú inicial con opciones básicas: realizar lectura, información de dispositivos leídos, guardar datos y enviar datos.   Pruebas y Ajustes Finalmente, se realizaron pruebas y ajustes necesarios para asegurar el correcto funcionamiento del sistema: 1. Realizar pruebas iniciales:    - Verificar que la interfaz de usuario responde correctamente a los botones.    - Realizar pruebas de visualización de datos en la pantalla OLED.   2. Ajustes y optimización:    - Ajustar el diseño de la interfaz para mejorar la usabilidad y la experiencia del usuario.    - Optimizar el código para asegurar un rendimiento eficiente del sistema.


CONCLUSIONES

El proyecto ha avanzado significativamente hacia su objetivo principal. A la fecha, se ha logrado desarrollar exitosamente la interfaz gráfica de usuario para el lector RFID, empleando un Arduino UNO, una pantalla OLED y botones de control. • Desarrollo de la Interfaz de Usuario: Se ha diseñado y construido una interfaz de usuario eficiente y fácil de usar para el lector RFID, permitiendo una interacción intuitiva y simplificada con el sistema de inventarios. • Integración de Hardware: La integración del Arduino UNO con la pantalla OLED y los botones de control ha demostrado ser exitosa, ofreciendo una solución compacta y funcional para el manejo de equipos médicos. 
Aguirre Esparza July Vanessa, Universidad de Investigación y Desarrollo
Asesor: Mg. Ingrid Carolina Moreno Rodriguez, Universidad Santo Tomás

REVISIóN BIBLIOGRáFICA DE TENDENCIAS EN LOS SISTEMAS DE GESTIóN


REVISIóN BIBLIOGRáFICA DE TENDENCIAS EN LOS SISTEMAS DE GESTIóN

Aguirre Esparza July Vanessa, Universidad de Investigación y Desarrollo. Bellucci Chacon Laura Daniela, Universidad de Investigación y Desarrollo. Asesor: Mg. Ingrid Carolina Moreno Rodriguez, Universidad Santo Tomás



PLANTEAMIENTO DEL PROBLEMA

En el contexto empresarial actual, los sistemas de gestión se han convertido en herramientas esenciales para las organizaciones, donde juegan un papel fundamental en el cumplimiento en unos de los objetivos del desarrollo sostenible el (ODS 9: Industria, Innovación e Infraestructura) ya que estos sistemas proporcionan un marco estructurado para gestionar y mejorar continuamente los procesos de una organización, asegurando que las operaciones sean eficientes, seguras y sostenibles. La integración de sistemas de gestión en áreas como calidad, medio ambiente, seguridad y salud en el trabajo permite a las empresas alinear sus prácticas con los principios del desarrollo sostenible. En Colombia, la adopción de sistemas de gestión se ha incrementado notablemente debido a la necesidad de cumplir con estándares internacionales, mejorar la calidad de los productos y servicios, y optimizar los procesos internos. Además de que es un tema de creciente interés tanto en el ámbito cacadémico como en el empresarial. Según un informe del Departamento Administrativo Nacional de Estadística (DANE, 2023) aproximadamente el 70% de las grandes empresas en Colombia han adoptado diversas formas de sistema de gestión basado en las últimas tendencias tecnológicas. Una tendencia clave en Colombia es la integración de múltiples sistemas de gestión en un solo sistema integrado. Empresas de diversos sectores adoptan sistemas que combinan las normas ISO 9001 (calidad), ISO 14001 (medio ambiente) e ISO 45001 (seguridad y salud en el trabajo). Esta integración permite a las empresas gestionar de manera más eficiente sus recursos y procesos, evitando la duplicación de esfuerzos y reduciendo costos administrativos. Otra tendencia es la digitalización de los sistemas de gestión. De acuerdo al autor Petkoff Bankoff et al. (2023) destaca la importancia de actualizar los sistemas de gestión de calidad para adaptarse a las rápidas transformaciones de la Industria 4.0. Subraya cómo la integración de tecnologías emergentes, como Blockchain, puede optimizar la eficiencia y calidad de los procesos industriales, y la necesidad de investigar la implementación de otras tecnologías disruptivas como el IoT y Big Data. Esto es fundamental para facilitar la optimización de la tercerización y la integración de procesos multi organizacionales, promoviendo así una adaptación más eficaz y proactiva a las demandas tecnológicas actuales. Estas tecnologías permiten una mayor automatización, monitoreo en tiempo real y análisis predictivo, lo que facilita la toma de decisiones informadas y la mejora continua. Empresas como Ecopetrol, una de las más grandes del país, están liderando esta transformación digital para optimizar sus operaciones y mejorar su sostenibilidad. En este contexto, entender estas tendencias no solo es crucial para identificar las mejores prácticas y tecnologías emergentes, sino también para anticipar los desafíos y oportunidades que enfrentarán las organizaciones en el futuro cercano. Es por esto, que mediante la presente investigación se busca dar respuesta a la siguiente pregunta ¿Cuáles son las tendencias que se presentan actualmente en torno a los sistemas de gestión?



METODOLOGÍA

El método a elegir para la presente investigación será de carácter exploratorio y descriptivo, basándose en una revisión bibliográfica sistemática de fuentes académicas y profesionales relevantes, donde se consultaron en las bases de datos de Scielo, Google Académico y EBSCO seleccionadas por su amplia cobertura en temas relacionados con la gestión empresarial. Los criterios de búsqueda incluyeron palabras clave como "implementación de sistemas de gestión", "eficiencia organizacional" y "políticas empresariales". Se consideraron artículos publicados entre 2015 y 2023 para asegurar la relevancia y actualidad de la información. Además, se creó una matriz de revisión en la que se clasificaron los artículos seleccionados según el tipo de sistema de gestión, año de publicación, autores, objetivos del estudio, metodología utilizada y principales hallazgos que permitió organizar y analizar las fuentes más relevantes sobre el tema. Así mismo las actividades propuestas para dar cumplimiento al desarrollo de la presente investigación han partido inicialmente de establecer el planteamiento del problema, se hizo una lectura general de cada documento para determinar su relevancia y aporte a la investigación, de igual manera, se descartó aquellos que no cumplieron con los criterios de selección en relación con el problema planteado y la temática seleccionada, posterior a ello se hará la interpretación y sus respectivas conclusiones. 


CONCLUSIONES

Las tendencias actuales en estos sistemas están transformando profundamente la manera en que las organizaciones operan y se relacionan con su entorno. La revisión bibliográfica de las tendencias de los sistemas de gestión busca obtener una comprensión profunda y actualizada de los avances, prácticas emergentes y desafíos en el campo de la gestión empresarial. Este análisis es fundamental para identificar cómo las empresas pueden optimizar sus procesos, mejorar la eficiencia operativa y mantener su competitividad en un mercado global en constante cambio. Ademas facilita el cumplimiento de los objetivos del desarrollo sostenible, como la mejora de la calidad, seguridad y la sostenibilidad son aspectos centrales que configuran el panorama actual. Comprender y responder a estos sistemas no es solo una cuestión de mantenerse competitivo, sino de asegurar la supervivencia y el éxito a largo plazo en un mundo empresarial cada vez más complejo y demandante. Las organizaciones que logren adaptarse a estas tendencias tendrán una ventaja competitiva significativa. 
Aguirre Medina Diego Jared, Instituto Tecnológico de La Piedad
Asesor: Dr. Alexis Edmundo Gallegos Acosta, Centro de Investigación en Matemáticas (CONACYT)

IMPLEMENTACIóN Y ANáLISIS DE DESEMPEñO DE TéCNICAS DE APRENDIZAJE AUTOMáTICO PARA EL ANáLISIS DE SENTIMIENTOS: UN ESTUDIO DE REDES NEURONALES, SVM Y LLMS.


IMPLEMENTACIóN Y ANáLISIS DE DESEMPEñO DE TéCNICAS DE APRENDIZAJE AUTOMáTICO PARA EL ANáLISIS DE SENTIMIENTOS: UN ESTUDIO DE REDES NEURONALES, SVM Y LLMS.

Aguirre Medina Diego Jared, Instituto Tecnológico de La Piedad. Asesor: Dr. Alexis Edmundo Gallegos Acosta, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la era digital actual, el análisis de sentimientos ha emergido como una herramienta crucial para comprender las opiniones y emociones expresadas en vastas cantidades de datos textuales generados en internet ya sea en plataformas de redes sociales, reseñas de productos, y otros medios en línea. Este tipo de análisis tiene implicaciones significativas en diversos campos como las empresas marketing, la política, la atención al cliente y la gestión de la reputación en línea.​  El análisis de sentimientos permite a las empresas y organizaciones captar de manera efectiva la opinión pública y responder de mejor manera a las necesidades y preocupaciones de sus clientes así como obtener opiniones más objetivas sobre la marca, los productos y servicios.. En este contexto, la implementación de técnicas avanzadas de aprendizaje automático se convierte en una herramienta poderosa para mejorar la precisión y eficiencia del análisis de sentimientos.​ En esta investigación se centra en comparar el desempeño de de tres técnicas diferentes en tareas relacionadas con el análisis de sentimientos, esta técnicas son: Redes neuronales, máquinas de soporte vectorial (SVM) y modelos de lenguaje grande (LLM) cada una de estas técnicas presenta sus ventajas y desventajas así como sus limitaciones, unas son más antiguas y otras más novedosas en el campo del NLP, por lo que su comparación puede proporcionar una visión valiosa sobre el desempeño de esta técnicas en el análisis de sentimientos para determinar qué técnicas son mejores en diferentes circunstancias así como una comparativa entre técnicas ya conocidas y técnicas novedosas.  Los resultados de esta investigación proporcionan datos prácticos estadísticos sobre el desempeño de estas técnicas en el análisis de sentimientos para una selección de la técnica más adecuada.



METODOLOGÍA

Buscar y seleccionar las librerías adecuadas para la implementación de los modelos de aprendizaje automático y el procesamiento de datos.  Recolectar y preprocesar bases de datos que contengan datos de tipo opiniones o comentarios que reflejan sentimientos para ser usados en el entrenamiento de modelos.  Implementar modelos de redes neuronales para el análisis de sentimientos, con el fin de evaluar su desempeño con el de otros modelos.  Implementar modelo de SVM para el análisis de sentimientos, con el fin de evaluar su desempeño con el de otros modelos.  Implementar modelos de tipo LLM para ajustarlos al análisis de sentimientos, con el fin de evaluar su desempeño con el de otros modelos.  Realizar una comparativa entre los tres modelos que se han entrenado.


CONCLUSIONES

Resultados: Para evaluar los modelos se usaron las métricas que se basan en la matriz de confusión que se genera a partir de los datos que predijo el modelo y los datos reales, tanto BERT como el modelo LSTM fueron entrenados durante 8 epochs. Accuracy (Exactitud): Esta métrica mide que también es la predicción en comparación con los datos reales. En esta métrica el mejor modelo fue BERT con una accuracy de 84% durante el entrenamiento y 83% con los datos de prueba, seguido por la red LSTM con una accuracy 84% durante el entrenamiento y 82% con los datos de prueba, por último la SVM con una accuracy con los datos de prueba de 75%. Precisión: Esta métrica mide de todas las instancias que el modelo predice para una clase especifica, cuántas  son realmente de esa clase. En esta métrica el mejor modelo fue BERT con una precisión de 83% en la clase negativa y 84% en la clase positiva, seguido por el modelo LSTM con una precisión de 82% en la clase negativa y 83% en la clase positiva, por último la SVM con una precisión de 75% y 76% respectivamente. Recall (Sensitivity): Esta métrica mide la capacidad del modelo para predecir una clase específica correctamente. En esta métrica tanto BERT como LSTM tuvieron un recall de 84% en la clase negativa pero un 82% y 81% en la clase positiva respectivamente, por último la SVM con una precisión de 76% en la clase negativa y 75% en la positiva. F1-Score: Es una métrica que combina la precisión y el recall en un solo valor proporcionando una medida equilibrada del rendimiento del modelo. En esta métrica tanto BERT como LSTM tuvieron un f1-score de 83% en la clase negativa pero un 83% y 82% en la clase positiva respectivamente, por último la SVM con una precisión de 76% en la clase negativa y 75% en la positiva. Conclusiones: En general los modelos BERT y LSTM tiene un rendimiento muy similar en todas las métricas en las que se les evaluó, pero con grandes diferencias en cuanto al consumo computacional y al tamaño siendo el modelo LSTM el de mayor tamaño con un total de 40,686,000 parámetros con un consumo en memoria de 155.20 MB mientras que el modelo BERT tuvo un tamaño total de 4,386,178 parámetros con un consumo en memoria de 16.73 MB teniendo en cuenta que BERT cuenta con diferentes tamaños de parámetros siendo al que se le realizó fine tuning en esta investigación el más pequeño de todos, por lo que con un modelo similar de tamaño al modelo LSTM usado se podría tener un mejor rendimiento.  Por otro lado, SVM rinde peor, está por debajo en todas las métricas en comparación con los otros 2 modelos, también, es el que menos tiempo de ejecución necesito además de que  tiene menos consumo computacional en comparación con los otros modelos. En conclusión hacer fine tuning a un LLMs resultó mejor y más fácil que que crear una red LSTM customizada, preprocesar los datos y manejar incrustaciones de palabras, etc, por otro lado técnicas como SVM son más simples y más rápidas pero con un rendimiento inferior. Los LLMs son una gran alternativa a las técnicas más conocidas, para afrontar problemas de análisis de sentimientos, ya que estos modelos han sido entrenados con grandes cantidades de texto y estos pueden ser ajustados a muchas tareas relacionadas con el NLP.
Aguirre Osorio Juan Pablo, Universidad de Medellín
Asesor: Dra. Patricia Martinez Moreno, Universidad Veracruzana

EVALUACIóN DEL VALOR DE LAS HISTORIAS DE USUARIO EN PROYECTOS DE DESARROLLO ÁGIL


EVALUACIóN DEL VALOR DE LAS HISTORIAS DE USUARIO EN PROYECTOS DE DESARROLLO ÁGIL

Aguirre Osorio Juan Pablo, Universidad de Medellín. Asesor: Dra. Patricia Martinez Moreno, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

NUestro objetivo es investigar si existe alguna diferencia en términos de eficiencia entre las historias de usuario y otras herramientas explicativas para determinar la mejor estrategia a adoptar en un proyecto. La eficiencia puede medirse en términos de claridad, facilidad de uso, velocidad de implementación y la capacidad de adaptarse a cambios.



METODOLOGÍA

Revisión sistemática de la literatura (RSL) con reuniones semanales para evaluar el progreso de la investigación y el avance etapa tras etapa


CONCLUSIONES

Las historias de usuario han probado desde su invención ser una herramienta intuitiva y  directa de abordar los requisitos de software, son una parte crucial de gran número de metodologías ágiles modernas y marcan una diferencia importante con otras herramientas explicativas. 
Ahuelican Dorantes Erick Aldair, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Juan Jose Bedolla Solano, Instituto Tecnológico de Acapulco

SISTEMA DE GESTIóN DE PROYECTOS ECONóMICOS DEL ESTADO DE GUERRERO


SISTEMA DE GESTIóN DE PROYECTOS ECONóMICOS DEL ESTADO DE GUERRERO

Ahuelican Dorantes Erick Aldair, Instituto Tecnológico de Chilpancingo. Paula Iglesias Abraham, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Juan Jose Bedolla Solano, Instituto Tecnológico de Acapulco



PLANTEAMIENTO DEL PROBLEMA

El desarrollo económico en las comunidades rurales y semiurbanas del Estado de Guerrero enfrenta importantes desafíos que obstaculizan el potencial de crecimiento y la mejora de la calidad de vida de sus habitantes. A pesar de la presencia de emprendedores locales con ideas innovadoras y el deseo de impulsar el desarrollo en sus regiones, la falta de herramientas adecuadas para la gestión de proyectos socioeconómicos limita gravemente sus capacidades. Uno de los principales problemas radica en la dispersión de recursos disponibles para los emprendedores, que a menudo deben buscar financiamiento y apoyo formativo a través de múltiples fuentes. Esta dispersión no solo incrementa la dificultad de acceso a los recursos necesarios, sino que también genera ineficiencias en la gestión y seguimiento de los proyectos. Muchas veces, los emprendedores no logran obtener el apoyo económico necesario debido a la ausencia de una plataforma que centralice la solicitud y gestión de fondos.  El entorno en las áreas rurales y semiurbanas de Guerrero presenta una situación aún más crítica, con una infraestructura limitada y un apoyo técnico deficiente. 



METODOLOGÍA

Análisis Documental e Investigativo Se llevó a cabo un análisis comparativo de plataformas que apoyan a emprendedores, evaluando sus funcionalidades, tecnologías y el impacto que generan. El objetivo fue entender cómo diferentes sistemas abordan las necesidades de los emprendedores y qué tecnologías utilizan. Se realizaron búsquedas exhaustivas para identificar plataformas y programas en México, Chile, Bogotá y Perú, abarcando diversos enfoques y contextos regionales. Se consultaron fuentes académicas, informes y estudios de caso para obtener una visión detallada sobre cada sistema. La información recopilada incluyó: Concepto: Propósito y objetivos de cada plataforma. Lenguaje Utilizado: Tecnologías y lenguajes de programación empleados. Fuente: Publicaciones y estudios que detallan cada sistema. Argumentos: Beneficios y características destacadas. Encuestas Se realizó una encuesta a 171 emprendedores en Guerrero para entender sus características demográficas y educativas, así como su distribución sectorial. Esta información es clave para diseñar políticas y programas que fomenten el desarrollo económico y el emprendimiento en la región. Tecnologías Utilizadas Investigacion aplicada utilizando herramientas modernas La plataforma se desarrolló utilizando una serie de tecnologías modernas que aseguran su funcionamiento eficiente y su capacidad para adaptarse a las necesidades actuales. HTML: Estructura básica de las páginas web. CSS: Diseño y presentación visual. JavaScript: Interactividad del lado del cliente. PHP: Lógica del sistema en el servidor. MySQL: Gestión de bases de datos. phpMyAdmin: Administración de MySQL. Resultados La plataforma diseñada con un enfoque en la usabilidad, facilita el registro, solicitud de financiamiento y acceso a recursos. Su interfaz intuitiva y características como paneles de control personalizados y módulos de ayuda interactiva permiten una gestión eficiente y accesible, independientemente del nivel de experiencia tecnológica del usuario. Recopilación de Datos y Adaptación La plataforma se desarrolló basándose en encuestas a emprendedores locales y análisis de sistemas similares en otras regiones, lo que asegura que se alinee con las necesidades actuales y futuras de los emprendedores. Impacto y Beneficios La plataforma revoluciona la gestión de proyectos económicos en Guerrero, mejorando el acceso a financiamiento y recursos formativos. Ha fomentado la participación en programas de capacitación, mejorado la calidad de los proyectos y contribuido a la creación de empleo y desarrollo económico regional.


CONCLUSIONES

La plataforma de gestión y emprendimiento de proyectos económicos en Guerrero se rige como una herramienta innovadora y esencial para impulsar el desarrollo económico y social de la región. Su diseño integral permite centralizar y simplificar el acceso a una variedad de recursos y opciones de financiamiento, lo que facilita de manera significativa el crecimiento y el éxito de los emprendedores locales. Estos aspectos clave no solo optimizan la eficiencia y la eficacia del sistema, sino que también reducen considerablemente los costos y tiempos asociados para los usuarios y las autoridades involucradas. La plataforma actúa como un catalizador para la innovación y el emprendimiento, proporcionando un entorno propicio para el desarrollo de nuevos proyectos y la expansión de los existentes. Además de su apoyo directo a los emprendedores, el sistema contribuye de manera significativa al desarrollo económico sostenible de Guerrero. Al fomentar una cultura de emprendimiento e innovación, mejora la calidad de vida de sus habitantes y fortalece la resiliencia económica de la región. Este enfoque integral no solo facilita el éxito individual de los emprendedores, sino que también impulsa una dinámica económica positiva que beneficia a toda la comunidad, creando un ecosistema vibrante y autosuficiente que impulsa el progreso y la prosperidad a largo plazo.
Alamillo Bautista Andrea Citlalli, Instituto Tecnológico de Pachuca
Asesor: Mg. Maria de Jesus Meza Aleman, Fundación Universitaria Tecnológico Comfenalco

DIAGNÓSTICO DE LOS SISTEMAS DE GESTIÓN DE SEGURIDAD Y SALUD EN EL TRABAJO (SGSST) EN EL SECTOR HOTELERO DE CARTAGENA DE INDIAS, COLOMBIA.


DIAGNÓSTICO DE LOS SISTEMAS DE GESTIÓN DE SEGURIDAD Y SALUD EN EL TRABAJO (SGSST) EN EL SECTOR HOTELERO DE CARTAGENA DE INDIAS, COLOMBIA.

Alamillo Bautista Andrea Citlalli, Instituto Tecnológico de Pachuca. Asesor: Mg. Maria de Jesus Meza Aleman, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

Los trabajadores de los distintos sectores del mundo se exponen a diversos entornos de trabajo que indebidamente se encuentran inseguros e insalubres, muchos de estos pierden la vida durante el desarrollo de sus actividades o por enfermedades crónicas ocasionadas por la misma causa. Mientras que otros millones de trabajadores sufren accidentes o se exponen a peligros que afectan su salud. De acuerdo con cifras proporcionadas por la Organización Internacional del Trabajo (OIT), se estiman anualmente cerca de 3 millones de muertes al año debido a accidentes o enfermedades laborales, manteniendo un incremento de más del 5% en relación con el año 2015. Una cifra que marca una pauta relevante para poner atención primordial a salvaguardar y mantener la seguridad de los trabajadores; del mismo modo, cerca de 2.6 millones de muertes se deben a enfermedades causadas por el trabajo, mientras que los accidentes de trabajo son responsables de otras 330,000 muertes.  La necesidad y valoración de la implementación de los Sistemas Gestión de Seguridad y Salud en el Trabajo (SGSST), se mantiene hoy en día como una obligación normativa y se encuentran relacionados comúnmente con la norma ISO 45001:2018 siendo esta una norma internacional que contiene el desarrollo de cláusulas orientadas al desarrollo e implementación de la seguridad y salud en el trabajo. Debido a esto las organizaciones están llamadas a implementar y diseñar un SGSST, con el objetivo de mejorar las condiciones de trabajo y salvaguardar la vida de los trabajadores, así como proporcionar una calidad laboral adecuada; la implementación de estos sistemas no es sencillo, sin embargo, se perfeccionan a través de estrategias que determinar conformidades y no conformidades bajo las directrices que son implementadas y establecidas. 



METODOLOGÍA

La presente investigación Diagnostico de los Sistemas de Gestión de Seguridad y Salud en el Trabajo bajo dentro del sector hotelero de Cartagena fue de un enfoque cualitativo, los métodos utilizados fueron de tipo descriptivo; debido a que se buscan especificar las propiedades importantes de cada empresa sometidas a un análisis, se miden y evalúan diversos aspectos y dimensiones; desarrollándose un análisis con catorce empresas del sector industrial de Cartagena de Indias, en base al cumplimiento de un Sistema de Gestión de Seguridad y Salud en el Trabajo bajo el estándar ISO 45001 y así mismo con la resolución 0312 de 2019. La población objeto de estudio, es el sector hotelero de la ciudad de Cartagena de Indias, Colombia; se mantuvo una muestra de 14 empresas con clase de riesgo II y III para verificar el nivel de cumplimiento de sus Sistemas de Gestión de Seguridad y Salud en el Trabajo (SGSST). Basado en la resolución 0312 de 2019, que establece los estándares mínimos del Sistema de Gestión de la Seguridad y Salud en el Trabajo, se evaluaron las empresas utilizando ítems que especifican los criterios esenciales que cada empresa debe cumplir, junto con los valores mínimos estipulados por la resolución. Para organizar esta información, se consideraron los 60 estándares sin importar el número de trabajadores y considerando que son de riesgo II y III. Las empresas se evaluaron mediante tres valoraciones distintas: una puntuación menor al 60% indica que el estado de la organización es crítico, una puntuación entre 60% y 85% se considera moderadamente aceptable, y una puntuación superior al 85% se considera aceptable. Además, mediante el software estadístico "Jamovi", se realizó un análisis de los datos y se calcularon frecuencias absolutas y relativas, medias y desviaciones estándar. Así como también se realizo una prueba de hipótesis de Chi-Cuadrado implementando una hipótesis nula (H0) asegurando que no existe relación alguna entre la clase de riesgo (II o III) y el registro e investigación de accidentes. Y una hipótesis alternativa (H1) donde si existe una relación entre la clase de riesgo (II o III) y el registro e investigación de los accidentes. Con el fin de obtener resultados relevantes para evaluar el cumplimiento de estos sistemas de gestión en las empresas y poder generar recomendaciones específicas para cada empresa en relación con la Seguridad y Salud en el Trabajo (SST).


CONCLUSIONES

Colombia ha mostrado un avance constante en materia de seguridad y salud en el trabajo y en la gestión dentro de las organizaciones. La implementación de los Sistemas de Gestión de Seguridad y Salud en el Trabajo (SGSST) en las empresas del sector hotelero de Cartagena de Indias, según la resolución 0312 de 2019, revela que muchas de estas empresas aún enfrentan desafíos significativos. La recopilación de información sobre la implementación de esta resolución dentro de sus organizaciones permitió el análisis del estado de cumplimiento, así como información adicional importante para reconocer las posibles razones de los resultados obtenidos. Dentro de esta información se encontraron datos sobre los registros e investigaciones de los peligros ocurridos, así como sobre la existencia de un plan anual, programas de capacitación y promoción, y la clase de riesgo de cada una de las empresas. Se mantuvo una estructuración del Sistema de Gestión de Seguridad y Salud en el Trabajo (SG-SST) utilizando el instrumento de evaluación de la Resolución 0312 de 2019 y sus estándares mínimos. Este análisis incluyó 60 estándares mínimos, lo que permitió identificar y evaluar las deficiencias y fortalezas de las empresas. Con el propósito de proporcionar recomendaciones específicas a cada empresa y mejorar su SG-SST, se determinó, a través de los resultados obtenidos, la necesidad de reforzar la supervisión y las medidas correctivas para garantizar una mejora continua en la seguridad y salud laboral del sector hotelero. Aunque algunas organizaciones presentan un estado aceptable o moderadamente aceptable, es crucial mejorar la implementación y aplicación de los estándares mínimos. 
Alanis Domínguez Andrea Estefanía, Instituto Tecnológico de Morelia
Asesor: Mtro. Héctor Alejandro Galvez López, Universidad de Guadalajara

ACTUALIZACIóN DEL ARTíCULO DE REVISIóN: "INDUSTRIA 4.0 E INTERNET DE LAS COSAS EN ALMACENES INTELIGENTES: UNA REVISIóN DE TENDENCIAS".


ACTUALIZACIóN DEL ARTíCULO DE REVISIóN: "INDUSTRIA 4.0 E INTERNET DE LAS COSAS EN ALMACENES INTELIGENTES: UNA REVISIóN DE TENDENCIAS".

Alanis Domínguez Andrea Estefanía, Instituto Tecnológico de Morelia. Moreno Rojas Patricio, Instituto Tecnológico de Morelia. Asesor: Mtro. Héctor Alejandro Galvez López, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La industria es un sector crucial en la sociedad, responsable de transformar materias primas en productos y bienes de consumo, impulsando así el crecimiento económico. A lo largo del tiempo, la industria ha evolucionado significativamente, pasando por diversas etapas hasta llegar a la actual Industria 4.0, en la cual los almacenes inteligentes desempeñan un papel esencial. Los almacenes inteligentes son un claro ejemplo de innovación, integrando tecnologías avanzadas como el Internet de las Cosas (IoT), Big Data, la computación en la nube, inteligencia artificial y robótica. Estas tecnologías tienen como objetivo optimizar las operaciones en la cadena de suministro, aumentando la eficiencia y reduciendo costos. Para profundizar en este tema, se ha actualizado el artículo de revisión "Industria 4.0 e Internet de las cosas en almacenes inteligentes: una revisión de tendencias", con el propósito de reflejar las últimas tecnologías e innovaciones presentes en la Industria 4.0.



METODOLOGÍA

Se identificó el área de oportunidad de los almacenes inteligentes en la industria y las problemáticas que se presentan en los mismos, posteriormente se realizó una búsqueda de artículos relacionados con las problemáticas presentes en los almacenes inteligentes y artículos donde se proponian soluciones para resolver dichas problemáticas. Se realizó una tabla comparativa sobre las tecnologías utilizadas, las problemáticas, ventajas y desventajas de las tecnologías, la solución propuesta y los resultados obtenidos. Para así iniciar la redacción del artículo de revisión sobre las innovaciones presentes en la Industria 4.0 aplicadas en los almacenes inteligentes. Al finalizar la primera versión del artículo, se mandó a revisión con la finalidad de obtener retroalimentación y aplicar mejoras al mismo. Se repitió este procedimiento constantemente donde se aplicaban diversos cambios y se adaptaban los textos para mejorar la redacción del artículo.


CONCLUSIONES

Durante la realización de la estancia se pusieron en prática las habilidades de búsqueda de información y redacción de documentos para realizar de la mejor manera la actualización del artículo, implementando las tecnologías e innovaciones de la industria 4.0. Además de adquirir nuevas herramientas de búsqueda, también fue de suma importancia citar de manera correcta. Otro punto importante fue la comprensión adquirida sobre la importancia de la integración de tecnologías emergentes como el Internet de las Cosas (IoT), Big Data, la computación en la nube, inteligencia artificial y robótica en la optimización de las operaciones logísticas las cuales han enseñado la importancia de mantenerse al día con las últimas innovaciones tecnológicas y su aplicación práctica.
Alanis Sánchez Julio Alejandro, Instituto Tecnológico Superior de Irapuato
Asesor: Mtro. José Miguel García Guzmán, Instituto Tecnológico Superior de Irapuato

ANáLISIS DE ESTABILIDAD ESTáTICA DE TENSIóN MEDIANTE LAS CURVAS V-P Y V-Q


ANáLISIS DE ESTABILIDAD ESTáTICA DE TENSIóN MEDIANTE LAS CURVAS V-P Y V-Q

Alanis Sánchez Julio Alejandro, Instituto Tecnológico Superior de Irapuato. Hernández Ocampo Bryan Abdiel, Instituto Tecnológico Superior de Irapuato. Marín Pérez Miguel Angel, Instituto Tecnológico Superior de Irapuato. Asesor: Mtro. José Miguel García Guzmán, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

El análisis de estabilidad de tensión es uno de los tópicos importantes que se utilizan ampliamente alrededor del mundo para evaluar la seguridad de los sistemas de potencia. Los fenómenos de colapso de tensión provocados por una inestabilidad de tensión se han convertido en una de las mayores preocupaciones en los sistemas eléctricos de potencia para llevar a cabo un correcto suministro hacia las cargas, por lo que, es necesario llevar a cabo estudios y análisis que permitan evaluar el nivel de seguridad que posee cada sistema de potencia.   La mayor problemática que se presentan son los colapsos de tensión o el caso más crítico que son los grandes apagones. Durante el verano de investigación se estudian los resultados obtenidos en base a la estabilidad estática de tensión para conocer el punto máximo de potencia antes de que aparezca una inestabilidad o colapso en el sistema de potencia.



METODOLOGÍA

Como primer paso en el verano de investigación se realizó una investigación bibliográfica de los tópicos requeridos para desarrollar los algoritmos computacionales y entender de mejor manera la teoría para la interpretación de resultados.   Para la obtención de los resultados de la estabilidad estática de tensión se implementó un algoritmo computacional basado en la teoría de flujos de potencia mediante el método Newton-Raphson.   El algoritmo computacional implementado para el análisis de la estabilidad de tensión en los sistemas eléctricos de potencia basado en la interpretación de las curvas V-P y V-Q consta de las siguientes etapas: 1. Selección del Tipo de Análisis Al ejecutar el programa se muestra un mensaje en la pantalla el cual solicita la selección del tipo de análisis de potencia que se desea realizar: Carga automáticamente los datos del sistema eléctrico desde los archivos Data_5. A continuación, el programa identifica los nodos de carga del sistema y los almacena para un análisis posterior. 2. Análisis de Flujos de Potencia Dependiendo de la selección realizada en el paso anterior, se define un vector de potencia demandada, el cuál calcula las magnitudes de tensión en el sistema para cada valor de potencia demandada utilizando el método de Newton-Raphson. Estos cálculos se realizan al ejecutar el programa n veces de manera iterativa para cada nodo de carga identificado. Así mismo, se identifica el punto en el cual la tensión en un nodo de carga deja de disminuir significativamente, con el fin de conocer el punto máximo de cargabilidad que el nodo puede soportar (Pmax o Qmax). 3. Visualización de Resultados El programa genera gráficas que muestren la relación entre la potencia demandada y la magnitud de la tensión en cada nodo de carga (V-P y V-Q). Las gráficas incluyen: Potencia activa máxima en cada nodo. Potencia reactiva máxima en cada nodo. De acuerdo con los resultados obtenidos y por los comportamientos de las gráficas V-P y V-Q se conoce el nodo más débil con respecto a la potencia máxima que puede soportar y se realiza la comparativa con los demás nodos del sistema analizado.      


CONCLUSIONES

La estancia en el verano fue muy productiva, ya que se adquirieron conocimientos de la estabilidad de tensión en sistemas eléctricos de potencia, específicamente la estabilidad relacionada con la tensión nodal, la cual fue analizada mediante las curvas V-P y V-Q con la finalidad de conocer el límite de estabilidad de voltaje nodal de sistemas de potencia. Con los resultados obtenidos de la investigación y la implementación del algoritmo computacional se logró identificar los límites de potencia que puede soportar el sistema analizado antes de presentarse una inestabilidad de tensión, el trabajo de investigación fue realizado con éxito y fue concluido en tiempo y forma.
Alarcón Aldana Arath, Instituto Politécnico Nacional
Asesor: M.C. Juan Carlos Ramírez Vázquez, Instituto Tecnológico Superior de Pánuco

TRANSMISORES Y RECEPTORES


TRANSMISORES Y RECEPTORES

Alarcón Aldana Arath, Instituto Politécnico Nacional. Asesor: M.C. Juan Carlos Ramírez Vázquez, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el control remoto de dispositivos eléctricos mediante radiofrecuencia es esencial para la automatización y la eficiencia en diversos entornos, desde hogares hasta industrias. Sin embargo, implementar sistemas fiables para activar cargas de corriente alterna (CA) presenta desafíos técnicos significativos. El objetivo de este proyecto es desarrollar un transmisor y receptor de radiofrecuencia que permitan activar una carga de CA de manera remota, ofreciendo una solución práctica y accesible. Esto es especialmente relevante en situaciones donde el control manual no es viable, como en lugares de difícil acceso o para personas con movilidad reducida, así como en aplicaciones domóticas e industriales. La investigación se centrará en seleccionar frecuencias adecuadas, optimizar la comunicación inalámbrica y asegurar una integración segura con dispositivos de carga de CA, contribuyendo a la mejora de la automatización y el control remoto de sistemas eléctricos.



METODOLOGÍA

1. Definición de Requisitos del Sistema    - Identificar las especificaciones técnicas del sistema, incluyendo el tipo de carga de CA a controlar, las distancias operativas y las condiciones ambientales.    - Seleccionar el módulo de radiofrecuencia adecuado (RF433MHz) y definir sus parámetros de operación. 2. Diseño del Sistema     - Transmisor:      - Diseñar el circuito del transmisor utilizando un módulo RF433MHz y Arduino, asi como desarrollar una aplicación móvil para enviar señales de control al Arduino.     - Receptor:      - Diseñar el circuito del receptor utilizando un módulo RF433MHz e Integrar un relé para activar la carga de CA de acuerdo con las señales recibidas. 3. Desarrollo del Prototipo     - Transmisor:      - Programar el Arduino para recibir comandos desde la aplicación móvil y transmitir señales codificadas con el encoder HT12E al receptor      - Implementar la comunicación entre la aplicación móvil y el Arduino mediante Bluetooth con el módulo HC-05    - Receptor:      - Asegurar la correcta sincronización y decodificación de las señales transmitidas haciendo uso del integrado HT12D 4. Integración y Pruebas    - Integrar todos los componentes del sistema y realizar pruebas iniciales para verificar su funcionamiento.    - Realizar pruebas de alcance y fiabilidad de la comunicación RF433MHz en diferentes condiciones y distancias.    - Verificar la capacidad del sistema para activar y desactivar la carga de CA de manera segura y eficiente. 5. Optimización y Ajustes    - Analizar los resultados de las pruebas y realizar ajustes en el diseño y la programación para mejorar el rendimiento del sistema.    - Optimizar la aplicación móvil para asegurar una interfaz de usuario intuitiva y funcional. 6. Documentación     - Documentar el diseño, desarrollo y pruebas del sistema, incluyendo diagramas de circuito, código fuente y resultados de pruebas.  


CONCLUSIONES

Durante la estancia, se logró adquirir conocimientos técnicos y prácticos del área de las comunicaciones, específicamente en la rama de radiofrecuencia. Desde la selección de materiales hasta la implementación del proyecto en físico, esta experiencia me permitió darme cuenta de la importancia de esta área y del impacto que podría tener aplicando los conocimientos adquiridos en futuros proyectos. Además, el proceso despertó en mí una profunda curiosidad por investigar más sobre la tecnología de radiofrecuencia y sus aplicaciones. La capacidad de controlar dispositivos de manera inalámbrica tiene un gran potencial para innovar en diversas áreas, desde la domótica hasta la automatización industrial. Este proyecto me ha motivado a seguir explorando esta área, buscando nuevas maneras de aplicar y expandir mis conocimientos para contribuir a desarrollos tecnológicos futuros.
Alarcón Rodríguez Diana Margarita, Instituto Tecnológico de Ciudad Juárez
Asesor: Mg. Eduardo Ocampo Ferrer, Universidad La Gran Colombia

GESTIóN DEL TRáFICO DE MERCANCíAS EN LAS ZONAS FRONTERIZAS.


GESTIóN DEL TRáFICO DE MERCANCíAS EN LAS ZONAS FRONTERIZAS.

Alarcón Rodríguez Diana Margarita, Instituto Tecnológico de Ciudad Juárez. Chihuahua Velarde Lizbeth Guadalupe, Instituto Tecnológico de Ciudad Juárez. Asesor: Mg. Eduardo Ocampo Ferrer, Universidad La Gran Colombia



PLANTEAMIENTO DEL PROBLEMA

La congestión en las zonas fronterizas es una preocupación creciente debido a la necesidad de exportar mercancías, de un país a otro. Sin embargo, la demanda y la gestión del control de acceso puede presentar desafíos, como la falta de integración entre los sistemas, dificultades en la gestión de usuarios y limitaciones en la escalabilidad. Esto puede resultar en vulnerabilidades potenciales y obstaculizar la eficacia del flujo de automóviles. Por lo tanto, el problema a abordar radica en encontrar posibles mejoras en la eficiencia, la integración y la seguridad de la gestión de mercancías en las zonas fronterizas.



METODOLOGÍA

La frontera entre Ciudad Juárez, Chihuahua, y El Paso, Texas, es uno de los corredores comerciales más importantes entre México y Estados Unidos. La gestión eficiente del tráfico de mercancías en esta zona es fundamental para el desarrollo económico de ambos países y para mantener la fluidez en el comercio transfronterizo. Esta investigación descriptiva fue realizada con el objetivo de describir las prácticas actuales de gestión del tráfico de mercancías en esta frontera, identificar los factores que contribuyen a la congestión, y proponer estrategias y tecnologías para mejorar la eficiencia del tráfico y reducir la congestión. Para llevar a cabo esta investigación, se empleó un enfoque mixto que combinó tanto métodos cualitativos como cuantitativos. Se analizaron datos y tendencias de los últimos cinco años (2019-2024) para proporcionar una visión completa de la situación actual y de cómo ha evolucionado la gestión del tráfico en la región. Como parte del proceso, se llevó a cabo una revisión exhaustiva de la literatura existente. Esta incluyó estudios académicos sobre logística y transporte internacional, así como reportes de organizaciones internacionales. La revisión ayudó a establecer un marco teórico que sirvió de base para el análisis de los datos recopilados. La recopilación de datos fue una parte fundamental de esta investigación. En cuanto a los datos cuantitativos, se recopilaron estadísticas de comercio de fuentes oficiales como el CBP y el SAT. Esto incluyó datos sobre el volumen de mercancías que cruzan la frontera, los tiempos de espera en los cruces, y los costos operativos asociados con el tráfico de mercancías. Se utilizaron datos históricos para identificar tendencias en el tráfico de mercancías y evaluar la efectividad de las prácticas de gestión actuales. Además, se realizaron encuestas estructuradas dirigidas a transportistas y empresas de logística. En el ámbito de los datos cualitativos, se llevaron a cabo entrevistas semiestructuradas con factores clave en la gestión del tráfico de mercancías. Las entrevistas se centraron en obtener información detallada sobre los desafíos, las soluciones implementadas, y las oportunidades para mejorar la gestión del tráfico. En total, se entrevistó a 25 individuos clave, lo que permitió obtener una diversidad de perspectivas. Asimismo, se realizó una observación directa en los principales puentes internacionales de la región, como el Puente Libre y el Puente de las Américas. Esta observación permitió documentar el flujo de tráfico y las operaciones diarias, proporcionando una comprensión empírica de los procesos y desafíos que enfrenta la frontera. También se llevó a cabo un análisis documental exhaustivo de documentos oficiales, regulaciones aduaneras, y políticas actuales, incluyendo la evaluación de iniciativas de modernización de infraestructura y tecnología que se han implementado para mejorar el flujo de tráfico. El análisis de datos incluyó el uso de herramientas estadísticas para analizar los datos cuantitativos y métodos de análisis de contenido para interpretar los datos cualitativos. Los indicadores clave de rendimiento evaluados incluyeron los tiempos de espera promedio, los volúmenes de mercancías procesadas, y la eficiencia operativa en los cruces fronterizos. A través de este análisis, se identificaron los principales factores que contribuyen a la congestión en la frontera, como la insuficiencia de infraestructura y la complejidad de los procedimientos aduaneros. Basándose en los hallazgos, se desarrollaron estrategias específicas para abordar estos desafíos. Las propuestas se centraron en áreas clave como la modernización de la infraestructura, la adopción de tecnología y automatización, la cooperación binacional, y la sostenibilidad. La modernización de la infraestructura incluyó proyectos de ampliación de carriles y la construcción de nuevos puentes internacionales para aumentar la capacidad de cruce. La adopción de tecnología se centró en la implementación de sistemas de gestión de tráfico inteligentes y plataformas de blockchain para mejorar la transparencia y la eficiencia. La cooperación binacional buscó armonizar regulaciones y procedimientos entre México y EE.UU., reduciendo la burocracia y facilitando el flujo de mercancías. Finalmente, se promovieron prácticas logísticas sostenibles para reducir el impacto ambiental del tráfico de mercancías, como el uso de vehículos de transporte más limpios y la incorporación de energías renovables en las operaciones aduaneras.


CONCLUSIONES

Podemos concluir que durante el periodo de investigación se lograron detectar más factores que afectan el cruce de mercancías de México hacia Estados Unidos de los cuales dichos factores no se tenía un conocimiento amplio, de tal modo gracias a los análisis cualitativos y cuantitativos que se realizaron se pudo concluir que para notar una mejora es necesario la implementación de tecnologías más actualizadas, el uso de combustibles más amigables con el medio ambiente y mejores infraestructuras en la frontera de México. Cuando se implementen estas mejoras se lograra ver un cambio radical en el tráfico de mercancías, especialmente las exportaciones e importaciones de la frontera.
Alarcon Roman Jordan Emmanuel, Universidad Autónoma de Guerrero
Asesor: Dra. Ariadna Trujillo Estrada, Universidad Autónoma del Estado de Hidalgo

USO DE RESIDUO DE CONSTRUCCIóN Y DEMOLICIóN (RCD) COMO AGREGADO EN EL CONCRETO.


USO DE RESIDUO DE CONSTRUCCIóN Y DEMOLICIóN (RCD) COMO AGREGADO EN EL CONCRETO.

Alarcon Roman Jordan Emmanuel, Universidad Autónoma de Guerrero. Asesor: Dra. Ariadna Trujillo Estrada, Universidad Autónoma del Estado de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Actualmente el uso del cemento y los agregados naturales se han incrementado drásticamente, debido a la sobrepoblación que existe de manera acelerada, lo que ha causado un gran impacto ambiental y sobreexplotación de las minas lo que ha generado extinción de las mismas. Además la generación de los residuos de la construcción y demolición (RCD), se ha incrementado de manera exponencial. En este trabajo se utiliza el RCD como agregado al concreto para evitar los agregados naturales y así evitar que los residuos de la construcción lleguen a los vertederos y sean un foco de contaminación.   En la figura 1 se muestran los años de publicación sobre el uso de residuo de construcción y demolición (RCD) como agregado en el concreto; para el año 2006 se publicó sobre la sustitución de agregados gruesos para concreto (J. Calico Lopes de Brito. 2006),  escribe acerca de producción  de  concreto  reciclado y el  reciclaje  repetitivo  de agregados gruesos de concreto producto de la demolición. Durante esa misma década en 2009 se publicó otro artículo relacionado a la sustitución de agregados gruesos RCD.   Figura1. Artículos publicados sobre RCD del año 2006 al 2023. Sin embargo una década trascurrió para que se volviera a tener noticias del uso de RCD como agregado al concreto (F. Cipriano Rojas. 2019). A partir del 2021 la  substitución de agregados naturales en la producción de concreto  contribuye de modo importante en la reducción de residuos sólidos que tienen consecuencias negativas en el ambiente.  



METODOLOGÍA

La obtención de los agregados en los bancos de RCD se extraen por medios manuales, se someten a un proceso mecánico de triturado en donde se obtienen partículas de diferente tamaño, después se tamiza en mallas de 0.4 a 0.1 mm. Para obtener la granulometría requerida. Se utilizan las normas imt (N-CMT-2-02-002/02) que indican la proporción del cemento y el agregado RCD, estos agregados van desde el 10% hasta un 70% en peso. Se preparan los moldes para poder elaborar las probetas, todas siempre por triplicado; se pesan los materiales y se homogenizan para que al momento de vertir el agua toda la probeta quede uniforme. Las probetas se elaboran para llevarse a una prueba de compresión, en una máquina para ensayos de compresión ASTM Compact-Line Automática Pilot pro, a un tiempo de fraguado de 7,14 y 28 días. Para observar el desempeño del cemento con agregados de RCD. Además se hace una prueba de absorción de agua de acuerdo a la norma ASTM C20 que dice que se pesa la muestra en seco, se debe de sumergir en agua caliente, llevarla hasta el punto de ebullición y mantenerla así durante 2 horas, después de este proceso se pesa una vez más y se obtiene la porosidad aparente del concreto en cuestión. Posteriormente se le realizan pruebas mecánicas a las probetas (ensayo de compresión) para observar el comportamiento que tienen las probetas al someterlas a pruebas de ensayos de compresión. Después de finalizar las pruebas mecánicas en las probetas, se procede a realizar un análisis meticuloso con respecto al tipo de fracturas que presenta cada espécimen.


CONCLUSIONES

   Figura 3: Porcentaje de porosidad con respecto al porcentaje de agregado RCD En la figura 3, se puede apreciar los resultados de las pruebas de porosidad con distintos porcentajes de agregados al concreto del 10 al 70% y un blanco de concreto. Se observa que para un  40% de agregado RCD, la porosidad sube hasta un 37.56% e indica que es más poroso, y que deja pasar el agua, sin embargo para un 50% de agregado de RCD se tiene un menor porcentaje de porosidad esto quiere decir que se puede utilizar este total de porcentaje debido a que tendrá menos porosidad y menor absorción de agua, permitiendo que las estructuras tengan un menor ataque con respecto al ambiente.    Figura 4: Porcentajes de resistencia de compresión  en diferentes días de fraguado. En la figura 4 se presenta los porcentajes de resistencia a la compresión con respecto a los días de fraguado 7,14 y 28 días. Se realizaron las pruebas mecánicas de resistencia (máquina para ensayos de compresión  ASTM compact-line automática Pilot). Los porcentajes de RCD que se utilizaron van desde el 10 al 70% y se tomó un blanco con el 100% de cemento. La resistencia más baja que se observa a los 7 días con una resistencia de 5.27 kg/cm2/s para un porcentaje de 10% debido al poco tiempo de fraguado. Los cilindros de 14 días, tienen un mejor desempeño a comparación de los 7 días, el comportamiento es constante y su resistencia más alta que obtuvo fue con el agregado de RCD con el 20% de 328.11kg/cm2/s. Finalmente se realizaron los ensayos de compresión con las probetas de 28 días de fraguado, que obtuvieron el mejor desempeño  a comparación de las probetas de 7y 14 días. El porcentaje con el mejor comportamiento que se registrado en la gráfica fue de 521.02 kg/cm2/s con el porcentaje de agregado del 40%. Debido a las pruebas de porosidad y compresión el mejor porcentaje de RCD que se puede utilizar como agregado al concreto para resistencia a la compresión es 40% porque presenta un mejor desempeño, sin embargo, si el RCD se ocupa para reducir porosidad del concreta el mejor porcentaje es 10% ya que el desempeño de este es mejor.
Alatorre Aguilera Rosalba, Universidad de Guadalajara
Asesor: Mg. Luis Felipe Ortiz Clavijo, Universidad Autónoma Latinoamericana

HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL GENERATIVA APLICADAS A LA GESTIóN DE LA CALIDAD Y EL CUMPLIMIENTO NORMATIVO


HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL GENERATIVA APLICADAS A LA GESTIóN DE LA CALIDAD Y EL CUMPLIMIENTO NORMATIVO

Alatorre Aguilera Rosalba, Universidad de Guadalajara. Garcia Espejo Ramon, Universidad de Guadalajara. Asesor: Mg. Luis Felipe Ortiz Clavijo, Universidad Autónoma Latinoamericana



PLANTEAMIENTO DEL PROBLEMA

¿Cómo pueden las herramientas de inteligencia artificial generativa optimizar los procesos de gestión de calidad y cumplimiento normativo en organizaciones industriales? La inteligencia artificial (IA) desempeña un papel crucial en el desarrollo de herramientas esenciales para realizar actividades en la industria, mejorando la eficiencia y promoviendo la gestión de la calidad y el cumplimiento normativo.  Por ellos esta invistigacion se basa en analizar el impacto de las herramientas de IA generativa en la reducción de errores y la mejora en los procesos de gestión de calidad, identificar los beneficios y desafíos de la implementación de estas tecnologías y proponer estrategias para maximizar el potencial de la IA en la gestión de la calidad y el cumplimiento normativo en la ingeniería industrial.  



METODOLOGÍA

Este estudio utiliza un enfoque cuantitativo basado en el análisis de datos de las empresas que han implementado herramientas de IA generativa en sus procesos de gestión de calidad y cumplimiento normativo. Se emplearon técnicas de análisis estadístico y minería de datos para evaluar el impacto de estas herramientas. Se emplearon herramientas de análisis de datos como Python y R para el análisis estadístico, y técnicas de minería de datos para identificar patrones y correlaciones relevantes en los datos recolectados. Además los datos se recolectaron de las bases de datos industriales y los reportes de empresas que han adoptado IA generativa. También se utilizaron fuentes secundarias, como publicaciones académicas y estudios de caso disponibles en la literatura.  


CONCLUSIONES

La IA generativa puede mejorar significativamente la gestión de la calidad y el cumplimiento normativo en el ámbito de la ingeniería industrial, con una reducción de errores y una mejora en la eficiencia. Se recomienda a las organizaciones invertir en capacitación para explorar la implementación de IA generativa en diferentes sectores y regiones para la mejora de la calidad y el cumplimiento para lograr un mejor control dentro de los procesos operativos, administrativos, organizacionales, etc. En conclusión la adopción generalizada de IA generativa podría transformar la manera en que se gestionan la calidad y el cumplimiento normativo, haciendo los procesos más eficientes y precisos ayudando a las empresas a mejorar continuamente.
Albarracin Campos Laury Valentina, Universidad Pontificia Bolivariana
Asesor: Mg. Jessica Gissella Maradey Lázaro, Universidad Autónoma de Bucaramanga

¡BIKE-UP!: DEVELOPMENT OF ​E-BIKES FOR URBAN MOBILITY


¡BIKE-UP!: DEVELOPMENT OF ​E-BIKES FOR URBAN MOBILITY

Albarracin Campos Laury Valentina, Universidad Pontificia Bolivariana. Asesor: Mg. Jessica Gissella Maradey Lázaro, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

Una de las problemáticas mundiales más relevantes en la actualidad es el uso de vehículos de combustión interna, debido a que es una fuente de contaminación del aire y contribuye significativamente a las emisiones de gases de efecto invernadero, lo cual no solo afecta a la salud de las personas y a los ecosistemas, sino que también contribuye al cambio climático global. Esto sin contar que el tráfico vehicular genera congestión en las calles, lo que lleva a un aumento en los tiempos de desplazamiento y molestias para los ciudadanos, aún más cuando el sistema de transporte público masivo no es eficiente y las personas optan por tener su vehículo particular, como es el caso del área metropolitana de Bucaramanga.   En el transcurso de las últimas décadas, el transporte urbano ha experimentado varios cambios gracias a las alternativas encaminadas a disminuir la contaminación en el ambiente. Entre estas alternativas de innovación se encuentran las bicicletas eléctricas o más conocidas como e-bikes. Este tipo de bicicleta ofrece la versatilidad de una bicicleta tradicional, pero con asistencia eléctrica, de esta manera combina la reducción de contaminación con la comodidad de las personas al no requerir un esfuerzo físico muy elevado para transportarse.   La bicicleta como medio de transporte: Estrategia 2019-2030 para Bucaramanga y su Área Metropolitana surgió en septiembre de 2018 bajo la alcaldía de Rodolfo Hernández. Fue desarrollada por la Alcaldía de Bucaramanga en colaboración con ONU Hábitat y la Fundación Despacio. Su objetivo es Mejorar las condiciones para que la bicicleta se pueda usar de manera segura y equitativa, al mismo tiempo que se mejoran las condiciones urbanas para toda la comunidad de los municipios de Bucaramanga, Floridablanca, Girón y Piedecuesta. La implementación de esta estrategia busca abordar problemas de congestión, contaminación y seguridad vial, promoviendo un cambio hacia un transporte más sostenible y saludable​. El proyecto consiste en el desarrollo de una bicicleta eléctrica como una alternativa de transporte sostenible que apoye la Estrategia de ciclo-inclusión del Área Metropolitana de Bucaramanga, y que a su vez cumpla con los siguientes criterios:   Buena relación potencia- peso Asistencia eléctrica Bajo costo Uso de telemetría Adecuada para uso urbano   Las e-bikes han venido evolucionando gracias a que han sido aceptadas por su impacto con el medio ambiente, su implementación ayudará a reducir la dependencia de vehículos de combustión interna, disminuyendo así las emisiones de gases contaminantes y mejorando la calidad del aire. Además, las e-bikes pueden contribuir a aliviar la congestión del tráfico, ofreciendo una opción de transporte eficiente y rápida para distancias cortas y medias. La promoción del uso de e-bikes también puede fomentar un estilo de vida más saludable entre los ciudadanos, ya que combina la actividad física con la facilidad de asistencia eléctrica.



METODOLOGÍA

La metodología utilizada fue la DFMA. Design for Manufacture and Assembly (DFMA) es una metodología de diseño que se centra en reducir costos y facilitar el ensamblaje y la manufactura de productos desde las primeras etapas del desarrollo. Los criterios incluyen la reducción del número de partes, la simplificación de las operaciones de ensamblaje y manufactura, y la minimización del inventario. Esta metodología es esencial para evitar retrasos y costos adicionales que pueden surgir debido a correcciones en el diseño cuando se inicia la manufactura.    Siguiendo estos lineamientos lo primero que se realizó fue un estudio a profundidad sobre la normativa y la situación de las ciclovías y el uso de las bicicletas en el Área Metropolitana de Bucaramanga, donde se quiere implementar el proyecto. En base a esta información se busco en la literatura todo lo relacionado con el tema de desarrollo de chasis y la parte eléctrica, para tener una base solida al momento de desarrollar el diseño según las necesidades identificadas con anterioridad. El diseño de la e-bike se realiza en un software CAD que permite realizarle a la estructura los respectivos análisis estructurales antes de su fabricación asegurando la viabilidad del proyecto.


CONCLUSIONES

Durante la estancia en el verano de investigación se adquirieron conocimientos muy relevantes en el desarrollo de la vida profesional, desde la estructuración de un proyecto y un artículo, hasta el aprendizaje de distintas metodologías usadas en la ingeniería, que se vieron aplicados en el transcurso del programa. Debido a la amplitud del proyecto aun se encuentra en la etapa de diseño y validación para una posterior fabricación, lo cual quiere lograr un impacto positivo en la ciudad mientras se promueve un transporte sostenible y saludable.   La velocidad promedio de una e-bike en la literatura revisada es de 25 km/h, y puede recorrer hasta los 75 km antes de agotarse su batería, lo que hace a las e-bikes ideales para el contexto urbano por su comodidad y eficiencia en trayectos cortos.   De los documentos leídos se pudo observar una gran predominancia en la selección del material AISI 4130, esto debido a su disponibilidad en el mercado, su bajo peso, propiedades mecánicas y fácil soldabilidad. Así mismo, otro común denominador fue la elección de la cadena como sistema de transmisión de potencia, por su alta eficiencia en comparación con sistemas como la correa y el eje motriz.
Albino Espindola Jesus David, Universidad de Sonora
Asesor: Dra. Mireya Tovar Vidal, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE UN MODELO DE APRENDIZAJE AUTOMáTICO PARA PREDECIR TRASTORNOS ALIMENTICIOS EN REDES SOCIALES


DESARROLLO DE UN MODELO DE APRENDIZAJE AUTOMáTICO PARA PREDECIR TRASTORNOS ALIMENTICIOS EN REDES SOCIALES

Albino Espindola Jesus David, Universidad de Sonora. Asesor: Dra. Mireya Tovar Vidal, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la salud mental se reconoce como un factor crucial para el bienestar personal. Sin embargo, esta dimensión de la salud está constantemente influenciada por una variedad de factores internos y externos que pueden desencadenar diversos trastornos mentales, entre estos están los trastornos del comportamiento alimentario. En México, según la Secretaría de Salud en 2021, por cada 100,000 habitantes 2.39 padecen de anorexia, bulimia u otro trastorno alimenticio. Lo que según la Asociación Americana de Psicología, deriva en que la mayoría de personas tenga baja autoestima, se sientan indefensas y con una profunda insatisfacción con su apariencia. También puede derivar en problemas físicos y en casos extremos los trastornos alimenticios pueden derivar en suicido. Tomando en consideración que los problemas alimenticios es un tipo de enfermedad, durante el verano del Programa Delfín se realiza un estudio de esta enfermedad en opiniones de redes sociales a través del aprendizaje automático y el procesamiento de lenguaje natural. Con el objetivo de lograr esto se resolverá la tarea 1.a de MentalRiskES en IberLEF 2023, el cual tiene como objetivo desarrollar un modelo de clasificación binaria para identificar los trastornos alimenticios de bulimia o anorexia.



METODOLOGÍA

La metodología utilizada para resolver el problema de problemas alimenticios es el ciclo de vida de la ciencia de datos que consta de cuatro pasos. En el primer paso se obtiene el conjunto de datos correspondiente al trabajo que se realizará. Para este trabajo los datos fueron proporcionados por IberLEF 2023. El conjunto de datos esta compuesto por 175 datos para entrenamiento y 10 para prueba. El segundo paso es el preprocesamiento de datos. Este paso consiste en la limpieza, normalización y estandarización para crear un corpus con el objetivo de mejorar la precisión y eficiencia de los modelos. El preprocesamiento se llevó acabo convirtiendo a minúsculas y tokenizando cada mensaje para eliminar las stopwords y los signos de puntuación. Sin embargo, hubo tokens que no se procesaron correctamente, por lo que se procedió a la creación de arreglos y diccionarios para procesar estos tokens correctamente. Esto resultó en un total de 9,724 tokens para el corpus de entrenamiento. Posteriormente, se procedió a realizar la vectorización del corpus tokenizado usando Bag of Words. El tercer paso es entrenar a los modelos de clasificación. Los modelos usados fueron Random Forest y Logistic Regression. Cada modelo fue entrenado usando el 70% de los datos de entrenamiento. Además, el modelo Random Forest se configuró para la creación de 100 árboles de decisión, utilizando el criterio Gini para evaluar la calidad de las divisiones en los nodos. Se definió sqrt como el número máximo de características a considerar para cada división de nodo. También, se permitió que el modelo utilizara múltiples muestras para el entrenamiento. El modelo de Logistic Regression fue declarado con los valores por defecto. El cuarto paso consiste en evaluar a los modelos. Se realizaron 3 evaluaciones. La primera evaluación consiste en dividir el corpus de entrenamiento con el 70% para entrenar el modelo y el 30% restante para la prueba y la segunda evaluación consiste en usar los 10 datos de prueba. Para estas dos evaluaciones se consideraron las métricas precision, para obtener la proporción de verdaderos positivos entre el total de instancias que fueron predichas como verdaderas; recall, para medir la sensibilidad del modelo de identificar las instancias positivas y f1, para obtener la media armónica entre precision y recall. Finalmente, la tercera evaluación consiste en obtener el promedio accuracy a partir de validación cruzada con 10 instancias usando el 70% de los datos de entrenamiento y 30 % de prueba. Para asegurar la replicabilidad de los resultados se definió random state igual a 3 tanto para los modelos como para la división de los datos.


CONCLUSIONES

En base a los resultados experimentales realizados se obtuvo que, al probar los modelos con el 30% de los datos de entrenamiento, el modelo Random Forest muestra mejores resultados comparado con Logistic Regression, debido a que muestra un promedio de 94%, 93% y 94% para precision, recall y f1, respectivamente, mientras que Logistic Regression obtuvo valores de 87%, 90% y 88%, respectivamente. Al evaluar los modelos con los 10 datos adicionales se obtuvo de igual manera que Random Forest es mejor clasificador al tener un promedio de 80% para todas las métricas, mientra que Logistic Regression obtuvo valores de 71% para precision y 70% para recall y f1. Sin embargo, el promedio accuracy fue más elevado en el modelo Logistic Regression con un 84.35% comparado con Random Forest que obtuvo un 80.38%. En conclusión, aunque el modelo Random Forest mostró mejores resultados para determinado conjunto de datos, es el modelo de clasificación Logistic Regression el que funciona mejor para diferentes conjuntos de datos. Esta discrepancia en los resultados también sugiere que el preprocesamiento de datos podría no haberse llevado a cabo de manera óptima, lo que reduce significativamente los resultados obtenidos por los modelos de clasificación. Además, el tamaño relativamente pequeño del conjunto de datos influye significativamente en la precisión de los modelos. Esto solo significa que aún hay margen de mejora, como un mayor refinamiento en el preprocesamiento de los datos usando técnicas como stemming o lematización, aplicar otros modelos de vectorización como TF-IDF, word embeddings, one-hot encoding o n-grams y usar más modelos de aprendizaje automático. Es así como este trabajo, desarrollado durante la estancia del Programa Delfín, me ha permitido adquirir diferentes conocimientos. Entre ellos la importancia del adecuado preprocesamiento de los datos, ya que es fundamental para obtener resultados favorables. Lo que significa que es un proceso donde cada vez se añaden mejoras en función de los resultados deseados. Además, se ha adquirido un conocimiento más profundo en áreas críticas como el aprendizaje automático, el Procesamiento del Lenguaje Natural (PLN) y la programación en el lenguaje Python. Lo que me permitió cumplir mi objetivo de conocer cómo estas tecnologías emergentes funcionan y se usan en ámbitos importantes como es la salud mental.
Alcala Alba Abel, Instituto Tecnológico Superior de Tacámbaro
Asesor: Mtra. Elizet Ibarra Limas, Instituto Tecnológico Superior de Tacámbaro

SISTEMA WEB PARA AGENDAR CITAS, RECORDATORIOS Y SEGUIMIENTO DE EXPEDIENTE CLíNICO


SISTEMA WEB PARA AGENDAR CITAS, RECORDATORIOS Y SEGUIMIENTO DE EXPEDIENTE CLíNICO

Alcala Alba Abel, Instituto Tecnológico Superior de Tacámbaro. Estrella Rangel Lorenzo Antonio, Instituto Tecnológico Superior de Tacámbaro. Asesor: Mtra. Elizet Ibarra Limas, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

El spa Mina Lim enfrenta varios desafíos significativos debido a su método actual de gestión de citas a través de WhatsApp. Aunque esta herramienta ha proporcionado una solución accesible y de bajo costo para manejar la agenda de citas, presenta múltiples problemas que afectan la eficiencia operativa y la satisfacción del cliente. La administración de citas mediante WhatsApp es un proceso manual que consume una cantidad considerable de tiempo y esfuerzo del personal. Cada solicitud de cita, confirmación y recordatorio debe ser gestionada individualmente, lo que no solo es ineficiente, sino que también aumenta la posibilidad de errores humanos. Por ejemplo, es común que se produzcan errores como la doble reserva o la omisión de mensajes importantes. Estos errores no solo generan inconvenientes para los clientes, sino que también afectan la reputación del spa. Además, el seguimiento manual de confirmaciones y recordatorios de citas requiere una atención constante del personal, lo que desvía recursos humanos que podrían ser mejor empleados en otras áreas críticas del servicio al cliente. Este enfoque laborioso y propenso a errores es insostenible a medida que la clientela del spa crece.



METODOLOGÍA

Para el diseño y documentación del sistema web destinado a la gestión de citas, recordatorios y seguimiento de expedientes clínicos en un spa, se siguieron varias fases metodológicas esenciales. Aunque el sistema aún no ha sido desarrollado, se ha realizado una planificación y documentación detallada para su futura implementación. Se llevó a cabo una investigación preliminar para comprender las necesidades del spa y establecer un marco teórico adecuado. Este proceso incluyó: Revisión de la Literatura: Se investigaron estudios y documentos relevantes sobre sistemas de gestión de citas y expedientes clínicos para identificar mejores prácticas y tecnologías adecuadas. Entrevistas y Encuestas: Se realizaron entrevistas con el personal del spa y encuestas a clientes para recopilar información sobre sus necesidades y expectativas respecto al sistema. Análisis de Sistemas Existentes: Se evaluaron sistemas similares en el mercado para identificar fortalezas y debilidades, lo que ayudó a definir los requisitos del nuevo sistema. Con la información recopilada en la fase preliminar, se llevó a cabo un análisis detallado de los requisitos del sistema. Este análisis incluyó: Requisitos Funcionales: Se identificaron las funciones esenciales que el sistema debía cumplir, como la gestión de citas, recordatorios automáticos y seguimiento de expedientes clínicos. Requisitos No Funcionales: Se definieron criterios de rendimiento, seguridad, usabilidad y escalabilidad del sistema. Especificación de Requisitos: Se elaboró un documento de especificación de requisitos que sirvió como guía para el diseño del sistema. El diseño del sistema se centró en crear una arquitectura robusta y una interfaz de usuario intuitiva. Las actividades clave en esta fase incluyeron: Modelo Entidad-Relación (E-R): Se diseñó un modelo E-R para representar la estructura de la base de datos, identificando entidades principales como pacientes, citas, recordatorios y expedientes clínicos, y las relaciones entre ellas. Diagramas de Casos de Uso: Se desarrollaron diagramas de casos de uso para describir las interacciones entre los usuarios y el sistema, asegurando que todas las funcionalidades requeridas fueran cubiertas. Prototipos de Interfaz de Usuario (UI): Se crearon prototipos de la interfaz utilizando herramientas de diseño como Balsamiq, permitiendo la simulación y evaluación del diseño antes de su implementación. Aunque el sistema aún no ha sido desarrollado, se realizó una selección de tecnologías que se utilizarán en la futura implementación. Las tecnologías seleccionadas incluyen: HTML/CSS: Para la estructura y el diseño de la interfaz. JavaScript: Para la interactividad y funcionalidades dinámicas. PHP: Para la lógica del servidor y manejo de datos. MySQL: Para la gestión de la base de datos. Bootstrap: Framework para asegurar un diseño responsivo y compatible con dispositivos móviles. XAMPP: Plataforma de desarrollo local que incluye un servidor web y un sistema de gestión de bases de datos. Se elaboró un plan de pruebas detallado que será utilizado una vez que el sistema sea desarrollado. Este plan incluye: Pruebas Unitarias: Verificación de que cada componente individual del sistema funcione correctamente. Pruebas de Integración: Aseguramiento de que los diferentes módulos del sistema trabajen juntos sin problemas. Pruebas de Sistema: Evaluación del sistema en su totalidad para verificar que cumpla con todos los requisitos especificados. Pruebas de Usuario: Pruebas con usuarios reales para obtener retroalimentación directa y hacer los ajustes necesarios. Mediante esta metodología, se ha documentado y diseñado un sistema web robusto, seguro y eficiente, que está preparado para ser desarrollado en el futuro y utilizado para mejorar la gestión de citas, recordatorios y expedientes clínicos en el spa.


CONCLUSIONES

El proyecto de investigación se centró en la documentación y diseño preliminar de un sistema web para la gestión de un spa. Aún no se ha desarrollado el sistema web, pero se ha establecido una base sólida para su futura implementación. El sistema propuesto busca optimizar la gestión del spa mediante una plataforma accesible, segura y eficiente, mejorando la experiencia tanto de los administradores como de los clientes. La implementación de estas tecnologías permitirá al spa mantenerse competitivo en un mercado exigente, mejorar la satisfacción del cliente y aumentar la eficiencia operativa.
Alcaraz Alvarez Cesar Bryan, Universidad de Sonora
Asesor: Dr. Jose Guadalupe Miranda Hernández, Universidad Autónoma del Estado de México

FABRICACIóN Y ANáLISIS MECáNICO DE COMPUESTOS METáLICOS AVANZADOS ZNNI-AGTI POR MEDIO DE PROCESAMIENTO DE POLVOS EN ESTADO SóLIDO


FABRICACIóN Y ANáLISIS MECáNICO DE COMPUESTOS METáLICOS AVANZADOS ZNNI-AGTI POR MEDIO DE PROCESAMIENTO DE POLVOS EN ESTADO SóLIDO

Alcaraz Alvarez Cesar Bryan, Universidad de Sonora. Asesor: Dr. Jose Guadalupe Miranda Hernández, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Uno de los métodos para manufacturar  compuestos avanzadas es el procesamiento de polvos lo cual es una técnica no convencional utilizada en la fabricación de materiales para crear piezas sólidas a partir de polvos finos de diferentes materiales. Este proceso implica la producción de una mezcla homogénea de polvos, seguida de la aplicación de calor y presión controlados para compactar y unir los polvos en una pieza sólida. El procesamiento de polvos es una técnica versátil que se utiliza en una amplia gama de industrias, incluyendo la metalurgia, la cerámica y la fabricación de materiales compuestos.  



METODOLOGÍA

El procesamiento de polvos es una técnica de manufactura en la que se fabrican componentes o productos mediante la compresión de polvo metálico o material cerámico dentro de un molde. Una vez comprimido el polvo, se somete a un proceso de calentamiento conocido como sinterización, que le confiere a la pieza propiedades de resistencia y dureza. Este proceso es ideal para producir piezas con geometrías complejas, metales con altos puntos de fusión y combinaciones de metales con diferencias significativas en sus temperaturas de fusión. Además, se puede utilizar con metales, cerámicas y ciertos polímeros. El procesamiento de polvos permite controlar la porosidad de las piezas y lograr una composición homogénea, lo que garantiza una conductividad eléctrica y térmica uniforme. Las fases del proceso de fabricación y caracterización de las aleaciones propuestas se describen a continuación: Fase 1-. Producción de las aleaciones mediante el procesamiento de polvos. Creación de los sistemas químicos.   Los sistemas químicos ZnNi, y ZnNi-AgTi se fabricarán mediante un proceso de molienda mecánica y sinterización en estado sólido. Se emplearán polvos metálicos comerciales de Zn, Ni, Ag y Ti . En primer lugar, se preparará el sistema químico base ZnNi en una proporción de 70-30 en peso, respectivamente, para una masa total de 10 g. Posteriormente, se elaborarán sistemas químicos adicionales ZnNi + X% en peso de Ag y de Ti (X = 1.0, 2.0 y 3.0)utilizando 10g de ZnNi para cada composición química lo cual le corresponde con 0.1g de Ag y 0.1g de Ti para el primer sistema, 0.2g de Ag y 0.2g de Ti para la segunda y así sucesivamente. Además se crearon muestras de  ZnNi-Ag (9g Zn, 1g Ni, 0.3g Ag) para contrastar los efectos que produce el Titanio en la muestra.        b. Mezcla - molienda La mezcla-molienda se emplea para lograr una composición química homogénea y modificar la morfología de las partículas, buscando obtener una mezcla uniforme con composición controlada. Para este fin, las composiciones de los sistemas químicos se someterán a un proceso de molienda de 4 horas a 200 rpm en un molino planetario de alta energía (Fritsch, Pulverissette 6), utilizando un recipiente y bolas de molienda de ágata en una proporción de 1 parte de polvo por 10 partes de bolas de molienda.         c. Compactado El proceso de compactación o prensado de los polvos, bajo una presión determinada, resulta en la formación de una pieza compactada. Esta pieza posee la consistencia adecuada para conservar su integridad durante la manipulación necesaria hasta la etapa de sinterización. Los polvos provenientes del proceso de mezcla-molienda se compactarán mediante un dado de acero inoxidable, utilizando un prensado uniaxial a temperatura ambiente. Se aplicará una presión de 300 MPa durante 1 minuto utilizando una prensa hidráulica (FIICSA) con una capacidad máxima de carga de 30 toneladas.         d. Sinterización El objetivo de este proceso es aumentar la fuerza y la resistencia de la pieza, creando enlaces fuertes entre las partículas mediante la difusión inducida por la aplicación de energía térmica. La sinterización de las muestras compactadas se llevará a cabo en un horno eléctrico y en una atmósfera de nitrógeno para prevenir la oxidación, con una velocidad de calentamiento de 10 °C/min. Durante el proceso de sinterización, las muestras se someterán a ciclos de temperatura. Comenzarán a temperatura ambiente y se elevarán a 250°C en 10 minutos, manteniéndose a esta temperatura durante 10 minutos. Luego, la temperatura se incrementará a 390°C en 10 minutos y se mantendrá durante 60 minutos. Una vez completado el ciclo de calentamiento, las muestras se enfriarán de manera lenta dentro del horno. Fase 2: Caracterización microestructural y mecánica de los materiales Preparación de las muestras mediante desbaste  Se llevará a cabo un proceso de desbaste en las muestras sinterizadas con el fin de eliminar irregularidades superficiales. Se utilizarán lijas abrasivas de diferentes granulometrías, incluyendo granos 240, 600, 800, 1200 y 4000.          b.  Microscopia Óptica. La caracterización microestructural se efectuará mediante el uso de un microscopio óptico Olympus GX51. Este tipo de microscopía permitirá la observación detallada de las fases presentes en las muestras, así como la distribución de las partículas de refuerzo dentro de la matriz del material.         c.   Caracterización física y mecánica. La densidad de las muestras se determinará utilizando el método de Arquímedes. Para la evaluación de las propiedades mecánicas, como la dureza , se empleará la técnica de indentación de Vickers utilizando un equipo Emco-Test, DuraScan 20. 


CONCLUSIONES

Los resultados que obtuve muestran que el Titanio tiene un efecto negativo en la sinterización. Esto puede ser debido a su alta sensibilidad al oxígeno, las muestras se oxidan por completo incluso en un ambiente controlado de nitrógeno, lo que resulta en un material extremadamente frágil y poroso.   Por lo tanto, se concluye que el material ZnNi-AgTi (con un 1-10% en peso de Ti) no es adecuado para aplicaciones que requieren soportar esfuerzos mecánicos. Sin embargo, su elevada porosidad podría ser beneficiosa para aplicaciones en la industria y la medicina.
Alcaraz Ponce Christofer Jonathan, Universidad de Colima
Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional

SISTEMA MULTICáMARA PARA DETECCIóN DE POSICIóN DE UN ROBOT MóVIL


SISTEMA MULTICáMARA PARA DETECCIóN DE POSICIóN DE UN ROBOT MóVIL

Alcaraz Ponce Christofer Jonathan, Universidad de Colima. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El conocimiento de la posición y orientación (pose) de los vehículos es un problema fundamental en la robótica móvil aplicada. Aunque en la actualidad existen multitud de técnicas y sensores, el problema de estimación de posición en robótica móvil aún es un problema abierto dentro de la comunidad científica. En la actualidad se investigan alternativas al problema de estimación de pose. La odometría es una técnica de estimación de posición ampliamente usada debido a su bajo costo y con precisión aceptable en periodos cortos de medición; sin embargo, exhibe niveles de error prohibitivos en periodos de medición largos. Por otro lado, los sistemas de visión especializados, como OptiTrack, ofrecen una alta precisión y garantizan robustez frente a cualquier periodo de operación; desafortunadamente, son poco accesibles debido a su alto costo. En este proyecto de verano, se construyó un sistema de visión de bajo costo para posicionamiento de un robot móvil usando cuatro cámaras convencionales (webcam).



METODOLOGÍA

Calibración del sistema En este proyecto se emplearon conceptos elementales de visión por computadora. En particular, el proceso de formación de imagen fue estudiado considerando el modelo de cámara pinhole, este modelo representa a una cámara como una caja negra con un pequeño orificio que captura rayos de luz de la escena. Este modelo permite asociar puntos del espacio 3D a puntos de la imagen a través de rayos de luz que los une. El modelo pinhole representa matemáticamente a una cámara como una matriz 3x4, que se le conoce como matriz de la cámara. Esta matriz contiene los parámetros intrínsecos (como la transformación del plano imagen a coordenadas píxeles), los cuales no cambian al cambiarla de posición, y los parámetros extrínsecos (como la posición y la orientación) los cuales cambian dependiendo de la ubicación de la cámara. Una forma de estimar la matriz de una cámara es a través de homografías. Las homografías son matrices que describen la correspondencia entre puntos de un plano de referencia y el plano imagen. Una homografía se puede estimar con 4 o más punto de correspondencia. Asimismo, se puede usar 3 o más homografías para estimar la matriz de la cámara, donde cada homografía se obtiene al mover la cámara a diferentes posiciones. En nuestros experimentos, se empleó un patrón de calibración que permite detectar 54 puntos de correspondencias para estimar una homografía, y la cámara se movió hacia posiciones diferentes para obtener 17 homografías. Finalmente, el proceso se repitió por cada una de las 4 cámaras del sistema de visión. El resultado final fue la obtención de los parámetros intrínsecos y extrínsecos de cada cámara. Detección de objetos Posteriormente, se realizó un procesamiento a las imágenes adquiridas para que detectaran un color en específico usando la segmentación de color. Para esta tarea se utilizó el modelo HSV, el cual se basa en cómo las personas percibimos el color, esto ayuda a que no le afecte los cambios de luz en el ambiente. Después de segmentar el color que se desea detectar, se convirtió la imagen en donde los pixeles en los que se detectaban el color tenían el valor de 1 mientras que el resto de los pixeles se quedaban con el valor 0. Por último, se determinó el centroide de la figura detectada a través de las fórmulas básicas para estimar centroides de figuras no regulares. De esta forma fue posible obtener las coordenadas píxel de cada una de las cámaras y así mediante el modelo de cámara pinhole, es posible convertir las coordenadas a rayos de luz que apuntan hacia el objeto de interés. Triangulación Por último, se utilizó un algoritmo de triangulación para estimar la posición del objeto de interés. La triangulación se realizó usando un modelo que calcula el punto más cercano a la intersección de múltiples rayos de luz capturados por las cuatro cámaras del sistema. Debido al alto número de cámaras usado (cuatro), y a la robustez del método de detección (segmentación por color), el sistema de visión para detección de pose alcanzó buenos resultados para tareas de navegación de un robot móvil.


CONCLUSIONES

En este verano se adquirió conocimiento de técnicas de visión por computadora, tales como el modelado de la cámara pinhole, coordenadas homogéneas, homografías, triangulación, calibración de cámaras y proyectores, digitalización, etc. El conjunto de conocimientos adquiridos fue fundamental para la elaboración del proyecto, a través de los resultados, se observó que los sistemas de visión multicámara representan una solución de bajo costo y además fiable para sistemas de posicionamiento en robots. Una vez que el sistema de visión ha sido calibrado, está listo para ser utilizado en cualquier momento, por lo que es importante destacar que el mismo sistema puede ser utilizado para otros propósitos desde posicionamiento de otros vehículos como drones, hasta detección de objetos para evasión de obstáculos y mapeo del entorno.
Alcocer Gomez Ivan Daniel, Universidad Veracruzana
Asesor: Dr. Leo Alvarado Perea, Universidad Autónoma de Zacatecas

SíNTESIS, CARACTERIZACIóN Y APLICACIóN DE MATERIALES CU/(AL-)MCM-41 POR LA TéCNICA DE CVD PARA LA DEGRADACIóN DE FENOL


SíNTESIS, CARACTERIZACIóN Y APLICACIóN DE MATERIALES CU/(AL-)MCM-41 POR LA TéCNICA DE CVD PARA LA DEGRADACIóN DE FENOL

Alcocer Gomez Ivan Daniel, Universidad Veracruzana. Mata Vázquez Mari Carmen, Universidad Veracruzana. Navarro Valenzuela Edwin Daniel, Universidad Autónoma de Zacatecas. Asesor: Dr. Leo Alvarado Perea, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Un grave problema ambiental que actualmente enfrenta nuestro país es la contaminación de los recursos hídricos. Uno de los contaminantes más peligrosos que ocasionan esta problemática son los compuestos disruptores endocrinos, en específico el fenol y sus derivados, que deterioran la calidad del agua. Aunque los compuestos fenólicos desempeñan diversas funciones beneficiosas en las plantas y alimentos, su liberación indiscriminada en agua, ya sea superficial o subterránea, representa una amenaza potencial para el ecosistema, así como en el humano. Esto se debe a que estos compuestos se pueden bio-acumular a lo largo de las cadenas alimentarias. Con lo anterior, se busca afrontar dicha problemática a través de la presente investigación, logrando así ser un apoyo para el cumplimiento de los objetivos de desarrollo sostenible de la Agenda 2030, tratando los objetivos tres, seis y catorce. Buscando degradar el fenol de una manera más eficaz a través de un catalizador, utilizando el material MCM-41, con y sin Cu, con el método de Deposición Química de Vapor, lo que permitirá un procedimiento más económico y efectivo a la hora de eliminar este compuesto.



METODOLOGÍA

Para la realización de esta metodología se siguió la propuesta del Dr. Leo Alvarado Perea, siendo asesorados por el M. en C. Pedro Antonio González Ocegueda, Dra. Laura Annette Romero de León. Etapa 1. Síntesis de los materiales MCM-41 y Al-MCM-41 con relaciones Si/Al ∞, 60 y 5. Etapa 2. Se deshidrató en la estufa durante 24 h a 120 °C, luego se metió al desecador durante 20 min aproximadamente. Se pesan 0.08 g la fibra de vidrio para su uso como soporte del material. Este es colocada dentro del reactor con forma de L, quedando en la parte de deposición. Se pesa cada material (0.2g - 0.5g) y se vierten en el reactor. Se coloca un empaque en cada salida del reactor para luego colocar los termopares, uno en la mitad de donde se encuentra el material a sintetizar y otro en donde estará el precursor (Acetilacetonato de Cobre II), para que finalmente el reactor se coloque en el horno de calentamiento a una temperatura de 300°C en la parte de deposición y 190°C en la parte de sublimación. Posteriormente, se purga el material durante 30 min con gas de nitrógeno. Se pesa la charola donde irá el precursor y el precursor. Meter al reactor, colocándolo en la zona de sublimación, sellar y abrir el flujo del oxígeno para esperar durante 1.30 h a que suceda la reacción. Se saca el material fotocatalítico, se pesa y se guarda. La metodología se repite con las diferentes relaciones de Al/Si y con los diferentes pesos. Etapa 3. Caracterización de materiales por Absorción Atómica. Cada muestra se mezcla después de salir del CVD, se toma 0.05 g por cada muestra y se vacía en un recipiente de plástico, se le agrega 10 ml de HF al 10% y se espera mínimo 24 h. Luego se le añaden 20 ml de agua regia con una relación 3:1 de HCl y HNO3 respectivamente, se espera mínimo 2 h y se afora a 100 ml en un matraz de propileno. Se guarda la muestra y se analiza en un equipo de absorción atómica para obtener resultados. Etapa 4. Degradación de fenol mediante fotocatálisis heterogénea con los materiales sintetizados. Se arma el reactor Batch colocado en una plancha de agitación con un agitador magnético que permitirá que el material esté en constante movimiento, posteriormente se coloca un tubo de cuarzo sostenido por un soporte universal donde se pondrá la lampara de luz UV, así como la manguera que permitirá que haya un burbujeo en la reacción, lo que dará oxígeno al experimento y se pueda iniciar la reacción permitiendo una esperada degradación de fenol. Se comenzó por la fotólisis del fenol y la hidroquinona. Posteriormente se realizó la fotocatálisis, donde se vierten al reactor de doble pared 200 ml de fenol a una concentración de 40 ppm. Se tomarán muestras, una inicial donde solo sea el fenol, otra a los 40 minutos con una agitación de 300 rpm. Después con la luz UV y el burbujeo se tomarán muestras cada 15 minutos durante una hora, cada 30 minutos durante la segunda hora y, finalmente, cada hora, hasta completar 8 horas. Cada muestra pasa por la centrifugadora a una velocidad de 4000 rpm, para posteriormente realizar un análisis de absorbancia en el UV-VIS, colocando en la celda 200 μl de la muestra para limpiar adecuadamente, luego vertiendo 500 μl para obtener los barridos y la absorbancia puntual a una longitud de onda de 270 nm, que corresponde al fenol, así como la de los intermediarios 245 nm (benzoquinona), 290 nm (hidroquinona) y 310 nm (catecol).


CONCLUSIONES

Durante la investigación se adquirieron conocimientos teóricos y prácticos, aprendiendo el proceso de síntesis de materiales, fotólisis, fotocatálisis y analizando los datos obtenidos de las actividades realizadas con los materiales sintetizados. Aunque por cuestión de tiempo no se hicieron las técnicas de caracterización propuestas como el DRX, RMN, TEM; se alcanzó a realizar la caracterización de espectroscopia por absorción atómica, determinando que hay un 37% de Cu en MCM-41 con relación Si/Al de 60, por lo que, se inquiere que el color del material obtenido no es un parámetro importante para tomar en cuenta, pues el material tenía un aspecto blanco en comparación al de referencia que su color era marrón obscuro. Por otro lado, a través de la experimentación y de los datos obtenidos del CVD, se concluyó que la temperatura de deposición es importante para el soporte, así como la cantidad de material para la deposición de Cu, observando que, a mayor cantidad de Al, menor material del MCM-41 en el reactor para CVD. El mejor material sin Cu para degradar al fenol en 8 h es el de 0.2 g Al-MCM-41 con relación Si/Al de 5, degradando un total del 97.7% de fenol. El mejor material con Cu para degradar al fenol en 8 h es el de 0.2 g Cu-Al-MCM-41 con relación Si/Al de 60, degradando un 45.8% de fenol. Por su parte, la fotolisis la hiroquinona se degrado un 91.3% en 8 h.
Alducin Enriquez Marcela Guadalupe, Universidad Tecnológica de Tecamachalco
Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala

ELABORACIóN DE UNA SILLA DE RUEDAS MASAJEADORA CON MESA PLEGABLE Y DISPOSITIVOS USB INTEGRADOS


ELABORACIóN DE UNA SILLA DE RUEDAS MASAJEADORA CON MESA PLEGABLE Y DISPOSITIVOS USB INTEGRADOS

Alducin Enriquez Marcela Guadalupe, Universidad Tecnológica de Tecamachalco. Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

Antecedentes: El 64.1% de la población con discapacidad en México tiene dificultades para caminar, según el INEGI. Estas personas suelen sufrir dolor de espalda debido a su postura diaria. Los masajes circulatorios mejoran la circulación sanguínea, reducen hinchazón y edema, y desintoxican el cuerpo, mejorando la salud en general. A pesar de los avances tecnológicos en sillas de ruedas, como el iBot de Toyota, su comercialización en México es complicada y costosa.  Importancia y Alcances  El proyecto busca diseñar y construir una silla de ruedas de masaje plegable con mesa integrada, proporcionando mayor independencia y facilidad de transporte. Se pretende que sea una opción económica utilizando materiales y tecnologías disponibles en el mercado mexicano, lo que también fomentará el desarrollo económico e industrial del país.  Delimitaciones  El proyecto se realizará en Tecamachalco, Puebla, en los laboratorios de la Universidad Tecnológica de Tecamachalco, utilizando impresoras 3D, CNC y maquinaria convencional.   



METODOLOGÍA

Proceso de Investigación: 1.Identificación de Actividades Cotidianas: Identificar las actividades diarias difíciles para personas con movilidad reducida. 2.Revisión de Dispositivos: Analizar diferentes dispositivos de ayuda para la movilidad y características de sillas de ruedas existentes. 3.Parámetros de Diseño: Utilizar software de ingeniería para crear y simular el diseño de la silla de ruedas. 4.Implantación y Evaluación: Probar la silla de ruedas en un entorno cotidiano para identificar y corregir posibles problemas. Diseño Estructural:   Modificaciones de una Silla Común: La silla se basa en una silla de ruedas común, con sustitución de materiales por impermeabilizantes y adiciones como motores vibradores y puertos USB.   Consideraciones de Diseño:  o Tamaño y peso de los motores vibradores.  o Cableado de puertos USB.  o Dimensiones y materiales de la mesa plegable.  o Peso máximo y tipo de material.  o Ubicación y peso de la batería.  o Factor de seguridad.   Materiales: Predominantemente poliéster por su manejabilidad, costo, impermeabilidad y calidad.  Componentes Adicionales:  o Batería protegida contra el agua.  o Mesa de aluminio plegable.  o Puertos USB con protección.  o Motores de vibración DC3V 12000rpm.   o Sistema de ventilación para evitar sobrecalentamiento.  Características y Beneficios:    Mesa Plegable: Facilita la alimentación sin necesidad de asistencia.   Forro Impermeable: Previene cortocircuitos.   Motores Vibradores: Mejora la circulación y flexibilidad muscular.    Puertos USB: Permiten cargar dispositivos móviles en cualquier momento


CONCLUSIONES

La silla de ruedas masajeadora desarrollada en este proyecto representa un avance significativo en la tecnología de asistencia para personas con movilidad reducida. Al combinar las funciones de una silla de ruedas convencional con un sistema de masaje integrado forrada de un material impermeable y una mesa plegable para alimentarse con puertos USB para carga, este dispositivo ofrece una solución innovadora y personalizada para mejorar la comodidad y el bienestar de los usuarios. Con un compromiso continuo y recursos adicionales, es posible completar el desarrollo del prototipo, mejorarlo y ponerlo a disposición de las personas que más lo necesitan, mejorando significativamente su calidad de vida y autonomía.  Investigación y Análisis:  Se realizaron investigaciones exhaustivas sobre las necesidades de las personas con discapacidades, las patologías relacionadas con la movilidad y los beneficios de los masajes terapéuticos. Se llevó a cabo una revisión del estado del arte de los dispositivos de ayuda para la movilidad, identificando características y tecnologías relevantes.  Diseño del Prototipo :  Utilizando software de diseño como AutoCAD , se crearon los primeros bocetos Se seleccionaron materiales y componentes clave, como motores de vibración, baterías recargables y materiales impermeables, basados en criterios de eficiencia, ergonomía y costo.  Fabricación Inicial:  Se integraron los primeros componentes electrónicos y se realizaron pruebas preliminares de funcionamiento y seguridad.  La duración limitada del verano de investigación no permitió completar todas las fases del proyecto, especialmente las pruebas de usuario y la creación de producto. Integración de Componentes:  Algunos desafíos técnicos surgieron en la integración de los sistemas de masaje y los puertos USB, requiriendo más tiempo para su resolución.  Pruebas y Validación:  No se pudo llevar a cabo una evaluación exhaustiva del prototipo con usuarios finales, lo cual es crucial para asegurar la funcionalidad y comodidad del dispositivo.  Próximos Pasos:  Completar la Fabricación y Montaje:  Continuar con la fabricación de la silla de ruedas, asegurando la correcta integración de todos los componentes.  Realizar ajustes necesarios en el diseño para mejorar la estabilidad y seguridad.
Alejandre Guerrero Laura Patricia, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan

APLICACIÓN DE HERRAMIENTAS LEAN MANUFACTURING PARA LA OPTIMIZACIÓN DE PROCESOS


APLICACIÓN DE HERRAMIENTAS LEAN MANUFACTURING PARA LA OPTIMIZACIÓN DE PROCESOS

Alejandre Guerrero Laura Patricia, Instituto Tecnológico Superior de Uruapan. Vega Mendez Ema, Instituto Tecnológico Superior de Huauchinango. Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

En el sector productivo de transformación a nivel estatal se identifican las PYMES como escenarios para la reducción y/o eliminación de desperdicios en los procesos productivos; es un problema común en las empresas que impactan negativamente en la eficiencia, la calidad y los costos. El término defectos, se produce cuando se generan productos o servicios que no cumplen con los estándares de calidad establecidos, lo que conlleva costos adicionales por reprocesos, reparaciones, devoluciones y reclamos de clientes.  En Michoacán, existen casos de empresas que se dedican a la fabricación de cajas de cartón, como es C.M. en Morelia, enfrentaba problemas significativos con altos niveles de inventario, materia prima y producto terminado, lo que resulta en elevados costos de almacenamiento por pérdidas y obsolescencia. Otra en Uruapan, E.B. enfrentaba problemas de desperdicio de materiales debido a defectos en el proceso de corte y montaje de las cajas de cartón.  En el diagnóstico de 2024 que se realizó en la empresa MTPM, se identificaron los siguientes desperdicios: sobreproducción, inventario, transportación, espera, movimiento y retrabajo.  Determinando que el problema principal es la falta de optimización en la fabricación de cajas de cartón, en donde se establecen las causas que generan el problema y los efectos que impactan negativamente al proceso productivo. 



METODOLOGÍA

Durante la primera intervención, se realizó un diagnóstico preliminar con ayuda de las técnicas de observación y entrevista. A través de la observación, se elaboró un listado exhaustivo de los tipos de desperdicios presentes en el proceso productivo, que incluyó defectos en la producción, tiempos de inactividad, exceso de inventario y problemas de organización en el área de trabajo. Mediante la entrevista, se conoció en detalle el manejo del proceso productivo y administrativo, permitiendo identificar áreas críticas que requerían atención inmediata. Posteriormente, se realizó la medición de las instalaciones del área de producción para registrar las dimensiones espaciales, utilizando flexómetros de 5 y 7 metros, y con esto se procedió a diseñar la distribución actual de la planta en los programas SolidWorks y AutoCAD. Esta etapa permitió visualizar y evaluar la disposición de los equipos y el flujo de trabajo, identificando cuellos de botella y áreas de mejora en la disposición actual. En la segunda intervención se presentó el diagnóstico formal que muestra la situación actual de la empresa, identificando las áreas de oportunidad en el proceso productivo y administrativo, definiendo el problema principal y estableciendo las herramientas que se utilizarán en el desarrollo de las soluciones propuestas. Este diagnóstico permitió establecer una base sólida para las siguientes intervenciones, alineando los objetivos y metas del proyecto con las necesidades reales de la empresa. Posteriormente, en la tercera intervención, se hizo el planteamiento de acciones correctivas, como la aplicación de la metodología 5S (Seleccionar, Ordenar, Limpiar, Estandarizar y Disciplina) en el área de producción. Esta aplicación se enfocó en optimizar el espacio de trabajo, reducir el desorden y mejorar la organización. Se implementaron cambios en la disposición de las herramientas y materiales, así como la capacitación del personal para mantener los estándares establecidos. La herramienta Kaizen se centró en la mejora continua de los procesos y la optimización del flujo de trabajo mediante la identificación de desperdicios y la implementación de mejoras prácticas. TPM (Mantenimiento Productivo Total) se enfocó en asegurar la fiabilidad de los equipos mediante un mantenimiento eficiente y la integración de prácticas de mantenimiento en la gestión operativa diaria. La combinación de ambos enfoques ayudó a mejorar la eficiencia en la fabricación de cajas de cartón, reduciendo costos y optimizando el proceso productivo. Para evaluar la efectividad de las mejoras, se realizaron estudios de tiempos y movimientos para medir la reducción de tiempos de ciclo y la mejora en la calidad del producto. En la cuarta intervención, se presentaron las propuestas de mejora para la distribución de la planta y la parte administrativa. Dado que el 60% de los problemas en administración se enfocaban en retrabajos, las propuestas incluyeron recomendaciones para el reordenamiento de los equipos y la reorganización de los procesos administrativos. Se realizaron simulaciones en los programas de diseño para evaluar el impacto de las modificaciones en el flujo de trabajo y se ajustaron las propuestas según los resultados obtenidos. Finalmente, se realizó la presentación de las propuestas de mejora a los miembros del equipo y se discutieron los beneficios que se pueden obtener al hacer la redistribución de la maquinaria en el proceso productivo y los cambios en el área administrativa. Se destacó que la implementación de algunas propuestas resultó en un aumento del área libre y disponible, facilitando un flujo de trabajo más eficiente y reduciendo los tiempos de inactividad. La aceptación de las propuestas por parte del equipo directivo y la implementación efectiva llevaron a una mejora significativa en el rendimiento general de la empresa.


CONCLUSIONES

La participación que tuvimos en el programa Delfín 2024, nos dio la oportunidad de conocer un escenario real para aplicar los conocimientos sobre Lean Manufacturing y Lean Management, identificando áreas de oportunidad e implementando las diferentes metodologías, técnicas y herramientas para incrementar la productividad en los procesos de la empresa MTPM. El porcentaje de área que quedó libre después de la aplicación de las 5’S fue del 12%. Y los desperdicios en el proceso de fabricación se redujeron en un 65.06%.
Almanza Chavez Martin, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. María Guadalupe Amézquita Delgado, Instituto Tecnológico Superior de Irapuato

SISTEMA DE APOYO EN EL REGISTRO DE EVALUACIONES EN PREESCOLAR


SISTEMA DE APOYO EN EL REGISTRO DE EVALUACIONES EN PREESCOLAR

Almanza Chavez Martin, Instituto Tecnológico Superior de Irapuato. Hernández Hernández Adrian Oswaldo, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. María Guadalupe Amézquita Delgado, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

La educación preescolar en México es un servicio educativo fundamental que puede mejorar significativamente las oportunidades académicas de los niños, especialmente aquellos en condiciones socioeconómicas desfavorables. La obligatoriedad y universalidad de la educación preescolar para niños de cuatro y cinco años ha incrementado la demanda de servicios educativos, generando desafíos significativos en la evaluación del progreso de los alumnos. Uno de los mayores retos que enfrentan los docentes es la evaluación continua y flexible de los alumnos. La actualización reciente del sistema educativo indica que la evaluación en preescolar debe basarse en la observación directa y en la interacción constante con los niños, en lugar de pruebas escritas. Sin embargo, la gran cantidad de alumnos por clase dificulta enormemente este proceso, requiriendo una inversión significativa de tiempo y esfuerzo para observar, registrar y analizar el progreso individual de cada niño. Ante estos desafíos, surge la necesidad de un software especializado que facilite a los docentes la evaluación continua y detallada del desarrollo de los alumnos. Este proyecto propone crear una herramienta tecnológica que apoye a los educadores en la observación y seguimiento del progreso infantil, reduciendo la carga administrativa y permitiendo una atención más personalizada y efectiva a cada niño.



METODOLOGÍA

Análisis de necesidades educativas y requisitos del sistema. Diseño del software utilizando herramientas de diseño. Desarrollo de las interfaces. Implementación de herramientas de observación y generación de informes. Pruebas y evaluación con usuarios finales.


CONCLUSIONES

El software facilita la evaluación continua y detallada de los alumnos en preescolar, los docentes pueden dedicar más tiempo a la interacción educativa y menos a tareas administrativa, la implementación del software mejora la calidad de la educación preescolar.
Almanza Ferruzca Ana, Instituto Tecnológico de Querétaro
Asesor: Dr. Edwin Gerardo Acuña Acuña, Universidad Latinoamericana de Ciencia y Tecnología

OPTIMIZATION OF URBAN MOBILITY WITH IOT AND BIG DATA TECHNOLOGY FOR THE INFORMATION AND KNOWLEDGE SOCIETY IN INDUSTRY 5.0


OPTIMIZATION OF URBAN MOBILITY WITH IOT AND BIG DATA TECHNOLOGY FOR THE INFORMATION AND KNOWLEDGE SOCIETY IN INDUSTRY 5.0

Almanza Ferruzca Ana, Instituto Tecnológico de Querétaro. Calderon Rojas Jesus Manuel, Universidad de Investigación y Desarrollo. Garcia Bayona Maria Fernanda, Universidad de Investigación y Desarrollo. Pérez Soto José Saúl, Universidad Tecnologica de León. Rojo Rojo Camilo Nelson, Instituto Tecnológico de Querétaro. Asesor: Dr. Edwin Gerardo Acuña Acuña, Universidad Latinoamericana de Ciencia y Tecnología



PLANTEAMIENTO DEL PROBLEMA

La optimización de la movilidad urbana en el contexto de ciudades inteligentes enfrenta desafíos significativos, particularmente en la gestión eficiente del tráfico y la reducción de la congestión. Según (Yan & Zhao, 2024) y (Aoki, 2024), el aumento de la urbanización y la creciente prevalencia de problemas de tráfico reflejan una crisis global de movilidad urbana, influenciada por la falta de infraestructura adecuada y la gestión ineficaz del tráfico. (Ku, 2024) y (Jones, 2023) señalan que esta situación ejerce una presión considerable sobre los sistemas urbanos, que a menudo carecen de los recursos y tecnología necesarios para proporcionar una gestión del tráfico adecuada. En este contexto, es esencial adoptar estrategias integrales que aborden de manera preventiva y oportuna los problemas de tráfico en el ámbito urbano, especialmente en ciudades inteligentes (Nikkhah, kahanali, & sharyari, 2023). (van der Meij et al., 2023) indican que los primeros síntomas de problemas de movilidad urbana incluyen congestiones recurrentes y tiempos de viaje impredecibles, que pueden evolucionar a condiciones más severas si no se detectan y tratan a tiempo. (Devianto et al., 2023) y (Samadi, Mirnezami, & Torabi Khargh, 2023) subrayan la importancia de implementar herramientas y métodos innovadores que permitan diagnósticos precisos y oportunos para prevenir la evolución de estos problemas. Para enfrentar este desafío en las ciudades inteligentes, es fundamental contar con herramientas tecnológicas que identifiquen y diferencien entre patrones de tráfico normales y anormales. (Tabash et al., 2023) destacan que el uso de tecnologías para la captura y análisis de datos de tráfico desempeña un papel crucial en la detección y diagnóstico temprano de problemas de congestión. Este enfoque innovador no solo elevaría los estándares en el diagnóstico, sino que también impulsaría intervenciones tempranas y personalizadas, mejorando la eficiencia del sistema de transporte urbano.



METODOLOGÍA

El estudio adoptó un enfoque cuantitativo, poniendo a prueba hipótesis mediante la medición numérica y el análisis estadístico para identificar patrones de tráfico y validar teorías (Ibrahim, 2022). Se desarrolló el objeto de investigación buscando regularidades y relaciones entre los componentes del estudio (Mohan, Paunova, & Lee, 2024). Se incluyó una subcategoría descriptiva para identificar las propiedades y características del fenómeno relacionado con las estrategias principales para evaluar la eficiencia del tráfico en intersecciones críticas dentro de ciudades inteligentes (Zhou, 2024). Asimismo, se añadió una subcategoría exploratoria para modelar detalladamente cada factor relevante en el uso de modelos basados en IA para la evaluación del tráfico (Wang, 2023). La muestra seleccionada consistió en 350 intersecciones críticas en el año 2024, donde se recopilaron datos de tráfico con el consentimiento de las autoridades municipales. El tamaño de la muestra se determinó utilizando el modelo de población finita, con una base de datos conocida de las intersecciones al momento del estudio. Los datos fueron recopilados a través de centros urbanos en América Latina, Norteamérica, Asia y Europa, garantizando una variabilidad geográfica y demográfica, y estableciendo una base sólida para el análisis comparativo y la extrapolación de los resultados (Zhou, Liu, & Li, 2024). 


CONCLUSIONES

El estudio demuestra que los sistemas basados en inteligencia artificial (IA) son capaces de detectar problemas de tráfico en intersecciones críticas con un alto nivel de precisión, evidenciado en los resultados obtenidos. Estos sistemas no solo mejoran la precisión, sensibilidad y especificidad en la clasificación de datos de tráfico, sino que también logran una clara discriminación entre condiciones normales y problemáticas.Los resultados del estudio ofrecerán una hoja de ruta para las partes interesadas, promoviendo una estrategia basada en la toma de decisiones informadas y resaltando el papel de la tecnología en la protección de infraestructuras, datos y personas. Desde una perspectiva teórica, las implicaciones incluyen el desarrollo de investigaciones tanto en el ámbito académico como empresarial. Este estudio abre la puerta a nuevos trabajos que exploren la relación entre diversos problemas de tráfico que afectan la eficiencia operativa de las intersecciones y cómo las tecnologías emergentes pueden contribuir a su detección, prevención y resolución.En conclusión, los sistemas basados en IA ofrecen una herramienta poderosa y eficaz para la evaluación y manejo del tráfico en intersecciones críticas, y su integración en ciudades inteligentes promete mejoras significativas en la calidad de vida y la eficiencia operativa de las generaciones futuras.
Almaraz Villalobos Vanessa, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa

OPTIMIZACIóN DE RUTAS DE DISTRIBUCIóN PARA ESTACIONES DE SERVICIO EN BARRANQUILLA


OPTIMIZACIóN DE RUTAS DE DISTRIBUCIóN PARA ESTACIONES DE SERVICIO EN BARRANQUILLA

Almaraz Villalobos Vanessa, Instituto Tecnológico de Ciudad Juárez. Rodriguez Sanchez Arleth Michelle, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

El abastecimiento de combustibles líquidos en Barranquilla enfrenta serias ineficiencias debido a la ausencia de un planificador logístico adecuado que considere factores cruciales como la capacidad de carga de los vehículos, la ubicación estratégica de las estaciones de servicio y la demanda variable de combustible. Esta problemática se traduce en retrasos en la entrega, elevación de costos operativos y subutilización de recursos, lo que impacta negativamente la operatividad de las empresas de transporte y distribución. La falta de un sistema sistemático para la creación de rutas de abastecimiento impide optimizar tiempos y costos, generando un flujo logístico descoordinado. Con el objetivo de mitigar estas deficiencias, se propone el desarrollo e implementación de un software especializado que gestione de manera automatizada las rutas de abastecimiento. Este sistema permitirá una asignación óptima de los pedidos a los vehículos, considerando las restricciones de cada estación de servicio y facilitando una distribución efectiva del combustible. La adopción de esta tecnología tiene el potencial de transformar la logística de abastecimiento en la ciudad, mejorando la eficiencia operativa, reduciendo costos y tiempos de entrega, y garantizando una distribución equitativa entre los distintos vehículos.



METODOLOGÍA

La siguiente metodología describe detalladamente los pasos llevados a cabo durante la ejecución del presente proyecto, el cual se centra en la optimización del ruteo de vehículos en las estaciones de servicio de Barranquilla, utilizando un enfoque científico y herramientas de análisis de datos. Tipo de Estudio Este trabajo se clasifica dentro de la investigación aplicada científica, cuyo objetivo es medir variables específicas para predecir comportamientos futuros, en este caso, la fluencia vehicular por las rutas planeadas. Se adoptó un enfoque cuantitativo, que permite la formulación de un modelo matemático para el ruteo vehicular. Esta metodología se fundamenta en el análisis de datos numéricos y la aplicación de técnicas estadísticas para garantizar la validez y la confiabilidad del estudio. Instrumento para la Recolección de Datos La recolección de datos fue un proceso meticuloso que comenzó con una exhaustiva revisión bibliográfica en fuentes científicas reconocidas, como Science Direct y Google Académico. A través de la consulta de artículos previamente publicados, se identificaron estrategias efectivas para la optimización de tiempos y costos en el ruteo de vehículos. Además, se complementó la investigación con la revisión de páginas web especializadas y la información proporcionada por expertos en logística y transporte. Los datos recopilados fueron sistemáticamente organizados y analizados utilizando diversas herramientas de software, lo que facilitó la construcción de una base de datos robusta. A continuación, se detallan las herramientas utilizadas: Software Excel Excel fue la herramienta principal para la recopilación y organización de datos. Fue fundamental para crear y gestionar tablas, realizar cálculos matemáticos y analizar estadísticas. Utilizamos power query para automatizar procesos que facilitaron el posterior análisis de los datos. Esto permitió una eficiente manipulación de información y la configuración de una base de datos que sostiene todas las decisiones del proyecto. CPLEX Para abordar el problema de ruteo, se utilizó CPLEX, una herramienta avanzada en matemáticas de optimización y programación lineal. Esta aplicación es reconocida por su capacidad para resolver problemas complejos de manera eficiente y precisa. CPLEX permitió la construcción de un modelo que minimiza costos y tiempos de viaje, facilitando así la toma de decisiones informadas respecto a la ruta óptima para los vehículos. Power BI Power BI se empleó para el análisis visual y la representación gráfica de los datos recogidos. Esta herramienta facilita la identificación de patrones y tendencias significativas, lo que contribuye a una mejor interpretación de la información. La visualización de datos en Power BI potencia la presentación de resultados, lo que facilita el entendimiento del sistema general y de las dinámicas internas de las estaciones de servicio. Plan de Procesamiento y Análisis de Información El proceso de análisis comenzó con la recopilación de información mediante una revisión literaria detallada, que culminó en la creación de un estado del arte. Este estado del arte permitió no solo la recopilación de datos relevantes, sino también una comparación y análisis rápido de la información. La información sobre las distintas estaciones de servicio fue estructurada en una hoja de cálculo Excel, asegurando una organización eficiente. Posteriormente, la base de datos creada se utilizó para realizar análisis avanzados en Power BI, facilitando la visualización de los diversos rubros relacionados con las estaciones de servicio. A través de esta metodología, se busca obtener resultados precisos y efectivos que aporten al campo del ruteo vehicular, proponiendo soluciones que optimicen la logística y mejoren la fluencia vehicular en la ciudad de Barranquilla.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos sobre el establecimiento de una red de rutas de abastecimiento, que garantice la entrega oportuna de combustible a las estaciones de servicio. A lo largo del proceso, se utilizaron herramientas avanzadas como Excel, CPLEX y Power BI, que permitieron realizar análisis complejos y optimizar la toma de decisiones. Esta experiencia no solo enriqueció nuestro entendimiento teórico, sino que también facilitó la aplicación práctica de conceptos fundamentales en la planificación logística, contribuyendo así al desarrollo de habilidades valiosas en el área.
Alonso Esteban Jesus, Universidad Autónoma de Guerrero
Asesor: Dr. Alejandro Medina Santiago, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

INVESTIGACIóN Y ARMADO DE UN PROTOTIPO ELECTRóNICO DE IOT APLICADO EN LA MEDICIóN DE PARáMETROS DE UN AUTOMóVIL.


INVESTIGACIóN Y ARMADO DE UN PROTOTIPO ELECTRóNICO DE IOT APLICADO EN LA MEDICIóN DE PARáMETROS DE UN AUTOMóVIL.

Alonso Esteban Jesus, Universidad Autónoma de Guerrero. Loranca Mota Francisco Hazael, Instituto Tecnológico de Puebla. Asesor: Dr. Alejandro Medina Santiago, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

PLANTEMIENTO DEL PROBLEMA. Como podemos observar en la actualidad, las industrias automotrices han estado enfrentando en mejorar la seguridad, el rendimiento y la eficiencia de los vehículos. Sin embargo, la mayoría de automóviles actuales carecen de un sistema avanzado de tecnología de monitoreo en donde los usuarios puedan acceder a información del estado general del vehículo. En el sistema de monitoreo en algunos coches por lo general nos impiden poder recolocar la eficiencia de los datos en tiempo real, como por ejemplo lo que es la aceleración, velocidad, inclinación y temperatura de nuestro motor. Como datos a esto: Hay un dispositivo llamado OBD2 donde nos ayudó a poder recopilar los datos de un vehículo, por lo general ese dispositivo no tiene gran capacidad de ver los datos. Lo que pretendemos en nuestro dispositivo es en guardar todos los datos a un módulo de Micro SD y después en automático subir los datos a la nube donde se estará viendo los datos recopilados en tiempo real. Gracias a los módulos IoT, nos ofrece a tener dicha integración de los dispositivos de comunicación en los automóviles, sensores, rendimiento y la seguridad. La combinación que realizamos fueron de sensores como giroscopio, acelerómetro, y los módulos de almacenamientos junto con una conectividad inalámbrica con un ESP8266 y el MCP2515. Gracias a estos módulos se logró en hacer una integración a un prototipo de escaneo en general de un auto. Este proyecto contribuirá a un desarrollo de nuevas tecnologías aplicado en los vehículos, para poder mejorar la experiencia de los usuarios. Nuestro objetivo es validar y desarrollar un sistema de monitoreo de IoT que sea capaz de registrar y medir los parámetros del automóvil, proporcionando en la seguridad del vehículo y la información de tiempo real para ir mejorando el rendimiento del vehículo.



METODOLOGÍA

1. Diseño del sistema Componentes principales: esp8266 Giroscopio y acelerómetro Módulo MicroSD MCP2515 (modulo CAN BUS) Arduino uno 2. Creación del código Primero se creó el código del giroscopio, módulo MicroSD y MCP2515 en Arduino para ver la compatibilidad de los dispositivos. Viendo que la mayoría son compatibles y funcionales en un sistema típico, en este caso el Arduino se procedió a adaptar el código en un microcontrolador esp8266. 3. Montaje del sistema Conexión de pines: Tanto el módulo microSD y el MCP2515 tienen la llamada comunicación SPI, por los cuales sus pines se conectan igual a excepción del Pin cs que varía según el módulo y la alimentación 3-5 V. El giroscopio y acelerómetro funcionan con comunicación I2C por lo cual solo vasta con conectarlo a la alimentación y a los pines I2C correspondientes del microcontrolador. Se agregó un puerto OBD2 y un regulador de 5 V para alimentar el sistema y sé compatible con un auto. 4. Pruebas del sistema: El sistema guarda la información del giroscopio de manera adecuada en un SD y puede ser alimentado con 12 V, pues el regulador se encargara de bajarlo a 5 V. La comunicación Can bus requiere métodos adicionales para ser funcional. Se comprobó buena recepción en el analizador de datos  ThingSpeak.


CONCLUSIONES

Se concluye que este trabajo de investigación comenzó con muchos desafíos, esto debido a la complejidad del proyecto, pues en esta ocasión no nos enfrentábamos solo a la programación de sensores, sino que se tuvo la necesidad de recurrir a agregar un analizador de datos muy intuitivo, no obstante lo verdadera complejidad fue el hecho de lograr que todo funcionara en el microcontrolador esp8266 y al mismo tiempo lograr la tan esperada comunicación CanBus, lo cual en este punto llevara más tiempo de investigación por su naturaleza compleja sin embargo el resto del dispositivo es un prototipo completamente funciona.
Altamirano Becerra Miguel de Jesus, Universidad Autónoma de Nayarit
Asesor: Dr. Jeremy Patterson, Wichita State University

TEAMING, AS A SKILL: DEVELOPMENT OF TECHNICAL AND HUMAN CAPABILITIES ON INTERDISCIPLINARY STUDENT TEAMS.


TEAMING, AS A SKILL: DEVELOPMENT OF TECHNICAL AND HUMAN CAPABILITIES ON INTERDISCIPLINARY STUDENT TEAMS.

Altamirano Becerra Miguel de Jesus, Universidad Autónoma de Nayarit. Asesor: Dr. Jeremy Patterson, Wichita State University



PLANTEAMIENTO DEL PROBLEMA

In the college of Innovation and Design of the Wichita State University, an interdisciplinary student Project called CosmoShox is developed year by year, aiming to unite the efforts of alumni with different academical backgrounds to innovate in space exploration and research using Extended Reality (XR), however, the efficiency of every team has varied each year, raising the question of what makes a team successful. Some Authors suggest that human skills, an usually overlooked set of abilities, can be determinant to the success or failure of a team, so, before delving deeper into how these skills can raise the chances of a high-end team formation, we want to visualize them better in order to facilitate their study.



METODOLOGÍA

The Methodology used in this project was a mix of a qualitative literature review to understand and categorize the relevant human skills, and, a quantitative survey of the Cosmoshox’s Students technical and human skills parameters from previous years to obtain the data we want to better visualize in graphs.


CONCLUSIONES

The visualization serves as a pilot testing and groundwork for future projects aiming to delve deeper in the effects of human skills and team success. The data is not statistically representative enough to make decisive conclusions due to the size and particular characteristics of the probe. However, from the overview graphs we could see that some human skills seem to grow at a much faster rate than others, while some stagnate, giving us a reason to believe the teaching methods of some skills need to be redesigned. Lastly, more time, and a bigger group testing would have given more insights of the behaviour of human skills.
Alvarado Alvarado Guillermo, Universidad de Guadalajara
Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara

ANáLISIS DE DISOLUCIóN DE AGNO3 POR XPS Y EFECTO DE +AG EN BACTERIA SALMONELLA


ANáLISIS DE DISOLUCIóN DE AGNO3 POR XPS Y EFECTO DE +AG EN BACTERIA SALMONELLA

Alvarado Alvarado Guillermo, Universidad de Guadalajara. Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La mayoría de los reactivos que venden las distintas compañías de productos químicos marcan en sus envases un porcentaje de pureza, la cual es importante que sea reportada con la mayor precisión posible debido a que los experimentos realizados en los laboratorios dependen de que así sea, ya que un mal dato en la pureza del producto puede ocasionar que los resultados de los experimentos sean falsos o erróneos. Por otro lado, las infecciones por salmonella (salmonelosis) generan daño en los intestinos, lo cual ocasiona que los infectados presenten fiebre, diarrea y dolor abdominal y aunque en la mayoría de los casos estos síntomas no representan un peligro mortal, una propagación de la infección fuera de los intestinos podría ser mortal. Tan solo en México se registran aproximadamente 70,000 casos de infección por salmonella cada año, debido principalmente al consumo de alimentos contaminados. Por lo que en el futuro el número de casos de infección aumentará debido al aumento de la contaminación. Por lo que durante el verano de investigación se analiza mediante la técnica de espectroscopia de fotoelectrones de rayos x (XPS) la composición de un reactivo de AgNO3, para posteriormente realizar una disolución la cual será usada para estudiar los efectos que tiene sobre la bacteria salmonella.



METODOLOGÍA

Se preparó una solución 20mM de AgNO3 usando un reactivo de la compañía Sigma-Aldrich la cual en su envase marca una pureza del 99.9999%, para el análisis de la composición del reactivo se colocaron aproximadamente 5 gotas de la disolución de AgNO3 sobre una placa de silicio con la ayuda de una micropipeta de 1000μl. La placa se colocó dentro de una incubadora a 67°C durante aproximadamente 19h con el objetivo de evaporar todo el disolvente y obtener un residuo sólido. La placa de silicio se colocó sobre el porta muestras del equipo de XPS, para la fijación de la placa se uso cinta de carbono de doble cara, la cual se colocó en los bordes de la placa de silicio. Posteriormente, para la obtención de datos la muestra se metió en el equipo de XPS durante aproximadamente 20 min.  Una vez que se obtuvieron los datos se analizaron y graficaron usando el programa AAnalyzer, que por medio de convoluciones se pudo determinar la cantidad y tipos de Ag que había en la muestra. En cuanto al estudio de los efectos que genera la +Ag a la bacteria salmonella, en una zona estéril se colocaron 100μl de caldo Luria Bertani (LB) en cada pocillo una placa de 96 pocillos con la ayuda de una micropipeta multicanal de 1000μl. Posteriormente se agregaron a la primera columna de la placa 100μl de la disolución de AgNO3 preparada con el reactivo de Sigma-Aldrich y 100μl disolución de AgNO3 preparada con un reactivo de distinta compañía al anterior donde se realizó un triplicado para cada disolución, finalmente se agregaron otros 100μl de cada disolución a los últimos dos pocillos para ser usados como blancos. Se realizaron diluciones tomando 100μl de cada columna y colocándolos en la siguiente columna a la derecha, empezando por la primera. Luego, se agregaron 10μl de salmonella a cada triplicado con sus respectivas diluciones y se puso a incubar por aproximadamente 23h. Pasado ese tiempo la placa se leyó en un lector de placas para recabar datos de absorbancia, los datos obtenidos se graficaron en un archivo de Excel. En zona estéril se realizó una siembra en agar sangre, la caja se dividió en 6 partes en donde cada parte se marco con una letra de la A a la F y se colocó el contenido de cada uno de los primeros 6 pocillos de la primera columna con ayuda de un asa de platino y se dejó incubando por 24h.


CONCLUSIONES

Los datos analizados del XPS demuestran que el reactivo de AgNO3 de la compañía Sigma-Aldrich cuenta con una alta pureza, pero no coincide con lo que marca la etiqueta, ya que el porcentaje atómico de Ag fue de 96.1783%, lo muestra una mayor cantidad de impurezas. Por otro lado, los datos obtenidos de absorbancia muestran un comportamiento inusual en el efecto inhibitorio de la solución de AgNO3 donde en un principio parece disminuir la absorbancia a medida que disminuye la concentración de +Ag pero aumenta en la décima dilución. En cuanto a los resultados de la siembra se puede observar que en los pocillos de la primera columna prácticamente no hay bacteria, sin embargo, se observa que hay un residuo sólido. Debido a que era inesperado la aparición de sólido y que el proyecto fue extenso, no se pudo analizar la composición del residuo; por lo que sería interesante hacer un nuevo proyecto a futuro partiendo del análisis de dicho sólido. Cabe destacar que durante este verano de investigación se adquirieron conocimientos teóricos y prácticos sobre temas de bacterias y del XPS, así como manejo de nuevo equipo de laboratorio.
Alvarado Dominguez Monserrat, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Mg. Daniel Carvajal Tabares, Institución Universitaria de Envigado

GESTIóN AMBIENTAL EMPRESARIAL EN ANTIOQUIA, COLOMBIA.


GESTIóN AMBIENTAL EMPRESARIAL EN ANTIOQUIA, COLOMBIA.

Alvarado Dominguez Monserrat, Universidad Michoacana de San Nicolás de Hidalgo. Folgoso Carrascal Fiorella Andrea, Corporación Universitaria Reformada. Asesor: Mg. Daniel Carvajal Tabares, Institución Universitaria de Envigado



PLANTEAMIENTO DEL PROBLEMA

La gestión ambiental empresarial enfrenta el reto de integrar prácticas sostenibles que mitiguen los impactos negativos al medio ambiente, mientras se fomenta el crecimiento económico y el bienestar social. Es por ello que en la presente investigación se realizaran cuatro salidas de campo a empresas ubicadas en el departamento de Antioquia con el fin de analizar y observar como tienen implementada la gestión ambiental empresarial



METODOLOGÍA

La metodología utilizada fue descriptiva, se realizaron 4 salidas de campo a las empresas Jardín Exotics, Parque Ambiental Ecologistica, Unilasallista y el Hospital Universitario San Vicente Paúl, en donde se aplico una lista de chequeo con 15 ítems, en modalidad de entrevista abierta semiestructurada  


CONCLUSIONES

La gestión ambiental empresarial es un componente fundamental para el desarrollo sostenible, donde por medio de prácticas responsables y tecnologías limpias e innovadoras se busca mitigar los impactos ambientales. Es por ello que en esta investigación se visito a el sector agroindustrial, educativo, salud y el de tratamiento de residuos para observar cómo es su desarrollo y además como tienen implementada la gestión ambiental. Esto se hizo por medio de  una lista de chequeo con 15 ítems, en modalidad de entrevista abierta semiestructurada, en donde se obtuvo los siguientes resultados.    Jardín Exotics es un ejemplo destacado en el sector agroindustrial, dedicada a la exportación de aguacate Hass y gulupa. La empresa, ubicada en un municipio pequeño, sigue el Plan Básico de Ordenamiento Territorial (PBOT) y las regulaciones del Plan de Uso Eficiente del Agua (PUEAA). Jardín Exotics también cuenta con una planta de tratamiento de aguas residuales y realiza muestreos aleatorios para garantizar la calidad del agua. Además, ha implementado medidas para reducir el impacto ambiental, como la migración a sistemas de impresión eficientes y la utilización de energía fotovoltaica. La empresa también apoya la conservación de especies como el loro orejiamarillo y promueve prácticas de reciclaje y educación ambiental en la comunidad. Parque Ecologística Ambiental se enfoca en la gestión de residuos peligrosos y especiales, promoviendo soluciones sostenibles dentro del marco de la economía circular. La empresa, certificada por el ICONTEC, realiza actividades de recolección, tratamiento, y disposición final de residuos, cumpliendo con estrictas normas de seguridad. Su proceso de generación de combustible a partir de residuos es especialmente relevante, proporcionando una alternativa al carbón y reduciendo los residuos. Además, Parque Ecologística Ambiental colabora con la comunidad local en temas socioambientales, incluyendo la implementación de huertas escolares y la limpieza de quebradas. La Universidad de La Salle contribuye significativamente al desarrollo sostenible a través de sus laboratorios especializados en análisis de contaminantes y sus servicios a la comunidad y el sector productivo. Los laboratorios de la universidad apoyan investigaciones y proyectos que buscan soluciones a problemas ambientales y de eficiencia industrial, fortaleciendo el sistema de gestión ambiental integral en la región. Finalmente, el Hospital San Vicente Paúl integra la sostenibilidad en su infraestructura y operaciones, contando con la certificación LEED por su eficiencia energética. El hospital utiliza energía solar y dispone de una planta de tratamiento de aguas residuales, además de gestionar adecuadamente los residuos sanitarios en colaboración con Ecologistica Ambiental. Su compromiso con la responsabilidad social se refleja en la recolección de medicamentos vencidos y aparatos eléctricos para su correcta disposición.
Alvarado Osorio Diego Alejandro, Universidad de Investigación y Desarrollo
Asesor: Mtro. Gaston Vertiz Camaron, Universidad Autónoma del Estado de México

DISEÑO Y CREACION DE MODELOS DE REGRESIÓN LOGÍSTICA PARA IDENTIFICAR LOS FACTORES DE AFECTACION ANTE UNA EVACUACIÓN EN DESASTRES NATURALES


DISEÑO Y CREACION DE MODELOS DE REGRESIÓN LOGÍSTICA PARA IDENTIFICAR LOS FACTORES DE AFECTACION ANTE UNA EVACUACIÓN EN DESASTRES NATURALES

Alvarado Osorio Diego Alejandro, Universidad de Investigación y Desarrollo. Quintero Rojas Maria Alix, Universidad de Investigación y Desarrollo. Asesor: Mtro. Gaston Vertiz Camaron, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

La amenaza de desastres naturales, que abarca fenómenos como terremotos, inundaciones, huracanes e incendios forestales, representa un riesgo significativo para comunidades en todo el mundo. La evacuación efectiva y rápida en respuesta a estos eventos puede ser un factor decisivo entre la vida y la muerte (Alexander, 2000). Sin embargo, la decisión de evacuar se basa en una compleja interacción de factores que incluyen características demográficas, socioeconómicas, psicológicas, experiencias previas y preparación para desastres (Lindell & Prater, 2003). El principal desafío en la investigación de evacuaciones durante desastres naturales es entender cómo diversos factores impactan la probabilidad de evacuación. Un modelo de  regresión logística ofrece una herramienta valiosa para abordar esta cuestión. Este enfoque permite analizar y predecir qué variables influyen como: ubicación geográfica, características demográficas, factores socioeconómicos, y la disponibilidad de rutas de evacuación se consideran en la decisión de evacuar (Becker et al., 2013; Lindell & Perry, 2004).  



METODOLOGÍA

Se diseñó una encuesta para ser respondida en línea, con el objetivo de recopilar datos sobre las decisiones de autoprotección de las personas, durante la evacuación debido a desastres naturales. Este método fue seleccionado por sus múltiples beneficios, tales como: (1) Acceso a una población diversa, (2) Comodidad para los participantes, (3) Alto poder estadístico y (4) Simulación segura de amenazas. Cabe señalar que encuesta consideró diversas variables, tales como: edad, género, nivel educativo, ingresos y exposición previa a desastres naturales. Dicha encuesta incluía preguntas diseñadas para evaluar la percepción de riesgo y las decisiones de autoprotección que, los participantes tomarían en respuesta a diferentes escenarios de desastres naturales.


CONCLUSIONES

Se llevó a cabo un análisis de regresión logística multivariado para evaluar cómo diversas variables afectan la experiencia de las mujeres frente a desastres naturales, así como su relación con el género. Durante el proceso, se eliminaron variables redundantes para optimizar el modelo, lo que resultó en un enfoque final que, resalta la frecuencia de fenómenos naturales como un predictor clave. Además, se desarrollaron modelos específicos para predecir el género, la residencia en diferentes países, el tipo de desastre, la tenencia de mascotas y la participación en simulacros de evacuación. Los hallazgos indican que factores como el apoyo social, la exposición a desastres y la participación en simulacros son determinantes en la probabilidad de ser mujer, residir en ciertos países y poseer mascotas. Por último, se concluye que las intervenciones destinadas a aumentar la participación en simulacros de evacuación deben centrarse en aquellos individuos con baja participación previa, así como en comprender las barreras que pueden estar relacionadas con el estado civil. Esto permitirá diseñar estrategias más efectivas para mejorar la preparación ante desastres naturales.
Álvarez Alvira Luisa Estrella, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Diofanor Acevedo Correa, Universidad del Sinú

ANáLISIS DE LAS PROPIEDADES FISICOQUíMICAS DE LA HARINA DE ÑAME (DIOSCOREA SPP.): COMPOSICIóN Y MéTODOS DE ELABORACIóN


ANáLISIS DE LAS PROPIEDADES FISICOQUíMICAS DE LA HARINA DE ÑAME (DIOSCOREA SPP.): COMPOSICIóN Y MéTODOS DE ELABORACIóN

Álvarez Alvira Luisa Estrella, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Diofanor Acevedo Correa, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

La harina de ñame (Dioscorea alata) es un recurso alimentario valioso en regiones tropicales, esencial para la seguridad alimentaria y la economía local. A pesar de sus ventajas nutricionales y funcionales, su potencial en la industria alimentaria global está subutilizado. Con un alto contenido de almidón (70-80%) y proteínas (12%), supera a otros tubérculos en estos aspectos. Además, posee una notable capacidad de absorción de agua y estabilidad reológica, ideal para productos como panes y fideos. Problema Principal Aunque la harina de ñame tiene ventajas inherentes, falta investigación exhaustiva que compare sus propiedades fisicoquímicas y reológicas con otras harinas de tubérculos y cereales, limitando su uso óptimo en la industria alimentaria global. Problemas Secundarios Desconocimiento de Propiedades Comparativas: No hay suficientes estudios detallados que comparen las propiedades fisicoquímicas y reológicas de la harina de ñame con otras harinas de tubérculos y cereales como el trigo. Aplicaciones Industriales Limitadas: La falta de información sobre la estabilidad y gelificación de la harina de ñame en diversas condiciones de procesamiento limita su uso en productos alimenticios de alta demanda. Falta de Normativas Específicas: Las normativas relacionadas con la producción y uso de harinas, incluida la de ñame, no están suficientemente desarrolladas, dificultando su estandarización y expansión en la industria alimentaria. Justificación Para aprovechar plenamente el potencial de la harina de ñame, es crucial un análisis detallado y comparativo de sus propiedades fisicoquímicas y reológicas, incluyendo la evaluación de las condiciones óptimas de procesamiento y almacenamiento. Esto permitirá su utilización en la formulación de productos alimenticios innovadores y nutritivos. Un estudio exhaustivo podría abrir nuevas oportunidades en la industria alimentaria y tener un impacto positivo en las economías locales de las regiones tropicales donde se cultiva el ñame, estimulando la producción local y mejorando la seguridad alimentaria.



METODOLOGÍA

Búsqueda Bibliográfica: Se consultaron bases de datos académicas como Scopus, PubMed, y Google Scholar, enfocándose en estudios publicados en los últimos veinte años que proporcionaran datos cuantitativos y cualitativos sobre el ñame y su harina. También se revisaron normativas relacionadas con la producción y uso de harinas. Selección de Estudios: Se priorizaron estudios con datos empíricos y análisis detallados sobre la composición química del ñame, sus propiedades fisicoquímicas y reológicas, y sus aplicaciones. Los documentos fueron evaluados para asegurar su validez y pertinencia. Extracción y Análisis de Datos: Se recopilaron datos sobre composiciones químicas, propiedades físicas y reológicas, y métodos de procesamiento del ñame y su harina, organizados en tablas y figuras para facilitar su análisis. Síntesis y Organización de la Información: La información se organizó en secciones temáticas con subsecciones sobre la morfología del ñame, su composición química, y las características fisicoquímicas y reológicas de la harina de ñame, acompañadas de tablas y figuras. Discusión y Conclusiones: Se analizaron los resultados en el contexto de la literatura existente, destacando la importancia socioeconómica del ñame y su potencial como alternativa a otras harinas más comunes.


CONCLUSIONES

Basadas en los Resultados Obtenidos: Propiedades Nutricionales Superiores: La harina de ñame es rica en almidón y proteínas, haciendo su inclusión valiosa en dietas balanceadas. Capacidad de Absorción de Agua: Alta capacidad de absorción de agua, ideal para productos que requieren una textura específica. Estabilidad Reológica: Buena estabilidad reológica bajo diversas condiciones de procesamiento, crucial para aplicaciones industriales. Comparación con Otras Harinas de Tubérculos: Ventajas en cohesión y elasticidad en productos horneados, sugiriendo su potencial como alternativa superior en ciertas aplicaciones alimentarias. Conclusiones Esperadas de Futuros Resultados: Optimización de Procesamiento: Investigaciones futuras determinarán las condiciones óptimas para maximizar las propiedades de la harina de ñame. Aplicaciones Industriales Innovadoras: Desarrollo de nuevos productos que demuestren su capacidad para mejorar la calidad nutricional y funcional. Impacto Económico y Social: Promover el uso de harina de ñame en la industria alimentaria global podría estimular la producción local, creando empleo y mejorando la seguridad alimentaria. Expansión del Conocimiento Científico: Mayor comprensión de los factores que influyen en las propiedades funcionales de la harina de ñame, ofreciendo una base científica sólida para su utilización en la industria alimentaria.
Alvarez Andrades Juan David, Universidad Cooperativa de Colombia
Asesor: Mg. Maria Margarita Sierra Carrillo, Universidad Cooperativa de Colombia

DETERMINACION DE LAS CONCENTRACIONES DE ELEMENTOS TRAZA METALICOS EN LAGOS DE ALTA MONTAÑA DE LA SIERRA NEVADA DE SANTA MARTA-CUENCA SEVILLA


DETERMINACION DE LAS CONCENTRACIONES DE ELEMENTOS TRAZA METALICOS EN LAGOS DE ALTA MONTAÑA DE LA SIERRA NEVADA DE SANTA MARTA-CUENCA SEVILLA

Alvarez Andrades Juan David, Universidad Cooperativa de Colombia. Asesor: Mg. Maria Margarita Sierra Carrillo, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

La Sierra Nevada de Santa Marta es un ecosistema estratégico en la región caribe, donde confluyen una variedad de ecosistemas como la Ciénaga Grande de Santa Marta, los ecosistemas costeros con una gran variedad de arrecifes coralinos, parques naturales nacionales, entre otros. Estos ecosistemas a su vez se han visto impactados negativamente por las actividades antrópicas de la región, que van desde la explotación de suelos por monocultivos hasta la industria de exportación carbonífera. Además, la contaminación del recurso hídrico, deficiencia en el manejo de residuos sólidos, la contaminación atmosférica, la carencia de agua potable y saneamiento básico, son factores que degradan la calidad ambiental de la región y disminuyen su valor y capacidad de ofrecer servicios ecosistémicos al departamento y el país. En este contexto, la Sierra Nevada presenta un sistema de lagos de alta montaña que son sistemas claves para comprender la dinámica ambiental de la tierra a media o gran escala, ya que son una fuente de información de gran interés en el estudio del grado de contaminación generada por elementos traza en el medio ambiente (Williamson et al., 2009). Además, las cuencas de los lagos de alta montaña se consideran excelentes sensores para la contaminación difusa, debido a su ubicación distante de las fuentes contaminantes es posible observar el impacto de la contaminación en estos sistemas a lo largo del tiempo. De hecho, son muy sensibles a la propagación de la contaminación desde largas distancias (Bacardit y Camarero, 2009). De manera similar, los suelos de gran altitud son bastante sensibles a los procesos de erosión, es decir, reaccionarán más fuerte  a los cambios ambientales inducidos por el hombre, por ejemplo; agricultura, minería, tala y el impacto del cambio climático. Estos procesos de erosión y contaminación presentes en las cuencas de alta montaña alteran las composiciones fisicoquímicas de las aguas naturales, lagos y estanques de montaña, donde el material en suspensión erosionado que llega a la columna de agua decanta para formar el sedimento. Este sedimento es un registro de la historia de la contaminación ambiental, y gracias a ellos, es posible determinar el aumento de las tasas de contaminación espacial y temporal de metales traza. (Biester et al., 2007). Estos metales pueden llegar hasta los seres humanos por consumo directo de agua contaminada o por consumo de alimentos contaminados como peces (Bowles et al., 2001). Ha habido numerosos ejemplos de contaminación fatal con estos metales traza, como la ciudad de Minamata (Japón) por el consumo de pescado y mariscos que habían almacenado metilmercurio, una de las formas más tóxicas del mercurio (Aries, 2001).



METODOLOGÍA

La metodología que se ha seleccionado para el desarrollo del siguiente proyecto de investigación es la Estructura de Descomposición del Trabajo WBS por su flexibilidad y porque permite detallar en forma jerarquizada el trabajo a realizar hasta el nivel de actividad o tarea según el nivel de detalle que se requiera. Fase 1: Área de estudio Para seleccionar el área de estudio se realizaron Análisis de Fotogrametría, con sistemas de información geográfica y georreferenciación en campo. Se seleccionó la cuenca del Río Sevilla que cuenta con 11 lagos a más de 3500 m de altitud, entre los que se muestrearon dos lagos y dos turberas. Las imágenes presentan las características de las cuatro áreas muestreadas. Tienen entre 2000 y 2500 mm de precipitación por año, temperatura máxima de 8 grados y óxido de 3000 a 3500 mm por año. Fase 2: Metales traza Los elementos traza metálicos estudiados en los sedimentos de lagos de alta montaña de la Sierra Nevada de Santa Marta, específicamente de la cuenta Sevilla, son: Mercurio, Plomo, Arsénico, Zinc, Cadmio, Vanadio y Cobre. Estos elementos han sido identificados en altas concentraciones en estudios realizados sobre ecosistemas que reciben aportes de las fuentes hídricas superficiales de la Sierra Nevada de Santa Marta (Doria, 2017; Campos 1990; Espinoza et al., 2011) Fase 3: Muestreo Las muestras de agua fueron tomadas en enero de 2021, y en agosto de 2023 en dos lagunas seleccionadas en la cuenca Sevilla. Para tener dos puntos de comparación en temporada estacionaria seca del año. Dos litros de agua fueron utilizados para hacer los análisis de calidad del agua. Las muestras de sedimentos y turbas se realizaron en enero de 2021 en áreas poco profundas de los lagos. Se recuperaron muestras de 40 cm de profundidad para dividirla en rodajas de 5 cm. Para la turba el proceso fue similar, sin embargo, la profundidad de las muestras se tomó hasta 20 cm. Fase 4: Análisis de laboratorio La tecnología analítica útil es la espectrometría de absorción atómica para detectar metales en el agua de superficie de los lagos.


CONCLUSIONES

Se encontraron concentraciones elevadas de escandio (Sc), estroncio (Sr) y cromo (Cr) en las aguas superficiales, superando los límites de la NOAA, mientras que zinc (Zn), cobre (Cu) y vanadio (V) están dentro de los límites aceptables. Plomo (Pb) fue detectado en el lago 1. En los sedimentos y turberas, la concentración de elementos aumenta con la profundidad, con arsénico (As), cobre (Cu) y cromo (Cr) superando los límites recomendados. Se recomienda un nuevo muestreo durante la temporada de lluvias y en áreas más profundas, así como datar los sedimentos para entender la evolución de la contaminación.
Alvarez Cristian Eduardo, Instituto Tecnológico de Ciudad Juárez
Asesor: Mg. Yulieth Vanessa Palomino Perez, Corporación Politécnico de la Costa Atlántica

LOGíSTICA 4.0 Y 5.0 EN LA CADENA DE SUMINISTRO: UNA REVISIóN SISTEMáTICA UTILIZANDO LA METODOLOGíA PRISMA


LOGíSTICA 4.0 Y 5.0 EN LA CADENA DE SUMINISTRO: UNA REVISIóN SISTEMáTICA UTILIZANDO LA METODOLOGíA PRISMA

Alvarez Cristian Eduardo, Instituto Tecnológico de Ciudad Juárez. Rosas Cano Florencia Itzel, Instituto Tecnológico de Ciudad Juárez. Asesor: Mg. Yulieth Vanessa Palomino Perez, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

Las ciudades inteligentes representan el futuro de la urbanización, prometiendo mejoras significativas en la calidad de vida y en la eficiencia de la gestión urbana a través de tecnologías avanzadas. En el contexto de la Logística 4.0 y 5.0, tecnologías como la inteligencia artificial, el Internet de las Cosas (IoT), el Big Data y el Blockchain son esenciales para la transformación digital. Sin embargo, hay una falta de claridad y marcos definidos sobre cómo aplicar eficazmente estas tecnologías para optimizar la logística y las cadenas de suministro en las ciudades inteligentes. Este estudio pretende llenar este vacío proporcionando una revisión sistemática de la literatura, con el objetivo de identificar los progresos actuales, los retos existentes y las oportunidades futuras en la implementación de tecnologías 4.0 y 5.0 en la logística de las ciudades inteligentes.



METODOLOGÍA

Para realizar una revisión exhaustiva y estructurada, se siguieron las directrices de la declaración PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-Analyses). Búsqueda inicial La búsqueda inicial se llevó a cabo en junio de 2024, añadiendo los términos "Logistics 4.0" y "Logistics 5.0" utilizando bases de datos académicas como Science Direct, Google Académico y ProQuest. Debido a las restricciones de acceso en Web of Science y Scopus, se decidió omitir estas bases de datos de la búsqueda sistemática. Búsqueda sistemática La combinación de términos que mostró mejores resultados en los tres buscadores fue la siguiente: ("Logistics 4.0 OR Supply Chain 4.0), (Logística 5.0 OR Cadena de suministro 5.0 OR Logistics 5.0 OR Supply Chain 5.0). La estrategia de búsqueda inicial arrojó un total de 814 resultados y antes de proceder a la selección de artículos, se definieron los siguientes criterios de inclusión y exclusión. Criterios de Inclusión Artículos centrados en la cadena de suministro. Artículos científicos recientes (2021-2024). Uso de los tecnicismos descritos anteriormente. Estudio del concepto en un contexto tecnológico. Artículos en español o inglés. Los artículos deben tener acceso directo. Criterios de Exclusión Artículos sobre procesos industriales. Artículos anteriores a 2021. Páginas web. Según estos criterios, inicialmente se consideraron adecuados 229, después se seleccionaron 64 artículos basados en la lectura del título. Tras leer los resúmenes, se descartaron 11 artículos que no cumplían con los criterios de inclusión, y tras eliminar 5 artículos por ser duplicados o que no tuvieran relación al tema en particular, se tomaron al final 48 artículos los cuales fueron seleccionados para la revisión sistemática, añadiendo 1 libro como literatura. Búsqueda manual Al revisar la literatura se encontró factible el uso de un libro como fuente de información. Análisis e interpretación de resultados Herramientas como Mendeley y Zotero se utilizaron para gestionar las referencias, mientras que hojas de cálculo de Excel facilitaron la síntesis y análisis de los datos extraídos. RStudio, mediante la librería Bibliometrix se empleó para la elaboración de gráficos y la visualización de los datos obtenidos.


CONCLUSIONES

Los resultados de la revisión sistemática indican que la mayoría de las investigaciones se centran en revisiones de literatura y estudios de caso que buscan consolidar el conocimiento existente y explorar aplicaciones prácticas de las tecnologías emergentes en el ámbito logístico. Entre las principales contribuciones se identificaron modelos conceptuales y revisiones tecnológicas que destacan la importancia del IoT, Big Data, IA y Blockchain en la digitalización y optimización de la cadena de suministro en las ciudades inteligentes. Sin embargo, se observó una limitación significativa en la aplicabilidad y generalización de los hallazgos debido a la dependencia de muestras pequeñas y enfoques sectoriales específicos. Esto subraya la necesidad de más investigaciones empíricas y estudios a gran escala que aborden la integración de estas tecnologías en diferentes ámbitos. A pesar de las limitaciones identificadas, los hallazgos resaltan el potencial de estas tecnologías para transformar la cadena de suministro, mejorando su eficiencia, sostenibilidad y resiliencia. Además, se destacó la importancia de considerar aspectos sociales y éticos en la implementación de tecnologías de la Industria 4.0 y 5.0, sugiriendo futuras investigaciones que exploren la interacción entre estas tecnologías y las funciones de la cadena de suministro en un marco más amplio de sostenibilidad y responsabilidad social. En general, este estudio sirve como una guía valiosa para investigadores y profesionales interesados en comprender y aprovechar el poder de las tecnologías emergentes en la logística de las ciudades inteligentes.
Alvarez González Orlando Anthony, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato

IDENTIFICACIóN DE RIESGOS POR PUESTO DE TRABAJO PARA DETERMINAR EL EPP DENTRO DE UN LABORATORIO DE MANUFACTURA


IDENTIFICACIóN DE RIESGOS POR PUESTO DE TRABAJO PARA DETERMINAR EL EPP DENTRO DE UN LABORATORIO DE MANUFACTURA

Alvarez González Orlando Anthony, Instituto Tecnológico Superior de Guanajuato. Galán Reyes Teresa Deyanira, Instituto Tecnológico Superior de Ciudad Hidalgo. Jiménez Gómez Athziri Yazmin, Instituto Tecnológico de Tlalnepantla. Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Una Institución de Educación Superior (IES) cuenta con personal administrativos y docente, es así que en su oferta educativa se encuentran 5 ingenierías; sin embargo, dos de ellas realizan prácticas en el laboratorio de manufactura donde desempeñan actividades que involucran el uso de maquinaria y equipo por parte de los laboratoristas, docentes y estudiantes. Por lo tanto, los trabajadores se encuentran expuestos a peligros de trabajo que pudieran ocasionar un riesgo durante la operación. El estudio se considera una investigación aplicada ya que se realizó la adaptación de herramientas de seguridad industrial para la reducción de la probabilidad de riesgo durante la exposición a los peligros de la maquinaria y equipos; considerando un enfoque cuantitativo, un alcance descriptivo y un diseño transversal, así como la operacionalización de variables enfocada al conteo de peligros identificados. La importancia de este estudio radica en la necesidad de garantizar un ambiente seguro para todos los usuarios del laboratorio, minimizando los accidentes y mejorando las condiciones laborales.



METODOLOGÍA

Para el desarrollo del estudio se identificaron dos instrumentos de recogida de datos basados en la NOM-017-STPS incorporando las disposiciones 5.2 y 5.3 además de la aplicación de la guía de referencia que contiene las tablas A1 y A2. Estos instrumentos se utilizaron para garantizar la adecuada evaluación y control de riesgos en el laboratorio de manufactura. Se desarrollo un análisis de riesgos el cual contiene la razón social, las actividades a desarrollar, el puesto de trabajo, los riesgos identificados, los riesgos anatómicos, las medidas de seguridad, los trabajadores a los que se les debe de proporcionar EPP, nombre y firma del trabajador analizado. Además, se determinó el EPP por puesto de trabajo. El instrumento diseñado para esta evaluación debe contener el puesto de trabajo evaluado, la maquinaria y equipo, EPP por región anatómica y especificaciones técnicas del EPP, asegurando que el equipo proporcionado es adecuado para proteger contra los riesgos identificados.


CONCLUSIONES

Como resultado se identificaron el total de peligros por maquinaria y equipo logrando clasificar la cantidad de riesgos físicos y de salud.  Como seguimiento al análisis de riesgo se establecieron medidas de seguridad y control por cada peligro identificado. Este proceso permitió una comprensión integral de los peligros presentes en la seguridad de los trabajadores y estudiantes. Tanto el objetivo general como los objetivos específicos fueron logrados con éxito. Se realizó un análisis de riesgo y determinación de EPP necesario por cada puesto de trabajo.  Además, de realizar actividades complementarias como el uso de jerarquía de controles y especificaciones técnicas del EPP a utilizar. En cuanto a las limitaciones del estudio se identifica que el análisis solo es una propuesta que es importante que adopte el centro de trabajo además de que se sugiere la implementación de las disposiciones correspondientes a la asignación, uso y manejo de EPP según lo marca la NOM-017-STPS.
Alvarez Ibarra Juan Martin, Instituto Tecnológico Superior de Irapuato
Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato

ESTRATEGIAS DE PROTECCIÓN PARA LÍNEAS AÉREAS DE TRANSMISIÓN DE 132 KV: CÁLCULO DE PARÁMETROS CRÍTICOS Y OPTIMIZACIÓN DEL APANTALLAMIENTO MEDIANTE MATLAB


ESTRATEGIAS DE PROTECCIÓN PARA LÍNEAS AÉREAS DE TRANSMISIÓN DE 132 KV: CÁLCULO DE PARÁMETROS CRÍTICOS Y OPTIMIZACIÓN DEL APANTALLAMIENTO MEDIANTE MATLAB

Alvarez Ibarra Juan Martin, Instituto Tecnológico Superior de Irapuato. Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Las líneas aéreas de transmisión son esenciales para la distribución de energía eléctrica en grandes áreas geográficas. Sin embargo, estas infraestructuras están expuestas a condiciones criticas siendo vulnerables a diversos fenómenos naturales, entre los cuales las descargas atmosféricas representan una de las mayores amenazas. Cada día se producen en el mundo cerca de 44,000 tormentas y se generan 8,000,000 de rayos. El ciclo de duración de una tormenta es de una a dos horas, son de carácter local y se reducen casi siempre a solo unas decenas de kilómetros cuadrados. En México, ocurren con mayor frecuencia en verano y un 10% en otoño e invierno, además ocurren con una frecuencia de 30 días con tormenta en promedio anual y el máximo es de 100.  Los impactos de rayos pueden causar interrupciones en el suministro eléctrico, daños en los equipos, incendios y, en casos extremos, incluso poner en riesgo la vida humana. La incidencia de rayos en líneas aéreas de transmisión puede resultar en daños costosos y prolongados tiempos de recuperación, afectando negativamente tanto a los proveedores como a los consumidores. Pese a los avances en la tecnología de protección, muchas líneas de transmisión siguen siendo susceptibles a los efectos destructivos de los rayos. Las estrategias actuales de protección, como el uso de cables de guarda y dispositivos de protección contra sobretensiones, han demostrado ser efectivas hasta cierto punto, pero no eliminan completamente el riesgo. Además, el diseño y la implementación de estas soluciones varían significativamente según la región y las condiciones ambientales, lo que complica la creación de estándares universales. Este problema requiere una atención continua y una innovación constante en las tecnologías y estrategias de apantallamiento y protección. Es necesario desarrollar y perfeccionar métodos que no solo mitiguen los impactos de los rayos, sino que también sean económicamente viables y sostenibles a largo plazo.



METODOLOGÍA

Para abordar la protección y apantallamiento en líneas aéreas de transmisión, se utilizó MATLAB para la determinación de parámetros clave relacionados con las descargas eléctricas. Primero, se modeló la línea de transmisión de 132 kV en MATLAB, incorporando parámetros físicos y eléctricos esenciales como la longitud, resistencia, inductancia y capacitancia de la línea, así como características del terreno. Con este modelo, se calculó el número de descargas que inciden en la línea anualmente, integrando la densidad de descargas por kilómetro cuadrado y datos meteorológicos específicos de la región. MATLAB facilitó estos cálculos complejos, permitiendo una estimación precisa del impacto de las descargas atmosféricas. A continuación, se evaluó el cebado directo e inverso en los aisladores mediante simulaciones en MATLAB. Se consideraron las características eléctricas y geométricas de los aisladores para aplicar fórmulas estándar que determinan la tensión de cebado bajo condiciones de descarga. MATLAB permitió simular diversos escenarios de descarga para evaluar el comportamiento de los aisladores en diferentes condiciones de cebado. El ángulo de apantallamiento, definido como el ángulo bajo el cual un rayo puede impactar la línea sin ser desviado por los cables de guarda, se calculó utilizando modelos geométricos y ecuaciones trigonométricas en MATLAB. Estos cálculos precisos permitieron determinar el ángulo óptimo para el apantallamiento de la línea. Además, se determinó la distancia crítica a tierra, teniendo en cuenta la altura de los conductores y la geometría de las torres, utilizando simulaciones en MATLAB para analizar distintas configuraciones y alturas de conductores. La intensidad máxima de apantallamiento se calculó mediante simulaciones de rayos con diferentes intensidades de corriente. MATLAB facilitó la modelización de estos eventos y el cálculo de la máxima corriente que la línea puede desviar sin causar daños. Finalmente, se determinaron la intensidad crítica, que es la corriente mínima capaz de causar una descarga disruptiva, y la distancia crítica del conductor de fase. Estos parámetros se calcularon utilizando modelos eléctricos y geométricos en MATLAB, proporcionando una evaluación integral de la protección de la línea de transmisión. Los resultados obtenidos se compararon con datos históricos de descargas y eventos de rayos para validar el modelo. Se realizaron ajustes en el modelo para mejorar la precisión y se desarrollaron estrategias y recomendaciones basadas en el análisis de los parámetros críticos, con el objetivo de mejorar el apantallamiento y la protección de la línea de transmisión frente a descargas atmosféricas.


CONCLUSIONES

La investigación reveló varios resultados clave sobre la protección de líneas aéreas de transmisión de 132 kV. Se estimó el número de descargas atmosféricas anuales, determinando el riesgo de descargas eléctricas. Los cálculos indicaron la tensión máxima que los aisladores pueden soportar, sugiriendo posibles mejoras en su diseño. Se calculó el ángulo óptimo para la colocación de cables guarda, maximizando su eficacia en desviar rayos y proteger los conductores. La distancia crítica a tierra reveló la separación mínima necesaria entre los conductores y el suelo para evitar daños, mientras que la intensidad máxima de apantallamiento mostró la capacidad de los sistemas de protección para manejar corrientes sin causar daños. Finalmente, los cálculos de intensidad y distancia críticas del conductor de fase establecieron límites de diseño esenciales para una protección adecuada. Estos resultados proporcionan una base sólida para optimizar el apantallamiento y mejorar la seguridad de la infraestructura eléctrica.
Alvarez Merced Jose Angel, Instituto Tecnológico de Morelia
Asesor: Dra. Ana Beatriz Martinez Valencia, Universidad Michoacana de San Nicolás de Hidalgo

SíNTESIS DE HIDROXIAPATITA (CA10(PO4)6(OH)2) A PARTIR DE DOS DISTINTOS AGAVES


SíNTESIS DE HIDROXIAPATITA (CA10(PO4)6(OH)2) A PARTIR DE DOS DISTINTOS AGAVES

Alvarez Merced Jose Angel, Instituto Tecnológico de Morelia. Asesor: Dra. Ana Beatriz Martinez Valencia, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En nuestro siglo actual, nos vemos en la necesidad de concentrarnos ante problemáticas no solo en temas de salud y económicas, sino también en un factor ambiental, lo cual nos ha llevado en México como un foco de atención preservar y mantener nuestro entorno, a la vez que nos desarrollamos como sociedad. Una de las propuestas dentro del marco de soluciones para la preservación de recursos naturales, es brindar valor agregado a desechos orgánicos que resultan de distintos procesos industriales. En México tenemos muy presente la producción de mezcal, la cual toma como materia base especies nativas de agave que llevan el nombre de Espadín y Cupreata por ejemplo. Además, producen desechos que son botados en áreas al aire libre, los cuales presentan altos niveles de concentración de calcio, misma concentración que se puede usar para diseñar y fabricar compuestos de más alto valor, como es la hidroxiapatita (Ca10(PO4)6(OH)2). En este proyecto se analizó cuál de las dos especies resulta con la mayor cantidad de óxido de calcio, pues si bien contienen niveles altos del mismo compuesto, pueden presentarse variables que generen diversos resultados. Desarrollaremos medios de obtención del calcio, a partir de los agaves alterando las condiciones con las que se realizan la síntesis de los elementos cálcicos, generando metodologías que generen bases para posteriores experimentos e investigaciones.



METODOLOGÍA

Se comenzó la experimentación determinando cantidades iguales de las dos especies de agave a estudiar, se cortaron en trozos pequeños las dos especies de agave con ayuda de molinos de corte o tijeras manuales y se formó un volumen de 2 L de cada especie. Posteriormente se realizó un enjuague con agua corriente en una serie de 5 repeticiones, hasta que la misma agua ya no presentó pigmentaciones del agave, a continuación, se realizó otra serie de enjuague con 5 repeticiones más, sin embargo, esta vez con agua destilada. Concluido el segundo enjuague se llevó a secar el agave. Colocando uniformemente sobre un plato de secado del horno, y se dejó secando 3 días. Una vez secado el agave, se realizó un molido de cada agave seco, para posteriormente dicho resultado del molido tamizarlo hasta quedar con un tamaño de partícula de un rango de 300 μm y 125 μm. La cantidad de agave de ambas especies, se limpió de impurezas y sustancias indeseables por medio de destilación con ayuda del equipo SOXHLET, con una solución de benceno y etanol siguiendo una relación 2:1 respectivamente y con una pequeña cantidad del agave previamente tamizado. Para la destilación se colocó el agave en un papel filtro y se introdujo dentro del equipo comenzando la destilación con una serie de 3 a 4 destilaciones aproximadamente, para posteriormente dejar secar las dos especies de agave. Una vez seco el agave, se pesaron 5 gr de cada especie y se llevaron a una calcinación utilizando radiación de microondas, usando un microondas comercial, sin embargo, con la excepción de que se usaron crisoles de alúmina (Al2O3) recubiertos con carburo de silicio (SiC), con el fin de elevar la temperatura dentro de los crisoles y mantener un periodo uniforme de calcinación de los agaves. Cada agave se calcinó con distinto periodo pues el espadín se sometió a 6 calcinaciones, mientras que el cupreata se sometió a 4 calcinaciones, eliminando la materia orgánica presente en los agaves, y así obtener óxido de calcio (CaO) que sería el precursor de la hidroxiapatita (Ca10(PO4)6(OH)2). Se pesaron ambas cantidades de óxido de calcio (CaO) obtenido para determinar el rendimiento, para después con la misma cantidad del mismo óxido realizar una solución diluida de óxido de calcio (CaO) con una concentración de 0.1M. Usando la solución anterior proveniente de cada especie de agave, se hizo reaccionar a cada una con ácido fosfórico (H3PO4) diluido previamente preparado a una concentración a 0.1 M, para así llevar a cabo la reacción de síntesis de la hidroxiapatita. La reacción se realizó vertiendo las soluciones de óxido de calcio en un vaso de precipitado de 100 ml, y con ayuda de una bureta de 25 ml se vierte por medio de goteo la solución de ácido fosfórico con una velocidad de goteo lenta, la cual permitirá medir el cambio progresivo de pH de la solución, hasta llegar a valores de entre 8.5 y 9 de pH, lo cual indicará que hemos sintetizado hidroxiapatita.


CONCLUSIONES

En las primeras etapas era notable la presencia de olores chocolatosos provenientes de la especie cupreata, dando señales de una distinta composición química de esta especie, en cambió a la del espadín que tenía un olor más cercano a hierba silvestre, demostrando la magnitud de materia orgánica presente en dicha especie, lo cual da indicios de que la especie cupreata presentó una mayor concentración de elementos distintos a elementos orgánicos. A su vez el secado de las especies resulta evidenciar que el agave espadín tiende a formar mayor porcentaje de aglomeraciones de sí mismo, mientras que el cupreata, sí tiende a formar las mismas aglomeraciones, no las realiza en una mayor magnitud que la del espadín. La etapa de calcinación no fue homogénea en las especies, sin embargo, nos permitió generar un perfil de temperatura de calcinación por medio de uso radiación electromagnética la cual demuestre calcinación de materia orgánica de 100% en ambos agaves, y el nivel de pureza de los compuestos que podemos obtener, pues en ambas especies no se obtuvo un nivel similar de óxido de calcio (CaO). La especie cupreata demostró el doble de cantidad de óxido de calcio que la especie espadín, sin embargo, cabe la posibilidad de que hubiera presencia de materia orgánica que alterara los resultados finales. Tener etapas de calcinación distintas permitió encontrar un rango de tiempo que genere una temperatura suficientemente elevada para calcinar la materia orgánica presente en los agaves, y evitar que en posteriores experimentos generen resultados inesperados.
Alvarez Sanchez Luis Angel Keith, Instituto Politécnico Nacional
Asesor: Dr. Juan Pablo Serrano Rubio, Instituto Tecnológico Superior de Irapuato

DISPOSITIVO IOT PARA LA DETECCIóN DE SOMNOLENCIA EN LA CONDUCCIóN DE AUTOMóVILES


DISPOSITIVO IOT PARA LA DETECCIóN DE SOMNOLENCIA EN LA CONDUCCIóN DE AUTOMóVILES

Alvarez Sanchez Luis Angel Keith, Instituto Politécnico Nacional. Asesor: Dr. Juan Pablo Serrano Rubio, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Los accidentes causados por síntomas de somnolencia al volante son una de las principales causas de accidentes de tráfico en automóviles. Estos incidentes pueden resultar en lesiones físicas, consecuencias psicológicas, pérdidas económicas, implicaciones legales y, en el peor de los casos, la muerte. Con la implementación de este nuevo dispositivo inteligente, es posible reducir paulatinamente la incidencia de estos accidentes a nivel mundial. Las estadísticas muestran que aproximadamente el 17.6% de los accidentes automovilísticos fatales entre 2017 y 2021 involucran a un conductor somnoliento. Manejar con sueño puede tener efectos notables como puede ser la incapacidad para concentrarse, reacción tardía, falta de criterio, incapacidad para calcular el manejo y quedarse dormido, este dispositivo evitara este último punto. Una de las principales problemáticas de la somnolencia al volante es que puede afectar a personas que no están involucradas con el conductor que tiene somnolencia. Por eso, es importante pensar tanto en uno mismo como en los demás, y concienciar sobre la importancia de descansar correctamente. Con este dispositivo, proponemos asegurar la integridad de los conductores, pasajeros y otros vehículos en situaciones de emergencia o cuando hay poco tiempo para descansar. Esto contribuirá a reducir los accidentes y a proteger a todos los usuarios de la carretera.



METODOLOGÍA

En este proyecto tecnológico se busca implementar un dispositivo inteligente para detectar cuando un conductor se encuentre en la situación de adormecimiento mientas conduce. Para lograr esto, se hace uso de los paradigmas del Internet de las Cosas (IoT), un proceso que permite conectar elementos físicos cotidianos a Internet. Desde objetos domésticos comunes, como bombillas de luz. Los dispositivos IoT que se encuentran dentro de esos objetos físicos suelen pertenecer a una de estas dos categorías: Interruptores (Envían las instrucciones a un objeto) Sensores (Recopilan los datos y los envían a otro lugar). En este dispositivo utilizamos los sensores. La impresión 3D también es fundamental. Este conjunto de procesos produce objetos a través de la adición de material. Algunos de estos procesos son: Realizar un diseño Exportar el modelo a un archivo compatible con la impresora Cargar el archivo a la impresora Proceder a la impresión Se utilizó la impresión 3D para diseñar un dispositivo que se puede usar en la oreja del conductor. Este dispositivo se imprimió con material PLA y es capaz de interpretar las señales del sensor para activar una alarma y prevenir que el conductor pierda el control del auto. Para ello, se integró el sensor MPU6050, que funciona con un acelerómetro y un giroscopio, permitiendo detectar movimientos de la cabeza en tres ejes (X, Y y Z). Este sensor proporciona datos precisos sobre la orientación y aceleración, y está conectado al ESP32. El ESP32 es una herramienta fundamental para el desarrollo del Internet de las Cosas (IoT). Este pequeño dispositivo electrónico se puede programar para realizar diversas tareas, como encender y apagar luces, leer sensores y enviar datos a través de internet. El ESP32 enviará los datos recibidos del sensor MPU6050 al buzzer. Cuando se detecte una alerta, el buzzer sonará para proporcionar una señal auditiva. Además, el ESP32 está conectado a una Raspberry Pi. La Raspberry Pi es una minicomputadora económica que funciona con el sistema operativo Linux. Se utiliza para la enseñanza del hardware, software y otros propósitos En este proyecto, la Raspberry Pi recibe los datos del ESP32, enriqueciendo la interfaz usuario-máquina mediante el framework para el desarrollo de videojuegos PyGame. Es una biblioteca que facilita el renderizado de gráficos de manera sencilla. Su lenguaje de programación es Python, y se utiliza para enviar mensajes de alerta. Tanto la Raspberry Pi como el microcontrolador ESP32 están conectados a MQTT. MQTT es un protocolo de comunicación basado en el modelo cliente-servidor (o, más específicamente, en el modelo publicador-suscriptor), que permite el intercambio de mensajes entre dispositivos. Funciona mediante: Bróker: es un servidor que recibe todos los mensajes de los publicadores y los reenvía a los suscriptores interesados. El bróker que utilizamos en MQTT es el Mosquitto por su compatibilidad y ligereza. Publicadores: Los dispositivos que envían mensajes se conocen como publicadores. Publican mensajes en temas específicos. Suscriptores: Los dispositivos que reciben mensajes se conocen como suscriptores. Se suscriben a temas específicos y reciben mensajes cuando se publican en esos temas. Temas: son básicamente canales o direcciones donde se publican los mensajes. Los temas tienen una estructura jerárquica y se utilizan para organizar los mensajes de manera lógica. El MQTT será el intermediario para que en la pantalla pueda salir la imagen de advertencia y tener un complemento visual.


CONCLUSIONES

El Internet de las Cosas está revolucionando la forma en la que los vehículos son diseñados y pueden proveer nuevos servicios con el objetivo de promover seguridad, rentabilidad y confort. La propuesta del presente desarrollo tecnológico es de bajo costo y puede ayudar significativamente a los usuarios a prevenir accidentes y cuidar la vida de los demás. Por lo que el desarrollo de este tipo de tecnología puede revolucionar la forma en la que se diseñan y se fabrican los automóviles.
Alvarez Vargas Alejandro, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Juan Pablo Serrano Rubio, Instituto Tecnológico Superior de Irapuato

MONITOREO DE FALLAS EN MOTORES MEDIANTE DISPOSITIVO IOT


MONITOREO DE FALLAS EN MOTORES MEDIANTE DISPOSITIVO IOT

Alvarez Vargas Alejandro, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Juan Pablo Serrano Rubio, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

El monitoreo de vibraciones en motores es una práctica esencial en la industria para garantizar el buen funcionamiento de los equipos y prevenir fallas que puedan resultar en paradas no planificadas y en reparaciones costosas para las máquinas en las líneas de producción. Según una investigación realizada por el Society for Maintenance and Reliability Professionals (SRMP) encontró que las empresas podrían reducir las fallas de los equipos de un 90% hasta un 70% con la implementación adecuada de un sistema para un mantenimiento predictivo. Las técnicas tradicionales de monitoreo pueden ser complejas y costosas ya que se requieren de equipos especializados y un personal entrenado para usar dichos equipos. Con el avance de las tecnologías IoT (Internet of Things) e Industria 4.0 se abren nuevas oportunidades para desarrollar soluciones más accesibles y eficaces para el monitoreo de las condiciones de los motores. El presente proyecto busca abordar el problema del monitoreo de vibraciones en motores mediante el uso de una placa de desarrollo Esp32 y un sensor MPU6050. Este sensor cuenta con un giroscopio, acelerómetro y un sensor de temperatura, para este proyecto nos centramos en el acelerómetro ya que este nos permite obtener las mediciones de velocidad en los ejes X, Y y Z y así proporcionando una visión detallada de las vibraciones del motor. Los datos recolectados se envían a un bróker Mosquitto, desde donde son almacenados en una base de datos MySql a través de una aplicación Flask (Framework de Python). La visualización de los datos en tiempo real, junto con el análisis con FFT (Transformada Rápida de Fourier) de los datos almacenados, permite identificar patrones y frecuencias de vibración anómalas, facilitando así un mantenimiento predictivo más efectivo y oportuno.



METODOLOGÍA

Durante la primera semana de la estancia se realizó una investigación acerca de MQTT y después de saber qué es y cómo funcionaba, se procedió a realizar la instalación y configuración de un broker Mosquitto. Después de esto se realizó un flasheó a la tarjeta NodeMCU Esp32 para poder hacer la programación con MicroPython y se realizó la conexión electrónica del sensor MPU6050 y de la placa Esp32 para que esta sea capaz de obtener los datos de la aceleración de los tres ejes.Durante la segunda, tercera y cuarta |semana se realizó una aplicación Web en el servidor Flask para poder realizar distintas acciones con los datos obtenidos por la placa Esp32. Lo primero que se hizo fue programar la placa Esp32 para que fuera capaz de enviar los datos obtenidos por el sensor al broker Mosquitto. El siguiente paso fue desarrollar un script en Python para que obtuviera los datos de Mosquitto y los almacenara en una base de datos MySql. Después se realizó una aplicación Web Flask para poder visualizar los datos obtenidos mediante una gráfica en tiempo real, donde se puede apreciar las mediciones de los tres ejes y así poder identificar si hay alguna medición anómala. La siguiente tarea fue el integrar el script anterior en la aplicación web para que el usuario pueda indicar cuando quiere iniciar la obtención y el guardado de los datos. Por último, a los datos se les aplico una FFT para poder identificar las frecuencias dominantes en las vibraciones, lo que nos permitió identificar anomalías y patrones que pueden indicar que en el motor que se está analizando se presentan fallas.De forma resumida se puede decir que la metodología del proyecto se realizó en dos partes que fueron Hardware y Software: Hardware: ESP32: La ESP32 es una plataforma IoT poderosa y versátil que permite la conexión a redes Wi-Fi y Bluetooth. En este proyecto, se utiliza una ESP32 flasheada con MicroPython para la recolección y transmisión de datos de vibración. Sensor MPU6050: Este sensor de seis ejes (acelerómetro y giroscopio) es utilizado para medir las vibraciones del motor. Se conecta a la ESP32 a través de una interfaz I2C. Motores a monitorear: Se seleccionaron varios motores para evaluar el rendimiento del sistema de monitoreo en diferentes condiciones de operación. Software: MicroPython en ESP32: Se desarrolló un script en MicroPython para leer los datos del sensor MPU6050 y enviarlos al broker Mosquitto. MicroPython es una implementación de Python 3 optimizada para microcontroladores, lo que permite un desarrollo rápido y eficiente. Mosquitto Broker: Se utilizó Mosquitto como el broker MQTT para recibir los datos de vibración enviados por la ESP32. Mosquitto es un broker de mensajes ligero que soporta el protocolo MQTT, ideal para aplicaciones IoT. Aplicación Flask: Backend: La aplicación Flask maneja la conexión a la base de datos MySQL utilizando la biblioteca pymysql. Recibe los datos de vibración desde el broker Mosquitto y los almacena en la base de datos para su posterior análisis. Frontend: La visualización en tiempo real de los datos de vibración se realiza mediante gráficos interactivos. Se utilizan bibliotecas como Matplotlib y Plotly para crear gráficos que muestran tanto las vibraciones en tiempo real como los resultados del análisis FFT.


CONCLUSIONES

Se logró una comunicación eficiente entre la tarjeta ESP32 y el sensor MPU6050, permitiendo la recolección continua de datos de vibración. La transmisión de estos datos al broker Mosquitto ha sido exitosa, y la aplicación Flask ha demostrado ser capaz de recibir y almacenar los datos en una base de datos MySQL de manera efectiva. La visualización en tiempo real de las vibraciones ha permitido monitorear el comportamiento de los motores de manera continua. Los gráficos generados muestran variaciones en las vibraciones que pueden estar asociadas con diferentes condiciones operativas del motor, como cambios en la velocidad o en la carga. El análisis FFT ha sido particularmente útil para identificar frecuencias específicas en las vibraciones del motor. Estas frecuencias pueden estar relacionadas con defectos mecánicos, desalineaciones, o desequilibrios en el motor. La capacidad de detectar estas anomalías en una etapa temprana permite tomar medidas correctivas antes de que ocurran fallos graves. En resumen, este proyecto demuestra cómo las tecnologías IoT pueden ser utilizadas para desarrollar soluciones efectivas y económicas para el monitoreo de condiciones en aplicaciones industriales.
Alzate Hincapié Juan David, Universidad Católica de Pereira
Asesor: Mg. Andrés Felipe Ramirez Correa, CIAF Educación Superior

CATáLOGO PATRONES DE DISEñO EN PYTHON


CATáLOGO PATRONES DE DISEñO EN PYTHON

Alzate Hincapié Juan David, Universidad Católica de Pereira. Puentes López David, Universidad Católica de Pereira. Asesor: Mg. Andrés Felipe Ramirez Correa, CIAF Educación Superior



PLANTEAMIENTO DEL PROBLEMA

Catálogo de Patrones de Diseño en Python   Dentro del mundo de la programación orientada a objetos, y en la programación en general, los desarrolladores experimentados hacen lo posible por no resolver cada problema desde cero enfrentados a cada pequeña particularidad que se encuentran en el proceso de desarrollo, sino que utilizan soluciones que ya se han utilizado en el pasado para resolver problemas cuyo núcleo principal se repite de forma regular, y que lo único que deben hacer es adaptarlo para las necesidades específicas de la situación.   Es por esto que en el presente trabajo se muestran algunos de los patrones de diseño más comunes en la industria, así como una breve descripción de su funcionamiento.  



METODOLOGÍA

Para la creación de este catálogo, se siguió una metodología rigurosa que incluyó: Identificación y clasificación: Cada patrón fue identificado y clasificado según su categoría (creacional, estructural o comportamental). Análisis en profundidad: Se estudió a fondo el propósito, la motivación, la estructura y las colaboraciones de cada patrón. Ejemplos prácticos: Se proporcionaron ejemplos de código en Python para ilustrar la implementación de cada patrón en escenarios reales. Consideración de ventajas y limitaciones: Se analizaron tanto los beneficios como los desafíos asociados con cada patrón. Los 5 Patrones de Diseño Destacados Singleton: Garantiza que una clase tenga una única instancia y proporciona un punto de acceso global a esa instancia. Es ideal para gestionar recursos compartidos o configuraciones globales.    Factory Method: Delega la creación de objetos a subclases, permitiendo una mayor flexibilidad en la creación de objetos y facilitando la extensión del sistema. Observer: Define una relación uno-a-muchos entre objetos, permitiendo que múltiples objetos sean notificados automáticamente cuando cambia el estado de otro objeto. Es útil para implementar sistemas de eventos y notificaciones. Strategy: Encapsula una familia de algoritmos, permitiendo que el algoritmo varíe independientemente de los clientes que lo utilizan. Es ideal para cambiar comportamientos en tiempo de ejecución. Decorator: Permite agregar responsabilidades a un objeto de manera dinámica, sin alterar la estructura de las clases existentes. Es útil para agregar funcionalidades adicionales a objetos sin crear nuevas subclases.


CONCLUSIONES

Catálogo de patrones como referencia: Un catálogo de patrones de diseño actúa como una enciclopedia de soluciones probadas para problemas comunes en el desarrollo de software. Al tener un catálogo a mano, los desarrolladores pueden buscar rápidamente la solución más adecuada para un problema específico, ahorrando tiempo y esfuerzo en la fase de diseño. Esto se debe a que al reutilizar soluciones existentes, los desarrolladores pueden acelerar el proceso de desarrollo de nuevas aplicaciones. Esto es especialmente útil en proyectos con plazos ajustados. Es posible afirmar que el uso de los catálogos promueven la adopción de buenas prácticas de desarrollo de software. Al documentar los patrones de diseño y sus aplicaciones, se establece un estándar de calidad y consistencia en los proyectos. El hecho de tener un catálogo común proporciona un lenguaje compartido entre los miembros de un equipo de desarrollo, falicitando la comunicación y la colaboración, ya que todos entienden y utilizan los mismos conceptos. El uso de patrones de diseño hace que el código sea más legible, comprensible y mantenible a largo plazo, ya que estos proporcionan una estructura clara y organizada al código, lo cual es de vital importancia en proyectos que requieren varios programadores. Y finalmente, aunque los patrones de diseño son soluciones probadas, también pueden servir como base para la creación de nuevos patrones o variaciones de los existentes. Esto fomenta la innovación y la mejora continua en el desarrollo de software.
Alzate Sanchez Valentina, Institución Universitaria Esumer
Asesor: Dr. Rigoberto Torres Tovar, Universidad Autónoma del Estado de México

IMPACTO DE LA LOGíSTICA 4.0 EN ESTADOS UNIDOS: UN ANáLISIS INTEGRAL


IMPACTO DE LA LOGíSTICA 4.0 EN ESTADOS UNIDOS: UN ANáLISIS INTEGRAL

Alzate Sanchez Valentina, Institución Universitaria Esumer. Asesor: Dr. Rigoberto Torres Tovar, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Actualmente los avances tecnológicos están modificando la logística y el comercio internacional de una forma bastante acelerada. Hasta hace algunos años la logística se caracterizaba por trabajos manuales como máquinas de envasado, la necesidad de una gran cantidad de operarios para etiquetar, programar las maquinas o realizar inventarios en almacenes manualmente. Es innegable la gran participación y relevancia que tiene Estados Unidos frente al mundo, allí se ubican las megaindutrias que potencialmente generan un impacto importante en la adopción de estas nuevas tecnologías. Los gerentes de logística comenzaron a entender que había oportunidades para ser más eficientes y eficaces para entregar al cliente un servicio de la mayor calidad, aprovechar la tecnología disponible para tomar decisiones en tiempo real y ejecutar las estrategias de una forma asertiva. La evolución de la logística en Estados Unidos a través de los años se ha visto impactada principalmente por la globalización de los mercados hacia este país. la adopción de la Logística 4.0 ha avanzado considerablemente, impulsada por la necesidad de mejorar la eficiencia, reducir costos y adaptarse a la creciente demanda del comercio electrónico. 



METODOLOGÍA

La metodologia que se esta empleando para realizar esta investigacion es por medio de una revision bibliografica, donde se analiza la literatura disponible sobre la logistica 4.0 y sus fundamentos aplicados en el pais de Estados Unidos. Por medio de la revision y examinacion de los diferentes articulos, publicaciones o informes de la industria, se logran respaldar los hallazgos encontrados. Tambien se realizan estudios de caso en el analisis de empresas en Estados Unidos que actualmente hayan implementado la logistica 4.0 en su cadena de abastecimiento, asi se logra comprender sus estrategias y resultados.  


CONCLUSIONES

El tema abordado en esta investigación nos permite entender y posicionarnos desde un contexto actualizado sobre la eficiencia en la ejecución que actualmente está implementando Estados Unidos en materia de comercio exterior, apalancado en los componentes que se desprenden dentro de la logística 4.0. Es importante comprender la gran relevancia que significa para el mundo actual la evolución en las nuevas tecnologías para adoptar modelos logísticos inteligentes, aprovechar la información para anticipar las necesidades del cliente, gestionar la trazabilidad de extremo a extremo y el ahorro potencial en pasivo laboral que se puede alcanzar. Tambien como conclusion logramos comprender la importancia y gran relevancia que tiene capacitar al capital humano correctamente para impulsar la transformación digital a nivel empresarial.    
Amado Guzmán Mariana del Rosario, Instituto Politécnico Nacional
Asesor: Dr. Ricardo Orozco Cruz, Universidad Veracruzana

ESTUDIO ELECTROQUíMICO DE LA PISTIA STRATIOTES, UNA PLANTA ACUáTICA INVASORA, Y LA CUSCUTA JALAPENSIS UNA PLANTA PARASITA, COMO FUENTES DE INHIBIDORES VERDES DE CORROSIóN EN MEDIO SALINO.


ESTUDIO ELECTROQUíMICO DE LA PISTIA STRATIOTES, UNA PLANTA ACUáTICA INVASORA, Y LA CUSCUTA JALAPENSIS UNA PLANTA PARASITA, COMO FUENTES DE INHIBIDORES VERDES DE CORROSIóN EN MEDIO SALINO.

Amado Guzmán Mariana del Rosario, Instituto Politécnico Nacional. Asesor: Dr. Ricardo Orozco Cruz, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

La mayoría de los inhibidores orgánicos sintéticos utilizados comercialmente son caros, no biodegradables y tóxicos para el ser humano y el medio ambiente. La toxicidad del inhibidor puede causar daños temporales o permanentes en diversos órganos y sistemas del cuerpo humano, alterando proceso bioquímico o enzimático en alguna parte del cuerpo. Por tal motivo, se han creado regulaciones para limitar el uso de los inhibidores de corrosión. Los extractos de productos naturales se han convertido en una excelente alternativa como inhibidores de corrosión debido a que son una rica fuente de compuestos químicos naturales biodegradables que pueden extraerse mediante procedimientos simples, utilizando solventes baratos de baja toxicidad. A pesar de ello cuentan con algunas desventajas en comparación con los inhibidores sintéticos, tales como que su alta biodegradabilidad no les permite tener una duración aceptable de sus tiempos de acción de inhibición (tiempo de residencia), su efecto inhibitorio es bajo a temperaturas elevadas y se requieren concentraciones elevadas (>1000 ppm) para alcanzar buenas eficiencias. No obstante, se han reportado casos en los que el extracto ha sido capaz de alcanzar altas eficiencias de inhibición a bajas concentraciones.



METODOLOGÍA

Preparación de los extractos La recolección de las plantas de Pistia Stratiotes (PS) se realizó en una laguna ubicada en las coordenadas 19°12'22.6"N 96°10'36.5"W en el municipio de Veracruz, Ver. Las hojas de PS se limpiaron con agua y jabón para remover cualquier suciedad o partícula indeseable, posteriormente se secaron en una estufa a 45 °C durante 24 horas para remover la humedad. Después de ese lapso, las hojas secas se molieron en un triturador convencional hasta obtener un polvo fino para mejorar la superficie de contacto entre el soluto y el solvente. La extracción se realizó mediante maceración en una solución 70/30 % en volumen de etanol/agua en una relación del polvo en una relación 1:20. La solución con el polvo se agitó a 120 rpm durante 24 horas a temperatura ambiente. Una vez transcurrido ese tiempo, se llevó a cabo la filtración de la solución utilizando papel filtro y una bomba de vacío. Finalmente, se utilizó un roto evaporador a vacío con una temperatura de 50 °C para eliminar el solvente y obtener el extracto sólido. Para el caso de la Cuscuta Jalapensis (CJ), esta se recolectó en una zona boscosa (19°26'54.0"N 96°58'53.9"W) en el municipio de Coatepec, Veracruz. El procedimiento de limpieza de los tallos de la CJ fue el mismo que para la PS. Así como el proceso de maceración y extracción. Los metales bajo estudio son un acero al carbono dulce A36 y un acero inoxidable AISI 304. El electrolito de prueba es una solución al 3.5% de NaCl, una solución típica para simular la corrosividad del agua de mar. La concentración empleada de los extractos es de 0, 100, 200, 400, 600 y 1000 ppm. Pruebas electroquímicas. Antes de las mediciones electroquímicas, los especímenes se preparan de acuerdo con la norma ASTM G1- 90. La superficie del metal se desbasta con papel de SiC de grado 220, 400 y 600, posteriormente esta se desengrasa con acetona y se enjuaga con agua destilada y se seca con aire caliente. Las pruebas electroquímicas se realizan en un potenciostato/galvanostato, utilizando una celda electroquímica con un arreglo típico de tres electrodos, donde el electrodo de trabajo (WE) son los especímenes del acero al carbono y acero inoxidable, como electrodo auxiliar (AE) se emplea una barra de grafito y como electrodo de referencia (RE) un electrodo de Ag/AgCl. Inicialmente se mide el potencial de circuito abierto (OCP) o potencial de corrosión (Ecorr) entre el WE y el RE durante 30-60 minutos, el cual debe de mantener un valor estable antes de que se apliquen las pruebas electroquímicas. A continuación, se describen los parámetros necesarios para llevar a cabo cada una de las pruebas. Curvas de polarización potenciodinámicas (CP): Además de determinar la velocidad de corrosión del material, las CPs permiten clasificar al compuesto evaluado como un inhibidor anódico, catódico o mixto. Se aplica un sobrepotencial de ±300 mV con respecto al potencial de corrosión (Ecorr) con una velocidad de barrido de potencial de 1mV/s. Resistencia a la Polarización Lineal (RPL): Se aplica un pequeño sobrepotencial de ±20 mV a partir del Ecorr, con una velocidad de barrido de potencial de 1mV/s. Espectroscopia de impedancia electroquímica (EIS): Técnica de corriente alterna. El rango de frecuencia utilizado es de 10000 a 0.01 Hz con una amplitud de perturbación de 10 mV vs Ecorr, tomando como lectura 10 puntos por cada década de frecuencia. Después de haber determinado la concentración en la que los extractos tuvieron el mejor desempeño (máxima eficiencia de inhibición), se realizara el monitoreo de la velocidad de corrosión cada 24h durante un periodo de 15 días en el metal en el que mejor haya actuado el inhibidor.


CONCLUSIONES

En este presente trabajo se evaluó el efecto de inhibición de los extractos de la Pistia stratiotes, una planta acuatica invasora, y la Cuscuta jalapensis una planta parasita, en medio salino. Por lo cual es posible definir las siguientes conclusiones:   En el caso del inhibidor de la planta Cuscuta Jalapensis: Tuvo mejor comportamiento en el acero al carbón con respecto al acero inoxidable pues aumenta la resistencia a la corrosión en ambos aceros Es necesario superar la concentración del inhibidor a 100ppm pues antes tiende a promover la velocidad de corrosión. Se comporta como un inhibidor catódico En el caso de la planta Pistia stratiotes: De igual manera se comporta como un inhibidor catódico. La resistencia a la corrosión es menor con respecto a la CJ. Tiene un mejor efecto inhibidor para los aceros al carbono o aceros dulces. Los diagramas de curvas de polarización y de velocidad de corrosión representan un resultado positivo para el efecto de inhibición a la corrosión, pero ineficiente para poder ser empleado industrialmente, debido a que sus porcentajes de efectividad no superan el 90% de efectividad, que es el parámetro mínimo para poder ser empleado de acuerdo con las normativas.
Amador Gonzalez Jimena, Universidad Tecnológica de Xicotepec de Juárez
Asesor: Mg. Ruth Leonor Reyes Villalba, Universidad Simón Bolivar

PROPUESTA DE AUTOMATIZACIóN PARA LA INDUSTRIA TEXTIL EN CúCUTA


PROPUESTA DE AUTOMATIZACIóN PARA LA INDUSTRIA TEXTIL EN CúCUTA

Amador Gonzalez Jimena, Universidad Tecnológica de Xicotepec de Juárez. Asesor: Mg. Ruth Leonor Reyes Villalba, Universidad Simón Bolivar



PLANTEAMIENTO DEL PROBLEMA

La industria textil en Cúcuta, Colombia, se enfrenta a desafíos significativos derivados de la falta de modernización y la alta dependencia de procesos manuales. Esta situación ha llevado a problemas de eficiencia operativa, altos costos de producción y una calidad inconsistente del producto final. En un mercado global cada vez más competitivo, las empresas textiles de la región luchan por mantenerse relevantes y competitivas. Por lo tanto, surge la necesidad de un marco de implementación adaptado que permita a las empresas textiles de Cúcuta adoptar estas tecnologías y metodologías de manera efectiva, mejorando así su competitividad y sostenibilidad en el mercado global. Este artículo se propone abordar esta brecha mediante una revisión exhaustiva de la literatura y el análisis de casos de éxito en diversas industrias, presentando recomendaciones prácticas y estrategias de implementación para la adopción de Industria 4.0 y manufactura esbelta en la industria textil de Cúcuta.



METODOLOGÍA

La metodología utilizada en este artículo se basa en una revisión exhaustiva de la literatura académica y el análisis de casos de éxito en la implementación de tecnologías de Industria 4.0 y manufactura esbelta en diversas industrias. El objetivo es proporcionar un marco de implementación adaptado a la realidad de las empresas textiles en Cúcuta. A continuación, se detallan los pasos metodológicos seguidos: 1. Revisión de la Literatura Académica: Selección de Artículos: Se realizó una búsqueda y selección de 40 artículos académicos relevantes relacionados con la Industria 4.0 y la manufactura esbelta, enfocándose en su aplicabilidad en el contexto colombiano y específicamente en la industria textil. Criterios de Inclusión: Los artículos seleccionados debían abordar temas como el Internet de las Cosas (IoT), inteligencia artificial (IA), robótica avanzada, Mantenimiento Productivo Total (TPM) y Single Minute Exchange of Die (SMED), y su impacto en la eficiencia operativa y la calidad del producto. 2. Análisis de Casos de Éxito: Identificación de Casos: Se identificaron casos de éxito en la implementación de tecnologías de Industria 4.0 y manufactura esbelta en diversas industrias, incluyendo la automotriz, la textil y la siderúrgica. Estudio de Impacto: Se analizaron estos casos para entender los beneficios y desafíos enfrentados durante la implementación de estas tecnologías y metodologías, y se evaluó su relevancia y aplicabilidad a la industria textil en Cúcuta. 3. Evaluación de Tecnologías y Metodologías: Industria 4.0: Se evaluaron tecnologías como IoT, IA y robótica avanzada, y su potencial para transformar las operaciones de manufactura, mejorando la eficiencia y la capacidad de respuesta del sistema productivo. Manufactura Esbelta: Se revisaron metodologías de manufactura esbelta, incluyendo TPM y SMED, para determinar su eficacia en la mejora de la eficiencia operativa y la reducción de desperdicios. 4. Desarrollo de un Marco de Implementación: Adaptación a la Realidad Local: Basándose en los hallazgos de la revisión de la literatura y el análisis de casos de éxito, se desarrolló un marco de implementación específico para la industria textil en Cúcuta. Este marco incluye estrategias prácticas para la adopción de tecnologías de Industria 4.0 y metodologías de manufactura esbelta. Recomendaciones: Se presentaron recomendaciones detalladas para la adopción de IoT, IA, robótica avanzada, TPM y SMED, incluyendo pasos específicos para su implementación, desafíos potenciales y soluciones propuestas


CONCLUSIONES

La modernización de la industria textil en Cúcuta mediante la adopción de tecnologías de Industria 4.0 y metodologías de manufactura esbelta es una estrategia viable y necesaria para mejorar la competitividad y eficiencia operativa. La implementación de tecnologías como el Internet de las Cosas (IoT), la inteligencia artificial (IA) y la robótica avanzada, junto con metodologías como el Mantenimiento Productivo Total (TPM) y el Single Minute Exchange of Die (SMED), ofrece soluciones prácticas para los desafíos actuales de la industria textil en Cúcuta. A través de una revisión exhaustiva de la literatura académica y el análisis de casos de éxito en diversas industrias, se ha desarrollado un marco de implementación adaptado a la realidad local. Este marco incluye recomendaciones específicas para la adopción de estas tecnologías y metodologías, destacando su potencial para mejorar la productividad, reducir costos y elevar la calidad del producto final. Los principales desafíos incluyen la inversión inicial necesaria para la adquisición de tecnología y la capacitación del personal, así como la gestión del cambio organizacional. Sin embargo, los beneficios a largo plazo, como la mayor eficiencia operativa, la reducción de desperdicios y la mejora de la calidad del producto, justifican estos esfuerzos. En resumen, la adopción de tecnologías de Industria 4.0 y manufactura esbelta en la industria textil de Cúcuta no solo es posible, sino también esencial para asegurar la sostenibilidad y competitividad en un mercado global cada vez más exigente. Las recomendaciones y estrategias presentadas en este artículo proporcionan una hoja de ruta clara para que las empresas textiles de la región puedan implementar estos cambios de manera efectiva, posicionándose así para un futuro más próspero y eficiente.
Anaya Solorio María de Jesús, Instituto Tecnológico Superior de Apatzingán
Asesor: Mg. Lina Mayerly Lozano Suárez, Universidad de Investigación y Desarrollo

APLICACIONES DE BIG DATA ANALYTICS EN LOS PROCESOS DE LA GESTIóN DE LA CADENA DE SUMINISTRO SEGúN EL MODELO SCOR DS: UNA REVISóN DE LITERATURA 2018-2024


APLICACIONES DE BIG DATA ANALYTICS EN LOS PROCESOS DE LA GESTIóN DE LA CADENA DE SUMINISTRO SEGúN EL MODELO SCOR DS: UNA REVISóN DE LITERATURA 2018-2024

Anaya Solorio María de Jesús, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Lina Mayerly Lozano Suárez, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la gestión de la cadena de suministro enfrenta numerosos desafíos debido al aumento de la complejidad y la globalización. El uso de Big Data Analytics ofrece una oportunidad para mejorar la eficiencia y sostenibilidad de estos procesos. Los objetivos de esta revisión son: 1) ¿Cuáles son las aplicaciones de big data analytics en los procesos de la gestión de la cadena de suministro según el modelo SCOR DS?; 2) Identificar y clasificar las aplicaciones de big data analytics en la gestión de la cadena de suministro; y 3) Analizar las contribuciones de big data analytics en la toma de decisiones dentro de los procesos de la cadena de suministro.



METODOLOGÍA

La investigación se basa en una revisión sistemática de literatura, empleando bases de datos académicas reconocidas como Scopus donde se plantearon nueve ecuaciones de búsqueda, para formar dichas ecuaciones se tomaron diferentes palabras claves del tema y se filtraron resultados, ecuación final tomada en la investigación: TITLE-ABS-KEY ( "big data analytics" OR "real-time data analytics" OR "large datasets" OR "business analytics" OR "descriptive analytics" OR "predictive analytics" OR "perspective analytics" ) AND TITLE-ABS-KEY ( supply AND chain ) AND TITLE-ABS-KEY ( "model and scor" OR "orchestrate" OR " plan" OR "order" OR "source" OR "transform" OR "fulfill" OR "return" OR "customer relationship management" OR "supplier relationship management" OR "Customer service Management" OR "Demand Management" OR "Order Fulfillment" OR "Manufacturing Flow Managment" OR "Producto Development and Commercialization" OR " Returns Management" OR "planing" OR " delivering" OR "inbound logistics" OR "procurement" OR "returning" OR "manufacturing" OR "fulfilllment and delivery" OR " demand management" OR "inventory management" OR "service management" OR "warehousing" OR "customer service" ) OR ABS ( "model and scor" OR "orchestrate" OR " plan" OR "order" OR "source" OR "transform" OR "fulfill" OR "return" OR "customer relationship management" OR "supplier relationship management" OR "Customer service Management" OR "Demand Management" OR "Order Fulfillment" OR "Manufacturing Flow Managment" OR "Producto Development and Commercialization" OR " Returns Management" OR "planing" OR " delivering" OR "inbound logistics" OR "procurement" OR "returning" OR "manufacturing" OR "fulfilllment and delivery" OR " demand management" OR "inventory management" OR "service management" OR "warehousing" OR "customer service" ) AND PUBYEAR > 2018 AND PUBYEAR < 2025. Con esta ecuación se obtuvieron 522 artículos, se desarrolló una estrategia de búsqueda para identificar estudios relevantes, los cuales fueron evaluados en términos de calidad y pertinencia, la selección de estudios incluyó análisis bibliométricos para determinar tendencias y temas de investigación predominantes en el campo de big data analytics aplicados a la cadena de suministro, teniendo como resultado final 94 artículos.  Finalmente se emplea la matriz RSL (Revisión sistemática de literatura) para organizar y analizar los resultados.


CONCLUSIONES

La revisión de la literatura sobre las aplicaciones de big data analytics en la gestión de la cadena de suministro revela que estas tecnologías no solo mejoran la eficiencia operativa, sino que también proporcionan una ventaja competitiva significativa. Se destaca una amplia variedad de métodos y algoritmos aplicados en diferentes procesos de la cadena de suministro de acuerdo al modelo SCOR DS, desde la orquestación, planificación, realización, fuente, orden hasta la transformación; indica un enfoque multifacético para la investigación en la orquestación de la cadena de suministro; los modelos de ecuaciones estructurales y el análisis de big data son los métodos más utilizados, pero la tendencia es hacia una mayor integración de técnicas de inteligencia artificial y una consideración más profunda de los aspectos sociales y ambientales.  El modelo SCOR DS, al integrar técnicas avanzadas de análisis de datos, permite una mayor precisión en la previsión de la demanda, optimización de inventarios y mejora de la logística. No obstante, la implementación de estas tecnologías requiere una infraestructura adecuada y una capacitación continua del personal. Además, se destaca la importancia de una colaboración estrecha entre los distintos actores de la cadena de suministro para maximizar los beneficios del big data analytics.
Andrade Camacho Luis Arturo, Instituto Tecnológico de Querétaro
Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)

DISEñO Y CONFIGURACIóN DE UN VEHíCULO MODULAR SUMERGIBLE AUTóNOMO PARA LA EXPLORACIóN Y MONITOREO DE CUERPOS DE AGUA SOMEROS DE FORMA SISTEMáTICA


DISEñO Y CONFIGURACIóN DE UN VEHíCULO MODULAR SUMERGIBLE AUTóNOMO PARA LA EXPLORACIóN Y MONITOREO DE CUERPOS DE AGUA SOMEROS DE FORMA SISTEMáTICA

Andrade Camacho Luis Arturo, Instituto Tecnológico de Querétaro. Flores Bueno Luis Adrian, Instituto Tecnológico de Colima. Martínez Zavala Norma Lorena, Universidad de Guadalajara. Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los arrecifes de coral albergan ecosistemas de gran biodiversidad, los cuales debido al reciente incremento de la temperatura a nivel global y la contaminación de los océanos, se ven vulnerados al grado de poder desaparecer, siendo posible la perdida de hasta el 90 % en 2050. Es por ello que la investigación e innovación son obligatorias para mantener estas zonas de amplia diversidad marina, es en este punto donde la aplicación de la ciencia e ingeniería deben proveer soluciones que permitan tener el mayor éxito en su conservación. El desarrollo de vehículos autónomos presenta un notable crecimiento en los últimos años, esto como consecuencia de la necesidad de exploración en zonas de difícil acceso. Estos vehículos son diseñados para completar tareas específicas de forma eficiente y eficaz, en ambientes particulares, desde carreteras, hogares y océanos hasta el sistema solar. Mediante la incorporación de múltiples sensores y actuadores, los vehículos autónomos son capaces de realizar un mapeo de su entorno, identificando componentes claves o de interés y realizando la navegación por este medio sin necesidad de intervención humana, tomando las decisiones necesarias para cumplir la tarea para la cual fue diseñado. La utilización de vehículos autónomos es invaluable en la recolección de datos en ambientes adversos, siendo el océano uno de ellos, es entonces que el objetivo durante esta estancia de investigación es el desarrollo de un vehículo autónomo sumergible (AUV), capaz de explorar arrecifes de baja profundidad y brindar información importante para su conservación.



METODOLOGÍA

Se llevó a cabo una rigurosa investigación centrada en el diseño y desarrollo de vehículos sumergibles. En esta fase inicial, se realizó una revisión detallada del estado del arte para entender las tecnologías y diseños existentes, así como sus aplicaciones y limitaciones dentro de ciertas condiciones de operación. Se consultaron normativas y estándares internacionales que rigen la construcción y correcta operación de vehículos sumergibles, tanto remotos, como de navegación autónoma, asegurando que el diseño cumpliera con todas las regulaciones pertinentes. Este análisis previo fue fundamental para establecer una base sólida sobre la cual se sustentaría el desarrollo del proyecto. De la misma forma, se investigó y analizó el ecosistema en el que operaría el vehículo, de manera que sea sustentable y con fines de exploración, sin alterar de ninguna manera dicho ecosistema. Se generaron diversos conceptos de diseño preliminar, cada uno enfocado en distintos aspectos, como la geometría y los mecanismos operativos. Los diseños inspirados tanto en modelos matemáticos, como en formas presentes en la naturaleza, específicamente, en animales marinos, de manera que se pudieran aprovechar las ventajas hidrodinámicas y de maniobrabilidad que ofrecen estas formas naturales. Los mecanismos fueron seleccionados considerando las condiciones operativas específicas a las que se sometería el vehículo, lo cual impone desafíos particulares en términos de resistencia a la corrosión y eficiencia de movimiento. En consideración de los diseños preliminares más prometedores, se utilizó software de diseño asistido por computadora para modelar el vehículo. Esta etapa permitió visualizar y ajustar la geometría del vehículo con precisión, optimizando su estructura para mejorar su desempeño bajo el agua. Además, el uso de herramientas CAD facilitó la integración la integración de diversos componentes esenciales para la operación del vehículo, como sistemas de localización, comunicación y electrónica. Para asegurar el funcionamiento eficiente del vehículo, se llevó a cabo una cuidadosa selección de componentes. Esto incluyó motores adecuados para el ambiente de operación, fuentes de energía óptimas para una autonomía deseable, microcontroladores, comunicadores, entre otros componentes mecánicos y electrónicos necesarios para la operación autónoma y control adecuado del vehículo. Los componentes fueron seleccionados no solo por su calidad y fiabilidad, sino también por su compatibilidad con el sistema global del vehículo, asegurando una programación y comunicación óptimas entre todas las partes. Se integraron los componentes en el modelo CAD, asegurando que cada parte funcionara de manera coherente con el sistema completo. Esta etapa incluyó la simulación de operaciones, de manera que se pudiera identificar y corregir posibles problemas previos a una construcción física del vehículo. Con el fin de asegurar que el diseño y mecanismos son adecuados para una operación marina de exploración a un máximo de 10 metros de profundidad, se llevaron a cabo análisis y simulaciones de una correcta hidrodinámica, coherencia en aspectos mecánicos, así como un deseable centro de gravedad y flotabilidad en el diseño.


CONCLUSIONES

Durante el desarrollo del proyecto se lograron adquirir conocimientos teóricos y prácticos sobre el diseño y construcción de vehículos sumergibles autónomos. Hasta el momento, se ha completado exitosamente la fase de modelado, manufacturando ciertos componentes mediante impresión 3D. Las simulaciones han mostrado un rendimiento hidrodinámico prometedor y una adecuada maniobrabilidad bajo el agua. Se espera que el vehículo final optimice la exploración y conservación de los arrecifes de coral, minimizando el impacto ambiental y maximizando la eficiencia operativa. En las próximas fases, se procederá al ensamblaje y pruebas en condiciones reales para validar el diseño y asegurar su funcionalidad y fiabilidad en el entorno marino.
Andrade Gross Laura Elisa, Universidad Autónoma de Occidente
Asesor: Dr. Angélica María Álzate Ibáñez, Fundación Universidad de América

APLICACIóN DE TECNOLOGíAS EN LA TRANSICIóN HACIA UNA ECONOMíA CIRCULAR EN EL SECTOR AGROALIMENTARIO: REVISIóN DE LITERATURA.


APLICACIóN DE TECNOLOGíAS EN LA TRANSICIóN HACIA UNA ECONOMíA CIRCULAR EN EL SECTOR AGROALIMENTARIO: REVISIóN DE LITERATURA.

Andrade Gross Laura Elisa, Universidad Autónoma de Occidente. Asesor: Dr. Angélica María Álzate Ibáñez, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

La economía circular y la industria 4.0 han surgido debido a la aparición de nuevas necesidades en la sociedad [1] [2] lo cual ha motivado un cambio en el modo tradicional de producción y consumo, y la integración de tecnologías para mejorar el rendimiento de actividades de producción y los modelos de negocio, entre otros aspectos [2], [3]. El estudio de Çalikoglu y Sadowski [2] evidencia una gestión ineficiente de los residuos de alimentos y las pérdidas a lo largo de la cadena de suministro, generando impactos negativos en términos económicos, ambientales y sociales. La revisión de literatura destaca la necesidad de desarrollar y aplicar estrategias innovadoras para reducir estos impactos, complementando la gestión ambiental con tecnologías emergentes, respaldadas por políticas públicas y alineadas con expectativas de pactos internacionales y nacionales, como los ODS y el Pacto Verde Europeo [2],[4]. Es por esto, que algunos autores sugieren el análisis del papel de las tecnologías y la economía circular desde perspectivas económicas, sociales y ambientales, como base para la propuesta de modelos y estrategias que faciliten la sostenibilidad de las cadenas de suministro de alimentos [5], [6].  La Industria 4.0 ha revolucionado el sector industrial con tecnologías avanzadas, facilitando la adaptación a mercados volátiles, la competitividad, la satisfacción del cliente y la sostenibilidad mediante la economía circular. Sin embargo, su implementación exitosa requiere inversiones significativas y una mayor investigación [4]. De acuerdo con lo expuesto anteriormente, este trabajo tiene por objetivo analizar el estado conceptual y metodológico de la economía circular en la cadena agroalimentaria integrando tecnologías emergentes.



METODOLOGÍA

El estudio se basa en la revisión de literatura utilizando la base de datos digital de Scopus, empleando una ecuación de búsqueda circular economy AND "food supply chain" AND food waste AND digitization AND The Industrial Internet of Things. Los resultados obtenidos a través de esta búsqueda se limitaron a los últimos cinco años.  Se utilizó el software VOSviewer para analizar redes bibliométricas y visualizar clusters temáticos, lo que permitió identificar grupos temáticos y relaciones entre conceptos, revelando temas prominentes, tendencias emergentes y áreas para futuras investigaciones. El análisis descriptivo de la información se focalizó en los documentos de revisión y casos de estudio de aplicación de tecnologías a lo largo de diversas etapas de la cadena productiva.


CONCLUSIONES

El estudio revela que la pandemia de 2020 aceleró la adopción de prácticas de economía circular impulsadas por tecnologías emergentes, especialmente en el sector minorista, optimizando las operaciones y mejorando la sostenibilidad. La integración de estas tecnologías en la gestión de residuos alimentarios y el desarrollo de métricas de sostenibilidad ha permitido un enfoque más dinámico y analítico hacia los sistemas económicos circulares. No obstante, la implementación de tecnologías emergentes en el contexto de la economía circular enfrenta barreras significativas. A pesar de los avances, persisten barreras como la arraigada cultura de consumo lineal y la ausencia de marcos estructurados robustos. Investigaciones recientes subrayan el potencial transformador de tecnologías como IoT, Big Data Analytics y Robótica en la transición hacia una economía más sostenible. Siendo necesario abordar de manera simultánea los obstáculos tecnológicos y culturales para maximizar el impacto positivo de esta transición. Adicionalmente, la revisión de la literatura indica que la adopción de tecnologías digitales, respaldadas por políticas públicas y pactos internacionales como los ODS y el Pacto Verde Europeo, es esencial para mitigar impactos ambientales y promover la sostenibilidad. Se reconoce que la sinergia entre tecnologías emergentes y economía circular presenta oportunidades para optimizar el uso de recursos, reducir residuos y fomentar modelos de negocio circulares en la industria manufacturera y en pequeñas y medianas empresas. Sin embargo, para aprovechar plenamente estos beneficios, es necesario desarrollar estrategias integrales que aborden aspectos técnicos, económicos y socioculturales, facilitando así una transición sistémica efectiva. RESULTADOS Por su parte, Ardra y Barua (2023) resaltan el papel de la trazabilidad en la implementación de la economía circular en la cadena de suministro de alimentos. Los autores subrayan la necesidad de un control sistemático de desechos, actualización tecnológica y mejora de habilidades laborales para superar barreras de información y tecnología. También sugieren optimizar la red logística para reducir el desperdicio de recursos [7]. Para finalizar, algunos estudios sugieren que las tecnologías son inicialmente adoptadas por las empresas para mejorar la eficiencia, reducir costos y elevar la calidad de sus procesos pero, en la práctica, rara vez se aprovechan plenamente como herramientas para impulsar la transición hacia una economía circular. Entre las tecnologías emergentes, el Internet de las Cosas (IoT), el Big Data Analytics (BDA) y la Robótica (ROB) se destacan como las más prometedoras. Sin embargo, la combinación sinérgica de IoT, BDA, sistemas de visión artificial, computación en la nube y ROB demuestra un potencial significativo para apoyar de manera integral la transición hacia la economía circular. [8]
Angeles Gonzalez Irving Alejandro, Universidad Politécnica de Tecámac
Asesor: Mtra. Ana Angelica Sánchez Sanchez Villegas, Universidad Politécnica de Tecámac

SCHOLAR ODYSSEY


SCHOLAR ODYSSEY

Angeles Gonzalez Irving Alejandro, Universidad Politécnica de Tecámac. Calva Santiago Brandon, Universidad Politécnica de Tecámac. Choreño Cuevas Angel Issac, Universidad Politécnica de Tecámac. Asesor: Mtra. Ana Angelica Sánchez Sanchez Villegas, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

La enseñanza de redes informáticas en entornos educativos enfrenta múltiples desafíos que dificultan el proceso de aprendizaje efectivo. Entre estos desafíos se encuentran la falta de recursos interactivos que faciliten la comprensión de conceptos complejos, la dificultad para mantener el interés y la motivación de los estudiantes, y la necesidad de adaptar los contenidos educativos a diferentes niveles de conocimiento y estilos de aprendizaje. Los métodos tradicionales de enseñanza a menudo no logran involucrar a los estudiantes de manera efectiva, lo que resulta en una retención de conocimientos insuficiente y en una comprensión superficial de los temas tratados.



METODOLOGÍA

La investigación se llevó a cabo mediante un enfoque mixto, combinando análisis cualitativo y cuantitativo en donde se realizaron investigaciones sobre el uso de software educativo enfocadas a la programación, lo cual  integrara una implementación del desarrollo de habilidades,  para permitir al alumno y al docente aprender de una manera continua y eficiente, mediante actividades lúdicas, didácticas, lo cual permitirá obtener resultados positivos en el uso de estas estrategias de enseñanza-aprendizaje, permitiendo a ambas partes el planteamiento de problemáticas, un razonamiento analógico que les permita solucionar problemas, por medio del uso de juegos.  Para el desarrollo de Scholar Odyssey, se adoptó un modelo iterativo, que permite una constante evaluación y mejora del software educativo. Este modelo se divide en las siguientes fases: 1.Análisis de necesidades: •Recolección de datos: Se realizaron encuestas y entrevistas con estudiantes de la universidad politécnica de Tecámac que están adscritos a la carrera de ingeniería en software para identificar las principales dificultades y necesidades en el proceso de enseñanza-aprendizaje. Se recogieron datos cualitativos y cuantitativos para entender mejor los desafíos específicos que enfrentan. •Definición de requerimientos: Basado en los datos recolectados, se definieron los requerimientos funcionales y no funcionales del software, especificando las características que debía incluir para abordar los problemas identificados Requerimientos Funcionales RF1.Registro de nuevos usuarios (estudiantes y profesores). RF2.Inicio de sesión y autenticación segura. RF3.Presentación de contenidos teóricos sobre redes informáticas, organizados por niveles de dificultad (básico, intermedio, avanzado). RF.4Actividades interactivas y ejercicios prácticos para aplicar los conocimientos adquiridos. RF5.Creación de cuestionarios y evaluaciones con diferentes tipos de preguntas (selección múltiple, verdadero/falso.). RF6.Evaluación automática de las respuestas. RF7.Registro y visualización del progreso y desempeño de los estudiantes. Requerimientos No Funcionales RNF1.La aplicación debe ser capaz de manejar múltiples usuarios simultáneamente sin degradación significativa del rendimiento. RNF2.Tiempo de respuesta de la interfaz de usuario debe ser inferior a 2 segundos. RNF3.El sistema debe ser capaz de escalar para soportar un aumento en la cantidad de usuarios y datos sin necesidad de rediseño significativo. RNF4.La arquitectura debe permitir la fácil adición de nuevos módulos y funcionalidades. RNF5.Los datos de los usuarios deben estar protegidos mediante mecanismos de seguridad hash. RNF6.Implementación de autenticación y autorización seguras para el acceso a los datos y funcionalidades. RNF7.La interfaz de usuario debe ser intuitiva y fácil de usar. RNF8.Diseño responsivo que asegure el correcto funcionamiento en diferentes dispositivos (móviles, tabletas, computadoras). 2.Diseño: •Arquitectura del sistema: Se diseñó la arquitectura general del sistema, definiendo los componentes principales y su interacción. Esto incluyó la selección de tecnologías como Flutter para el desarrollo de la interfaz de usuario y Firebase para la gestión de datos. Diseño de interfaz de usuario: Se desarrollaron diseños de alta fidelidad de la interfaz de usuario, asegurando que fueran intuitivos y accesibles. Se consideraron principios de diseño centrado en el usuario para mejorar la experiencia de uso. Desarrollo: Desarrollo de módulos básicos: Se inició el desarrollo de los módulos básicos de la aplicación, incluyendo las funcionalidades esenciales para el aprendizaje de redes informáticas. Esto incluyó la creación de actividades interactivas y cuestionarios. Pruebas unitarias: Se realizaron pruebas unitarias de cada componente desarrollado para asegurar su correcto funcionamiento. Estas pruebas ayudaron a identificar y corregir errores tempranamente en el proceso de desarrollo.


CONCLUSIONES

Durante el periodo de verano del programa delfín, podemos decir que se ha logrado adquirir conocimientos sobre la forma de enseñanza-aprendizaje a través del software educativo, el cual se tomó en base las estrategias de aprendizajes y metodologías a través de actividades lúdicas que permitirán el desarrollo cognitivo y eficaz lo que permitirá a los estudiantes aprender de manera autónoma para desarrollar conocimientos y habilidades en necesidad de  sus asignaturas. En base a las encuestas realizadas a estudiantes de la ingeniería en software con el fin de recolectar datos sobre sus percepciones y experiencias con el software educativo con las cuales se recopilo lo siguiente: * Se encontró que el 42% de los estudiantes utilizan su dispositivo móvil con más frecuencia para estudiar. * Además de acuerdo con la opinión de los estudiantes consideran que la materia que más se puede ver beneficiada con una aplicación educativa es "Redes" * Con los datos obtenidos mediante las encuestas se decide desarrollar una aplicación móvil que permita el estudio de temas relacionados con el área de diseño de redes, implementando el modelo de desarrollo de software iterativo permitiendo dar paso a mejoras continuas, para proporcionar un mayor porcentaje de satisfacción y eficacia ante el aprendizaje que brinda la aplicación.
Anguiano González Howen, Instituto Tecnológico Superior de Puruándiro
Asesor: Prfnal. Nelly de Armas Calderon, Universidad de la Costa

¿CóMO EL DISEñO DEL PERFIL DE PISTóN INFLUYE VARIABLES COMO LA VELOCIDAD Y PRESIóN EN LA CáMARA DE COMBUSTIóN DE UN MOTOR DE 4 TIEMPOS SIMULADO EN FRíO?


¿CóMO EL DISEñO DEL PERFIL DE PISTóN INFLUYE VARIABLES COMO LA VELOCIDAD Y PRESIóN EN LA CáMARA DE COMBUSTIóN DE UN MOTOR DE 4 TIEMPOS SIMULADO EN FRíO?

Anguiano González Howen, Instituto Tecnológico Superior de Puruándiro. Asesor: Prfnal. Nelly de Armas Calderon, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

Los motores de 4 tiempos son ampliamente utilizados en la industria automotriz debido a su eficiencia y durabilidad. El perfil del pistón juega un papel crucial en el proceso de combustión, afectando la mezcla de aire y combustible, la transferencia de calor y las fuerzas mecánicas internas. Estudios previos han analizado aspectos individuales del diseño del pistón, pero existe una necesidad de entender cómo el perfil completo del pistón influye en el comportamiento del motor. El proyecto constará del diseño y análisis de la influencia de la configuración de la cabeza del pistón en los flujos internos en la cámara de combustión. Se realizarán en total 3 diseños del pistón en la herramienta de Inventor y posteriormente serán analizados en frío con una malla dinámica en el programa de Ansys Fluent. Aquí se observará el comportamiento del flujo de la cámara de combustión de acuerdo a los cuatro tiempos de un motor de combustión interna, teniendo en cuenta variables como temperatura y velocidad.



METODOLOGÍA

Enfoque: Utilización de simulaciones por computadora para modelar el comportamiento del motor con diferentes perfiles de pistón. Herramientas: Software de simulación de dinámica de fluidos y análisis de elementos finitos para evaluar las variables de velocidad y presión en la cámara de combustión.


CONCLUSIONES

Comportamiento de los diferentes perfiloes del pistón con respecto a variables como presión, temperatura y velocidad. Tener 3 diseños de perfil de pistón con herramienta CAD y 3 simulaciones. Obtener un borrador de un artículo.
Anguiano Mendoza Laura Azucena, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Juan Manuel Ramírez Alcaraz, Universidad de Colima

EL IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA CIBERSEGURIDAD EN ESCENARIOS DE IOT: FACILITANDO CIBERATAQUES.


EL IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA CIBERSEGURIDAD EN ESCENARIOS DE IOT: FACILITANDO CIBERATAQUES.

Anguiano Mendoza Laura Azucena, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Juan Manuel Ramírez Alcaraz, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Los ataques cibernéticos son cada vez más comunes en la actualidad. La inteligencia artificial (IA) está facilitando la ejecución de estos ataques, lo que ha llevado a un aumento significativo en el número de incidentes cibernéticos a nivel mundial. Diversos tipos de ataques han sido reportados, con un artículo revelando que en 2022 se detectaron 493,33 millones de ataques de ransomware. Además, el phishing se ha convertido en uno de los métodos más comunes, con un aproximado de 3.400 millones de correos spam enviados diariamente. La principal problemática radica en que la propia inteligencia artificial puede ser utilizada para apoyar en la generación de ciberataques, lo que podría conducir a un aumento excesivo de estos en el futuro. Para el 2024, se espera que la inteligencia artificial multiplique la capacidad de acción de los ciberdelincuentes.  Es importante entender que no es posible defenderse eficazmente de los ataques impulsados por la inteligencia artificial sin utilizar la misma tecnología para la defensa. La inteligencia artificial permite a los cibercriminales realizar ataques más sofisticados y personalizados, presentando un desafío significativo para la ciberseguridad global. Virgilio Fredy Tito Chura (2023) señala que El uso cada vez mayor de la tecnología , particularmente el internet de las cosas y la inteligencia artificial , ha provocado una explosion de datos y dispositivos conectados , pero también ha introducido nuevas vulnerabilidades y riesgos cibernéticos. (p.2). El Internet de las Cosas (IoT por sus siglas en inglés) añade otra capa de complejidad a esta problemática, ya que los dispositivos utilizados en estos escenarios son vulnerables y manejan datos confidenciales. Esto quiere decir que la ciberseguridad en IoT  es importante , ya que cualquier vulnerabilidad puede tener consecuencias graves debido a los datos confidenciales que recopilan y transmiten. La distribución masiva y el uso general de estos dispositivos les ofrece a los ciberdelincuentes más oportunidades para llevar a cabo ataques basados, por ejemplo, en botnets, debido a la alta vulnerabilidad que tienen dichos dispositivos.  



METODOLOGÍA

Se realizó una investigación sobre el uso de la inteligencia artificial tanto para la defensa como para los ataques cibernéticos.  Introducción al tema Para comprender mejor el tema, se tomaron dos cursos: uno de introducción a la ciberseguridad y otro sobre los elementos de la inteligencia artificial. Revisión de Literatura Se llevó a cabo una búsqueda exhaustiva en diversas bases de datos como Google scholar, IEEE xplore, Sciencedirect, Researchgate, Belfercenter, Arxiv, Pubmed. para obtener artículos relevantes sobre el tema. Se recopilaron y analizaron más de 40 artículos científicos, los cuales los más enfocados al objetivo de la investigación fueron leídos, discutidos y resumidos para extraer la información más pertinente.  Análisis y Discusión Se realizó una discusión detallada de los artículos más enfocados en la ciberseguridad con inteligencia artificial. De esta discusión, se identificaron tres ramas fundamentales: la ética, el Internet de las Cosas (IoT) y otra categoría relevante. Cada una de estas ramas fue investigada a fondo. Investigación en IoT y Ciberseguridad  Se llevó a cabo una investigación sobre el uso del IoT en la ciberseguridad con inteligencia artificial, Esta investigación reveló que la inteligencia artificial ha facilitado significativamente muchas operaciones en la actualidad. Desarrollo de Artículo de Divulgación Tras la investigación sobre IoT, se inició con la elaboración de un artículo de divulgación. Para este fin, se leyeron más de 10 artículos adicionales para asegurar una comprensión clara y completa del tema, y así elaborar un artículo bien fundamentado y coherente.  


CONCLUSIONES

Durante la estancia en el verano, se adquirió un conocimiento teórico significativo sobre el uso de la inteligencia artificial en ciberseguridad, tanto para facilitar ataques como para defenderse de ellos. Se comprendió la importancia de la ética en su aplicación y se exploró su integración con el IoT, identificando beneficios y vulnerabilidades ya que el uso masivo de esta tecnología es una preocupación crítica, y que cualquier vulnerabilidad o instancia de seguridad comprometida en IoT puede tener consecuencias de gran alcance que amplía el número de ataques en ciberseguridad.  La inteligencia artificial es clave para proteger estos sistemas mediante la detección de anomalías, sin embargo ,la combinación de IA e IoT requiere un enfoque equilibrado para maximizar beneficios y minimizar riesgos, subrayando la necesidad de seguir investigando y desarrollando soluciones avanzadas de ciberseguridad. La revisión de más de 40 artículos científicos fortaleció las habilidades de investigación y síntesis, subrayando la dualidad de la inteligencia artificial en ciberseguridad y la necesidad de un enfoque ético y bien informado.  
Angulo N/a Jean Carlos, Universidad Autónoma de Occidente
Asesor: Dra. María Azucena Arellano Avelar, Universidad de Guadalajara

IDENTIFICACIóN DE MéTODOS UTILIZADOS EN EL MONITOREO AMBIENTAL


IDENTIFICACIóN DE MéTODOS UTILIZADOS EN EL MONITOREO AMBIENTAL

Angulo N/a Jean Carlos, Universidad Autónoma de Occidente. Asesor: Dra. María Azucena Arellano Avelar, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

INTRODUCCIÓN El presente informe académico se centra en el estudio de la calidad fisicoquímica y microbiológica del Río Santiago en Guadalajara, Jalisco. Este río es uno de los más importantes del estado de Jalisco y suministra un caudal significativo para la potabilización y el uso de los habitantes de la región. Además, debido a su gran extensión, el río Santiago es utilizado ampliamente para actividades agrícolas, lo que aumenta el contacto con los habitantes locales y amplía el rango de exposición a contaminantes. A lo largo de su recorrido por el estado, el río recibe numerosas descargas no reguladas, lo que plantea preocupaciones adicionales sobre la calidad del agua. El estudio se enfoca especialmente en la cuantificación y rastreo de Escherichia coli (E. coli), una bacteria que sirve como indicador clave de contaminación fecal en cuerpos de agua. La presencia de E. coli en niveles elevados puede representar un riesgo significativo tanto para la salud pública como para el medio ambiente. Además de este enfoque microbiológico, la investigación incluye un análisis exhaustivo de los sólidos totales y fecales presentes en el río, lo cual proporciona una visión integral de los factores contaminantes y sus posibles fuentes. La importancia de este estudio radica en la creciente preocupación por la calidad del agua en ríos urbanos, especialmente en regiones densamente pobladas como Guadalajara. La contaminación del agua no solo afecta negativamente la biodiversidad acuática, sino que también plantea un desafío crítico para el suministro de agua potable y la salud pública. En este contexto, el informe incluye un análisis detallado de los sólidos totales y fecales para el rastreo de E. coli, empleando la técnica de tubos múltiples. Este enfoque metodológico permite una evaluación precisa de la calidad del agua y de los riesgos asociados, proporcionando datos esenciales para la gestión y conservación de los recursos hídricos en la región.



METODOLOGÍA

METODOLOGÍA En la siguiente sección se proporcionará una descripción detallada de cada una de las metodologías empleadas para llevar a cabo la investigación de las dos actividades principales previamente mencionadas: el estudio del Río Santiago y el análisis del inóculo de cerdo en el biorreactor instrumentado. A continuación, se presentarán las metodologías utilizadas para el análisis fisicoquímico y microbiológico de las muestras recogidas en el Río Santiago y, posteriormente, en el biorreactor instrumentado.​ Recolección de muestras En esta parte de la metodología, se llevó a cabo la selección y ubicación de los puntos de muestreo en el Río Santiago. Es importante señalar que, aunque el día de la toma de muestras fue soleado, en días previos se habían registrado intensas lluvias en la zona. A pesar de estas condiciones climáticas, el flujo del río se mantenía dentro de parámetros normales. Análisis fisicoquímico En esta sección de la metodología, se recogió una muestra adicional para la medición de diversos parámetros fisicoquímicos, como el pH, la conductividad, la turbidez y la temperatura, entre otros. Para este propósito, se utilizó un medidor multiparamétrico.  Análisis microbiológico (NMP) El análisis de la muestra determina el número más probable de coliformes totales, coliformes fecales, coliformes termo tolerantes y Escherichia Coli en 100mL de agua contaminada.


CONCLUSIONES

  CONCLUSIÓN Los resultados del estudio indican una presencia notable de coliformes totales, coliformes fecales, coliformes termo-tolerantes y E. coli en las muestras de agua, incluso después del tratamiento en el sistema en lotes. Esta persistencia de microorganismos indicadores de contaminación fecal es una señal alarmante tanto para la salud pública como para el medio ambiente. Desde el punto de vista de la salud pública, la presencia de coliformes fecales y E. coli en el agua es particularmente preocupante, ya que estos microorganismos son indicadores de contaminación fecal reciente. La exposición a estas bacterias puede llevar a infecciones gastrointestinales y otras enfermedades, especialmente en poblaciones vulnerables como niños, ancianos y personas con sistemas inmunológicos comprometidos. La insuficiente reducción de estos organismos por el sistema de tratamiento en lotes sugiere que el agua tratada aún puede presentar riesgos significativos para la salud humana si se consume o se utiliza para actividades recreativas.   En cuanto al medio ambiente, la liberación de agua contaminada en cuerpos de agua naturales puede tener efectos negativos significativos. Los coliformes fecales y otros patógenos presentes en el agua pueden afectar la vida acuática, alterando los ecosistemas y reduciendo la biodiversidad. Además, la contaminación bacteriana puede impactar la calidad de las aguas superficiales y subterráneas, afectando a especies animales y vegetales que dependen de estos recursos.Estos hallazgos destacan la necesidad de mejorar los sistemas de tratamiento de aguas residuales para asegurar una mayor eficiencia en la eliminación de contaminantes microbiológicos. Es fundamental implementar medidas más rigurosas de control y tratamiento para proteger tanto la salud humana como el medio ambiente. La vigilancia continua y la mejora de las infraestructuras de tratamiento de agua son esenciales para mitigar estos riesgos y garantizar la seguridad de los recursos hídricos.
Angulo Zapotl Sinahi, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Yudith Choque Quispe, Universidad Nacional José María Arguedas

APLICACIóN DE ALGAS ALTOANDINAS EN EL TRATAMIENTO DE AGUAS RESIDUALES


APLICACIóN DE ALGAS ALTOANDINAS EN EL TRATAMIENTO DE AGUAS RESIDUALES

Angulo Zapotl Sinahi, Benemérita Universidad Autónoma de Puebla. Rodríguez Gracia Diana Karen, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Yudith Choque Quispe, Universidad Nacional José María Arguedas



PLANTEAMIENTO DEL PROBLEMA

La contaminación a causa de lixiviados es un problema actual que nos afecta en diversos aspectos de  nuestra vida diaria, pues se infiltran en los mantos acuíferos y liberan gases tóxicos a la atmósfera, causando afectaciones en el medio ambiente y la salud.   Se tiene registro de que la cianobacteria altoandina Nostoc sphaericum tiene propiedades coagulantes aptas para el tratamiento de lixiviados y que, combinado con floculantes como cloruro férrico, logran significar una gran oportunidad ante esta problemática.   Dicha alga además de sus propiedades para el tratamiento de lixiviados es de fácil acceso, no es costosa y apoya la economía circular, cumpliendose así el objetivo de usar nuevas fuentes naturales como materia prima para crear alternativas sostenibles.



METODOLOGÍA

Recolección del Nostoc Obtuvimos muestras del alga en lagunillas, lagos y riachuelos, evitando su contaminación y la almacenamos en medios estériles para conservar sus propiedades. Selección Discriminando la muestra por tamaño, forma y consistencia, seleccionamos los mejores ejemplares, esto facilitará su licuado y además se tendrá una mejor calidad de producto en el siguiente paso.  Licuado Con ayuda de agua destilada lavamos la muestra seleccionada, y siguiendo la relación 1:1; licuamos 100 gramos de nostoc con 100 mililitros de agua destilada hasta obtener una mezcla homogénea.  Secado Una vez obtenida la mezcla deseada la colocamos en recipientes para llevarla a la estufa de secado y esperar aproximadamente 1 día hasta que la humedad desaparezca. Cálculo del rendimiento por gravimetría Durante el paso anterior se debe pesar la mezcla antes y después de introducirla en la estufa de secado, para hacer el cálculo mediante la fórmula de determinación del rendimiento para muestra húmeda:   %=(peso del crisol+muestra húmeda-peso crisol +muestra)g muestra húmeda*100 Molienda Con el uso del molino centrífugo y del molino planetario, se coloca la muestra seca hasta obtener un tamaño de partícula apto para que se pueda disolver correctamente en el agua.  Tamizado  Después del paso anterior se pasa toda la muestra para homogeneizar el tamaño de las partículas y poder separar los sólidos que hayan quedado de un tamaño más grande. Este se repite hasta quedar todo uniforme. Pruebas  A partir de múltiples pruebas de jarras con distintas cantidades de floculante, coagulante, velocidad y tiempo, determinamos parámetros de los lixiviados tratados en cada variante para finalmente, hallar la cantidad correcta de nostoc a usar.


CONCLUSIONES

Durante el tiempo de nuestra estancia, se logró reforzar y ampliar conocimientos sobre cómo hacer un correcto análisis del agua, desde la recolección​ de muestra, hasta la medición de diversos parámetros con equipos especializados (para carbono, nitrógeno, sulfuro, entre otros compuestos con mayor complejidad). No obstante, a pesar de haber cumplido con nuestros objetivos, reconocemos que es un trabajo con gran potencial que requiere mayor tiempo de estudio, por eso, a pesar de que hallamos la cantidad de nostoc necesaria para el tratamiento de lixiviados, nos faltó mejorar algunos parámetros de contaminación que estaban en el estudio pero que no se lograron concretar como es el caso de la remoción del color en el agua.  Se busca que la investigación continúe hasta obtener los resultados deseados para llevarlo a una mayor escala, beneficiando a más comunidades con el saneamiento de sus aguas.
Antonio Ortega Yamileth, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Santo Rubio Pano, Universidad de Guadalajara

DESARROLLO DE UNA APLICACIóN PARA CONSULTAR EN SITIOS TURíSTICOS LOS ESTABLECIMIENTOS QUE CUENTAN CON ADAPTACIONES PARA LAS PERSONAS CON DISCAPACIDAD


DESARROLLO DE UNA APLICACIóN PARA CONSULTAR EN SITIOS TURíSTICOS LOS ESTABLECIMIENTOS QUE CUENTAN CON ADAPTACIONES PARA LAS PERSONAS CON DISCAPACIDAD

Antonio Ortega Yamileth, Instituto Tecnológico Superior de Huauchinango. Izquierdo Cervantes Karla Yunuen, Instituto Tecnológico de Tlalnepantla. Asesor: Mtro. Santo Rubio Pano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Según Naciones Unidas  El turismo comprende las actividades que realizan las personas durante sus viajes y estancias en lugares distintos al de su entorno habitual, por un período de tiempo consecutivo inferior a un año, con fines de ocio, por negocios y por otros motivos turísticos, siempre y cuando no sea desarrollar una actividad remunerada en el lugar visitado.   El acceso equitativo a las atracciones turísticas debería ser algo de lo que no deberíamos preocuparnos. Para las personas con discapacidades es mucho más difícil tener una experiencia turística debido a que no se garantizan las adaptaciones que representan para este grupo una barrera física como la falta de rampas, baños accesibles y señalización adecuada.   La accesibilidad tanto de las atracciones turísticas como la información obtenida de las tecnologías y del internet es poca o nula y, en algunos casos dispersa e inconsistente, provocando la dificultad de la planeación y como resultado se tendría una mala experiencia dentro del turismo; así como una frustración al invertir tiempo y esfuerzo en planificar un viaje.   El problema central que este proyecto busca abordar es la falta de una fuente centralizada y confiable de información sobre la accesibilidad de las atracciones turísticas. Al desarrollar una aplicación que compile y presente esta información de manera clara y accesible, se pretende facilitar la planificación de viajes inclusivos y mejorar la experiencia turística de las personas con discapacidades.  



METODOLOGÍA

Para el desarrollo del proyecto de ingeniería de software se utilizó la metodología SCRUM que permite la participación de cada integrante en el desarrollo de una aplicación denominada Desarrollo de una aplicación para consultar en sitios turísticos los establecimientos que cuentan con adaptaciones para las personas con discapacidad, para lograrlo se aplicó el modelo de ciclo de vida en cascada modificado. Esta metodología cuenta con cinco etapas las cuales son: 1. Análisis, 2. Diseño, 3. Implementación, 4. Verificación, 5. Mantenimiento del software. Estas etapas se deben cumplir de forma secuencial, por lo que no es posible pasar de una etapa a otra si no está cumplida la actual, pero además es posible regresar a etapas anteriores para verificar o hacer modificaciones. Es la metodología más conveniente para utilizar en este proyecto puesto que, iremos desarrollando cada etapa del proyecto linealmente, pero siempre contando con la posibilidad de realizar iteraciones sobre estas etapas hasta que el producto final sea lo que queremos.  


CONCLUSIONES

En conclusion, realizamos una aplicacion enfocada en el apoyo a una causa social como lo es el "Turismo accesible". Basandonos en la metodologia elegida realizamos un trabajo por etapas utilizando el lenguaje c# y base de datos, teniendo como resultado una aplicacion de consulta, cumpliendo con el objetivo principal, pues la aplicacion es funcional para realizar consultas de los establecimientos, con filtrado de resultados para las personas con discapacidad segun sus necesidades, ademas de tener las funciones para el llenado y manejo de la base de datos.  Quedarian pendientes y  como proximo objetivo el agregar funciones en cuanto a un mejor sistema de reportes, y algunos otros manejos accesibles para que cualquier usuario pueda hacer uso de ella. 
Aparicio Guzman Diego Ramón, Universidad de Guadalajara
Asesor: Dr. José Eduardo Casillas García, Universidad de Guadalajara

EFECTO DEL DOPAJE CON GALIO EN LA ACTIVIDAD FOTOCATALíTICA DEL COMPUESTO ZNAL PARA LA DEGRADACIóN DE NAPROXENO.


EFECTO DEL DOPAJE CON GALIO EN LA ACTIVIDAD FOTOCATALíTICA DEL COMPUESTO ZNAL PARA LA DEGRADACIóN DE NAPROXENO.

Aparicio Guzman Diego Ramón, Universidad de Guadalajara. Asesor: Dr. José Eduardo Casillas García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua por productos farmacéuticos, como el Naproxeno, un antiinflamatorio no esteroideo de uso común, ha surgido como un problema ambiental significativo debido a su persistencia y efectos nocivos en los ecosistemas acuáticos como en la salud humana a largo plazo. La importancia de encontrar métodos óptimos y sostenibles para la degradación de fármacos recae en la dificultad de tratarlo con métodos tradicionales sin generar productos no deseados riesgosos. En este contexto, la fotocatálisis se presenta como una técnica prometedora para la eliminación de contaminantes orgánicos recalcitrantes. Los fotocatalizadores basados en ZnAl han demostrado ser efectivos para la degradación de diversos contaminantes generando productos inofensivos. Sin embargo, la mejora de su eficiencia a través del dopaje con elementos como el Galio sigue siendo un área de investigación activa. Este estudio pretende investigar la actividad fotocatalítica del ZnAl variando la cantidad de galio en el dopaje, así como también la técnica de síntesis del catalizador, sea calcinado o de secado, produciendo esta última hidróxidos dobles laminares (HDL). Estas variantes pueden influir en su estructura cristalina, tamaño de partícula y distribución del dopaje, modificando así sus propiedades electrónicas y potencialmente mejorar su actividad fotocatalítica contribuyendo a la mejora de las tecnologías de tratamiento de aguas residuales y a la protección del medio ambiente.



METODOLOGÍA

El proceso de degradación comienza con la preparación de la solución del contaminante, la cual se preparó inicialmente a una concentración de 80 ppm de Naproxeno en agua destilada, se lleva a agitación y aireación por un día, con el objetivo de que el naproxeno se disuelva por completo y se sature el agua de oxígeno, imitando las condiciones de un efluente de agua con este contaminante. Al día siguiente, la solución se lleva al reactor fotocatalítico, el cual además de agitación y aireación constante, cuenta con una luz ultravioleta y además con un sistema de enfriamiento de reflujo de agua a temperatura ambiente, que evita que la luz aumente la temperatura del agua. En el reactor se agregó el catalizador previamente sintetizado, primeramente, se utilizó 1 g / L de ZnAl calcinado (550°C) dopado con Galio a 0.5%, 0.8% y 1.0%, para determinar el efecto del dopaje. Una vez agregado el catalizador se muestreo la solución a distintos intervalos de tiempo, comenzando por un periodo de una hora de absorción del catalizador, donde el reactor se aísla de luz para evitar cualquier reacción fotocatalítica prematura, transcurrido este tiempo se enciende la lampara ultravioleta y se muestrea a intervalos de 20 minutos la primera hora de degradación, la segunda hora se muestrea cada 30 minutos y a partir de la tercera se muestrea cada hora hasta alcanzar las 4 horas de efecto de luz ultravioleta. La determinación de la presencia de naproxeno y su consecuente degradación se llevó a cabo con una técnica de espectroscopia de luz ultravioleta-visible (UV-Vis), en donde analizamos todas las muestras tomadas durante la degradación, además de una muestra testigo de solución de naproxeno sin tratamiento. El espectro de absorción que nos da el espectroscopio UV-Vis nos permite ver la desaparición del pico de absorbancia que presenta el naproxeno en la longitud de onda de 271 nm en caso de que el catalizador si este degradando al naproxeno. Con la absorbancia obtenida por el espectro y el coeficiente de absorbancia molar (ε) del naproxeno (5266 L⋅mol−1⋅nm−1) podemos calcular la concentración de Naproxeno utilizando la ley de Beer-Lambert y con esta el porcentaje de degradación. La metodología elegida por el investigador se basó en el bloqueo de variables para los análisis independientes de una sola variable, inicialmente se analizó el efecto del catalizador ZnAl-Ga calcinado (550°C) al 0.5%, 0.8% y 1.0%, además de muestras de estructura HDL ZnAl-Ga seco (100°C) al 2.0% y al 3.0% sobre una muestra de 80 ppm de naproxeno. Estas degradaciones fueron complementarias a degradaciones anteriores que ya había analizado el investigador. Los resultados preliminares de estas cinco degradaciones nos indicaron una actividad fotocatalítica deficiente en la degradación utilizando las muestras al 2.0% y 3.0% de ZnAl-Ga de estructura HDL con degradaciones menores al 30% respecto a la muestra testigo. Por otro lado, las muestras de ZnAl-Ga calcinado al 0.5%, 0.8%, 1.0% mostraron una degradación del 50% o mayores respecto al testigo. Estos resultados orientaron el resto de la investigación de la estancia, probada la eficiencia del catalizador se redujo la concentración de Naproxeno de 80 ppm a 40 ppm, una concentración similar a la encontrada en muestras de efluentes industriales. Se realizo una segunda etapa de experimentación donde se probaron las muestras calcinadas (550° C) de catalizador ZnAl-Ga al 0.5%, al 0.8% y al 1.0% en diferentes concentraciones de catalizador, siendo estas variables a 0.2 g/L, a 0.25 g/L y a 0.35 g/L de catalizador. Las muestras de estas degradaciones se analizaron en el espectrofotómetro para la posterior observación del investigador.


CONCLUSIONES

Durante el desarrollo de la estancia se adquirieron conocimientos teóricos y prácticos sobre la fotocatálisis para degradación de contaminantes y el uso de ZnAl dopado con Galio para la degradación de Naproxeno. Los avances de la investigación sugieren que si es viable el uso del galio en el dopaje del fotocatalizador ZnAl y que la actividad fotocatalítica es mayor en concentraciones de 0.35 g/L que en concentraciones de 0.25 g/L y 0.2 g/L, así como la mejor condición de dopaje fue al 1.0% llegando a una degradación máxima del 80% de Naproxeno. A pesar de los avances logrados, el trabajo aún se encuentra en proceso de análisis detallado de los resultados obtenidos, y se espera continuar con la experimentación de las variables para mejorar aún más la eficiencia fotocatalítica del ZnAl dopado con Galio. La comprensión de estos factores contribuirá significativamente al desarrollo de tecnologías de tratamiento de aguas residuales más efectivas y sustentables.
Apolonio Angeles Isaac, Universidad Politécnica de Atlacomulco
Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías

DESARROLLO DE UN VEHíCULO CONTROLADO EN RED


DESARROLLO DE UN VEHíCULO CONTROLADO EN RED

Apolonio Angeles Isaac, Universidad Politécnica de Atlacomulco. Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la necesidad de vehículos controlados de manera remota se ha incrementado en diversos sectores, tales como la seguridad, la agricultura y la investigación científica. Estos vehículos son fundamentales para explorar áreas peligrosas o de difícil acceso, donde la presencia humana podría ser riesgosa o inviable. Sin embargo, el desarrollo de un vehículo controlado en red presenta desafíos significativos, como la integración de múltiples componentes electrónicos, la gestión eficiente de la energía y la creación de una interfaz de usuario intuitiva. Este proyecto aborda estos desafíos mediante el desarrollo de un vehículo controlado en red utilizando tecnología accesible y de bajo costo. El vehículo será operado a través de un Access Point (AP) y un microcontrolador ESP32, el cual gestionará la comunicación y el control de los motores y otros módulos integrados, como un módulo GPS. Además, se implementarán paneles solares para alimentar el sistema, buscando una solución sostenible y eficiente en términos energéticos.



METODOLOGÍA

1. Diseño y Construcción del Vehículo: • Selección de Componentes: Para la construcción del vehículo, se seleccionarán dos motores de 9V de 1600 RPM para la propulsión, un módulo ESP32 como microcontrolador principal con conectividad Wi-Fi y Bluetooth, un módulo GPS Neo para proporcionar la ubicación en tiempo real, un puente H L298N para el control de los motores, y paneles solares para la alimentación del sistema. • Montaje del Chasis: Se ensamblará un chasis que soporte adecuadamente los componentes seleccionados. 2. Integración de los Dispositivos: • Programación del ESP32: El ESP32 se programará para actuar como el cerebro del vehículo, gestionando la conectividad Wi-Fi y Bluetooth. Será configurado para funcionar como un punto de acceso (AP), permitiendo la conexión de dispositivos móviles. Además, gestionará la comunicación entre los diferentes módulos y la interfaz web. • Control de Motores: El control de los motores de 9V se realizará a través del puente H L298N. El ESP32 enviará señales de control al puente H para manejar la dirección y velocidad del vehículo. • Integración del Módulo GPS: El módulo GPS se integrará con el ESP32 para la transmisión de datos de ubicación en tiempo real. El ESP32 procesará estos datos y los enviará a la interfaz web para su monitorización.   3. Desarrollo de la Interfaz Web: • Creación de la Interfaz: Se desarrollará una interfaz web utilizando HTML y la plataforma Blynk. Esta interfaz permitirá a los usuarios controlar el movimiento del vehículo y recibir datos de telemetría en tiempo real, como la ubicación GPS. • Configuración del Access Point: El ESP32 se configurará para crear un punto de acceso Wi-Fi, permitiendo la conexión de dispositivos móviles como smartphones, tablets y laptops. Esta configuración facilitará el control remoto del vehículo desde cualquier dispositivo con conexión a Internet.   4. Implementación del Sistema de Energía: • Instalación de Paneles Solares: Se instalarán pequeñas celdas fotovoltaicas en el chasis del vehículo para alimentar el puente H L298N y otros componentes. Los paneles solares se colocarán de manera que optimicen la captación de energía solar. • Gestión de Energía: Se configurará un sistema de gestión de energía para maximizar la eficiencia del vehículo. Este sistema asegurará un suministro energético sostenible, permitiendo al vehículo operar por períodos prolongados sin necesidad de recargas frecuentes.   5. Pruebas y validación • Pruebas Iniciales: Se realizarán pruebas exhaustivas para asegurar el correcto funcionamiento del control de motores, la transmisión de datos GPS y la interfaz web. Estas pruebas incluirán la validación del control remoto del vehículo y la precisión de los datos de ubicación. • Ajustes y Optimización: Durante las pruebas, se identificarán y corregirán posibles fallos. Se realizarán ajustes necesarios para optimizar el rendimiento del sistema y mejorar la experiencia del usuario. • Pruebas Finales: Una vez realizados los ajustes, se llevarán a cabo pruebas finales para confirmar que todos los componentes funcionan de manera integrada y eficiente. Se evaluará la operatividad del vehículo en diferentes condiciones y escenarios de uso.


CONCLUSIONES

El proyecto "Desarrollo de un Vehículo controlado en red" ha demostrado ser un ejercicio exitoso de integración de diversas tecnologías en un sistema funcional y eficiente. Mediante la utilización de un microcontrolador ESP32, un módulo GPS, un puente H L298N y paneles solares, se ha logrado construir un vehículo que puede ser controlado de manera remota a través de una interfaz web accesible desde cualquier dispositivo con conexión a Internet. El uso del ESP32 como el cerebro del sistema ha permitido gestionar eficazmente la comunicación entre los diferentes módulos y la interfaz web, mientras que el módulo GPS ha proporcionado datos de ubicación en tiempo real, cruciales para aplicaciones de navegación y monitoreo. La implementación de paneles solares ha añadido un componente de sostenibilidad, permitiendo que el vehículo funcione por períodos prolongados sin necesidad de recargas frecuentes. Este proyecto no solo tiene aplicaciones prácticas en áreas como la seguridad, la agricultura y la investigación científica, sino que también sirve como una plataforma educativa para estudiantes y entusiastas de la robótica y el IoT. A través del desarrollo de este vehículo, se ha promovido el aprendizaje y la innovación, demostrando cómo la tecnología puede ser utilizada para resolver problemas complejos y crear herramientas versátiles y útiles.
Apolonio Cuevas Manuel Alberto, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: M.C. Juan Jesús Moncada Bolón, Universidad Autónoma de Campeche

CLASIFICACIóN DE IMáGENES MEDIANTE UNA RED NEURONAL CONVOLUCIONAL (CNN) EN C++


CLASIFICACIóN DE IMáGENES MEDIANTE UNA RED NEURONAL CONVOLUCIONAL (CNN) EN C++

Apolonio Cuevas Manuel Alberto, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: M.C. Juan Jesús Moncada Bolón, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

En el contexto de la visión artificial, el dataset MNIST es ampliamente conocido como el Hello World de la clasificación de imágenes.  Este conjunto de datos contiene 60,000 imágenes de dígitos manuscritos (del 0 al 9) para entrenamiento y 10,000 muestras adicionales para pruebas. Ademas, debido a su baja resolución (28 x 28 píxeles), permite reducir la magnitud de datos de entrada (784), facilitará entrenar una red neuronal convolucional (CNN) en C++ para clasificar correctamente estos dígitos de manera local.



METODOLOGÍA

Obtención y procesamiento de datos: Se obtuvieron los datos de la página oficial del Dataset minist. En formato csv. Con herramientas más afines al estudiante (python)  se realizó una muestra de 200 ejemplos con la misma proporción de 20 ejemplos para cada dígito. Se convirtieron los datos de un formato .csv a un archivo .txt separado por espacios con la biblioteca de pandas ( ser ingeniero también implica usar lo que ya sabes para agilizar el trabajo ) Arquitectura de la Red CNN Se determinó por empezar con la arquitectura mas típica de una red convolucional: Input layer Convolutional layer ( kernel 5x5) Max pooling  (2x2) Convolutional layer ( kernel 5x5) Max pooling (2x2) flattened layer  Layer ( ReLU)  Output layer ( Sigmoid) Se busca experimentar con diferentes capas. Codificación de la Red A lo largo del verano, se han realizado implementaciones de una red neuronal en C++ manteniendo la arquitectura de la Red estática. Se plantea crear la implementación de la red de forma estática para después separar el codigo en métodos y funciones que permita modificar la configuración y orden de las capas que conforman el modelo de aprendizaje automático. Entrenamiento y resultados. Determinar la precisión de la red neuronal luego de realizar x numero de epocas de entrenamiento. Debido a que la red convolucional es un ejemplo implementado en diferentes herramientas, se buscará comparar la misma arquitectura de red implementada en otros lenguajes de programación ( python con tensorflow )


CONCLUSIONES

Hasta el momento, se ha logrado diseñar y preprocesar correctamente las imágenes del dataset MNIST. La implementación en C++ muestra resultados prometedores en términos de eficiencia y rendimiento. Se espera que, al completar la red neuronal convolucional, se obtenga una alta precisión de clasificación en la tarea de reconocimiento de dígitos manuscritos. La ventaja clave de utilizar C++ radica en su capacidad para optimizar el código y aprovechar al máximo los recursos del sistema. En futuras iteraciones, se explorarán ajustes adicionales y se evaluará el modelo en un conjunto de prueba más amplio.
Apolonio Estrada Daniela, Universidad Tecnológica de Zinacantepec
Asesor: Dr. Lina Maria Chica Osorio, Universidad de Medellín

MUCíLAGO DE NOPAL COMO ADITIVO EN PASTAS DE CEMENTO


MUCíLAGO DE NOPAL COMO ADITIVO EN PASTAS DE CEMENTO

Apolonio Estrada Daniela, Universidad Tecnológica de Zinacantepec. Calvo Velazquez Francisco Javier, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Dr. Lina Maria Chica Osorio, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

Actualmente, la industria de la construcción enfrenta desafíos relacionados con la sostenibilidad y la durabilidad de los materiales. En este contexto, el uso de aditivos naturales se ha convertido en una estrategia innovadora para mejorar las propiedades de las pastas de cemento, siendo el mucílago de nopal uno de los aditivos emergentes. Estudios recientes (Pacheco-Torgal et al. 2014; Álvarez-Bernal, et. al 2018; Gallegos-Villela et al. 2021; Flores-Alamo et al. 2020) han demostrado que el mucílago de nopal puede mejorar significativamente la trabajabilidad, resistencia a compresión y durabilidad de las pastas de cemento, además de reducir la permeabilidad. En este estudio se presentan los resultados experimentales de la adición de mucílago de nopal a pastas de cemento convencionales  



METODOLOGÍA

Se evaluaron diferentes técnicas mecánicas para la extracción del mucílago, y el producto fue caracterizado químicamente empleando FTIR. Luego, a partir de una pasta estándar de cemento con fluidez y consistencia normal se adicionó mucílago de nopal al 1% wt para evaluar su efecto en términos de tiempo de fraguado y la resistencia a compresión en diferentes edades.


CONCLUSIONES

La incorporación del mucílago de nopal en pastas de cemento no solo ofrece mejoras técnicas, sino que también promueve prácticas de construcción más ecológicas. Esta innovación representa un paso significativo hacia la creación de materiales de construcción más duraderos y sostenibles, alineándose con los objetivos globales de reducción de emisiones y conservación de recursos naturales.
Aquino Cruz Josue, Universidad Tecnológica Paso del Norte
Asesor: Lic. Arisbeth Álvarez Marín, Tecnológico de Estudios Superiores de Villa Guerrero

SISTEMA WEB PARA LA CREACIóN Y ASIGNACIóN DE HORARIOS.


SISTEMA WEB PARA LA CREACIóN Y ASIGNACIóN DE HORARIOS.

Aquino Cruz Josue, Universidad Tecnológica Paso del Norte. Corona Núñez Carlos Enrique, Universidad Mexiquense del Bicentenario. Hernandez Guillen Zury Saday, Universidad Tecnológica Paso del Norte. Melchor Mariscal Andres Daniel, Universidad Tecnológica Paso del Norte. Asesor: Lic. Arisbeth Álvarez Marín, Tecnológico de Estudios Superiores de Villa Guerrero



PLANTEAMIENTO DEL PROBLEMA

El proyecto de investigación "Sistema Web de Creación y Asignación de Horarios para la División de Ingeniería en Sistemas del Tecnológico de Estudios Superiores de Villa Guerrero" tiene como finalidad desarrollar una plataforma digital que mejore la planificación y asignación de horarios académicos dentro de la división. Este sistema está diseñado para optimizar la gestión de horarios, facilitando la coordinación entre profesores, estudiantes y la asignación de recursos disponibles. Objetivos del Proyecto Automatización de la Creación de Horarios: Desarrollar un sistema que genere automáticamente horarios académicos eficientes, adaptados a las necesidades específicas de la División de Ingeniería en Sistemas, considerando restricciones como disponibilidad de docentes, asignaturas y aulas. Optimización de Recursos Académicos: Mejorar el uso de espacios y recursos, evitando conflictos y solapamientos en la programación de clases y actividades. Interfaz Intuitiva y Accesible: Diseñar una interfaz de usuario sencilla y fácil de usar que permita a docentes y estudiantes consultar y gestionar sus horarios de manera eficiente. Mejora de la Comunicación y Coordinación: Implementar un sistema de notificaciones para informar a todos los usuarios sobre cambios en los horarios y actividades, mejorando la coordinación interna.



METODOLOGÍA

Metodología El proyecto sigue una metodología ágil que se desarrolla en varias fases: Análisis de Requisitos: Se realizan entrevistas y encuestas con docentes, estudiantes y administradores de la División de Ingeniería en Sistemas para identificar las necesidades y desafíos actuales en la planificación de horarios. Diseño del Sistema: Se diseña la arquitectura del sistema y se crean prototipos de interfaz utilizando tecnologías web modernas, asegurando que el sistema sea escalable y fácil de usar. Desarrollo e Implementación: Se lleva a cabo la programación del sistema utilizando herramientas como HTML5, CSS3, JavaScript, y bases de datos como MySQL, siguiendo prácticas de integración continua para garantizar la calidad del software. Pruebas y Validación: Se realizan pruebas exhaustivas con usuarios finales, incluidas pruebas de usabilidad y funcionalidad, para asegurar que el sistema cumpla con los requisitos y expectativas. Despliegue y Capacitación: Se despliega el sistema en el entorno académico y se ofrece capacitación a los usuarios para asegurar que puedan utilizarlo de manera efectiva. Evaluación y Mejora Continua: Se monitorea el desempeño del sistema y se recopila feedback de los usuarios para implementar mejoras continuas y adaptar el sistema a las necesidades cambiantes de la división.


CONCLUSIONES

Resultados Esperados La División de Ingeniería en Sistemas del Tecnológico de Estudios Superiores de Villa Guerrero dispondrá de una herramienta eficiente para la gestión de horarios, mejorando la organización y uso de recursos académicos. El sistema contribuirá a aumentar la satisfacción de estudiantes y profesores al facilitar la consulta y administración de horarios, así como a optimizar los procesos administrativos relacionados con la programación de actividades académicas.
Aquino Hernández Nohemí Scarlette, Universidad Veracruzana
Asesor: Dr. Yuber Alberto Nope Bernal, Universidad La Gran Colombia

TRANSFORMANDO LA ARQUITECTURA: EFICIENCIA Y SOSTENIBILIDAD CON BIM E INTELIGENCIA ARTIFICIAL


TRANSFORMANDO LA ARQUITECTURA: EFICIENCIA Y SOSTENIBILIDAD CON BIM E INTELIGENCIA ARTIFICIAL

Aquino Hernández Nohemí Scarlette, Universidad Veracruzana. Asesor: Dr. Yuber Alberto Nope Bernal, Universidad La Gran Colombia



PLANTEAMIENTO DEL PROBLEMA

La arquitectura moderna enfrenta un reto significativo: la necesidad de integrar soluciones sostenibles y eficientes en los proyectos de construcción. Sin embargo, la falta de adopción de tecnologías avanzadas como el Building Information Modeling (BIM) y la Inteligencia Artificial (IA) en el diseño y desarrollo de proyectos arquitectónicos está obstaculizando el progreso hacia estos objetivos. La ausencia de enfoques integradores resulta en ineficiencias, desperdicio de recursos y mayores costos, tanto económicos como ambientales. La problemática radica en que sin una implementación adecuada de estas tecnologías, los proyectos arquitectónicos no logran alcanzar su máximo potencial en términos de sostenibilidad y eficiencia.



METODOLOGÍA

Para abordar esta problemática, se siguió una metodología centrada en la integración de BIM e IA en el diseño arquitectónico, con un enfoque particular en el uso de energías renovables y el estudio de recursos naturales y energéticos. Análisis de Energías Renovables: Se realizó un estudio exhaustivo sobre las fuentes de energía renovable disponibles y su aplicabilidad en distintos tipos de proyectos arquitectónicos. Esto incluyó la evaluación de la viabilidad de la energía solar, eólica y geotérmica. Estudio de Recursos Naturales y Energéticos: Se analizaron los recursos naturales disponibles en las áreas de los proyectos, así como las necesidades energéticas de los mismos. Este análisis permitió diseñar soluciones personalizadas que maximicen la eficiencia energética y reduzcan el impacto ambiental. Implementación de BIM: Se utilizó BIM para crear modelos digitales detallados de los proyectos, integrando información sobre el ciclo de vida de los edificios, desde el diseño hasta la operación y el mantenimiento. BIM facilitó la coordinación entre diferentes disciplinas y permitió identificar y resolver problemas potenciales antes de la construcción. Uso de IA: La IA se aplicó para optimizar el diseño arquitectónico y mejorar la eficiencia de los proyectos. Algoritmos de aprendizaje automático se utilizaron para analizar grandes cantidades de datos y proporcionar recomendaciones sobre el uso eficiente de materiales y recursos, así como para predecir el rendimiento energético de los edificios. Evaluación y Optimización: Se llevó a cabo una evaluación continua de los proyectos utilizando simulaciones y análisis de datos para identificar áreas de mejora. Esto permitió realizar ajustes en el diseño y en los procesos de construcción para maximizar la eficiencia y la sostenibilidad.


CONCLUSIONES

Eficiencia Energética: La integración de BIM e IA permitió un uso más eficiente de los recursos energéticos, lo que se tradujo en una reducción significativa del consumo de energía y en un menor impacto ambiental. Reducción de Costos: La metodología empleada permitió identificar y resolver problemas en las etapas tempranas del diseño, lo que redujo los costos asociados a modificaciones y correcciones durante la construcción. Mejora en la Coordinación: BIM facilitó una mejor coordinación entre los diferentes actores involucrados en los proyectos, lo que resultó en una mayor eficiencia y en la reducción de retrasos. Sostenibilidad: El enfoque en el uso de energías renovables y en el estudio de recursos naturales contribuyó a la creación de proyectos más sostenibles, alineados con las metas de desarrollo sostenible. Desarrollo Científico: La aplicación de esta metodología se documentó en un artículo científico, proporcionando una base sólida para futuros proyectos y contribuyendo al avance del conocimiento en el campo de la arquitectura sostenible.
Arana Gonzalez Adriana, Universidad Mexiquense del Bicentenario
Asesor: Dr. Luis Germán Gutiérrez Torres, Instituto Tecnológico Superior del Sur de Guanajuato

ADMINISTRACIóN DE CONTENIDO PARA LA PLATAFORMA SQLJUDGE


ADMINISTRACIóN DE CONTENIDO PARA LA PLATAFORMA SQLJUDGE

Arana Gonzalez Adriana, Universidad Mexiquense del Bicentenario. Asesor: Dr. Luis Germán Gutiérrez Torres, Instituto Tecnológico Superior del Sur de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

SQLJudge es una herramienta valiosa para la evaluación automática de consultas SQL. Sin embargo, se identificó un problema significativo relacionado con la estructura y claridad de los ejercicios presentados en la plataforma. Los ejercicios no estaban bien estructurados, lo que generaba confusión entre los estudiantes y dificultaba su comprensión y resolución efectiva. La falta de claridad y precisión en las indicaciones dadas provocaba un mayor número de errores y una experiencia de aprendizaje menos eficiente. Además, se detectó una carencia notable de ejercicios enfocados en subconsultas, una parte crucial del aprendizaje avanzado en SQL.



METODOLOGÍA

Pasos que segui para desarrollar mi trabajo son los siguientes: Capacitación en el Uso de la Plataforma: Para comenzar, fue necesario acceder a la plataforma SQLJudge. Para ello, me registré y obtuve las credenciales de acceso. Mi asesor me guió en el uso de la plataforma, proporcionando ejemplos de consultas básicas y consultas que involucraban varias tablas. Esta capacitación inicial me permitió familiarizarme con las funcionalidades básicas de SQLJudge. Posteriormente, realicé mi primera tarea, lo que me llevó a explorar más a fondo la plataforma y a aprender a utilizarla mediante la realización de consultas de unión de tablas en diversas tareas. Revisión y Corrección de Problemas en la Plataforma: Una vez familiarizada con la plataforma, me dediqué a revisar los primeros 50 ejercicios disponibles. En este proceso, identifiqué y corregí problemas en la estructura de los ejercicios, realizando cambios significativos en los títulos, descripciones y criterios de evaluación. Estas modificaciones tenían como objetivo mejorar la claridad y la organización de los ejercicios, facilitando así la comprensión y resolución de los mismos por parte de los usuarios. Capacitación en la Creación de Problemas: Para expandir mis capacidades en la plataforma, aprendí a utilizar Markdown, una herramienta esencial para la planificación, diseño, edición y subtitulado de problemas en SQLJudge. Con el apoyo de un manual docente detallado, adquirí las habilidades necesarias para crear nuevos problemas de manera eficiente y efectiva. Este manual proporcionó instrucciones precisas sobre el proceso de creación de problemas en la plataforma, lo que me permitió diseñar ejercicios bien estructurados y pedagógicamente sólidos.


CONCLUSIONES

Revisión Detallada de Ejercicios: Comencé mi trabajo revisando meticulosamente los primeros 50 ejercicios en la plataforma SQLJudge. El objetivo era asegurarme de que cada ejercicio estuviera redactado de manera clara y explícita. Durante este proceso, identifiqué varios detalles que necesitaban corrección. Procedí a rediseñar estos ejercicios, estructurándolos mejor y facilitando su comprensión para que los usuarios, especialmente los estudiantes, pudieran entenderlos de manera más precisa y efectiva. Creación de Nuevos Problemas: Para enriquecer el contenido disponible en la plataforma, desarrollé 30 nuevos problemas de consultas básicas. Estos problemas adicionales tienen como propósito proporcionar más oportunidades de práctica a otros usuarios, permitiéndoles aprender y reforzar sus habilidades a través de pruebas específicas y variadas. Desarrollo de Ejercicios de Subconsultas: Una vez que adquirí más experiencia y conocimientos, me dediqué a crear 20 ejercicios de subconsultas, un área en la que la plataforma tenía una notable carencia. Estos ejercicios son más complejos y están diseñados para beneficiar la capacitación y el aprendizaje de los usuarios interesados en profundizar en las consultas avanzadas de bases de datos. Beneficios de la Capacitación: Mi capacitación en el uso de SQLJudge y Markdown resultó ser extremadamente beneficiosa. Aprendí a manejar diversas herramientas y conceptos importantes en el ámbito de las consultas de bases de datos. Algunos de los conocimientos adquiridos incluyen: Operadores de Comparación: LIKE: Buscar un patrón específico en una columna de texto. IN: Especificar múltiples valores posibles para una columna. BETWEEN: Filtrar resultados dentro de un rango de valores. CASE: Realizar evaluaciones condicionales en consultas SQL. IF: Similar al CASE, utilizado en variantes de SQL como MySQL para evaluaciones condicionales. Funciones de Fecha y Hora: YEAR: Extraer el año de una fecha. MONTH: Extraer el mes de una fecha. DAY: Extraer el día de una fecha. Alias: Utilizar alias para renombrar temporalmente columnas o tablas en una consulta, mejorando la legibilidad y facilitando el uso de nombres largos o complicados. Columnas Calculadas: Crear columnas que resultan de expresiones o cálculos, utilizando otras columnas en la misma tabla, como concatenar texto o realizar operaciones aritméticas. Además de estos conocimientos específicos, también aprendí a realizar consultas de unión de tablas, a crear problemas tanto de consultas básicas como de subconsultas, y a evaluar y editar problemas en la plataforma SQLJudge. En resumen, la capacitación y el trabajo realizado no solo mejoraron mi comprensión y habilidades en SQL, sino que también contribuyeron significativamente a la calidad y cantidad de recursos disponibles en SQLJudge, beneficiando a todos los usuarios de la plataforma. Aprendi todo lo anteriormente mencionado gracias a mi asesor Luis German Gutierrez Torres. 
Aranda Mansilla Emmanuel, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. María Guadalupe Amézquita Delgado, Instituto Tecnológico Superior de Irapuato

SISTEMA PARA EL ALMACENAMIENTO DE EVIDENCIAS DE SERVICIO SOCIAL


SISTEMA PARA EL ALMACENAMIENTO DE EVIDENCIAS DE SERVICIO SOCIAL

Aranda Mansilla Emmanuel, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. María Guadalupe Amézquita Delgado, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

El proyecto se centra en mejorar la gestión de documentos de servicio social en instituciones educativas. Actualmente, este proceso se realiza manualmente, lo que genera ineficiencias y errores. La investigación busca desarrollar un sistema automatizado para optimizar la administración de estos documentos, asegurando un manejo más eficiente y preciso de la información. Al implementar este sistema, se espera reducir tiempo y recursos, mejorar la precisión y fiabilidad, y permitir un acceso rápido a la información. Esto facilitará la toma de decisiones y contribuirá a la mejora continua del servicio social.



METODOLOGÍA

Diagnóstico Inicial:Identificación de las ineficiencias y problemas en el proceso actual de gestión de documentos de servicio social.Diseño del Proyecto:Definición de los requerimientos y diseño de un prototipo de sistema web.Desarrollo e Implementación:Uso de frameworks web, bases de datos SQL y técnicas de encriptación para desarrollar el sistema.Implementación de funcionalidades clave como autenticación, gestión de documentos, notificaciones y generación de reportes.Pruebas y Validación:Realización de pruebas de usabilidad y seguridad para asegurar la eficiencia y protección de los datos.Despliegue y Capacitación:Implementación del sistema en el entorno real y formación de los usuarios para su correcto uso.


CONCLUSIONES

El sistema desarrollado optimiza el proceso de entrega y gestión de evidencias del servicio social, ofreciendo una solución integral que mejora la eficiencia y precisión operativa al automatizar tareas críticas. Además, fortalece la comunicación interna y externa mediante sistemas avanzados de seguimiento y notificación. El sistema garantiza un acceso seguro y fácil a la información desde cualquier dispositivo, asegurando decisiones informadas y una colaboración efectiva. La seguridad de la información se prioriza con técnicas avanzadas de autenticación y cifrado, cumpliendo con estándares rigurosos de seguridad informática.La centralización y digitalización administrativa reduce los tiempos de revisión y optimiza recursos, mejorando la experiencia tanto para estudiantes como para el personal administrativo. Este prototipo marca el camino hacia la adopción de tecnologías innovadoras en otros procesos administrativos, sentando las bases para futuras mejoras y desarrollos dentro de la institución.En resumen, el sistema propuesto no solo optimiza la gestión de documentos de servicio social, sino que también establece un modelo para la implementación de tecnologías modernas en la administración educativa, contribuyendo significativamente a la eficiencia y calidad del servicio.
Aranda Morales Karen Guadalupe, Universidad de Guadalajara
Asesor: Dra. Alejandra Gómez Padilla, Universidad de Guadalajara

RESOLUCIóN DE PROBLEMAS DE DISTRIBUCIóN LOGíSTICA POR MEDIO DE DRONES EN BASE A MéTODOS HEURíSTICOS


RESOLUCIóN DE PROBLEMAS DE DISTRIBUCIóN LOGíSTICA POR MEDIO DE DRONES EN BASE A MéTODOS HEURíSTICOS

Aranda Morales Karen Guadalupe, Universidad de Guadalajara. Asesor: Dra. Alejandra Gómez Padilla, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los drones representan una oportunidad significativa para la distribución logística, destacándose sus beneficios en la entrega de pedidos en línea, especialmente en áreas no urbanizadas o con restricciones de accesibilidad. Este proyecto busca resolver el problema del viajero (TSP, por sus siglas en inglés) en el contexto mencionado, utilizando el método Branch and Bound para determinar una programación base que potencialice el uso de esta herramienta.



METODOLOGÍA

Existen variedad de metodologías para resolver un problema de selección de rutas, para este caso, el método utilizado ha sido "Branch and Bound", es decir "Ramificación y Acotamiento". Mientras la complejidad de la ruta que el dron implementará irá en aumento y en constante cambio, pues no hay una programación determinada dado que no siempre se tendrán los mismos destinos y mucho menos con distancias así de generalizadas, es importante recordar que al estar "cortando" el problema e ir encontrando rutas es algo sencillo al utilizar este método dado que al convertir el problema a programación lineal se puede ver todo de una forma mucho más práctico y de mayor utilidad al momento de tener una restricción tan importante que es la mejora del tiempo de entrega.


CONCLUSIONES

La combinación del método de "Branch and Bound" con el uso de drones en la logística de distribución ofrece un enfoque innovador y eficiente para abordar los desafíos modernos de la entrega de productos. A medida que los tiempos de entrega se reducen día a día y los estándares de satisfacción deben alinearse con la necesidad del cliente de obtener un beneficio real al recibir un producto sin necesidad de salir de casa, el método de "Branch and Bound" en conjunto con el uso de drones para la distribución representa una mejora significativa para cumplir con una logística de distribución actualizada. Aunque no siempre se obtenga la mejor ruta posible en todos los casos, en comparación con los métodos de entrega tradicionales, la reducción de tiempos, costos, impacto ambiental, así como la flexibilidad operativa y el acceso a zonas remotas, protegiendo la integridad del trabajador, son áreas fundamentales para la mejora continua de la logística.
Aranzubia Acosta Fidel Ignacio, Universidad Politécnica de Sinaloa
Asesor: Dra. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa

IMPLEMENTACIóN Y DESARROLLO DE UN ROBOT BIOLOID: MONTAJE, PROGRAMACIóN Y EXPERIMENTACIóN


IMPLEMENTACIóN Y DESARROLLO DE UN ROBOT BIOLOID: MONTAJE, PROGRAMACIóN Y EXPERIMENTACIóN

Aranzubia Acosta Fidel Ignacio, Universidad Politécnica de Sinaloa. Duran Partida Carlos Emilio, Universidad Politécnica de Sinaloa. Asesor: Dra. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del Problema Los robots Bioloid, desarrollados por la empresa coreana ROBOTIS, son plataformas robóticas flexibles y personalizables, ampliamente utilizadas en educación e investigación en el área de la robótica. El objetivo de este proyecto es montar, programar y añadir sensores a un robot Bioloid para aumentar su capacidad de realizar tareas.



METODOLOGÍA

Metodología Investigación Inicial y Planificación Se realizó una revisión de los componentes y funciones de los robots Bioloid, consultando manuales técnicos en línea para comprender el sistema. Se identificaron y reunieron todos los recursos disponibles, incluyendo software especializado como RoboPlus y manuales de usuario. Montaje y Configuración del Robot El robot Bioloid fue ensamblado siguiendo el manual del usuario, asegurando que todas las piezas estuvieran correctamente colocadas y ajustadas. Se instalaron y configuraron el software necesario, incluyendo RoboPlus Motion y otros programas para la programación y control del robot, y se realizaron pruebas básicas para verificar el funcionamiento del hardware y software. Programación Básica Se exploraron las herramientas de programación del Bioloid para la creación de movimientos y comportamientos. Se cargaron programas simples para controlar movimientos básicos del robot, como caminar hacia adelante y girar, para observar su comportamiento. Desarrollo de Funciones Avanzadas Se investigaron funciones avanzadas como la capacidad del robot para caminar de manera autónoma y evitar obstáculos. Se desarrollaron y probaron estas funcionalidades, realizando ajustes para optimizar el funcionamiento del robot. Integración de Sensores y Control Remoto Se investigaron sensores compatibles con el robot y se programaron para interactuar con su sistema. Se configuró y probó un sistema de control remoto utilizando un controlador, permitiendo el manejo del robot a distancia. Experimentación y Recolección de Datos Se realizaron experimentos para evaluar el rendimiento del robot en diferentes escenarios. Durante la fase de experimentación, se recolectaron y analizaron datos sobre el desempeño del robot para realizar ajustes en la programación y configuración.


CONCLUSIONES

Conclusiones El proyecto ha completado con éxito la fase de montaje y configuración básica del robot, así como la programación de movimientos básicos. Las pruebas iniciales indican que el hardware y el software funcionan correctamente. La investigación de funciones avanzadas ha comenzado y se espera que su desarrollo mejore significativamente la capacidad operativa del robot. Los próximos pasos incluyen la integración de sensores y la implementación de control remoto, seguidos de experimentación para evaluar el rendimiento del robot en escenarios específicos.
Araujo Barros Juan Pablo, Universidad Cooperativa de Colombia
Asesor: Mtro. Horacio Alejandro Ulloa López, Universidad Nacional Autónoma de Nicaragua, Managua

SUSCEPTIBILIDAD A MOVIMIENTOS EN MASA EN SANTA MARTA CON BASE EN EL ANALISIS JERARQUICO DE PROCESO


SUSCEPTIBILIDAD A MOVIMIENTOS EN MASA EN SANTA MARTA CON BASE EN EL ANALISIS JERARQUICO DE PROCESO

Araujo Barros Juan Pablo, Universidad Cooperativa de Colombia. Duarte Quintero Maria Fernanda, Universidad Cooperativa de Colombia. Asesor: Mtro. Horacio Alejandro Ulloa López, Universidad Nacional Autónoma de Nicaragua, Managua



PLANTEAMIENTO DEL PROBLEMA

La ciudad de Santa Marta, ubicada en un entorno geográfico de relevancia y belleza natural, enfrenta un desafío permanente en lo relacionado con la estabilidad de sus taludes ante la susceptibilidad de movimientos en masa. Para abordar esta problemática con rigor y eficacia, se propone realizar un estudio que incorpore tecnologías avanzadas,  información proveniente de imágenes de satélite y los sistemas de información geográfica con el fin de evaluar múltiples criterios para el área de abarca el municipio de Santa Marta con el fin de determinar las zonas más susceptibles a estos tipos de fenómenos.   Los procesos de movimientos en masa se producen en ciertas condiciones en los que algunos variables actúan como condiciones y otras como detonantes, como es el caso de las precipitaciones o la sismicidad de la zona, o en el peor escenario los dos al mismo tiempo. Es por ello por lo que surge la propuesta de hacer este análisis para el municipio de Santa Marta con base en las condiciones naturales en que se encuentra. Así mismo este estudio se lleva a cabo en línea con los Objetivos de Desarrollo Sostenibles, especialmente con el ODS 11, relacionado con la construcción de ciudades más resilientes y sostenibles (ODS 11), el que busca prevenir riesgos y garantizar la seguridad de los habitantes de Santa Marta.



METODOLOGÍA

Enfoque multidisciplinario e innovador tiene como propósito no solo comprender a fondo las condiciones actuales movimientos en masa en Santa Marta, sino también sentar las bases para la implementación de medidas preventivas y correctivas que contribuyan a preservar la seguridad y sostenibilidad del entorno urbano y natural en esta región costera.   Este estudio sobre la susceptibilidad a movimientos en masa se ha llevado a cabo siguiendo una metodología rigurosa y estructurada. Esta metodología se ha diseñado para abordar de manera integral los diversos aspectos del problema, desde la recopilación inicial de datos hasta la elaboración de conclusiones y recomendaciones finales. El proceso comenzó con una fase de preparación y revisión documental. Durante esta etapa, se realizó una revisión detallada de la literatura existente el análisis de la susceptibilidad a movimientos en masa y  el uso de fuentes de información geoespacial como Modelos de Elevación Digital (DEM por sus siglas en ingles). Paralelamente, se recopilaron y procesamiento de las capas de información disponibles sobre geología, sismicidad, precipitaciones, pendientes, uso de suelo, unidades geomorfológicas y drenajes de la zona de estudio. Esta fase también incluye la capacitación del equipo de investigación en herramientas y técnicas esenciales, como el uso de QGIS, el Método de Análisis Jerárquico de Procesos (AHP) y el manejo de Modelos de Elevación Digital (DEM). Estos datos se procesaron inicialmente mediante georreferenciación, ajuste de proyecciones, recorte al área de estudio, extracción y reclasificación según las necesidades del análisis.   El análisis de los datos y la elaboración de cartografía preliminar. Esto se logra con la aplicación del método de Análisis Jerárquico de Proceso para ponderar los factores condicionantes y detonantes con una alta certeza garantizada a través de la matriz de consistencia y que se materializa utilizando el software para análisis espacial gratuito QGIS. Este análisis incluye comparación y análisis multicriterio con el fin de determinar las zonas más susceptibles a la ocurrencia de movimientos en masa en el municipio de Santa Marta. El producto final deberá ser un mapa de susceptibilidad de movimientos en 5 niveles: muy alta, alta, moderada, baja y muy baja.


CONCLUSIONES

Durante nuestra pasantía de verano se lograron adquirir conocimientos sobre la estabilidad de taludes en Santa Marta, los tipos de movimientos en masa, el uso información provenientes de información satelital, una herramienta poderosa para la gestión de riesgos de desates al igual que el uso de los sistemas de información geográfica, en este caso QGIS.   Entre las conclusiones obtenidas hasta el momento se pueden mencionar que el municipio de Santa Marta presenta elevaciones por encima de los 5000 m s. n. m., lo que trae consigo pendientes muy inclinadas y una densidad de drenaje considerable que pueden considerarse propicios para los procesos de movimientos en masa. Sin embargo la sismicidad es considerada baja debido a que no se encuentra en una zona de subducción ni vulcanismo activo.  En cuanto a las precipitaciones son moderadas, sin embargo, el efecto de cambio climático y la variabilidad climática traen consigo un comportamiento inesperado de estas.   Entre las perspectivas tenemos contemplada el análisis completo de todos los criterios o variables que intervienen en la activación de un movimiento en masa para el que se estarán proponiendo estudios específicos y medidas de mitigación. Estamos convencidos de que la implementación de nuestras recomendaciones y el uso continuo de esta metodología contribuirán significativamente a mejorar la seguridad y la resiliencia de Santa Marta, protegiendo tanto a sus habitantes como a su invaluable patrimonio natural y cultural.
Araujo Galavíz Pedro Miguel, Instituto Tecnológico de Morelia
Asesor: Dr. Rafael Morales Gamboa, Universidad de Guadalajara

DESARROLLO DE VISIóN ARTIFICIAL PARA ATLETAS CON DISCAPACIDAD VISUAL MEDIANTE OPENCV EN PYTHON.


DESARROLLO DE VISIóN ARTIFICIAL PARA ATLETAS CON DISCAPACIDAD VISUAL MEDIANTE OPENCV EN PYTHON.

Araujo Galavíz Pedro Miguel, Instituto Tecnológico de Morelia. Asesor: Dr. Rafael Morales Gamboa, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La actividad fisica es vital para el ser humano, ya sea tanto en el aspecto de la salud como también en el desarrollo de habilidades motoras y en el crecimiento perosnal forjando un mejor caracter y confianza en las personas, por lo cual una discapacidad visual dificulta la realización de dichas actividades, y dependiendo del grado de la afección puede llegar a hacer que sea completamente imposible practicar estas actividades sin ayuda de otras personas , lo cual puede traer consigo no solo problmas de salud por falta de actividad fisica en personas con discapacidad visual, si no que también existe la posibilidad que se desarrollen problemas a nivel persona como falta de confianza, depresion, entre algunas otras, esto debido a la falta de autonomia. Debido a lo anterior se plantea desarrollar un equipo auxiliar mednte vision artificial para personas con discapacidad visual que practiquen atletismo, esto debido a que actulamente este deporte se puede practicar unicamente con una perosna de asistencia que vaya atada al atletta para indicarle el camino que debe seguir.



METODOLOGÍA

Primeramente se realizó un periodo de adaptación puesto que el proyecto ya tebai cierto avance, para fue necesario revisar la estructura del hardware con el cual se está trabajando la cual es una tarjeta Jetson Nano 2Gb la cual contiene un elemento electrónico de 40 pines mediante la cual se pueden controlar elementos electrónicos, a su vez se revisaron los comandos básicos de Git con lo cual se puede navegar en los datos y administrar diferentes configuraciones de la computadora de ubuntu, se revisó específicamente la estructura del código existente hasta el momento.  Una vez realizado el reconocimiento de los avances, se instaló la librería de Jetson.GPIO con la cual se pueden controlar diferentes dispositivos electrónicos, posteriormente se creó un código de prueba para corroborar que los métodos de las librerías no generen problemas en el intérprete de Python. A su vez se repararon las uniones de cables y modificaron las conexiones de los drivers, las fuentes de alimentación y los  motores de vibración los cuales sirven para dar indicaciones al atleta sobre su ubicación en el carril sobre el cual se está moviendo, posteriorme se realizaron pruebas para corroborar el correcto funcionamiento del código de prueba en conjunto con los elementos electrónicos. A continuación se efectuaron cambios en el código principal que realiza el procesamiento de imagen para que este mismo código pueda dar las indicaciones mediante la librería de Jetson.GPIO y los motores de vibración se activen, además se realizaron sus respectivas pruebas de funcionamiento. Posteriormente se cambió la cámara básica de grabación por una más especializada en grabación de video deportivo la cual es una GoPro Hero 11 Black mini la cual trae integrada tecnologías de estabilización de imagen en las grabaciones, sin embargo, para su correcto funcionamiento fue necesario la instalación de una librería especializada llamada open-gopro con la cual se pueden pasar los protocolos de protección, además de acceder a los métodos y ajustes de grabación. A futuro se pretende grabar en vivo con la cámara gopro y que esta grabación sea procesada en tiempo real y de las indicaciones de mediante los motores de vibración en tiempo real.   


CONCLUSIONES

Durante la estancia de verano se lograron adquirir conocimiento sobre el uso del sistema linux o mas especificamente ubuntu en el desarrollo de nuevas tecnologías y comprender su importancia, aunado a lo anterior aprendí el uso de GPIO para poder controlar elementos electrónicos mediante un lenguaje de programación usual como lo es python además de  mejorar mis habilidades en el uso de de este lenguaje. Cabe señalar que todavía hay mucho por aprender de esta investigación como lo es el  Por el lado de la investigación se logró integrar de manera satisfactoria los motores de vibración y usarlos en conjunto con el código principal de procesamiento de imagen con ayuda de la librería Jetson.GPIO ya que anteriormente se intentó utilizar la librario RPi.GPIO pero generaba problemas de compatibilidad con la tarjeta Jetson evitando que los motores funcionaran. Por su parte la implementación de la cámara GoPro ha sido bastante problemática, debido a los protocolos de protección y ajustes internos puestos por el fabricante y a las limitaciones con las que cuenta la cámara en cuanto a las conexiones inalámbricas con el equipo Jetson imposibilita la opción de acceder de una manera mas sencilla, sin embargo la librería open-gopro cuenta con código de muestra que nos permiten acceder a algunas de las funciones básicas del cámara, en este caso acceder a una versión de webcam con cable USB con la cual la cámara queda disponible para su uso en otros códigos, no obstante todavía no es posible usare estas grabaciones en el procesamiento de imagen, esto debido a la falta de conocimientos de los metodos de comunicación http necesarios y falta de información de la libreria mencionada, creando así errores de comunicación entre los códigos de grabación realizados por el equipo de investigación de este proyecto evitando así que se pueda grabar y modificar la grabación para su implementación final, no obstante; se espera próximamente poder acceder a las grabaciones de la cámara gopro y utilizarlas en el código de procesamiento de imagen, al hacer esto, se automatizar la inicialización del código y el equipo quedaría listo para hacer pruebas finales antes de concluir con esta fase de desarrollo, aunque todavía se tienen algunos planes de mejora, como agregar mas sensores para verificar si hay obstaculos en la pista, o si se acerca alguien rapidamente por la parte de atras en el mismo carril.  
Araujo Luquez Sherly Yanela, Universidad Simón Bolivar
Asesor: M.C. Jose Luis Irazoqui Leyva, Universidad Autónoma de Occidente

PROPUESTA DE UN DISEñO DE AULA ERGONóMICA PARA NIVEL DE EDUCACIóN UNIVERSITARIA EN LA REGIóN NORTE DE LA VILLA AHOME,SINALOA,MEXICO.


PROPUESTA DE UN DISEñO DE AULA ERGONóMICA PARA NIVEL DE EDUCACIóN UNIVERSITARIA EN LA REGIóN NORTE DE LA VILLA AHOME,SINALOA,MEXICO.

Araujo Luquez Sherly Yanela, Universidad Simón Bolivar. Ramos Balseiro Daniela Patricia, Fundación Universitaria Tecnológico Comfenalco. Asesor: M.C. Jose Luis Irazoqui Leyva, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Se eligió desarrollar el proyecto de investigación en la Universidad Autónoma de Occidente, es notable que las butacas requieren mejorar su diseño, de tal modo que, a pesar de que, si existe infraestructura educativa, esta no cuenta con medidas especializadas que faciliten y proporcionen un rendimiento eficaz de las labores educativas pertinentes. debido a que abotan posturas inadecuadas  y molestias en  la salud, lo cual puede tener  como consecuencia fatiga musculoesqueleticas, asi mismo  afecta su atencion y rendimiento academico . Una vez realizada la toma de medidas a los salones o en patio de la máxima casa de estudios, se pudo observar que hay muchas limitantes dentro de cada una de la Universidad, el motivo se desconoce por cuestiones propias y privadas de cada una de ellas.  



METODOLOGÍA

Para la implementacion de este proyecto y obtener resultados verdaderos, se optó por realizar las siguientes metodologias e instrumentos necesarios para dar respuesta a nuestro proyecto. Se llevaron a cabo dos tipos de observaciones: La observación cuantitativa, en el cual lleva un registro sistemático de información, que aparece generalmente reflejada de forma numérica y que reflejan datos medibles, comprobables u objetivos a través de la observación. la observación directa es una técnica para recabar información en la que el observador se pone en contacto directo y personalmente con el objeto o fenómeno a observar. Se realizo un muestro probabilistico a 237 estudiantes de la Universidad autonoma del Occidente, ademas se realizaron las medidas  de la butaca actual; atravez de los instrumentos de medicion antropometro y  flexometro .    


CONCLUSIONES

Es ecensial que la universidades adopten las condiciones fisicas y ambientales  para asi  promover el bienestar  y la eficicia en el aprendizaje continuo, como: 1.- El aspecto ergonómico que más incide en las aulas universitarias es el malestar en la postura tanto de pie y estar sentado, en primer lugar, porque sus actividades requieren muchas veces estar de pie y en segundo lugar sentado, por lo tanto, la butaca o pupitre como el escritorio no están adaptados en cuanto a su altura y tamaño, el aspecto restante es el mobiliario debido a que su diseño y tamaño no se adaptan al desarrollo de la labor educativa. Para los estudiantes, el principal motivo de incomodidad es el mobiliario, principalmente el respaldo de la silla y sobre todo la dureza del material. 2. En menor medida, docentes y estudiantes consideran las condiciones ambientales de luz, ruido, temperatura y ventilación como un aspecto de la ergonomía que incide en su confort, pero cabe señalar que, entre estos, el ruido es el que incide; están al más alto nivel. Mientras que la temperatura es un aspecto que docentes y estudiantes no consideran a la hora de indicar si un aula es cómoda o incómoda.  3. La fatiga está relacionada con el nivel de malestar o dolor al final del día, los docentes encuentran que está relacionado con el dolor de piernas y garganta después de la escuela, mientras que para los estudiantes depende del malestar en los glúteos y el cuerpo. en menor medida en los muslos y la parte media de la espalda. 4. Las medidas del mobiliario del aula no están relacionadas con las medidas antropométricas de profesores y estudiantes, por lo tanto, se recomienda hacer algunos cambios.  
Araujo Tejeda Nayely, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato

HERRAMIENTAS DE INGENIERíA INDUSTRIAL PARA LA MEJORA DE LOS PROCESOS


HERRAMIENTAS DE INGENIERíA INDUSTRIAL PARA LA MEJORA DE LOS PROCESOS

Araujo Tejeda Nayely, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El estudio se basa en la observación directa de las operaciones diarias, la recopilación exhaustiva de información y datos, así como el acompañamiento durante el proceso de producción. Estas actividades han permitido identificar pequeñas anomalías y áreas de ineficiencia en el área de corte y ensamble de las cajas de cartón. Dichas ineficiencias se traducen en retrasos en la producción, aumento de desperdicios de material y, en algunos casos, productos finales que no cumplen con los estándares de calidad esperados.



METODOLOGÍA

Para llear a cabo el desarrollo de cada una de las actividades que integran el proyecto se estructuro de manera coherente la metodología que se aplicaría, se realizó una inspección en el proceso que sirvió como objeto de estudio, esto con la finalidad de detectar las áreas de oportunidad que tuvieran mayor impacto en el funcionamiento de la empresa. Teniendo la información que se recabó observando, entrevistando y tomando algunas muestras, se dio paso a proponer un nuevo flujo del proceso así como a la aplicación de algunas herramientas de ingeniería industrial que permitieran hacer el análisis de manera correcta y por ende presentar resultados lo más objetivos posibles. Para finalmente lograr establecer propuestas que llevaran a la organización a tener un mayor control sobre sus procesos y sus resultados.    


CONCLUSIONES

Con base en los resultados obtenidos del diagnóstico y de la aplicación de herramientas de ingeniería, se logró presentar algunas propuestas que encaminaran a la empresa a crear un sistemas de gestión de calidad, dichas propuestas conllevan una distribución de planta que permita un flujo del proceso con mayor eficiencia, algunos diseños de formatos, así como la estandarización de manuales y la eliminación de tiempos de ocio.    
Arceo Beltrán Aldo Yahir, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional

REDES NEURONALES PARA RECONOCIMIENTO DE VEHíCUOS


REDES NEURONALES PARA RECONOCIMIENTO DE VEHíCUOS

Arceo Beltrán Aldo Yahir, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Reyes Zazueta Marco Ivan, Instituto Tecnológico de Culiacán. Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, la creciente popularidad de los vehículos autónomos ha impulsado el desarrollo del reconocimiento de vehículos, el cual ha ganado importancia en campos como la seguridad vial. La evolución de los sistemas avanzados de asistencia al conductor ha hecho que la capacidad de identificar y clasificar vehículos de manera precisa y rápida sea esencial. Además de las cámaras convencionales, tecnologías como LiDAR y radares se están utilizando para obtener una percepción más completa del entorno. Las técnicas de visión por computadora y aprendizaje profundo, especialmente las redes neuronales convolucionales, han demostrado ser herramientas poderosas para integrar y procesar la información de estas diversas fuentes, abordando los desafíos asociados con la detección y clasificación de vehículos. Nuestro objetivo es profundizar en el estudio de las redes neuronales para desarrollar un modelo capaz de identificar vehículos de manera efectiva.



METODOLOGÍA

Estudio Preliminar Antes de la creación del dataset, se realizó un estudio exhaustivo sobre redes neuronales para comprender los conceptos fundamentales y sus bases biológicas. Este análisis incluyó el estudio del funcionamiento de las redes neuronales, que imitan el sistema nervioso del cuerpo humano, con un enfoque particular en la convolución y el pooling, que son técnicas clave en las redes neuronales convolucionales (CNNs). Se exploraron cómo estas técnicas implican el procesamiento visual en el cerebro, mediante la extracción y reducción de características de las imágenes, respectivamente. Se investigaron también los canales de color y los espectros de color, basados en la percepción visual del ojo humano, incluyendo los conos y bastones que permiten la percepción del color y la visión en diversas condiciones de iluminación. Esta base teórica proporcionó un marco sólido para el diseño y la implementación del modelo. Investigación del Estado del Arte A continuación, se realizó una investigación detallada sobre el estado del arte en el reconocimiento de vehículos. Este análisis incluyó la revisión de enfoques y técnicas actuales en la literatura, identificando las metodologías más efectivas y los desafíos comunes en el campo. Esta investigación ayudó a establecer una referencia para el desarrollo de nuestra solución y a identificar posibles áreas de mejora y optimización. Creación del Dataset Para el proyecto, se creó un dataset personalizado mediante la recolección de imágenes de vehículos en condiciones reales. Se grabaron videos en la calle utilizando una cámara de movil, y de cada vehículo de interés se extrajeron tres imágenes representativas desde distintas distancias: corta, mediana y larga. Esto permitió capturar diferentes perspectivas y detalles de los vehículos, asegurando una variabilidad en los datos que contribuye a la robustez del modelo de reconocimiento. Preprocesamiento de Datos Las imágenes obtenidas fueron sometidas a un proceso de preprocesamiento para mejorar la calidad y consistencia de los datos. Esto incluyó: Redimensionamiento: Ajuste de las dimensiones de las imágenes para uniformar el tamaño de entrada del modelo. Normalización: Escalado de los valores de píxeles para asegurar una distribución uniforme y facilitar el entrenamiento del modelo. Implementación de Redes Neuronales Para la clasificación de imágenes de vehículos, se utilizó la red neuronal convolucional VGG13. Esta arquitectura es conocida por su eficacia en la clasificación de imágenes debido a su diseño profundo y estructurado. VGG13 se caracteriza por: Arquitectura de la Red: consta de 13 capas de convolución, organizadas en 11 capas convolucionales y 3 capas totalmente conectadas. Las capas convolucionales están dispuestas en bloques, cada uno con una secuencia de convoluciones y activaciones ReLU, seguidas por una capa de max-pooling para reducir la dimensionalidad y preservar las características más importantes. Tamaño de Kernel: Utiliza kernels de tamaño 3x3 para las capas convolucionales, lo que permite capturar características finas y detalladas en las imágenes. Capas de Pooling: Las capas de max-pooling, con tamaño de ventana 2x2, se utilizan para reducir la resolución espacial y controlar el overfitting. En nuestra red, se clasificaron las imágenes en seis categorías de vehículos: automóviles, autobuses, motocicletas, microbuses, bicicletas y camiones de transporte pesado. La red VGG13 se entrenó y ajustó específicamente para estas seis clases


CONCLUSIONES

Evaluación del Rendimiento del Modelo Gráficas de Precisión y Pérdida Las gráficas mostraron que después de unas 40 épocas, la precisión en los datos de entrenamiento alcanzó el 100% y la pérdida se acercó a 0. Aunque el modelo tuvo un buen desempeño en los datos de entrenamiento, en el conjunto de prueba no se logró una precisión perfecta, lo cual era esperado dado que el objetivo era superar una precisión del 50%. Esto sugiere que el modelo podría estar sobreajustado. Análisis ROC y AUC Las curvas ROC por clase y la curva ROC promedio micro mostraron que la mayoría de las clases alcanzaron un AUC mayor a 0.9, indicando un buen desempeño en la clasificación. Sin embargo, una clase con pocas imágenes tuvo un AUC más bajo, evidenciando desafíos con datos desequilibrados. Lecciones Aprendidas Aprendimos la importancia de mantener métricas claras y una mayor formalidad en la investigación. La orientación recibida nos enseñó a fundamentar cada decisión en el proceso, lo que mejorará la calidad y rigurosidad de futuras investigaciones.
Archila Sanchez Adriana Yulieth, Universidad de Investigación y Desarrollo
Asesor: Dra. Cristina Arely de Leon Condes, Tecnológico de Estudios Superiores de Tianguistenco

DISEñO DE PLAYERA DE CáñAMO CON PROPIEDADES ANTIBACTERIANAS Y ANTI RAYOS UV.


DISEñO DE PLAYERA DE CáñAMO CON PROPIEDADES ANTIBACTERIANAS Y ANTI RAYOS UV.

Archila Sanchez Adriana Yulieth, Universidad de Investigación y Desarrollo. Navas Miranda Abelang, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Niño Rueda Marisol, Universidad de Investigación y Desarrollo. Asesor: Dra. Cristina Arely de Leon Condes, Tecnológico de Estudios Superiores de Tianguistenco



PLANTEAMIENTO DEL PROBLEMA

El algodón es el más utilizado a nivel mundial debido a sus características de suavidad. La producción de playeras realizadas con algodón tiene alta demanda de recursos hídricos. Se estima que el cultivo de algodón requiere aproximadamente cuatro veces más agua que el cáñamo para su producción, además que al momento de cultivar el algodón desarrolla plagas y por lo cual se debe aplicar pesticidas para conservar el cultivo, además de afectar la salud de agricultores quienes pueden llegar a desarrollar cáncer por la exposición y contaminación del agua, en proceso de cultivo y teñido. La investigación parte desde la búsqueda de alternativas de materiales que tengan propiedades parecidas y puedan ser utilizadas para la producción de artículos similares a los elaborados con las fibras de algodón.



METODOLOGÍA

Se busco solución a procesos y/o productos que existen, para poder aplicar innovación y gestión alineada con los objetivos de desarrollo sostenible. En específico los establecidos por los factores del ecodiseño. Se realizo lluvia de ideas hasta establecer una alternativa a el material con el cuál se realizan millones de playeras alrededor del mundo que es el algodón mismo que genera aplicación excesiva de agua a sus cultivos. Por medio de la metodología que evalúa los factores del ecodiseño, establecida en la rueda de la sostenibilidad o rueda del ecodiseño se fueron siguiendo los ocho pasos para establecer el proceso de esta alternativa de innovación, considerando la gestión de residuos, disminución de energía y gestión final postconsumo.


CONCLUSIONES

El proceso de diseño considero la opción de material más sustentable comparado con el algodón que utiliza hasta cuatro veces más agua en el cultivo que el cañamo. Además, se busca considerar la implementación tecnologías de teñido y acabado que optimicen el uso de recursos, y gestión y aprovechamiento de residuos considerando el consumo de agua, energía y productos tóxicos. Esta propuesta de investigación por medio de la utilización de fibra de cáñamo se presenta como una alternativa más sostenible que puede alinearse con los objetivos de desarrollo sostenible firmados en 2015 de forma internacional, promoviendo el consumo responsable y producción limpia relacionados con los procesos de manufactura. Este proyecto no solo tiene un impacto ecológico, sino también social y tecnológico, ya que busca desarrollar procesos industriales más eficientes y sostenibles que los convencionales.
Arciniega Becerra Sofia Teresa, Universidad Tecnológica de Nayarit
Asesor: Dr. Álvaro David Orjuela Cañón, Universidad del Rosario

EVALUACIóN DE LA CLASIFICACIóN DEL DIAGNóSTICO Y TRATAMIENTO DE UNA QUEMADURA MEDIANTE UN DISPOSITIVO MóVIL, BASADA EN EL USO DE DEEP LEARNING.


EVALUACIóN DE LA CLASIFICACIóN DEL DIAGNóSTICO Y TRATAMIENTO DE UNA QUEMADURA MEDIANTE UN DISPOSITIVO MóVIL, BASADA EN EL USO DE DEEP LEARNING.

Arciniega Becerra Sofia Teresa, Universidad Tecnológica de Nayarit. Asesor: Dr. Álvaro David Orjuela Cañón, Universidad del Rosario



PLANTEAMIENTO DEL PROBLEMA

Con los constantes avances tecnológicos en la medicina hemos convertido procesos que tardaban tiempo y costaban demasiado, a procesos eficientes que facilitan la vida de las personas. Sin embargo la medicina avanza lentamente en la implementación de estas tecnologías que le permiten al ser humano, evitar grandes catástrofes y aumentar su calidad de vida. La medicina se ha visto agraciada con procesos evolutivos tecnológicos como teleconferencias, telemedicina, robótica, etcétera. A principios del siglo XIX y después de haber patentado el teléfono, las personas accedieron en forma masiva para comunicarse con sus médicos para consultarlos e intercambiar información sobre su salud. (Rico-Méndez, 2022) Es por eso que como menciona (Rico-Méndez, 2022), el uso de dispositivos móviles, que permitan la comunicación sobre la salud, ha contribuido a un sin fin de avances, sin embargo, actualmente no se le exige a las grandes empresas la implementación de estas tecnologías en el área de la medicina, debido a, los altos costos para su desarrollo. Dentro de esto encontramos nuestra problemática principal, es uno de los casos más comunes en el día a día, las quemaduras en la piel. Donde debemos tener en cuenta los siguientes puntos  Se estima que, cada año, 180 000 personas mueren como consecuencia de quemaduras.  La gran mayoría de casos se concentran en países de ingreso mediano y bajo. Las quemaduras no mortales son una de las causas principales de morbilidad. Las quemaduras se producen principalmente en el hogar y en el lugar de trabajo. Las quemaduras pueden prevenirse.  (World Health Organization: WHO, 2023)  Ante esta situación, podemos comprobar que las quemaduras en la piel son una problemática que afecta a la sociedad, donde la medicina y la tecnología aún no han podido generar una atención inmediata.  



METODOLOGÍA

La metodología Scrum pasa por diferentes fases que hacen posible que se lleve a cabo con éxito el proyecto a realizar. 1. Planificación: Product Backlog El Product Backlog es la fase en la que se establecen las tareas prioritarias y donde se obtiene información breve y detallada sobre el proyecto que se va a desarrollar.   Investigación de antecedentes del proyecto seleccionado. Investigación y selección de modelo entrenado para implementación. Diseño y maquetación de interfaz. Planificación de ventanas emergentes. 2. Ejecución: Sprint Dentro del método Scrum, el Sprint es el corazón, un intervalo de tiempo que como máximo tiene una duración de un mes y en donde se produce el desarrollo de un producto que es entregable potencialmente.   Desarrollo en el IDE seleccionado (Xamarin.Forms). Inclusión de librerías y paquetes para la implementación del modelo. Conversión del modelo de deep learning a un formato compatible con el IDE y las librerías seleccionadas. Implementación de modelo entrenado dentro de la aplicación. 3. Control y monitorización : Daily Scrum y Burn Down Chart Revisión de actualizaciones en librerías. Control y adaptación de imagen de acuerdo a los píxeles establecidos por el modelo. Monitorización de advertencias por paquetes obsoletos a la versión actual. 4. Revisión y Adaptación: Sprint Review y Retrospective Análisis de perspectivas e implementación futura del proyecto.    (Redacción APD, 2024)  


CONCLUSIONES

Skin Burn es una aplicación que tiene como finalidad corroborar a través de la investigación y la implementación de un modelo de deep learning la evaluación de la clasificación del diagnóstico y tratamiento de una quemadura mediante un dispositivo móvil, basada en el uso de Deep Learning.   De acuerdo a los resultados obtenidos se logró embeber el modelo dentro de la aplicación, tomando como acción la toma de la cámara, y el ajuste de píxeles que hace el modelo para la clasificación de la misma. Sin embargo, aunque la aplicación está en un 75% - 80% de desarrollo, algunas librerías se encuentran obsoletas debido a la poca actualización de estas dentro del IDE, lo que nos lleva al único error de la aplicación, y es no encontrar el dictado. Nuestra investigación que tomamos como referencia para lograr tener una apreciación general de las necesidades del usuario es: Perry, A., Dodd, S., Chan, H.O., Joshi, R., Wong, J.N., Hong, C.: 606 Artificial Intelligence-powered Mobile Tool for Burn Injury Evaluation for First Responders. J Burn Care Res. 45, 188 (2024).   Con nuestra investigación y desarrollo de la aplicación reafirmamos 3 puntos importantes, que estaban obsoletos dentro de la anterior investigación realizada.   Atención inmediata en clasificación. Respuesta generada por el uso de deep learning dentro de la app. Diseño de interfaz dinámica para el usuario.      
Arellano Ceja Maria Fernanda, Universidad de Guadalajara
Asesor: Dr. José Alberto Luna López, Benemérita Universidad Autónoma de Puebla

OBTENCIÓN DE PELÍCULAS DELGADAS DE ÓXIDO DE ZINC DOPADAS CON FLÚOR POR SPRAY PIRÓLISIS


OBTENCIÓN DE PELÍCULAS DELGADAS DE ÓXIDO DE ZINC DOPADAS CON FLÚOR POR SPRAY PIRÓLISIS

Arellano Ceja Maria Fernanda, Universidad de Guadalajara. Asesor: Dr. José Alberto Luna López, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

  En la actualidad se ha convertido en una necesidad tecnológica el obtener energía de fuentes renovables, algunas de las tecnologías más prometedoras son las celdas solares,aunque ya se han reducido los costos de fabricación de estos materiales y su uso es abundante, no se han alcanzado eficiencias altas como para reemplazar las fuentes tradicionales de obtención de energía eléctrica. El óxido de Zinc (ZnO) ha emergido como un material prometedor para aplicaciones fotoconductoras debido a su alta energía del excitón a temperatura ambiente de (60 meV). El ZnO es un óxido semiconductor tipo II-VI, que posee una alta movilidad de electrones, alta conductividad térmica y un band gap de 3.37 eV,  que lo hacen adecuado para una amplia gama de aplicaciones.  Presenta una estructura hexagonal tipo wurtzita estable a temperatura ambiente.  Debido a sus características físicas, el ZnO es considerado un material con excelentes propiedades tanto eléctricas como ópticas, como su alta fotoconductividad  y su estabilidad térmica.  



METODOLOGÍA

Para el depósito de las películas delgadas de ZnO:F se utilizó la siguiente metodología:  Revisión bibliográfica de las propiedades del material a depositar, técnicas de depósito de películas delgadas  y técnicas de caracterización del material.    Se prepararon soluciones precursoras para el depósito, para la preparación  se disolvió  Acetato de Zinc Dihidrato (Zn(CH₃COO)₂) en 60 ml de metanol, obteniendo una concentración de 0.2 M, además se le agregó 3 ml  de ácido acético (CH₃COOH) con la intención de que le dé estabilidad a la solución y esta no se precipite.    Esta solución fue separada en 3 soluciones de 20 ml, a cada una de estas se les agregó Ácido Fluorhidrico (HF) en diferentes cantidades  (1 ,2 ,4 gotas) como dopante; cada una de estas soluciones se dejó reposar por 24 horas.   Se realizó la limpieza de los sustratos en donde se depositarán las películas de ZnO y ZnO:F, se utilizaron dos tipos de sustratos, obleas de silicio tipo-n y sustrato de vidrio; esto con la intención de realizar caracterizaciones de las diferentes películas.  Para el depósito de las películas de ZnO y  ZnO:F  se utilizó  el método spray pirolisis, spray pirolisis es un método de deposición química el cual consiste en la aspersión de una solución homogénea, La solución es arrastrada por medio de un gas sobre un material o sustrato, en nuestro caso obleas de silicio tipo n y sustratos de vidrio el cual es calentado a una temperatura de  400°C. El equipo utilizado para este método fue un nebulizador de compresor de la marca Omron, y los depósitos fueron realizados en el laboratorio de Spray Pirolisis del Instituto de Ciencias de la BUAP.  Los depósitos  de las películas de ZnO y ZnO:F  se realizaron  bajo diferentes condiciones, 1.- diferente tiempo de depósito (2, 4, 6 minutos) y 2.- diferente cantidad de dopante en la solución (1,2,4 gotas de HF).   Después de la obtención de las películas de ZnO y ZnO:F, se realizaron caracterizaciones de las muestras. En los depósitos sobre sustrato de silicio se midieron las curvas I-V. Y en las películas sobre sustrato de vidrio se midió la Transmitancia.   


CONCLUSIONES

Las películas de ZnO y ZnO:F  presentaron un espectro de transmitancia en la región de 350-800 nm, donde el borde de absorción se presenta en aproximadamente 350 nm. El espectro de transmitancia de las películas se encuentra en el rango de 80% a 95% con y sin dopado.  Pudimos observar que el aumento o la disminución del espectro de transmitancia está relacionado con el espesor de las películas, entre más delgada este la película tendrá una mayor transmitancia, ya que permite una mayor entrada de luz más que por el efecto del dopado aunque en general las dopadas presentaron mayor transmitancia. El espesor de las películas es un aspecto crucial ya que tiene una influencia en varias propiedades claves del material, además del espectro de transmitancia; también influye en el coeficiente de absorción, el cual nos indica cuánta luz de una determinada longitud de onda es absorbida por el material al incidir, mientras las películas con menores espesores tienen un menor rango energético de alta absorción, las películas con un mayor espesor tienen un mayor rango energético de alta absorción.  Por otro lado mediante Tauc se obtuvieron  el band gap de las películas de  ZnO y ZnO:F, que es esencial para su desempeño en dispositivos electrónicos y optoelectrónicos, también está estrechamente relacionado con el espesor de las películas. De los resultados obtenidos se observó que a menores espesores la energía de band gap se incrementa y se obtuvo un promedio de band gap de ().    Gracias a las gráficas I-V podemos observar la comparación de las películas de ZnO y las películas de ZnO:F. las películas de ZnO, aunque ya presentan una foto respuesta a la luz, su conductividad se encuentra en el orden nanométrico, mientras que en las películas de ZnO:F dopadas, gracias a los defectos creados por el dopaje, la escala de conductividad aumentó a microAmperes    El dopaje de ZnO con flúor ofrece una serie de ventajas que nos ayuda a potenciar la eficiencia y la funcionalidad de las celdas solares, como el aumento de la conductividad eléctrica,  que al aumentar la concentración de los portadores de carga; la mejora de las propiedades ópticas, que amplían la capacidad de captación del espectro solar, lo que permite que exista una mayor absorción de luz y por lo tanto se crea una mejoría en la eficiencia de la celda solar. Estas optimizaciones y mejoras pueden contribuir a un mayor aprovechamiento de la energía solar, lo cual nos acerca a soluciones energéticas más sostenibles y eficientes.   esta es una línea de investigación que conlleva un amplio trabajo, por lo cual aunque ya se consiguieron resultados significativos, es evidente que se necesita seguir trabajando en el proyecto para llegar a los resultados esperados y definitivos.  
Arellano Cerda Carmen Paola, Instituto Tecnológico de Ciudad Juárez
Asesor: M.C. Ana Lorena Chavez Montelongo, Universidad Tecnológica Paso del Norte

FACTORES DISERGONOMICOS QUE AFECTAN A LA PRODUCTIVIDAD


FACTORES DISERGONOMICOS QUE AFECTAN A LA PRODUCTIVIDAD

Arellano Cerda Carmen Paola, Instituto Tecnológico de Ciudad Juárez. Cessa Mireles Michelle, Instituto Tecnológico de Ciudad Juárez. Asesor: M.C. Ana Lorena Chavez Montelongo, Universidad Tecnológica Paso del Norte



PLANTEAMIENTO DEL PROBLEMA

La importancia de esta investigación es crear conciencia sobre la relación entre la industria maquiladora y los factores disergonómicos que afecta la productividad en cada operación. En la industria, las estaciones ergonómicas no son tan importantes para las empresas, siendo una minoría las que tienen estaciones de trabajo completamente ergonómicas, esto tiene un efecto negativo en los operadores y en su productividad diaria. Los riesgos disergonómicos, como la monotonía, la fatiga, las malas posturas, el esfuerzo excesivo y la sobrecarga física, surgen de las interacciones entre los operarios y contribuyen a un entorno de trabajo perjudicial. Uno de los factores más importantes en la línea de producción es la velocidad del operador en su estación de trabajo, pero este rendimiento se ve afectado por problemas disergonómicos que reducen su rendimiento con el tiempo, estos datos no son importantes al considerar la productividad, pero son los más recurrentes y no identificables inmediatamente. Por esto el operador puede experimentar variaciones en su velocidad por la repetición constante de las mismas tareas. Gradualmente, esto puede resultar en una disminución de su agilidad en la cantidad de veces que hace la misma operación por hora, ya que puede generar traumas acumulativos. En consecuencia, si no se consideramos estas condiciones se verá afectado la salud y el bienestar de los trabajadores, generando costos significativos, dando como resultado números bajos en la productividad en las empresas, así como también el ausentismo laboral, incapacidades y aumento en los gastos médicos.  



METODOLOGÍA

En este proyecto se investigó la relación de los factores disergonómicos de los procesos en la industria maquiladora, donde se conceptualizó y se identificó mediante investigación en artículos científicos, diversas fuentes de información y un curso presentado por la Doc. Eliza Chacón (ergonomista certificado, maestría en salud ocupacional y especialista en medicina del trabajo) que nos ayudó a identificar los riesgos que afectan a las operaciones, enfocándonos en los factores musculoesqueléticos y las enfermedades de trabajo por trauma acumulativo.   Se tomaron diez tiempos de dos estaciones en el lapso de cinco horas continúas trabajadas en una maquiladora de compresores en el área de maquinado, para visualizar el rendimiento del operador poniendo enfoque en los movimientos repetitivos.  La toma de tiempos se dividió por movimientos de la operación y se identificó cuál es la parte del cuerpo más afectada desde el punto de vista disergonómico (mano, brazo, cuello, espalda, pierna). Con los diez tiempos registrados se sacó el tiempo real de movimiento por hora.  A partir de estos datos se creó una gráfica en donde nos muestra cómo se comportaba el tiempo en cada movimiento identificando el rendimiento que se tuvo por cada hora realizada.  La segunda estación a la que se tomaron tiempos es una Estación de soplado donde se maquina la pieza y se sopletea con aire comprimido para limpiar la rebaba.  En esta estación los movimientos que se tomaron en cuenta fueron  1. Sopletear la maquina: Toma la pistola de aire y sopla el interior de la máquina para quitar el agua residual. De acuerdo con los factores de riesgo disergonómico, las partes del cuerpo afectadas son:  Mano, brazo, cuello y pierna. Según la gráfica, el rendimiento del operador se vio afectado en la hora 1 y 3 muy por encima del promedio 10.53 s, siendo 12.23 y 13.11 s.  2. Poner pieza en la maquina: Tomar pieza y colocarla en el interior de la máquina, las partes del cuerpo afectadas son:  Mano, brazo, cuello y pierna. El rendimiento disminuyo en la hora 5 casi el doble de tiempo del promedio 6.04 s a 11.38 s, la segundo más alta fue la hora 3 con 5.55 s  3. Sacar pieza y remojarla: Después de que la maquinado sacar la pieza y remojarla para ayudar a quitar la rebaba, las partes del cuerpo afectadas son:  Brazo, cuello y pierna . La hora 1 y 5 fueron las que tuvieron el tiempo más alto comparando el promedio de 7.99 s contra 9.07 s en la primera hora y 11.05 s en la quinta.  4. Sopletear pieza: Tomar pistola de aire y sopletear el interior de la pieza para quitar el resto de rebaba, las partes del cuerpo afectadas son:  Mano, brazo, cuello y pierna. Comparado con el promedio de 8.17 s las horas 1 y 3 quienes estuvieron arriba del promedio con 15.30 y 9.79 s.  5. Marcar y dejar en la caja: Tomar pieza y con un marcador permanente, hacer una marca en el interior de la pieza y dejar la pieza en el Bin, las partes del cuerpo afectadas son:  Mano, brazo, cuello, espalda y pierna .  El promedio es de 14.28 s y las horas que menor rendimiento hubo fueron la 2.3 y 4 siendo la 4 la más alta con 16.95 s. De acuerdo con el estándar, se deberían sacar 86 piezas por hora, y con los datos obtenidos, la cuarta hora es la única que alcanzó ese estándar, mientras que el menor rendimiento se observó en la primera y tercera hora. 


CONCLUSIONES

Durante esta investigación, se comprendió mejor la relación del operador- máquina, para interpretar los tiempos de cada movimiento que se hicieron por hora, se crearon resultados a través de gráficos, así mismo nos ayudó a interpretar los tiempos y la variación que se vieron afectados por los problemas disergonómico que no se pueden identificar inmediatamente en los movimientos del proceso, dando como resultado que la variación que existe entre cada hora, nos genera una desviación por segundo, creando un esfuerzo haciendo que este sea más lento, hasta el  terminado de su turno (5 hrs) ,  dando como resultado que no se cumplan con el tiempo estándar establecido y así mismo una vez identificado este problema se observó que si no se llega a ese ritmó o a esta velocidad se va a ir viendo afectado la productividad en cada uno de los procesos.  Por esto se recomienda usar aplicaciones de la inteligencia artificial para evaluar riesgos ergonómicos que nos ayudarán a identificar que tanto nos afecta los problemas disergonómicos en un proceso de producción.  
Arellano Gutierrez German, Universidad Politécnica del Mar y la Sierra
Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra

DESARROLLO DE UN SISTEMA INFORMáTICO PARA ADMINISTRAR EL ACCESO E INVENTARIO DE UNA BIBLIOTECA UTILIZANDO SENSORES


DESARROLLO DE UN SISTEMA INFORMáTICO PARA ADMINISTRAR EL ACCESO E INVENTARIO DE UNA BIBLIOTECA UTILIZANDO SENSORES

Arellano Gutierrez German, Universidad Politécnica del Mar y la Sierra. Nuñez Rodriguez Roldan Everardo, Universidad Politécnica del Mar y la Sierra. Ochoa López Carlos Manuel, Universidad Politécnica del Mar y la Sierra. Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

La universidad Politécnica del Mar y la Sierra es una institución ubicada en el centro sur del estado de Sinaloa, en el municipio de Elota. Desde el año 2012 ofrece programas de licenciaturas e ingenierías a jóvenes de los municipios de Cosala, Elota y San Ignacio. Actualmente la institución cuenta con un Centro de Información Digital el cual se compone de una biblioteca y un centro de cómputo, diseñado para la búsqueda de información por parte de los estudiantes. Desafortunadamente dicho edificio no cuenta con un proceso o sistema para el registro, préstamo y administración de material bibliográfico, solo se reduce a permitir la entrada de estudiantes y personal docente para realizar la búsqueda de información sin poder solicitar un libro. Aunado a esto, el edificio también carece de una persona que se encargue de atender a tiempo completo la entrada de estudiantes, por lo tanto, si se desea entrar es necesario primero solicitar el acceso a la encargada de activo fijo para que así se registre la entrada o salida.  Considerando lo anterior, surge la necesidad apremiante de diseñar un proceso capaz de administrar el inventario bibliográfico que la universidad posee, dando la posibilidad de realizar prestamos de libros y material a estudiantes, docentes y/o administrativos; Llevando de manera ordenada y sistemática una base de datos que asegure el conocimiento concreto de donde se encuentra el material. Aunado a lo anterior, al no contar con una persona que se encargue de vigilar las entradas o salidas a tiempo completo, surge la necesidad de implementar un sistema que pueda registrar esto mediante el uso de una credencial con sensores para guardar de manera automática quien entra o sale del reciento. 



METODOLOGÍA

En el proceso de desarrollo del sistema, se emplea la metodología basada en prototipos, la cual consta de seis fases que posibilitan la generación de versiones preliminares del software y la obtención de comentarios del usuario final de forma iterativa. A través de este enfoque, se fomenta la participación del usuario final y garantiza que el sistema informático satisfaga sus requisitos y expectativas.  1. Requisitos de desarrollo: Se realiza un análisis para poder establecer cuáles son los requisitos que debe cubrir el sistema informatico.  2. Modelaje y desarrollo del código: En esta fase se construye el prototipo inicial según los requisitos establecidos.  3. Evaluación: Una vez desarrollado el prototipo es necesario comprobar su funcionamiento, evaluando su funcionalidad y verificando que cumple realmente con los requisitos iniciales.  4. Modificación: Tras evaluar el prototipo se deben corregir los errores encontrados y aplicar las mejoras necesarias para que esté listo para ser probado por los usuarios.  5. Documentación: Todo el diseño y desarrollo debe ser documentado para disponer de información precisa y clara del proceso.  6. Pruebas: El prototipo debe ser probado por los usuarios para poder recibir el feedback necesario y así evaluar su utilidad y rendimiento.


CONCLUSIONES

La investigación, diseño y desarrollo del sistema informático de administración para la biblioteca de la Universidad Politécnica del Mar y la Sierra, basado en la tecnología NFC, busca demostrar ser una solución eficaz y moderna para gestionar las entradas y salidas de estudiantes, docentes y administrativos. La implementación de sensores NFC permitirá automatizar y agilizar el proceso de registro, reduciendo significativamente los tiempos de espera y los errores humanos. El sistema no solo busca mejorar la eficiencia operativa de la biblioteca, sino que también proporcionará una experiencia más fluida y segura para los usuarios. Además, la integración de esta tecnología sin duda podrá ofrecer un registro preciso y en tiempo real de las actividades, facilitando la supervisión y el análisis de los patrones de uso. En conclusión, el sistema propuesto no solo busca cumplir con los requisitos iniciales, sino que también tratará de establecer un precedente para la adopción de tecnologías avanzadas en el ámbito académico, promoviendo un entorno de aprendizaje más innovador y accesible. Ademas buscara ser una plataforma escalable que pueda implementarse en otros edificios de la institución el registro de visitas a eventos y actividades academicas.
Arellano Hinojosa Fidel Ernesto, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave

PLANEACIóN FINANCIERA COMO ESTRATEGIA DE GESTIóN E INNOVACIóN DE PROCESOS EN UNA MICROEMPRESA COMERCIAL DE GUASAVE, SINALOA.


PLANEACIóN FINANCIERA COMO ESTRATEGIA DE GESTIóN E INNOVACIóN DE PROCESOS EN UNA MICROEMPRESA COMERCIAL DE GUASAVE, SINALOA.

Arellano Hinojosa Fidel Ernesto, Instituto Tecnológico de Ciudad Juárez. Cantú Dueñas José Antonio, Instituto Tecnológico de Nuevo Laredo. Cervantes Dominguez Fernando Ivan, Instituto Tecnológico de Ciudad Juárez. Huerta Uribe Brittania, Instituto Tecnológico de Ciudad Juárez. Machuca Bedoya Alejandro, Universidad de Investigación y Desarrollo. Martinez Segovia Karen Paola, Instituto Tecnológico de Ciudad Juárez. Sierra Barrios José Vicente, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Vazquez Marquez Erika, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

La gestión e innovación de procesos son esenciales para que las microempresas comerciales puedan mantenerse competitivas y eficientes en el mercado actual. Sin embargo, muchas de estas microempresas enfrentan desafíos significativos debido a la falta de una planeación financiera adecuada. En el municipio de Guasave, las microempresas comerciales representan una parte sustancial de la economía local, pero a menudo carecen de las herramientas y estrategias necesarias para gestionar eficazmente sus recursos financieros y operativos. La ausencia de una planeación financiera robusta puede resultar en una gestión ineficiente de los procesos internos, llevando a problemas como la falta de control de inventarios, registros financieros inadecuados y decisiones financieras erróneas. Estos problemas no solo afectan la operatividad diaria de las empresas, sino que también limitan su capacidad para crecer y adaptarse a las cambiantes condiciones del mercado. El Instituto Nacional de Estadística y Geografía (INEGI, 2018) reporta que una gran mayoría de las microempresas en México, incluyendo aquellas en Guasave, no llevan registros contables formales y enfrentan complicaciones administrativas que obstaculizan su crecimiento. Esta situación subraya la necesidad de implementar estrategias de planeación financiera que apoyen la gestión e innovación de procesos en estas empresas. Por lo tanto, la problemática central de esta investigación se plantea de la siguiente manera: ¿Cómo influye la implementación de una planeación financiera adecuada en la gestión e innovación de procesos en una microempresa comercial en el municipio de Guasave?



METODOLOGÍA

Esta investigación adopta un enfoque mixto y descriptivo exploratorio mediante un estudio de caso para evaluar la eficiencia del proceso de gestión e innovación de procesos apoyado por la planeación financiera en una microempresa comercial. La investigación mixta, descrita por Johnson et al. (2006) como una combinación de enfoques cuantitativos y cualitativos, y definida por Sampieri, Fernández y Baptista (2014) como una metodología multimétodo, permite una comprensión integral del fenómeno estudiado. Stake (1984) define el estudio de caso como un análisis riguroso orientado a obtener relaciones generales del caso observado. La metodología descriptiva, según Caballero (2014), se enfoca en desarrollar definiciones y conceptos básicos, mientras que Cea (2010) resalta que los estudios exploratorios identifican variables relevantes para futuras investigaciones. Para la recolección de datos, se utilizaron técnicas cualitativas como entrevistas semiestructuradas y observación participante. Mendicoa (2003) describe la entrevista semiestructurada como una herramienta cualitativa que facilita la comprensión de las perspectivas de los informantes. Lahire (2008) y Spradley (1980) sostienen que la observación participante permite un estudio profundo de situaciones sociales específicas.


CONCLUSIONES

Un proceso de gestión e innovación de procesos deficiente puede llevar a decisiones erróneas, dificultades financieras y pérdida de oportunidades de crecimiento. La implementación de herramientas tecnológicas, como software para control de flujo de efectivo e inventarios, es fundamental para mejorar la eficiencia y precisión en la gestión. La elaboración de estados financieros es crucial para la toma de decisiones y planificación futura. La falta de financiamiento externo puede limitar la capacidad de expansión y respuesta a situaciones imprevistas. Se recomienda a la empresa implementar un punto de venta para mejorar el control de ingresos y salidas, realizar inventarios físicos semestrales y registrar adecuadamente todos los egresos. Además, se sugiere elaborar informes financieros proforma para planificar operaciones futuras. Esta investigación se realizó durante mi estancia de investigación científica, y ha sido una experiencia invaluable para mi formación profesional. Participar en este proyecto me ha permitido aplicar conocimientos teóricos a un contexto real, desarrollando habilidades prácticas en la recolección y análisis de datos, así como en la elaboración de estrategias de mejora para microempresas. Esta experiencia ha reforzado mi comprensión sobre la importancia de la planeación financiera en la gestión e innovación de procesos y su impacto en la competitividad y sostenibilidad de las empresas. Futuras investigaciones deben explorar la planificación financiera en MiPymes más organizadas y evaluar la utilidad de las estrategias propuestas en este trabajo. Además, es fundamental seguir investigando para identificar y desarrollar nuevas herramientas y metodologías que puedan apoyar aún más a las microempresas en su camino hacia una gestión más eficiente y efectiva.
Arenas Alzate Coat Sebastian, Institución Universitaria Colegio Mayor de Antioquia
Asesor: Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo

EVALUACIÓN DE MUROS DIVISORIOS-ECOLÓGICOS CONSTRUIDOS CON BOTELLAS PET Y DISTINTOS TIPOS DE RELLENO


EVALUACIÓN DE MUROS DIVISORIOS-ECOLÓGICOS CONSTRUIDOS CON BOTELLAS PET Y DISTINTOS TIPOS DE RELLENO

Arenas Alzate Coat Sebastian, Institución Universitaria Colegio Mayor de Antioquia. Herrera Valerio Kevin Guillermo, Instituto Tecnológico Superior de Uruapan. Mercado Marín Diego Armando, Instituto Tecnológico Superior de Uruapan. Asesor: Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

La acumulación de desechos plásticos en los océanos tiene efectos devastadores para el medio ambiente y la salud humana, contaminando la cadena alimentaria y acumulando toxinas. La producción masiva de botellas de plástico, que culmina en 8 millones de toneladas de plásticos en los océanos anualmente, amenaza la vida marina y la sostenibilidad de los ecosistemas acuáticos. Ante este problema, es urgente utilizar materiales sostenibles en la construcción. El Polietileno Tereftalato (PET), utilizado en botellas plásticas, ofrece ventajas significativas cuando se reutiliza en la construcción. Las botellas de PET pueden reducir residuos plásticos y proporcionar propiedades estructurales y de aislamiento térmico beneficiosas. No obstante, se necesita abordar la falta de normativas y estudios estructurales para garantizar la seguridad y durabilidad de estas construcciones. La reutilización de botellas de PET en muros divisorios es una solución prometedora. La efectividad de estos muros depende del material de relleno utilizado. Este estudio es crucial para adoptar prácticas de construcción más sostenibles y aprovechar las propiedades del PET reciclado. Identificar el material de relleno adecuado mejorará la durabilidad y resistencia de los muros, haciendo esta técnica más viable y atractiva para diversos proyectos constructivos. Es necesario un estudio detallado para evaluar el comportamiento estructural de estos muros con distintos tipos de relleno, buscando la solución más efectiva y sostenible.



METODOLOGÍA

Etapa 1: Elección y caracterización de materiales 1.1 Material para la estructura Botella de PET (Polietileno Tereftalato)El PET es un tipo de plástico muy común usado en botellas de agua, refrescos, envases de alimentos y fibras para ropa. Malla electrosoldada 6x6 10 10Esta rejilla metálica se usa mucho en construcción e infraestructura. Los alambres están unidos mediante soldadura eléctrica, lo que la hace muy resistente y duradera. 1.2 Materiales de relleno AireEl aire es una mezcla de gases que constituye la atmósfera terrestre y es fundamental para la vida en nuestro planeta. Arena finaLa arena fina es un material granular compuesto por partículas de minerales y rocas de pequeño tamaño, con granos que varían entre 0.075 mm y 0.425 mm. Para garantizar su calidad se realizará el ensayo de granulometría según la norma N-CMT-1.01, además de medir la humedad inicial de la muestra. Materiales orgánicos (acícula y aserrín)Se utilizará un molino triturador de PET para garantizar la finura del material orgánico, que incluye acícula de pino y aserrín de madera, para usarlos como relleno de las botellas de PET. 1.3 Material de revestimiento ArcillaLa arcilla es un tipo de suelo o roca sedimentaria compuesto principalmente por minerales finamente divididos, como silicatos de aluminio hidratados, con partículas menores a 0.002 mm. Se realizarán dos ensayos: el primero para medir la plasticidad según la norma M-MMP-1-07, y un ensayo casero para conocer la textura de la arcilla (limo, muy limoso, arenoso, arcilla arenosa). El material se zarandeará por un tamiz número 4°, asegurando que esté seco para dicho procedimiento. Etapa 2: Diseño y ejecución de los tres prototipos Se construirán tres tipos de muros aligerados con botellas de PET, donde la única variable es el material de relleno: aire, arena fina y material orgánico (acícula y aserrín). Cada prototipo tendrá un metro cuadrado, enmarcado con una estructura de madera y un espesor entre 8 y 10 centímetros, sumando el espesor de las botellas de PET y el revestimiento de arcilla. Las botellas (de 500 ml a 1000 ml) se dispondrán de manera que la boca de una quede en contacto con el fondo de la siguiente. En ambos costados se utilizará malla electrosoldada para el confinamiento de las botellas, logrando un emparedado de malla/botellas/malla, finalmente revestido con arcilla. Proceso constructivo resumido para un prototipo Recolección y adecuación de materiales de relleno. Construcción de marco en madera de 1m². Montaje y atado de malla en uno de los costados del marco. Relleno de botellas y colocación dentro de la estructura. Confinamiento con segunda malla formando el emparedado (malla/botellas/malla). Revestimiento con arcilla con un espesor de 1,5 cm aproximadamente. Etapa 3: Medición final de tiempos de ejecución y ligereza Se calculará el peso promedio de 5 botellas de PET de 600 ml para cada tipo de relleno. Finalmente, se medirán las dimensiones finales, incluyendo el revestimiento, para obtener la densidad de cada prototipo. Además, se evaluará el tiempo de ejecución de cada prototipo, manteniendo constantes los tiempos de todos los pasos excepto el paso 1 (recolección y adecuación del relleno) y el paso 4 (relleno de botellas y colocación). Etapa 4: Comparación de tres prototipos según los parámetros medidos Se desarrollará un cuadro comparativo con los valores promedio de pesos de botellas para cada tipo de relleno, densidad de cada prototipo y sus respectivos tiempos de ejecución.


CONCLUSIONES

En esta estancia de verano Delfín, desarrollamos una investigación sobre una alternativa ecológica y funcional a los métodos de construcción convencionales en muros divisorios, contribuyendo a la reducción de desechos plásticos. La investigación demostró que los muros de botellas de PET rellenas de aire y materiales orgánicos (acícula de pino y aserrín) son efectivos, siendo ligeros y fáciles de ejecutar. En contraste, los muros rellenos de arena resultaron ser muy pesados y poco prácticos. Por lo tanto, los materiales de aire y orgánicos se destacan como las mejores opciones por su ligereza y facilidad de construcción.
Arenas Lobo Juliana Alejandra, Universidad de Investigación y Desarrollo
Asesor: Dr. Juan David Correa Granada, Universidad Autónoma de Manizales

EVALUACIóN DE DIFERENCIAS EN EL DESEMPEñO DE LOS ESTUDIANTES EN LA PRUEBA SABER PRO DE PERSONAS CON RUTA FORMATIVA PREVIA


EVALUACIóN DE DIFERENCIAS EN EL DESEMPEñO DE LOS ESTUDIANTES EN LA PRUEBA SABER PRO DE PERSONAS CON RUTA FORMATIVA PREVIA

Arenas Lobo Juliana Alejandra, Universidad de Investigación y Desarrollo. Asesor: Dr. Juan David Correa Granada, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Introducción Existe un vacío en la literatura sobre las posibles diferencias en el desempeño en la prueba Saber Pro entre los estudiantes que cursaron primero una carrera técnica o tecnológica, y aquellos que ingresaron directamente a una carrera profesional. Esta investigación busca llenar este vacío, analizando si existen diferencias significativas en el desempeño obtenido por estos dos grupos de estudiantes. Pregunta de Investigación ¿Existen diferencias significativas en el desempeño de las pruebas Saber Pro entre los estudiantes que presentaron primero la prueba Saber TyT y aquellos que ingresaron directamente a estudiar una carrera profesional? Objetivo General Determinar si existen diferencias en el desempeño en las pruebas Saber Pro entre los estudiantes que primero cursaron un programa técnico o tecnológico y aquellos que ingresaron directamente a una carrera profesional.  Objetivos Específicos Para abordar este objetivo general, se plantean los siguientes objetivos específicos: Recolectar y procesar los datos de las pruebas Saber Pro y Saber TyT, identificando aquellas personas que realizaron la primera, después de haber presentado la segunda. Analizar el desempeño en las pruebas Saber Pro entre subgrupos de estudiantes, considerando variables como género, estrato socioeconómico y región. Identificar las diferencias encontradas (o su ausencia) entre los estudiantes que tomaron una u otra ruta de formación.



METODOLOGÍA

Metodología Recolección y procesamiento de datos:Obtener datos de la prueba Saber Pro de estudiantes post-2015, incluyendo puntajes en competencias e información demográfica. Análisis de datos:Comparar resultados Saber Pro entre grupos con/sin formación previa. Interpretación y presentación de resultados:Interpretar hallazgos estadísticos y gráficos.


CONCLUSIONES

Análisis de Resultados Distribución por Sexos Población general: Hombres obtienen mejores resultados en Inglés y Razonamiento Cuantitativo. Rendimiento en Lectura Crítica más equilibrado entre géneros. TyT previos: Hombres tienden a obtener puntuaciones más altas, especialmente en Razonamiento Cuantitativo (8.3% más que mujeres). Distribución por Núcleo de Pregrado Población General Administración: Mejora del 21.6% en inglés de 20212 a 20213. Aumentos del 6.5% en Lectura Crítica y 9.15% en Razonamiento Cuantitativo. Ingeniería Civil: Incremento del 5.97% en lectura crítica y 18.9% en inglés. Medicina: Aumento del 14.07% en inglés. Incrementos del 10.3% en Lectura Crítica y 6.02% en Razonamiento Cuantitativo. TyT Previos Administración: Aumento del 15.72% en inglés. Caídas del 0.58% en Lectura Crítica y 2.51% en Razonamiento Cuantitativo. Ingeniería Civil: Incremento del 29.6% en inglés. Disminución del 7.7% en Lectura Crítica. Razonamiento Cuantitativo estable. Medicina: Descensos del 18.01% en Lectura Crítica, 12.98% en Inglés y 11.03% en Razonamiento Cuantitativo. Distribución por Departamentos Extranjero: Población general supera a TyT previo en todas las competencias. San Andrés: Estudiantes de TyT previo destacan en inglés. Población general tiene ventaja en Lectura Crítica. Amazonas: TyT previo tiene rendimiento superior, especialmente en inglés. Bogotá: Población general supera a TyT previo en inglés y lectura crítica. Interpretación Aunque no hay diferencias significativas en promedios generales, hay subgrupos con notables diferencias. Estudiantes con formación técnica previa pueden tener ventajas en competencias prácticas. Factores como género, estrato y región impactan resultados. Anexos Informe LookerStudio: https://lookerstudio.google.com/reporting/0cb19c49-9af6-469c-a5b3-9d3c85beb2bf    
Arenas Monsalve Juan Arenas, Universidad Simón Bolivar
Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica

DESARROLLO DE UN PROTOTIPO PARA EL MONITOREO Y CONTROL DE ASPERSORES CON TECNOLOGíA DE INTERNET DE LAS COSAS ORIENTADO AL MEJORAMIENTO DE LA CALIDAD DEL AIRE EN EL SECTOR MINERO Y SUS POBLACIONES ALEDAñAS.


DESARROLLO DE UN PROTOTIPO PARA EL MONITOREO Y CONTROL DE ASPERSORES CON TECNOLOGíA DE INTERNET DE LAS COSAS ORIENTADO AL MEJORAMIENTO DE LA CALIDAD DEL AIRE EN EL SECTOR MINERO Y SUS POBLACIONES ALEDAñAS.

Arenas Monsalve Juan Arenas, Universidad Simón Bolivar. Bautista Vivanco Denisse Yemirel, Instituto Politécnico Nacional. Herrera Muñoz Sebastian David, Universidad Simón Bolivar. Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

La Guajira, al ser una región con una dependencia económica significativa a la minería, enfrenta un dilema crucial entre el desarrollo económico, la preservación del medio ambiente y la salud comunitaria, pues acorde a los reportes de la Fundación Hemera y  a los estudios de Urrea y Calvo, se han documentado efectos negativos de la minería en la calidad del aire de dicha zona sobre todo en la mina Cerrejón, como consecuencia de la emisión de gases  tales como dióxido de azufre (SO2) y óxido de nitrógeno (NOx), así como de partículas finas por  la considerable extracción de carbón, generando problemas de salud respiratoria en los residentes locales.  Además, la contaminación del agua y la alteración de los ecosistemas acuáticos también se han registrado como impactos secundarios de la actividad minera. Las soluciones convencionales, como la aspersión manual de agua, han sido insuficientes para enfrentar la dimensión del desafío, resaltando la necesidad de enfoques innovadores y tecnológicos. Este proyecto aborda la contaminación del aire en la minería de La Guajira mediante la integración de tecnologías de la industria 4.0, como el Internet de las Cosas (IoT), para desarrollar un sistema de aspersión inteligente. Este enfoque promete mejorar la calidad del aire de forma efectiva y eficiente, beneficiando la salud de las comunidades locales y el medio ambiente. La importancia del estudio radica en su enfoque integral para abordar un problema ambiental crítico en una región económicamente importante por la minería, alineándose con políticas de sostenibilidad, transformación energética y desarrollo tecnológico.



METODOLOGÍA

Considerando las condiciones de la zona, se empleó el controlador I/O LoRa Wan Dragino LT-22222-L como nodo de comunicación a larga distancia y bajo consumo de energía. Junto con un sistema compuesto por un Arduino Nano, relevadores externos y un banco de baterías, permite el control de la aspersión inteligente a distancia, operando los relevadores internos del controlador para abrir y cerrar válvulas de aspersores. Se definió el diagrama de conexiones del sistema a implementar con el controlador I/O LoRaWan Dragino LT-22222-L y otros elementos. Luego, se realizó el dimensionamiento integral del sistema considerando las fichas técnicas de los componentes, a partir de ello se diseñó un contenedor para proteger el sistema, considerando alta resistencia a impactos, aislamiento eléctrico, resistencia al agua y polvo, sostenibilidad en condiciones de humedad y temperaturas de 45-55°C, y protección UV. El contenedor se modeló en 3D usando Onshape, determinando tolerancias y añadiendo pernos y orificios para el ensamblaje y sellado adecuado. Paralelamente, se trabajó en la comunicación a larga distancia con el Dragino LT-22222-L, basado en el microcontrolador STM32L072 y el chip LoRa sx1276. Se configuró adecuadamente según el hardware, adquiriendo el firmware adecuado para la versión y frecuencia del equipo (915MHz para la Guajira). Usando un módulo conversor TTL-USB y el software STM32 Cube Programmer, se cargó el firmware en formato .hex tras reiniciar el dispositivo. Con el software serial port utility, se configuró el controlador con los siguientes comandos AT: AT+FDR: Restablecimiento de fábrica. AT+NJM=1: Modo de unión a la red LoRaWan por OTAA. AT+ADR=1: Ajuste dinámico de la tasa de datos. AT+DEUI= xx xx xx xx xx xx xx xx: Identificador único de 64 bits. AT+APPEUI= xx xx xx xx xx xx xx xx: Identificador único de aplicación de 64 bits. AT+APPKEY=XX XX XX XX XX XX XX XX XX XX XX XX XX XX XX XX: Clave criptográfica de 128 bits. AT+JOIN: Unión del dispositivo a la red. Tras la configuración, se vinculó y registró el dispositivo en The Things Network (TTN), mediante la creación de una aplicacion y la captura de las claves del dispositivo en ella, con ello se obtuvo el envío-aceptación de una solicitud de unión a la red. A través de la aplicación en TTN en la sección de Downlinks, se realiza el control remoto de los relevadores del controlador con el envío de comandos con la estructura: 03 XX XX, donde el tercer y cuarto dígito controlan el relevador 1, y el quinto y sexto, el relevador 2 (00 abre y 01 cierra los relevadores). El controlador y demás componentes se resguardan en el contenedor diseñado para su instalación en zonas mineras de la Guajira, Colombia. Una vez instalado, se realizan pruebas de alcance y se incluye el Gateway DLOS8 para recibir retroalimentación del controlador, facilitando la toma de decisiones y procesamiento de datos, determinando cuándo activar y desactivar la aspersión de agua. El Gateway, junto con su antena, debe ser instalado donde haya un operador para verificar y probar el alcance, que según el fabricante de Dragino, puede cubrir kilómetros.


CONCLUSIONES

Durante esta estancia de verano, se logró adquirir conocimiento en la implementación de la tecnología LoRaWan, así como también se reforzó y se puso en práctica los conocimientos previos sobre diseño 3D para implementación física. Gracias a lo anterior, se obtuvo la generación de un diseño 3D de contenedor para zonas con condiciones ambientales complejas, se seleccionó PET-G como material apto para las condiciones y, además, se realizó la configuración del controlador y la configuración en TTN. No obstante, al tratarse de un proyecto de larga extensión, aún se encuentra en la fase de configuración y pruebas de alcance, y no se puede mostrar datos del alcance en distancia de la comunicación obtenidos. Se espera lograr establecer comunicación a una distancia de 10km entre el nodo (controlador) y la zona de operación, donde se encuentra el Gateway para la operación remota de los relés. Por otra parte, se espera una autonomía del sistema de 6 meses en la zona de implementación hasta su próximo mantenimiento, gracias al aislamiento por el contenedor diseñado.
Arenas Muñoz Daniel, Instituto Politécnico Nacional
Asesor: Dr. Edgar Peralta Sánchez, Universidad Popular Autónoma del Estado de Puebla

CARGADOR DE CELDAS DE IONES DE LITIO


CARGADOR DE CELDAS DE IONES DE LITIO

Arenas Muñoz Daniel, Instituto Politécnico Nacional. Cuadra Ramos Ana, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Edgar Peralta Sánchez, Universidad Popular Autónoma del Estado de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, las baterías de iones de litio son ampliamente utilizadas en una variedad de dispositivos electrónicos y vehículos eléctricos debido a su alta densidad de energía y longevidad. Sin embargo, el proceso de carga de estas baterías presenta varios desafíos críticos que afectan su eficiencia y durabilidad. Los problemas incluyen la necesidad de una carga precisa y controlada para evitar sobrecalentamiento, sobrecarga, y degradación prematura de la batería, así como la integración de sistemas de protección avanzados. A pesar de los avances en tecnología de carga, muchos cargadores disponibles en el mercado no cumplen con los estándares óptimos de seguridad y eficiencia. Esto puede resultar en una vida útil reducida de las baterías, riesgos de seguridad y un rendimiento subóptimo. Además, la falta de uniformidad en los métodos de carga y la variabilidad en las especificaciones de las baterías requieren una solución que sea adaptable a diferentes configuraciones y aplicaciones. El problema central es diseñar un cargador para baterías de iones de litio que: Garantice una carga segura y precisa: Implementando técnicas avanzadas de control de carga para prevenir sobrecalentamiento y sobrecarga. Optimice la eficiencia energética: Reduciendo las pérdidas de energía durante el proceso de carga. Incorpore sistemas de protección: Protegiendo tanto la batería como el cargador de posibles fallos y malfuncionamientos. Ofrezca versatilidad y compatibilidad: Adaptándose a diversas configuraciones de baterías y aplicaciones. Resolver estos problemas permitirá mejorar la vida útil y el rendimiento de las baterías de iones de litio, así como garantizar una mayor seguridad en su uso.



METODOLOGÍA

Para iniciar nuestro proyecto, fortalecimos nuestros conocimientos mediante la consulta de libros especializados en electrónica de potencia. Estos textos detallaban el funcionamiento y la aplicación de componentes sometidos a altas tensiones y frecuencias. Seguidamente, nos adentramos en el estudio de los convertidores DC/DC, centrándonos específicamente en el tipo buck. Este tipo de convertidor es fundamental debido a su capacidad para reducir el voltaje de salida, ideal para su uso en dispositivos eléctricos. Después de comprender su funcionamiento, procedimos con cálculos detallados para asegurar valores de salida precisos. Diseñamos un cargador para cuatro celdas de litio-ferrofosfato de 3.2V y 105Ah, que en serie producen 12.8V y 105Ah. Los resultados obtenidos para el diseño del convertidor fueron los siguientes: Relación de trabajo: 0.365 Voltaje de entrada: 40V Potencia asociada: 14.6W Corriente de salida: 1A Voltaje de salida: 14.6V Período de trabajo: 20µs Tiempo de encendido del interruptor: 7.3µs Tiempo de apagado del interruptor: 12.7µs Rizo de corriente en el inductor: 300mA Cálculo de inductancia: 618µH Rizo de voltaje en el capacitor: 146mV Cálculo de capacitor de filtrado: 5mF Resistencia o carga: 14.6 ohms Una vez completados los cálculos teóricos, validamos nuestros resultados mediante simulaciones utilizando el software "PSIM". Esta etapa fue crucial para confirmar que nuestros valores teóricos eran correctos y nos proporcionaban resultados de salida aceptables. El siguiente paso fue la implementación del control, vital para el circuito. El control del ciclo de trabajo del interruptor determina el período necesario de encendido y apagado para obtener resultados positivos en la simulación. También fue importante analizar el rango del ciclo de trabajo en el cual nuestro inductor podría entrar en modo discontinuo, lo que significaría pérdidas de energía y variaciones en la tensión. Mantener el inductor en modo continuo fue fundamental para asegurar una corriente de salida estable. Para controlar este ciclo de trabajo, experimentamos con diversas etapas de diseño. Finalmente, implementamos un sensor de corriente después del transistor para medir el flujo de corriente de entrada. Utilizamos estos datos para implementar un control PI (proporcional, integral). Mediante la retroalimentación con una señal de referencia, ajustamos la entrada del sistema para corregir cualquier desviación en la señal de control. Usando un comparador, ajustamos el ciclo de trabajo utilizando una señal triangular y una señal lineal para generar PWM, que define y ajusta el ciclo según los parámetros establecidos. Este enfoque garantizó un control preciso de la corriente en el circuito, permitiendo que el sistema ajuste la tensión para satisfacer las demandas energéticas de las celdas, aumentando la corriente según sea necesario. En cuanto a la parte física, fabricamos el inductor utilizando un núcleo AMCC-160 de acero al silicio. Para asegurar la inductancia deseada, realizamos cálculos detallados sobre el número de vueltas del embobinado, la temperatura de operación y las pérdidas en el núcleo. Los demás componentes como transistores, capacitores, drivers y controladores fueron fácilmente accesibles.


CONCLUSIONES

El proyecto de investigación durante este verano ha sido una inmersión profunda en el campo de la electrónica de potencia y los convertidores DC/DC tipo buck. Desde el estudio inicial de los fundamentos teóricos hasta la implementación práctica y el control avanzado del circuito, cada paso ha sido crucial para entender y optimizar el rendimiento del sistema. La combinación de cálculos precisos, simulaciones detalladas con software especializado como PSIM, y la fabricación cuidadosa de componentes físicos como inductores con núcleos específicos ha resultado en un diseño robusto y eficiente. La aplicación de un control PI ha permitido mantener la estabilidad del circuito, asegurando una salida de corriente consistente y adaptable a las necesidades de las celdas de litio-ferrofosfato. Este proyecto no solo ha fortalecido nuestros conocimientos teóricos y prácticos en electrónica de potencia, sino que también ha demostrado la importancia de la investigación sistemática y el diseño preciso en la ingeniería de sistemas electrónicos modernos.
Arevalo Urueña Michael Steven, Universidad Autónoma de Occidente
Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)

ATERRIZAJE AUTóNOMO DE UN DRON


ATERRIZAJE AUTóNOMO DE UN DRON

Arevalo Urueña Michael Steven, Universidad Autónoma de Occidente. Paez Cardeño Juan Sebastian, Universidad Autónoma de Occidente. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Actualmente los drones para su aterrizaje ha de necesitar invercención humana. Al ser todo de manera remota en alturas muy altas, puede provcar perdida de conexión del humano con el dron. Ademas, existe el error humano donde puede provocar accidentes 



METODOLOGÍA

Supervisor:  Michael Arévalo y Juan Páez Calendario para verano delfín: Fase 1: Recopilación de Datos e Información: Investigar literatura. Identificar los requisitos del sistema. Evaluar la percepción usada en otros drones para aterrizaje. Evaluar los algoritmos de navegación autónoma Ardupilot documentación Migración a ROS 2 En esta fase se buscará recopilar información relevante con respecto al tema o afines, tecnologías disponibles, y las necesidades que se encuentran en una plataforma de drones en ardupilot. Esto incluye investigaciones sobre la percepción de drones, sensores disponibles. Fase 2: Diseño de desarrollo Definir los posibles entornos de trabajo. Entender los sensores propioceptivos, exteroceptivos competentes y electrónica para el entorno de trabajo. Seleccionar algoritmos adecuados para el trabajo de aterrizaje y navegación autónoma de un dron En esta fase, se diseñará la propuesta del sistema, incluyendo el esquemático del sistema, la selección de sensores, y la selección de componentes adicionales específicos. Fase 3: Implementación del sistema. Implementar algoritmo que permitan la navegación autónoma del dron Configurar el middleware ROS en la plataforma (si es posible). Implementar algoritmos que permitan la interpretación y análisis de los datos para la toma de decisiones. En esta fase, se implementará el sistema. Esto incluirá la integración de los sensores en la plataforma, la configuración del middleware ROS, y la programación de los algoritmos necesarios para la toma de datos y la autonomía del propio robot de acuerdo con la misión de aterrizaje y navegación autónoma. Fase 4: Validación Realizar pruebas de funcionamiento en condiciones controladas. Realizar pruebas de campo en entornos reales. Analizar los resultados de las pruebas. En esta fase, se realizarán pruebas para validar el correcto funcionamiento del sistema. Esto incluirá pruebas de funcionamiento en condiciones controladas y pruebas de campo en entornos reales y conducción autónoma.


CONCLUSIONES

Para el desarrollo de la problematica se utilizo el firmware ardupilot. Se investigó sobre todo el ecosistema mas famoso para el control de los drones. Resultados obtenidos: Para los resultados, se realizo todo por medio de una Raspberry pi 5, utilizando docker para el control de versiones y evitar errores por ser un sistema nuevo. En el apartado de la percepción y visión computacional se obtuvo la calibración de la camara. También se logró la detección de los codigos Arucu para el aterrizaje del dron En el ecosistema de ardupilot, su comunicación es por medio de Mavlink y existe una librería en python. Antes del proceso al dron real, se realizó todos los codigos en un  Software-in-the-loop. Donde el resultado fue satisfactorío y todo funcionaba Resultados por obtener: En el momento del uso de los comandos en el dron real, la configuración del dron y su armado funciono. Sin embargo, en el momento del vuelo no se logra. Por ende, existe detalles donde el dron no acceda al vuelo. El resultado que se debe obtener mas adelante, es el vuelo del drone de manera autonoma   
Arguello Hernandez Eduardo, Instituto Tecnológico de Matamoros
Asesor: Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas

DISEñO FACTORIAL BASADO EN SIMULACIóN


DISEñO FACTORIAL BASADO EN SIMULACIóN

Arguello Hernandez Eduardo, Instituto Tecnológico de Matamoros. Lopez Quintana Jesus Adrian, Instituto Tecnológico de Matamoros. Asesor: Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

En la industria de Autoliv Matamoros se manufacturan volantes, ya sea desde el esqueleto principal hasta el ensamblado del mismo volante, en las diferentes áreas y operaciones que se encuentran dentro de la empresa nos enfocaremos en el área de GMC (T1XX) la cual al transcurrir de los meses se ah notado una problemática con las líneas de producción, ya que al trabajar con talento humano se esta mas propenso a defectos de manufactura.Se detectaron problemáticas en una línea de producción, las cuales se resolverían con herramientas de Lean Manufacturing aplicándolas con un objetivo de maximizar la eficiencia de la línea y como ende un mejor resultado en cuanto a productividad.Los principales puntos críticos identificados son los siguientes.✓ Retrabajo✓ Tiempo muertoPrimeramente, tendremos en cuenta la producción base que tiene la línea es: 30 volantes por hora laboradaCon un tiempo de horas efectivas laboradas de 8 lo cual nos da un resultado de 240 volantes manufacturados por la línea de producción en un turno. Lo que se busca es agilizar el flujo de materia para llegar a los 30 volantes para poder aumentar su eficiencia en la línea y por ende un mayor aumento de producción con las mismas horas laboradas, para ello nos centramos en diferentes soluciones para poder incrementar la productividad lo cual vimos más factible una modificación de una operación, dentro de la línea se manejan 5 operaciones las cuales constan de:✓ Lijado✓ Montado✓ Engomado✓ Pegado✓ InspecciónPor ende, la operación de más impacto tiene en la línea de producción es la de pegado, ya que su proceso es el mas complejo y mas tiempo lleva, si la operación de pegado se retrasa afecta su producción considerablemente por lo cual buscaremos una mejora enfocándonos en esa operación.Se utilizará la herramienta de Lean Manufacturing PDCA la cual consiste en una serie de pasos realizados los cuales son:Planear: Paso principal para saber que es lo que se hará en la problemática observada para resolverla y mediante que mejoras, ajustes, modificaciones se harán, por lo cual realizaremos un ajuste en el proceso a partir de la operación de pegado el cual se observa un mal manejo de instrucción del trabajo quedando como consecuencia tiempo perdido y retrabajo en flujo mientras se procesa el material, es por ello que se detectó la raíz del problema y entre las soluciones pensadas la más factible y viable fue modificar el procedimiento de pegado obligándolos a no cometer ese error, prácticamente aplicando un poka-yoke en el procedimiento obligando al operador a efectuar bien la operación y sin errores, por ello tendríamos un buen procedimiento y agilizar el tiempo muerto el cual era uno de los puntos fuertes a tratar.Se aplicaría el cambio de la instrucción de trabajo, el como trabajar con el producto correctamente para así poder disminuir los tiempos de ejecución y evitando o disminuyendo los posibles retrabajos que se puedan generar durante el proceso, los cuales eran motivo de tiempo perdido.La siguiente etapa por realizar es comprobar, que en este paso del proceso analizaremos a detalle la línea de producción ya con todas las mejoras implementadas, sus pros, contras que se tuvo con ellas y ver como interactúa el proceso mediante se desarrolla y evoluciona con las modificaciones que en este caso fueron en el área de pegado. Por último, punto de esta herramienta es actuar, que veremos las posibles mejoras que podamos obtener como resultado de este proceso, como se vio satisfactorio el resultado no harán falta mas modificaciones en el proceso ni se hará falta volver al proceso natural que estaba ya implementado anteriormente, solo queda que el personal encargado se familiarice con el mismo para que se pueda trabajar de una manera más natural.  



METODOLOGÍA

Con apoyo del software ARENA SIMULATION fue indispensable usar esta simulación en la líneas reproducción ya que gracias a el simulador nos pudimos dar cuenta de cómo en realidad sería la producción con los cambios realizados y las mejoras tomadas en cuenta en base a la previa investigación que se realizó, gracias al simulador y su amplio catálogo de herramientas se pudo sustentar perfectamente la simulación de la línea, haciendo corridas para ver las diferentes etapas y movimientos que se pudieran hacer en cada una de las simulaciones para ver qué se podría mejorar o sustituir en el proceso, por ello cada variación que se dio en la línea se simuló hasta encontrar el mejor balance para la línea de producción y como consecuencia la mejoría de la misma.Sin embargo gracias a lo sucedido en el programa de simulación arena nos pudimos dar cuenta de errores que teníamos en la línea como la mejora de tiempos afectaba a otras operaciones consecuentes, es de suma importancia recalcar que el programa nos dio una amplia visión de lo que sucedería permitiéndonos enfocarnos en el proceso, para que al plasmar el trabajo en físico sea tal cual con los resultados favorables de la simulación.


CONCLUSIONES

Antes de las implementaciones y ajustes aplicadas en la línea de producción sus números fueron estos: Producción por hora: 30 volantes Producción por día: 240 volantes Producción por semana: 1200 volantesDespués de todo el procedimiento hecho para la mejora de la línea, el resultado fue el siguiente:Producción por hora: 33 volantes Producción por día: 264 volantes Producción por semana: 1320 volantes Se puede apreciar una eficiencia aproximadamente de 3 volantes gracias a las mejoras aplicadas en las instrucciones de trabajo del procedimiento, ayudando a tener una mejoría en la productividad de la línea, por día de 24 volantes y por semana 120 volantes, por ende resulto favorable el rehacer el procedimiento para su correcta ejecución.Por otra parte, gracias al software nos damos cuenta de ello y verificamos lo que previamente se teorizaba, gracias al simulador se pudo dar una mejora continua dentro de la línea haciendo ciertos cambios en operaciones ayudando a los puntos débiles de la línea de producción tanto el tiempo muerto como el retrabajo de material en la línea.
Arias Aguiñaga Jorge, Instituto Tecnológico de San Luis Potosí
Asesor: Mg. Clara Sarith Amaya Marmol, Universidad de la Guajira

DISEÑO DE UN SISTEMA DE DESALINIZACIÓN DE AGUA POR OSMOSIS INVERSA EN LA COMUNIDAD INDÍGENA CHONCHONPRIS #2 EN ZONA RURAL DEL DISTRITO DE RIOHACHA


DISEÑO DE UN SISTEMA DE DESALINIZACIÓN DE AGUA POR OSMOSIS INVERSA EN LA COMUNIDAD INDÍGENA CHONCHONPRIS #2 EN ZONA RURAL DEL DISTRITO DE RIOHACHA

Arias Aguiñaga Jorge, Instituto Tecnológico de San Luis Potosí. Duarte Pinto Felix Dario, Universidad Simón Bolivar. Morales Galván Irvin Rosendo, Instituto Tecnológico de San Luis Potosí. Asesor: Mg. Clara Sarith Amaya Marmol, Universidad de la Guajira



PLANTEAMIENTO DEL PROBLEMA

El problema que se plantea se centra en la escasez de agua que afecta a más del 40% de la población mundial, un fenómeno que no solo provoca dificultades en el acceso a agua potable, sino que también conlleva graves consecuencias, como la muerte de alrededor de 1000 niños al día debido a enfermedades diarreicas relacionadas con la falta de higiene (Naciones Unidas, 2018). A nivel global, el vertido del 8% de las aguas residuales sin tratamiento y la falta de acceso a servicios modernos de electricidad para 3000 millones de personas agravan la situación, especialmente en las zonas rurales aisladas que carecen de servicios básicos. En el contexto de Colombia, el 52% del territorio pertenece a Zonas No Interconectadas (ZNI), lo que dificulta el acceso constante y de calidad a la energía eléctrica para sus habitantes. Además, el 29% de la población colombiana reside en zonas rurales, donde el 48% no tiene acceso a una red de suministro de agua; dentro del 52% restante que sí cuenta con el acceso de agua, solo el 12% tiene suministro seguro para el consumo humano (Viceministerio de Ambiente, 2010; Mantilla, 2016; Bustos, 2014). El problema se agrava en el departamento de La Guajira, donde se han registrado un preocupante número de muertes en niños, asociadas a la desnutrición y enfermedades derivadas de ella. Además, La Guajira enfrenta una pobreza extrema, con una brecha significativa entre su situación regional y la nacional, de aproximadamente 4:1 (Departamento Administrativo Nacional de Estadística [DANE], 2020). Por lo tanto, es esencial abordar la falta de acceso a agua potable en comunidades indígenas que dependen de pozos subterráneos con agua salobre. Una solución viable podría ser la implementación de tecnologías de desalinización, como la osmosis inversa, para mejorar la calidad de vida de estas comunidades y mitigar este grave problema.



METODOLOGÍA

Durante el periodo del 17 de junio al 2 de agosto de 2024, se lleva a cabo el Programa Delfín, un programa orientado al desarrollo y la potenciación de la investigación en jóvenes de México, Colombia, Perú, Costa Rica, entre otros países latinos. Este programa busca acercar a los estudiantes de pregrados a experiencias de interculturalidad y crecimiento académico mediante la colaboración con docentes investigadores. El papel principal es apoyar en los proyectos que se vienen desarrollando a lo largo de un periodo determinado de tiempo, con el objetivo de publicar un artículo de investigación. En este caso, se trabajó en el diseño de un sistema de ósmosis inversa para una comunidad indígena en norte de Colombia, en el departamento de La Guajira, el desarrollo de esta parte del proyecto se realizó a través de una planificación semanal, la cual tiene una duración de casi dos meses, e inició con la caracterización de la comunidad a través del análisis estadístico de 3 encuestas; así mismo, se caracterizó el agua a la que tienen acceso por medio de 15 muestras, posteriormente con la información recopilada se continuó con el diseño de la planta mediante el modelado en los software WAVE y Fusion 360. Finalmente, se realizó una evaluación del impacto socioeconómico de la implementación de la planta en dicha población con la ayuda de un sondeo que busca determinar las intenciones de negocio de la comunidad a partir del agua potable.  Escogimos esta línea de investigación basándonos en nuestros conocimientos y en los requerimientos solicitados por la Maestra Clara Amaya, docente e investigadora de la Universidad de La Guajira, en Riohacha, Colombia. Así pues, comenzó una de las aventuras académicas más interesantes de nuestras vidas. Otro propósito fue compartir los conocimientos adquiridos a lo largo de dos años y medio de estudio, con los colegas de la Universidad de La Guajira, en Colombia, quienes también estudian ingeniería mecánica y al mismo tiempo nos fuimos adaptando a un nuevo contexto sociocultural, con el único objetivo del desarrollo constante de nuestro perfil como ingenieros.


CONCLUSIONES

La instalación de una planta de ósmosis inversa en Chonchonpris #2 no solo proporcionará acceso a agua potable, sino que también tendrá un impacto positivo en el contexto socioeconómico de la comunidad. Con un suministro constante y seguro de agua potable, se mejorará la salud general de los habitantes, especialmente de los niños, quienes son más vulnerables a las enfermedades transmitidas por el agua. Además, la reducción del gasto en la compra de agua potable liberará recursos económicos que pueden ser utilizados en otras áreas importantes como la educación, la alimentación y el desarrollo comunitario. Se espera que la implementación de una planta de ósmosis inversa en la comunidad indígena Chonchonpris #2 sea una medida esencial que atienda las necesidades críticas de agua potable, mejorando la salud pública y fortaleciendo el desarrollo socioeconómico de la comunidad.
Arias Rico Monserrath, Instituto Tecnológico de Morelia
Asesor: Dr. Diego Fernando Avendaño Rodríguez, Fundación Universidad de América

ENDURECIMIENTO POR DEFORMACIóN Y FRACTURA DE METALES


ENDURECIMIENTO POR DEFORMACIóN Y FRACTURA DE METALES

Arias Rico Monserrath, Instituto Tecnológico de Morelia. Asesor: Dr. Diego Fernando Avendaño Rodríguez, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

En este trabajo de investigación se analizó el endurecimiento por deformación de un acero laminado en frío. Este proceso implica que un material se vuelve más duro y resistente como resultado de una deformación plástica, donde su estructura cristalina cambia y genera defectos como dislocaciones que interfieren con el movimiento de otras dislocaciones, aumentando así la resistencia del material. Para llevar a cabo este estudio, se sometieron los materiales a ensayos destructivos, como el ensayo de tensión, con el objetivo de deformar plásticamente el material hasta la fractura y analizar los parámetros mecánicos obtenidos. Existiendo dos tipos de fractura: la fractura dúctil, que ocurre con una deformación plástica considerable,  y la fractura frágil, que sucede con poca o ninguna deformación plástica. El criterio de Hollomon es fundamental en esta investigación, proporcionando una relación empírica entre la tensión (σ) y la deformación (ε) para materiales que endurecen por deformación, expresada como: σ=Kϵ^n donde σ: es la tensión verdadera ϵ: es la deformación verdadera  K: es el coeficiente de endurecimiento n: es el exponente de endurecimiento. La determinación de estos parámetros es crucial, ya que ofrecen información valiosa sobre el comportamiento del material bajo deformación, permitiendo su caracterización, la selección adecuada de materiales y el diseño de procesos de fabricación como el conformado y el trabajo en frío. La curva esfuerzo-deformación permite predecir el comportamiento del material bajo diferentes condiciones de carga y deformación, contribuyendo a la seguridad y fiabilidad de estructuras y componentes al garantizar que el material no fallará inesperadamente bajo cargas operativas. El endurecimiento por deformación y la comprensión de la fractura son conceptos esenciales en la ciencia de materiales y la ingeniería mecánica. Evaluar los parámetros de endurecimiento mediante el criterio de Hollomon es vital para mejorar el comportamiento de los materiales en diversas aplicaciones industriales.



METODOLOGÍA

En esta investigación se utilizó una lámina de acero laminada en frío, de la cual se cortó una sección cuadrada de 5cmx5cm con un espesor de 16 mm para realizar la preparación metalográfica. Este proceso detallado incluye varios pasos críticos para asegurar que la superficie esté lista para la observación al microscopio. Primero, la sección cuadrada se divide en tres partes para observar distintas secciones de la lámina. Se utiliza una cortadora para cortar con exactitud y evitar deformaciones. Segundo, las secciones cortadas se montan en resina para facilitar su manipulación y protección. La resina se vierte en un molde con la muestra, eliminando burbujas de aire, y se deja curar según las especificaciones del fabricante. Para el desbaste, se usan lijas de agua de grano grueso (lija 80) a fino (lija 2000) alternando en 90 grados la dirección entre cada lija. Luego, en el pulido, se emplean paños y suspensiones de partículas abrasivas como alúmina de 1 µm para obtener una superficie plana y sin rayas. El ataque químico utiliza un reactivo (nital al 3% durante 9 segundos) para revelar la microestructura del acero. La muestra se enjuaga y seca después del ataque químico. La muestra se analiza bajo un microscopio óptico, donde la calidad de la preparación es crucial para la claridad de la observación. Posteriormente, se realizaron ensayos de tensión mediante correlación digital de imágenes (DIC), técnica avanzada para medir deformaciones y desplazamientos. Se cortaron probetas de la lámina inicial en direcciones de laminado, transversal y a 45 grados. Estas probetas se prepararon lijándolas y aplicándoles una pintura blanca mate y un patrón de puntos negros aleatorios para el contraste necesario en DIC. Para los ensayos de tracción, se montó el sistema DIC con cámaras de alta resolución. Las muestras se colocaron en una máquina universal de ensayos, asegurando su alineación y sujeción adecuada. Durante el ensayo, se capturó video para registrar la deformación de la superficie antes y durante la aplicación de la carga de tracción.


CONCLUSIONES

Valor promedio de UTS en dirección de laminación: 195.38 MPa,  desviación estándar: 20.49 Valor promedio de k en dirección de laminación: 265.27, desviación estándar: 39.89 Valor promedio de n en dirección de laminación: 0.25, desviación estándar: 0.04 Valor promedio de UTS en dirección transversal: 217.87 MPa, desviación estándar: 37.32 Valor promedio de k en dirección transversal: 321.51, desviación estándar: 65.08 Valor promedio de n en dirección de transversal: 0.31, desviación estándar: 0.07 Valor promedio de UTS en dirección de 45 grados: 218.63  MPa, desviación estándar: 45.2 Valor promedio de k en dirección de 45 grados: 367.74, desviación estándar: 106.61 Valor promedio de n en dirección de 45 grados: 0.34, desviación estándar: 0.08 En el análisis de las pruebas de tensión aplicadas a cinco probetas en tres direcciones diferentes, se observó que el valor promedio más alto de esfuerzo (218.63 MPa) corresponde al UTS, asociado a las probetas cortadas a 45 grados respecto a la dirección de laminación. Esto indica la resistencia del material antes de fracturarse. Además, los valores más altos del coeficiente de endurecimiento (K) y el exponente de endurecimiento (n) se encontraron también en las probetas cortadas a 45 grados, con valores promedio de 367.74 y 0.34, respectivamente. La ecuación de Hollomon, utilizada para determinar el comportamiento mecánico del material a partir de la curva esfuerzo-deformación, refuerza estos hallazgos. En conclusión, las probetas cortadas a 45 grados respecto a la dirección de laminación demostraron el mejor desempeño mecánico en comparación con las otras direcciones evaluadas.
Aristizábal Miranda Andrés Felipe, Universidad Autónoma de Occidente
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

DESARROLLO DE UN VIDEO JUEGO (USANDO C#, UNITY, ETC.) PARA AYUDAR A LAS PERSONAS CON AUTISMO


DESARROLLO DE UN VIDEO JUEGO (USANDO C#, UNITY, ETC.) PARA AYUDAR A LAS PERSONAS CON AUTISMO

Aristizábal Miranda Andrés Felipe, Universidad Autónoma de Occidente. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El proyecto consiste en desarrollar un videojuego educativo que, aunque no aborda explícitamente el Autismo durante la experiencia de juego, incluye un apartado informativo que proporciona a los jugadores recursos y enlaces confiables para aprender más sobre el tema. Este apartado, denominado "Acerca de", se enfocará en ofrecer información relevante y precisa sobre el Autismo, además de recomendaciones de sitios web seguros donde los jugadores puedan profundizar en su comprensión del tema. El objetivo principal es sensibilizar y educar a los jugadores de manera indirecta, facilitando el acceso a información veraz y útil.



METODOLOGÍA

Metodología Investigación Inicial: Formular una definición de Autismo a través de una revisión exhaustiva de la literatura y estudios actuales. Realizar un benchmarking de aplicaciones existentes que aborden la temática del Autismo para identificar enfoques y funcionalidades efectivas. Desarrollo del Videojuego: Elección del tipo de videojuego: Determinar el género y la estructura del juego basado en la investigación y objetivos educativos. Planeación de la estructura del videojuego: Diseñar los niveles, mecánicas y narrativa. Desarrollo del contenido: Incluir información relevante y educativa sobre el Autismo, asegurando que sea accesible y comprensible para todos los jugadores. Iteración y Pruebas: Prototipado y pruebas internas: Crear una versión inicial del juego para pruebas de concepto y ajustes. Mejoras y Ajustes Finales: Implementar mejoras basadas en los comentarios de las pruebas de usuario, optimizando la jugabilidad y el contenido educativo.


CONCLUSIONES

El proyecto del videojuego educativo tiene el potencial de ser una herramienta poderosa para la sensibilización sobre el Autismo. A través de su desarrollo, se busca no solo educar a los jugadores, sino también promover la empatía y la comprensión hacia las personas con Autismo. Se espera que el juego sea accesible y atractivo para una audiencia amplia, y que se utilice como recurso educativo en diversas plataformas.
Armas Coeto Alejandro, Universidad Popular Autónoma del Estado de Puebla
Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)

MODELADO MATEMáTICO DE UN DRON


MODELADO MATEMáTICO DE UN DRON

Armas Coeto Alejandro, Universidad Popular Autónoma del Estado de Puebla. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Desde su llegada, los cuadricópterores han significado una nueva oportunidad en el desarrollo de alternativas para transporte y entrega de pedidos, ya que gracias a su estabilidad, tamaño y facilidad de control frente a otros vehículos aereos ha crecido el interes de empresas como Amazon, Google, DHL, entre otras, por integrar estos vehículos en la logística de sus entregas  (Hassanalian & Abdelkefi, 2017).. Sin embargo, una de las problemáticas más grandes a las que se enfrentan es la fiabilidad y seguridad de estos vehículos, pues al considerar entregas en zonas urbanas es fundamental garantizar la integridad de las personas, su propiedad y la del propio dron. Es por eso que surge la necesidad establecer una base firme alrededor de la comprensión del funcionamiento del drón en base a funciones matemáticas que posteriormente sirvan para contruir un control de tipo PD que nos permita visualizar el comportamiento y resultados del dron en el cumplimieto de un objetivo.



METODOLOGÍA

Supervisor: Alejandro Armas Coeto Fase 1: Revisión de la documentación y estudio del modelo matemático del dron. Durante esta fase se realiza la revisión de toda la documentación proporcionada por el investigador con el fin de entender el modelo y como este explica el funcionamiento del dron. Durante esta fase el investigador realiza monitoreos constantes para brindar orientación y asesoramiento de los principios físicos y matemáticos que rigen al dron. Fase 2: Implementación del modelo matemático en una simulación en Mathlab Se hace uso de la documentación para la modelización del dron en un entorno de simulación y diseño basado en MATLAB(Simulink) Durante el proceso de modelización se toma como referencia el diagrama proporcionado en la documentación empleando bloques que representan la ejecución de las funciones del modelo matemático. Se monitorean los resultados de la simulación y se corrigen los errores son corregidos hasta recibir una respuesta estable. Fase 3: Implementar una ley de control de altura y orientación Con apoyo del investigador se realiza una revisión de los principios básicos del control para posteriormente realizar su implementación en la simulación. Con ayuda de la simulación se experimenta variando las ganancias del controlador hasta obtener una respuesta y sin tanto sobreimpulso. Para el caso del control de altura se espera una respuesta de hasta 3 segundos para alturas desde dos metros y una respuesta cercana a 0.1 segundos para el control de orientación. Fase 4: Implementar una ley de control de posición El asesor brinda asesoramiento para comprender el funcionamiento del control de posición tomando como base el trabajo realizado hasta el momento. Implementación del control de posición Análisis de resultados y correción de errores.    


CONCLUSIONES

Durante la estancia logré adquirir conocimientos que me serán de gran ayuda más adelante en mi licenciatura, además de permitirme visualizar una implementación real de las matemáticas y la física en un vehículo con mucha versatilidad. La forma en la que se trabajo y la orientación brindada por investigador me permitió explorar diferentes formas de cumplir con los objetivos, además de darme la oportunidad de ser más analítico a la hora de resolver problemas o errores presentados durante la simulación. Esta estancia ha logrado provocar que sea consciente de las aplicaciones así como el crecimiento de la industría en el area de los drones autónomos. Considero que aun hay mucho que explorar y que despues de ser testigo del trabajo del investigador puedo decir que los avances se están realizando ahora mismo.  Resultados obtenidos: Mediante la herramienta Simulink se realizaron varias pruebas del modelo dinámico del dron. Durante estas pruebas se hallaron varios errores que generaban inestabilidad en el drón así como respuestas muy lentas, por ello fue necesario realizar una revisión de las funciones utilizadas donde se pudo identificar que debido a errores realizados al momento de trasladar las funciones a la simulación, los empujes se encontraban acoplados lo que provocaba la desestabilización del dron al intentar responder a las indicaciones del control de altura. Una vez resuelto el error fue posible obtener respuestas de 3 segundos para el control de altura y de 0.3 para el control de orientación.  Resultados por obtener: Tras poner a prueba el control de posición la herramienta Simulink no respondia o daba respuestas con muchos sobreimpulsos, es por eso que es necesario realizar una revisión de las funciones utilizadas asi como mejorar su eficiencia para obtener una respuesta estable.   
Arnaud Castañeda Karina, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

DIAGNóSTICO PARA LA IMPLEMENTACIóN DE RESPONSABILIDAD SOCIAL (ISO 26000)


DIAGNóSTICO PARA LA IMPLEMENTACIóN DE RESPONSABILIDAD SOCIAL (ISO 26000)

Arnaud Castañeda Karina, Instituto Tecnológico Superior de Uruapan. Gutiérrez Palacios Julissa, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

En el entorno empresarial actual, la Responsabilidad Social Empresarial (RSE) se ha convertido en un factor crucial para el desarrollo sostenible de las organizaciones. Las empresas son cada vez más conscientes de la importancia de integrar prácticas responsables que aborden aspectos sociales, ambientales y económicos en sus operaciones diarias. En este contexto, una empresa ha solicitado la realización de un diagnóstico de su desempeño en términos de RSE, con el objetivo de implementar un sistema de gestión de responsabilidad social corporativa que promueva la sostenibilidad y el bienestar de todas las partes interesadas. La empresa en cuestión opera en un sector altamente competitivo y en este momento los clientes de la empresa ya tienen como requisito para aceptarlos como proveedores es ser una empresa socialmente responsable. Aunque la empresa ha adoptado algunas prácticas responsables, no cuenta con un diagnóstico integral que le permita evaluar su desempeño actual ni con un sistema formal de gestión de responsabilidad social corporativa.



METODOLOGÍA

El proyecto utiliza como metodología un enfoque descriptivo, analítico y documental, en el cual se utilizaron métodos cualitativos y cuantitativos para la evaluación en materia de responsabilidad social. En la recolección de datos, se utilizan técnicas como entrevistas a directivos y supervisores. Los datos obtenidos serán analizados con herramientas estadísticas y gestión documental de la información, la cual servirá como base para la elaboración de un plan de acción que permita a la empresa mejorar su desempeño en materia de responsabilidad social, con los lineamientos de la ISO 26000. Materiales. Documentación de la empresa:  Código de Ética y Conducta. Documentos, procedimientos, instructivos y formatos de áreas como: Revisión por la dirección, ventas, APQP, compras, desarrollo humano e informática. Manuales del SGSST & SGA. Herramientas de recopilación de datos: Formulario de evaluación de documentos. Software de análisis de datos (Excel). Programas de diseño par la presentación de resultados (PowerPoint). Equipo: Computadora con acceso a la documentación y herramientas de análisis. Métodos. Preparación para el diagnóstico: Revisión de la ISO 26000 para familiarizarse con lo requisitos de la guía. Recopilación de datos cualitativos y cuantitativos: Entrevista con el personal clave. Análisis de datos: Análisis de datos cualitativo (Codificación de las entrevistas, identificación de la documentación de cumplimiento y propuestas) Análisis de datos cuantitativos (Consolidación de los datos obtenidos en gráficos y tablas para visualizar el cumplimiento) Elaboración de gráficos y reporte final: Creación de gráficos de barras porcentuales para representar el nivel de cumplimiento de cada capitulo de la norma ( 4 a 7). Realizó un Plan de acción para cubrir todos los puntos de la ISO 26000. Redacción del informe técnico final.


CONCLUSIONES

La empresa posee un 28% de cumplimiento en materia de responsabilidad social de acuerdo al diagnóstico aplicado, se observa que el capitulo donde existe menor cumplimiento es el 5 y donde posee mayor cumplimiento es el capítulo 6. Los resultados del diagnóstico fueron  analizados mediante una técnica tipo semáforo donde el color verde representa que cumple, el amarillo que cumple parcialmente y el color rojo que no cumple. Se puede concluir que la empresa no cumple en totalidad con los requisitos de la guía ISO 26000. Los puntos en los que la empresa cumple parcialmente son porque no se hacen ciertas declaraciones, no se tienen documentados los procedimientos o por la falta agregar el contexto de la sociedad, una parte importante de la guía. Por lo cual se realizó un plan de acción para que la empresa pudiera tener la información de que pasos tenía que tomar para cumplir en su totalidad con la norma.
Aros Aros Amaya Brian Sneyder, Universidad Santo Tomás
Asesor: Post-doc Jose Agustín Vallejo Borda, Universidad de Investigación y Desarrollo

APLICACIóN DE LA JERARQUíA DE NECESIDADES DE MASLOW: UN ENFOQUE PARA MEJORAR LA HABITABILIDAD EN BOGOTá


APLICACIóN DE LA JERARQUíA DE NECESIDADES DE MASLOW: UN ENFOQUE PARA MEJORAR LA HABITABILIDAD EN BOGOTá

Aros Aros Amaya Brian Sneyder, Universidad Santo Tomás. Asesor: Post-doc Jose Agustín Vallejo Borda, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

La jerarquía de necesidades de Abraham Maslow proporciona una herramienta crucial para la planificación urbana, particularmente en el contexto de ciudades como Bogotá. La teoría de Maslow organiza las necesidades humanas en niveles que van desde las más básicas, como la vivienda y el acceso a alimentos y agua, hasta las más avanzadas, como la autorrealización. En Bogotá, aplicar esta jerarquía permite identificar y priorizar las áreas de desarrollo urbano, empezando por satisfacer las necesidades fisiológicas esenciales y luego abordando aspectos de seguridad, pertenencia y estima. Esto implica mejorar la infraestructura básica, garantizar seguridad y estabilidad económica, y fomentar la cohesión social a través de espacios comunitarios y oportunidades educativas y profesionales.



METODOLOGÍA

Para llevar a cabo una investigación que aplique la jerarquía de necesidades de Maslow a la planificación urbana en Bogotá, se puede seguir una metodología estructurada que permita una evaluación detallada de cómo las distintas necesidades afectan la calidad de vida en la ciudad. A continuación, se describe una la metodología implementada para este estudio que buscó la construcción de literatura referente al tema de aplicación que busca estudiar y consolidar teorías y estudios previos sobre la aplicación de la jerarquía de Maslow en el contexto urbano y la planificación de ciudades. 1) Busqueda de las fuente de información: Artículos académicos, libros y estudios de caso relevantes a la aplicación. 2) Análisis y filtro de la información obtenida de las fuentes recolectadas, se recurrio al uso de herramientas de análisis de datos como R (bibliometrix), herramientas de tipo online como researchrabbit y  consensus. 3) Información obtenida  y clasificada que permite dar un mejor análsis sobre los datos obtenidos.


CONCLUSIONES

A pesar de la amplia aplicación de la teoría de Maslow, su uso en la planificación urbana y el poder comprender su aplicación aun sigue siendo limitado, especialmente en contextos latinoamericanos como Bogotá. Esta investigación busca llenar ese vacío, proporcionando un marco teórico y práctico al evaluar cómo las distintas necesidades humanas afectan a los residentes de Bogotá, el estudio pretende ofrecer estrategias para diseñar una ciudad que mejore integralmente la calidad de vida, promoviendo un entorno más equilibrado y orientado al bienestar de la población.
Arras Ornelas Joana, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Jeovany Rafael Rodriguez Mejia, Instituto Tecnológico de Ciudad Juárez

METODOLOGIA PARA EL MODELADO, SIMULACION Y SELECCION DE MATERIALES EN PROCESOS DE MANUFACTURA DE SEMICONDUCTORES MEDIANTE SOFTWARE


METODOLOGIA PARA EL MODELADO, SIMULACION Y SELECCION DE MATERIALES EN PROCESOS DE MANUFACTURA DE SEMICONDUCTORES MEDIANTE SOFTWARE

Arras Ornelas Joana, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Jeovany Rafael Rodriguez Mejia, Instituto Tecnológico de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Los acelerómetros MEMS utilizan la física de un resorte y un amortiguador para medir la aceleración. Al experimentar una aceleración, la masa en el resorte se desplaza, lo que provoca una variación en la capacitancia o la resistencia eléctrica. Esta variación se mide y se convierte en una señal eléctrica que puede interpretarse como una medida de la aceleración. Las principales aplicaciones del acelerómetro son: 1.         Tecnología de consumo: Estos acelerómetros son comunes en teléfonos inteligentes y tabletas, donde son esenciales para rotar la pantalla, jugar videojuegos y aplicaciones de navegación. Además, se utilizan en consolas de videojuegos para detectar el movimiento del controlador. 2.         Automoción: En vehículos, se usan para medir la fuerza de los impactos en los sistemas de airbag, mejorar la estabilidad del vehículo, y como parte de los sistemas de navegación inercial. 3.         Medicina: En el ámbito médico, se utilizan en dispositivos implantables como marcapasos y desfibriladores para monitorear el movimiento del cuerpo y adaptar el ritmo cardíaco en consecuencia. El proceso de fabricación de un acelerómetro MEMS es altamente sofisticado e implica técnicas de micro maquinado para producir las estructuras microscópicas. Estos procesos incluyen la deposición de capas delgadas, el grabado para crear las estructuras mecánicas, y la integración de circuitos electrónicos.



METODOLOGÍA

El diseño fue desarrollado en el programa SolidWorks 2021 el cual tiene una estructura tipo acelerómetro capacitivo Inter digitado. Masa inercial con barras de 3 mm de largo, 3 mm de ancho y 48 mm de alto con una separación de 10 mm entre si conectados por una barra de 3x151 mm. En cada extremo tiene una estructura tipo flecha con una base de 99 mm con lados  de 54 mm cada uno. 2 muelles de barras los cuales van fijos a los extremos de las puntas de la masa inercial de 3 mm largo, 3 mm de ancho y 100 mm de alto. 4 anclas para masa de referencia estos se encuentran fijos en cada extremo de los muelles miden 7 mm de largo, 15 mm de ancho y 2 mm de alto. 16 electrodos de capacitor 1 estructura tipo L con medidas de 4.6 mm en la parte superior, 1.6 mm en la parte inferior y 3mm de ancho. 16 electrodos de capacitor 2 estructura tipo L con medidas de 4.6 mm en la parte superior, 1.6 mm en la parte inferior y 3mm de ancho. Base de 170 de largo, 10 mm de ancho y 115 mm de alto donde se ensamblarán los electrodos (dos en cada espacio mencionado entre las barras) y los muelles. Al finalizar el diseño del acelerómetro se importó el diseño al programa ANSYS del cual solo se sometió el subensamble de la masa inercial para las pruebas a elegir. La maya para cada pieza fue de 1 mm y se le asignaron 4 soportes fijos a la estructura ubicados en la parte trasera de las anclas. Para las primeras pruebas se le aplico una fuerza de 1 Newton en la coordenada Z de la masa inercial. Finalmente las pruebas seleccionadas fueron la total deformación de la pieza y el estrés equivalente. Asimismo para explicar mejor el proceso se diseñaron 4 capas tipo lego con materiales distintos para demostrar el proceso de un micro maquinado. Todas las capas son de 100 mm de largo, 50 mm de ancho y 15 mm de alto. La asignación  de materiales fueron  las siguientes: La primer capa se le asigno el material de silicio. La segunda capa se le asigno el material de nitruro de silicio. La tercera capa se le asigno el material de Oxido-Sacrificio. La cuarta capa se le asigno el material de Polysilicio. Una vez diseñadas las capas se importaron al programa Ultimaker Cura para imprimirlas en 3D con el filamento PETG.


CONCLUSIONES

En el caso de la total deformación los resultados arrojaron que la máxima deformación es 1.5047e-002 mm y el mínimo de 0 mm. La máxima deformación se concentra en el centro de la pieza y el comportamiento de la estructura es que la pieza se comienza a doblar formando una campana pero sin afectar a los muelles. En el caso del estrés equivalente los resultados arrojaron que el máximo estrés es de 2.3264 Mpa y el mínimo de 9.8827e-6 Mpa. El máximo estrés se concentra en la conexión entre la masa inercial y los muelles así como también en la barra central de la masa inercial. La pieza tiene el mismo comportamiento que en la prueba anterior. Las piezas obtenidas en la impresora 3D nos sirvieron bastante para comprender el micro maquinado de estos componentes. En conclusión, la selección de materiales para la fabricación de un componente es de suma importancia ya que si sabemos jugar con estos materiales podemos obtener maquinados a bajo costo con productos de calidad así como el uso de estos programas nos ayuda a tener una idea de como será el comportamiento de estas piezas y materiales lo cual nos ahorra tiempo, dinero y nos ayuda a llegar a la mejor opción para la fabricación de los componentes.
Arredondo Armenta Luis Alberto, Instituto Tecnológico de Culiacán
Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional

APRENDIZAJE AUTOMáTICO PARA ANALIZAR EL COMPORTAMIENTO DEL MERCADO FINANCIERO.


APRENDIZAJE AUTOMáTICO PARA ANALIZAR EL COMPORTAMIENTO DEL MERCADO FINANCIERO.

Arredondo Armenta Luis Alberto, Instituto Tecnológico de Culiacán. Escobar Candelaria Francisco Damián, Universidad Autónoma de Chiapas. Proa Arias Alejandro, Instituto Tecnológico de Culiacán. Tapia Pérez Fernando, Instituto Tecnológico de Culiacán. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el mundo moderno, los temas financieros tienen una importancia crucial; las inversiones representan una gran oportunidad para quienes poseen los conocimientos adecuados. Sin embargo, en México, estos son poco explorados y la población muestra escaso interés en aprender siquiera las bases de este ámbito. Por ello, consideramos que este proyecto es una excelente oportunidad para aumentar su visibilidad y fomentar el interés por aprender más sobre ellos entre un mayor número de personas. Asimismo, actualmente el uso del aprendizaje automático se encuentra en su mayor auge, permitiendo realizar procesos sin la intervención directa de una persona. Nuestro proyecto se propone integrar ambos aspectos: la educación financiera y el aprendizaje automático; siendo sus principales objetivos resaltar la importancia de ambos, y demostrar cómo su combinación puede generar un proyecto de muy alta relevancia. El objetivo es desarrollar herramientas y métodos avanzados de predicción aplicados a la bolsa de valores para estimar los valores que tomará en el futuro y ser capaces de llevar a cabo recomendaciones de inversiones. Esto último siendo valioso tanto para usuarios experimentados como para principiantes, fomentando la cultura de la inversión, como medio de crecimiento financiero paralelo.



METODOLOGÍA

Se utilizó la biblioteca de funciones Yfinance para descargar los datos históricos de las acciones de Apple© desde 1980 hasta 2024 con el objetivo de usarlos como datos de entrenamiento para la red neuronal. Del conjunto de datos presentados anteriormente se utilizó únicamente la columna High, que representa los valores más altos que alcanzaron sus acciones cada día. Se hicieron dos subdivisiones para ajustar la red neuronal: Desde 1980 hasta el 2019 para los datos de entrenamiento y desde 2020 hasta 2024 para hacer predicciones. Desde 1980 hasta el 2021 para los datos de entrenamiento y desde 2022 hasta 2024 para hacer predicciones. La primera esperando probar su funcionamiento ante la cambiante situación de la bolsa de valores en la pandemia, y la segunda para el entorno posterior a esta. Primero que nada, se hace un preprocesamiento de los datos primero haciendo una normalización de 0 a 1 para que la función de activación pueda usar los datos de mejor manera y después de esto se mide la longitud de los datos para hacer secuencias de entrenamiento y con estos mismos entrenar la red neuronal, por último, se remoldan los datos para que así sean más compatibles con el modelo de red neuronal recurrente o en este caso con el modelo LSTM. Posteriormente se diseñó una red neuronal de 1 entrada, 1 capa de 50 neuronas y 1 salida, entrenando a la red por 100 épocas con un tamaño de lote de 32. Finalmente, se utilizaron los datos destinados a realizar predicciones para este mismo propósito, con el fin de verificar la precisión y la eficiencia de la red neuronal, obteniendo una serie de resultados que intentaron predecir los valores de la acción en ambos periodos de tiempo, dados sus datos de entrenamiento; estos resultados fueron utilizados para calcular su error cuadrático medio, y a su vez fueron graficados con relación a los valores reales para su comparación visual.


CONCLUSIONES

Al desarrollar la metodología de nuestro proyecto se obtuvieron un par de gráficas en la que se observó que la predicción de nuestra red neuronal es muy parecida al precio real, únicamente presentando un leve desfase por usar solo el valor más alto de el set de datos de entrenamiento y no tomar en cuenta las fechas de estos precios, por lo que después de sacar el error cuadrático medio, y comparando la predicción con el valor real, obtuvimos que nuestra red neuronal tiene una eficiencia de alrededor de 78.79%, siendo un valor bastante positivo para nuestro objetivo, ya que es capaz de dar una noción de los valores que la acción tomará en el futuro, algo que le brinda una cualidad de consejero en el área de las inversiones. Es así como se logró desarrollar una versión temprana del proyecto, la cual consiste en un sistema que utiliza una red neuronal entrenada con datos históricos de la empresa Apple©. Este sistema predice los futuros movimientos financieros de la empresa en la bolsa de valores. La predicción se presenta en una gráfica para facilitar su visualización por parte del usuario. La precisión de la predicción es bastante buena dentro de lo posible, aunque no es perfecta debido a la complejidad y volatilidad del mercado bursátil. No obstante, es capaz de ofrecer al usuario una orientación sobre qué empresas podrían experimentar subidas o bajadas en su valor. Se tiene previsto que en futuras versiones del proyecto se desarrolle una interfaz de usuario, algo que permitirá que la herramienta sea utilizada como una aplicación en diferentes dispositivos. De este modo, tras las exhaustivas investigaciones realizadas por el equipo para llevar a cabo este proyecto, se ha adquirido un conocimiento considerable sobre el mercado de las inversiones y el aprendizaje automático. Dado que los miembros del equipo no contaban con formación profesional en finanzas ni en el uso de inteligencia artificial, todos han adquirido nuevos conocimientos en estas áreas. Estos conocimientos serán valiosos no solo para continuar con este, sino también para futuros proyectos, y potencialmente, para quienes decidan adentrarse en el campo de las finanzas o la inteligencia artificial.
Arredondo Frias Arturo, Instituto Politécnico Nacional
Asesor: M.C. Eloy González Villeda, Universidad Tecnológica de Huejotzingo

METROLOGÍA DIMENSIONAL DIGITALIZADA


METROLOGÍA DIMENSIONAL DIGITALIZADA

Arredondo Frias Arturo, Instituto Politécnico Nacional. Asesor: M.C. Eloy González Villeda, Universidad Tecnológica de Huejotzingo



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del Problema El sector manufacturero en México, particularmente en las industrias automotriz y mecánica, es un componente clave de la economía nacional. Muchas empresas que operan como proveedores de componentes para grandes ensambladoras enfrentan retos importantes relacionados con el control de calidad de sus productos. Estas empresas, que varían desde pequeñas y medianas hasta grandes corporaciones, se encuentran en diferentes niveles de desarrollo tecnológico y capacidad operativa. Una problemática recurrente es la falta de equipos avanzados de medición y control de calidad, así como de personal con conocimientos especializados en estas áreas. Esta carencia puede llevar a dificultades para cumplir con los estrictos estándares de calidad exigidos por los clientes principales, afectando la competitividad y la integridad de la cadena de suministro. En el contexto nacional, algunas empresas poseen tecnologías avanzadas, como Máquinas de Medición por Coordenadas (CMM) tradicionales, mientras que otras aún dependen de instrumentos de medición más básicos. Las empresas que utilizan CMM tradicionales a menudo enfrentan desafíos al medir objetos de forma rápida y no invasiva, especialmente cuando estos presentan geometrías complejas, como agujeros o superficies delicadas. Para responder a estas necesidades, se busca implementar soluciones de medición digital, como la utilización de escáneres 3D, equipos de cómputo y personal capacitado, lo cual permite realizar mediciones avanzadas. Esta iniciativa puede apoyar a las empresas en la mejora de sus procesos de control de calidad, ofreciendo una alternativa moderna y eficiente para la inspección y validación de componentes.



METODOLOGÍA

Metodología La investigación se centrará en analizar la implementación de tecnologías de medición digital mediante el estudio de caso de la comparación entre un modelo de superficies CAD y una malla generada por un escáner 3D de un herramental denominado "troquel", dividido en dos partes conocidas como "Matriz" y "Punzón". La metodología se desarrollará en las siguientes etapas: Construcción de Superficies CAD: Se creará un modelo matemático de las piezas en el programa de diseño paramétrico CATIA, basado en mediciones analógicas con instrumentos tradicionales. Este modelo se utilizará para comparar con las mallas generadas por el escáner 3D. Selección de la Pieza antes del Escaneo: Se seleccionaron piezas que cumplieran con las especificaciones del escáner EinScan Pro, evitando superficies que puedan interferir con la calidad del escaneo, como objetos con vibraciones, agujeros pequeños y profundos, o superficies altamente reflectantes. Se realizaron procesos adicionales para reducir la reluctancia de las piezas. Preparación de la Superficie y Aplicación de Pintura Plástica Removible: Se limpió la superficie del objeto para eliminar óxido y contaminantes. Se aplicó una pintura especial para mejorar la captura de datos durante el escaneo, y se colocaron marcadores para facilitar la alineación y precisión del escaneo. Procedimiento de Escaneo, Edición y Alineación de Datos: El escaneo se realizó en modo fijo, capturando toda la superficie del objeto. Se eliminaron datos no deseados y se realizó la alineación utilizando los marcadores. Generación de la Malla y Almacenamiento de Datos: A partir de la nube de puntos generada, se creó una malla que refleja la superficie del objeto. La malla final se almacenó en formato ".stl" para su análisis posterior. Comparación entre CAD y Malla: Se utilizó el software GOM Inspect Suite para comparar la malla con el modelo CAD, visualizando discrepancias y analizando desviaciones.


CONCLUSIONES

Conclusión La implementación de tecnología de medición digital, como el uso de escáneres 3D, ofrece ventajas significativas sobre los métodos tradicionales en el sector manufacturero. La precisión y rapidez en la captura de datos permiten obtener modelos tridimensionales detallados y exactos de las piezas, superando las limitaciones de los métodos tradicionales, especialmente en geometrías complejas. El uso de escáneres 3D minimiza el margen de error humano y permite una inspección más exhaustiva de las piezas, identificando desviaciones mínimas respecto al modelo CAD original. Esto es crucial para cumplir con los estándares de calidad en industrias como la automotriz y la mecánica. Además, estas mediciones no invasivas preservan la integridad de las piezas inspeccionadas, beneficiando a componentes delicados o con acabados especiales. La digitalización de la metrología dimensional contribuye significativamente a los Objetivos de Desarrollo Sostenible (ODS), especialmente al ODS 9: Industria, Innovación e Infraestructura. La adopción de tecnologías avanzadas de medición no solo mejora la calidad y eficiencia en los procesos de producción, sino que también impulsa la innovación y modernización del sector manufacturero, permitiendo a las empresas mantenerse competitivas en un mercado globalizado.
Arriaga Piña Laura, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

PLAN DE NEGOCIOS PARA UNA EMPRESA DE COSMETICOS ARTESANALES: PLAN OPERACIONAL, ORGANIZACIONAL Y FINANCIERO.


PLAN DE NEGOCIOS PARA UNA EMPRESA DE COSMETICOS ARTESANALES: PLAN OPERACIONAL, ORGANIZACIONAL Y FINANCIERO.

Arriaga Piña Laura, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

La industria cosmética está cada vez más enfocada en la tecnología y en que entre menos mano de obra se ocupe es mejor, para bajar costos y con ello la producción acelerada de los productos, dejando a un lado la calidad y el importante trabajo artesanal. La mayoría de las personas piensan que crear un nuevo negocio es algo sencillo y con ello se tiene la fe de que este tenga éxito, sin embargo, para que esto suceda se debe elaborar un plan de negocios. Es por ello que la empresa Nature GLEM está enfocada en realizarlo. El tema de un Plan de Negocios enfocándose en el diseño de la parte operativa y organizacional es indispensable para desarrollar el proyecto y claro sin olvidar lo importante que es tener bien claro tu presupuesto. Con esto se generará una visión diferente de la empresa, ya que la mayoría de veces se piensa que con tener ventas todo está correcto, y no la parte más importante que es la interna. Se pretende adquirir las habilidades organizacionales-operativas que se requieren para el funcionamiento adecuado, conforme se vaya avanzando desarrollaremos estrategias para seguir adelante en el proyecto y así mismo dar por terminada la organización de la empresa.



METODOLOGÍA

La empresa Nature GLEM se enfoca en realizar productos artesanales tales como el jabón de uso cosmético el cual está hecho principalmente de glicerina de origen vegetal junto con otros ingredientes como la avena y miel, la empresa busca introducirse al mercado para fomentar el uso de estos productos para así apoyar la economía local, pero para que esto suceda se necesita en un principio tener bien definida las áreas que ocupara la empresa, presupuestos y organización. Por ello sabemos que detrás de una empresa exitosa, esta una planeación y organización muy bien definida, la cual, dará lugar en el mercado. Antes de lanzarse al mercado, se debe estudiar y observar con claridad cada aspecto tanto interno como externo, esto para que a la hora de salir a la industria tengas todo organizado y haya menor posibilidad de que tu empresa se vaya a la quiebra.  Es necesario conocer lo que el consumidor quiere y sus necesidades, por tal motivo, es justo el llevar a cabo un estudio de mercado. Dentro de nuestra planeación es necesario conocer aspectos financieros esenciales como el punto de equilibrio, costos fijos y variables, así como materiales para hacer efectiva la producción en una mayor escala, además, realizar una proyección de ventas aproximada a la realidad. Para iniciar esta investigación se tomo como base proyectos realizados anteriormente en diferentes materias, con la información que ya se contaba se inició la redacción de los puntos a tratar haciendo así el trabajo menos pesado. Una vez iniciado el proyecto se continuó investigando en diferentes fuentes bibliográficas, así como también en sitios web con el fin de informarnos acerca de las tendencias y lo que las personas están utilizando para satisfacer sus necesidades. Iniciando con el Plan operativo el cual es muy importante para saber cómo funcionara la empresa, es un mapa detallado de tu empresa el cual describe cada acción que llevara a cabo tu equipo de tal manera que este proceso evite problemas y por supuesto perdidas a corto y largo plazo. En este encontramos información desde el proceso de elaboración del producto hasta el lugar en donde se llevará a cabo el proceso de producción. Para diseñar las instalaciones nos basamos en la metodología systematic layout planning (SLP) diseñado por Richard Muther en 1968, esta nos permite resolver problemas de distribución de planta, esta utiliza criterios cuantitativos para diseñar una distribución con el fin de aumentar el nivel de productividad y reducir costos en la empresa, debido a que es una micro-empresa es acomodo y y la distribución de cada área se ha hecho más fácil.


CONCLUSIONES

En conclusión, el equipo de trabajo debe conocer la organización y operación de la empresa para que se puedan desenvolver en sus áreas correctamente y se vea reflejado en los resultados de producción y ventas, así como en la satisfacción del cliente. La realización de esta investigación ayudara para que las personas se concienticen sobre la importancia que tiene desarrollar el Plan de Negocios, se pretende que obtengan un amplio conocimiento respecto a la elaboración de los productos artesanales y todo el proceso para poder realizarlos. Por lo tanto, el Plan de Negocios, proporciona al empresario elementos para tomar cualquier decisión respecto a la organización describiendo lo que se tiene pensado hacer, planteando objetivos a corto y largo plazo, estudios de mercado, la inversión y como lograr que la empresa sea rentable, haciendo uso de información y análisis adecuados para ayudar en su crecimiento.
Arriaga Rodríguez Johana Nathalie, Universidad Autónoma de Tamaulipas
Asesor: Dr. Leopoldo Asael Garza Alvarado, Universidad Autónoma de Tamaulipas

ANáLISIS DE AGRUPACIONES DE ANTENAS EN GEOMETRíA FRACTAL


ANáLISIS DE AGRUPACIONES DE ANTENAS EN GEOMETRíA FRACTAL

Arriaga Rodríguez Johana Nathalie, Universidad Autónoma de Tamaulipas. Asesor: Dr. Leopoldo Asael Garza Alvarado, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Una agrupación de antenas tiene la finalidad de transmitir o recibir información. Ahora bien, la alta demanda en las telecomunicaciones requiere de diseños que aseguren la transmisión eficiente de la información, por lo que, en cada diseño propuesto de agrupaciones de antenas es importante considerar el orden y distribución de cada uno de sus elementos, debido a que esto puede impactar favorablemente, o no, en el diagrama de radiación de la agrupación, en el cual se busca obtener un ancho de haz angosto (BW) y un nivel bajo de los lóbulos laterales (SLL), para que la agrupación presente características directivas y no cause interferencias a sistemas de comunicación cercanos. Las agrupaciones de antenas con geometría fractal se han destacado por contar con propiedades que las hacen óptimas en las comunicaciones inalámbricas como aplicaciones multibanda y multi-haz. Por ello, durante el verano de investigación se examinó el comportamiento de la geometría fractal de Eisenstein y se optimizaron las amplitudes de los elementos de antena mediante un algoritmo genético básico, ya que este modelo fractal presenta mejor respuesta comparado con las agrupaciones bidimensionales convencionales.



METODOLOGÍA

Empleando programación básica se representaron gráficamente 3 modelos de agrupaciones de antenas bidimensionales: una uniforme, una no uniforme basado en el dominio Eisenstein y una agrupación fractal de tipo Eisenstein, donde cada una sigue un método distinto para la generación de posiciones de antenas. Para la agrupación uniforme, se crea una retícula cuadrada de M x N elementos agrupados ortogonalmente en un plano complejo, con una separación de 0.5 veces la longitud de onda. Luego, se cambian las posiciones de cada elemento, siguiendo la ecuación de los números enteros de Eisenstein, formando así una retícula triangular bajo el dominio Eisenstein. La agrupación fractal de Eisenstein toma como base la retícula triangular, pero, en cada etapa de crecimiento se replican los vértices y el centro de un triángulo equilátero con cierto escalamiento y rotación de 60°. Para el diagrama de radiación de cada agrupación (con amplitudes uniformes de excitación), se calculó y graficó en 90° el factor de agrupación normalizado en decibeles, contra el rango de evaluación en grados. Después, se ajustó el código a fin de evaluar la respuesta a diferentes frecuencias de operación. Y, se desarrolló una función que calcula y obtiene inmediatamente el ancho de haz y el nivel de los lóbulos laterales de cada diagrama. Se compararon las 3 agrupaciones al cambiar: las dimensiones (16, 64, 256 y 1024 elementos de antena) y longitud de onda de la señal (0.5, 1 y 1.5), registrando en cada caso el nivel de lóbulos laterales en decibeles y el ancho de haz en grados. Ciertas estructuras son afectadas al cambiar la frecuencia. Por ello, se desarrolló un algoritmo genético para optimizar y encontrar los valores de excitación ideales para cada elemento de antena, el cual tiene como función objetivo la ecuación FO= BW + SLL, y se dividió en 7 etapas: Población inicial: tiene individuos con N valores aleatorios de amplitud (según la dimensión de la agrupación) entre 0.5 y 1. Evaluación de la población: se calcula el factor de agrupación de cada individuo y se obtiene el nivel de lóbulos laterales y ancho de haz del diagrama de radiación. Además, se reordena la población de menor a mayor según la función objetivo. Selección: siguiendo el método de torneo, se escogen aleatoriamente individuos de la población, se guardan los más aptos de cada grupo formado y se crean parejas entre estos. Recombinación: usando el método de 2 puntos de cruzamiento, cada pareja del paso anterior tiene una probabilidad de 90% para intercambiar entre sí su información en cada punto, resultando 2 individuos nuevos (descendencia) por pareja. Mutación: la descendencia tiene una probabilidad menor al 10% para cambiar alguna magnitud de amplitud por un valor nuevo entre 0.5 y 1. Evaluación de la descendencia: Se obtiene el factor de agrupación y los parámetros de interés (BW, SLL). Se ordena la descendencia de mejor a peor según la función objetivo. Elitismo: Se forma una nueva población con los mejores individuos encontrados entre los padres y la descendencia. Luego, se repite el algoritmo desde el punto 2. La optimización se realizó con 200 individuos de población inicial y 100 generaciones, donde se graficó la función objetivo contra cada generación. De la última generación, se extraen las amplitudes del individuo más apto para examinar el diagrama de radiación de la agrupación dada, pero a diferente longitud de onda. Por último, se compararon los parámetros de ancho de haz y nivel de lóbulos laterales, antes y después de optimizar.


CONCLUSIONES

La agrupación fractal de Eisenstein tiene mejor respuesta en cuanto a directividad, y es menos sensible a la interferencia al cambiar la separación entre elementos de antena y la frecuencia de operación (propiedad multibanda), ya que en cada evaluación realizada se reduce -13 dB o menos el nivel de los lóbulos laterales, a diferencia de las agrupaciones bidimensionales uniforme y en dominio Eisenstein. Otra desventaja de las agrupaciones bidimensionales es, que al cambiar la distancia entre elementos aparecen lóbulos de rejilla con nivel de radiación alto e indeseable. Durante la estancia, se obtuvieron beneficios ejecutando el algoritmo genético implementado en la agrupación fractal y planar uniforme, con 16 elementos de antena, a diferente separación. Por ejemplo, si d=1, en la agrupación fractal se reduce 18.04% el ancho de haz y el nivel de lóbulos laterales baja otros -5.44 dB. Mientras que, en la agrupación planar se reduce 15.4% el ancho de haz, pero no hay mejora en el nivel de lóbulos laterales. Se busca redactar un documento de tesis en base a los resultados obtenidos, y las optimizaciones pendientes de las 3 agrupaciones al incrementar su tamaño en cada caso, y observando si existen mejoras en el comportamiento multibanda.
Arriaga Sarabia Gisela, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América

FACTORES ASOCIADOS AL BAJO PORCENTAJE DE RECICLAJE TEXTIL EN MEXICO


FACTORES ASOCIADOS AL BAJO PORCENTAJE DE RECICLAJE TEXTIL EN MEXICO

Arriaga Sarabia Gisela, Tecnológico de Estudios Superiores de Valle de Bravo. Avila Argueta Naomi Michelle, Instituto Tecnológico de Zitácuaro. Cástulo Hernández Monserrat, Instituto Tecnológico de Zitácuaro. Delgado Reséndiz Arantxa, Instituto Tecnológico de Zitácuaro. Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Un estudio de Greenpeace señala que en México se generan alrededor de 1.1 millones de toneladas de residuos textiles al año, en la dimensión ambiental, sin embargo, hay que destacar, según la Secretaría de Medio Ambiente y Recursos Naturales, que tan solo en la Ciudad de México se desechan 3 mil 700 millones de toneladas de residuos textiles al año y tan sólo se recicla el uno por ciento. Aunque en los tianguis mexicanos sí se comercializa con ropa de reúso, parte del problema del tianguis es que lo que no se reutiliza termina en la basura (Martínez Equihua, 2023 Greentology) contribuyendo a la contaminación del suelo y del agua. Como consecuencia, se observa una baja participación en prácticas de reciclaje textil debido a los paradigmas del "Fast fashion", impuesto por las tendencias de los consumidores, lo que contribuye a impactos negativos en el medio ambiente, como la liberación de sustancias químicas tóxicas durante la descomposición de los textiles y un aumento en las emisiones de gases de efecto invernadero debido a la producción continua de nuevos materiales. También se generan problemas económicos, ya que los materiales textiles reciclables, que podrían ser reintegrados en la economía circular, se desperdician.  



METODOLOGÍA

Se utilizaron herramientas como la encuesta para analizar los resultados refelados en esta misma.  La encuesta se aplico a habitantes de los diversos Estados de la Republica Mexicana, con el fin de conocer su perspectiva con el tema de reciclaje textil.  Tipo de encuesta: Cuantitativa, con preguntas abiertas y cerradas. Seccion 1: Datos demograficos Seccion 2: Conocimiento sobre reciclaje textil Seccion 3: Comportamiento actual Seccion 4: Barerras percibidas Con estos resultados se pretende hacer un estudio y observacion del panorama que tiene la sociedad acerca de este tema; para asi poder fomentar la educacion del reciclaje textil. 


CONCLUSIONES

Durante la estancia de verano, se logro adquirir los conocimientos teoricos del reciclaje en la industria indumentaria, y ponerlos en practica con el objetivo de conocer la perspectiva de los usuarios encuestados sobre este tema.  A pesar de que aun no se encuentran terminados los analisis, se puede concluir que, esta investigacion  nos muestra que la mayoría de las personas encuestadas tienen cierto grado de familiarización con el concepto de reciclaje textil, aunque un porcentaje significativo indicó tener poca o ninguna familiaridad con este tema. Es importante seguir promoviendo la conciencia sobre el reciclaje textil para fomentar prácticas sostenibles en la sociedad. Los resultados de la encuesta indican que la falta de información es el principal obstáculo para el reciclaje textil en México, seguido por la ubicación de puntos de recolección y la falta de incentivos. Para mejorar el porcentaje de reciclaje textil, se deben implementar estrategias educativas efectivas, aumentar la accesibilidad de los puntos de recolección y establecer incentivos que motiven a la población a participar.  
Arrieta Solorio Maria de los Angeles, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Luis Carlos Arraut Camargo, Universidad Tecnológica De Bolívar

RETOS EN EL SECTOR PORTUARIO EN CARTAGENA, COLOMBIA QUE INTERVIENEN EN LA EFICIENCIA Y SOSTENIBILIDAD DE LA CADENA DE SUMINISTROS.


RETOS EN EL SECTOR PORTUARIO EN CARTAGENA, COLOMBIA QUE INTERVIENEN EN LA EFICIENCIA Y SOSTENIBILIDAD DE LA CADENA DE SUMINISTROS.

Arrieta Solorio Maria de los Angeles, Instituto Tecnológico de Ciudad Juárez. Dominguez Mendoza Luisa Fernanda, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Luis Carlos Arraut Camargo, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

Investigar las mejores prácticas internacionales de responsabilidad sostenible de cadenas de suministro, analizarlas en el contexto de Cartagena, y proponer recomendaciones para fortalecer su eficiencia relacionando las prácticas de los mismos. Los puertos de Cartagena de Indias, Colombia, enfrenta un desafío crucial en materia de optimización de la cadena de suministros y la logística portuaria. Como uno de los principales puertos del país, la eficiencia de las operaciones y la gestión de la cadena de suministros tienen un impacto directo en la competitividad del sector, la economía regional y el desarrollo sostenible.



METODOLOGÍA

Se utilizará una metodología mixta que combine elementos cualitativos y cuantitativos: Revisión de literatura (cualitativo): Revisión exhaustiva de la literatura académica y de informes de organismos internacionales sobre mejores prácticas en puertos sostenibles y cadena de suministros. Análisis de casos de estudio (cualitativo): Se seleccionarán puertos internacionales líderes en sostenibilidad y en logística, y se analizarán en detalle sus estrategias, proyectos e impactos, para identificar lecciones aprendidas aplicables a Cartagena. Análisis de datos (cuantitativo): Se recopilan y analizan datos cuantitativos sobre optimización de tiempos, recursos y cuestiones de almacenamiento del puerto de Cartagena y de los casos de estudio internacionales.


CONCLUSIONES

Los resultados esperados son proponer mejoras en la gestión de las actividades del puerto, alineada con la normativa internacional, para lograr un desarrollo sostenible y aprovechar la capacidad de optimizar tiempo y recursos en la actividad portuaria en Cartagena; con el fin de beneficiar y mejorar la calidad de vida marítima y local. De acuerdo al proyecto se determinó que el principal reto del sector portuario en Cartagena, Colombia, en materia de cadena de suministros es adaptar la infraestructura y operaciones para reducir significativamente los tiempos muertos y el desperdicio de recursos. 
Arroyo Avalos Diana Guadalupe, Instituto Tecnológico Superior de Uruapan
Asesor: Mg. Ana Ruby Correa Mosquera, Universitaria Agustiniana Uniagustiniana

EVALUACIÓN DEL MÉTODO DE CONSERVACIÓN DE MASAS MADRES ELABORADAS CON CEPAS DE LEVADURAS NATIVAS AISLADAS DE UNA BEBIDA FERMENTADA TRADICIONAL DE CUNDINAMARCA


EVALUACIÓN DEL MÉTODO DE CONSERVACIÓN DE MASAS MADRES ELABORADAS CON CEPAS DE LEVADURAS NATIVAS AISLADAS DE UNA BEBIDA FERMENTADA TRADICIONAL DE CUNDINAMARCA

Arroyo Avalos Diana Guadalupe, Instituto Tecnológico Superior de Uruapan. Asesor: Mg. Ana Ruby Correa Mosquera, Universitaria Agustiniana Uniagustiniana



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de masas madre es una técnica ancestral que ha resurgido con fuerza en la panificación artesanal contemporánea. Este proceso se basa en la fermentación natural, donde las levaduras y bacterias presentes en la harina y el ambiente transforman los azúcares en ácidos, alcohol y dióxido de carbono, otorgando al pan sus características únicas de sabor, textura y conservación (Hamelman, 2012). En este estudio, se investigó el crecimiento y desarrollo de masas madre utilizando diferentes tipos de levaduras: nativas, comerciales, liofilizadas y ultracongeladas. El objetivo es comparar cómo estas levaduras, bajo diversas condiciones de conservación y activación, afectan la fermentación, el crecimiento y las propiedades finales de las masas madre. Esta investigación ofrece valiosos descubrimientos tanto para la industria panadera como para los entusiastas de la panificación que buscan optimizar sus procesos fermentativos y mejorar la calidad del pan artesanal (Katz, 2016). Los resultados indican que las levaduras ultracongeladas mantuvieron una buena actividad fermentativa incluso después del proceso de conservación. Las diferencias en la fermentación y el crecimiento sugieren que la liofilización y la ultracongelación son métodos eficaces para preservar levaduras, ofreciendo flexibilidad en la producción de masas madre de alta calidad. Este estudio proporciona valiosos descubrimientos para la industria panadera y los entusiastas de la panificación, permitiendo una mejor conservación y uso de levaduras.



METODOLOGÍA

se inició el desarrollo de masas madres usando la cepa S. cerevisiae 85 (saccharomyces) se calentó el agua a una temperatura de 30 a  36 °c máximo, como siguiente paso se pesaron en una balanza gramera  100 gramos de harina de trigo, 2 gramos de levadura instantánea, 3 gramos de levadura incubada, se pesaron 100 gramos de agua y se agregaron al bowl    para hidratar la levadura instantánea y la levadura incubada, se hicieron dos formulaciones de mezcla una con levadura instantánea y otra con levadura incubada, esto con el fin de formar una masa madre (poolish), se dejó la mezcla reposar en la incubadora a una temperatura ambiente de 18-28° c y su primer momento de fermentación fue de 8-12 horas. Pasando las 12 horas se calentó 100 gramos de agua para ambas formulaciones (levadura instantánea) (levadura incubada) se pesaron 100 gramos de harina para ambos pre fermentos y se mezcló bien para enseguida alimentar el pre fermento y se vuelve a meter a incubar a 22-23°c. a las 24 horas se agregaron 150 gramos de harina de trigo y 150 gramos de agua, mezclando muy bien, una vez estando las mezclas homogéneas se incorporaron a cada uno de los pre fermentos manteniendo una composición uniforme en toda la mezcla. A  las 48 horas se agregaron al pre fermento 100 gramos de harina y 100 gramos de agua para alimentar las masas madres. A las 72 horas agregamos a la masa madre 120 gramos de harina y 100 gramos de agua estando las mezclas homogéneas se incorporaron a las masas madres anteriores que ya empiezan a crecer esto con el fin de seguir alimentando las masas madres. la masa madre ya tenia un gran crecimiento burbujeante y duplico su tamaño, se agregaron 120 gramos de harina de trigo y 100 gramos de agua purificada para seguir alimentando las masas madres una vez que se alimentaron tomamos muestras en tubos de falcón (15 ml) una vez tomadas las muestras se incubaron por 2 horas para seguir observando su crecimiento de ambos pre fermentos. se recolecto la biomasa, es decir, las células microbianas y a continuación se llevo a liofilizar. La liofilización consistió en un primer paso de congelación (el agua paso de estado líquido a estado sólido) seguido ese paso de sublimación (el agua pasa de estado solido a gas en un solo paso) en condiciones de vacío. El resultado obtenido fue un polvo fino, blanquecino o amarillento muy similar al azúcar glas. Se elaboró una nueva masa madre con levadura liofilizada a la cual se le agrego 100 gramos de harina de trigo en un bowl, 2 gramos de levadura liofilizada comercial y 2 gramos de levadura liofilizada nativa, se agrego 100 gramos de agua en un bowl y se hidrataron ambas levaduras con 100 gramos de agua purificada, finalmente se mezclaron la harina, el agua y las levaduras liofilizadas (nativas, comerciales) se incubo a 22° c. agregamos 50 gramos de agua purificada y harina de trigo al pre fermento anterior para seguir alimentando las masas madres, se incuban a 22°c.  agregamos 50 gramos de agua purificada y harina de trigo al pre fermento anterior para seguir alimentando las masas madres,se incuban a 22°c. se inicia una nueva formulación de masas madres con levaduras ultracongeladas (nativas, comerciales) se pesaron 100 gramos de harina y 100 gramos de agua purificada, 10 gramos de levadura ultracongelada nativa y 10 gramos de levadura comercial, se hidrataron las levaduras (nativas, comerciales) con 100 gramos de agua, después se mezclaron los 100 gramos de agua y la harina de trigo hasta quedar una mezcla homogénea se alimentaron las masas madres con 50 gramos de harina y 50 gramos de agua purificada se mezclaron muy bien hasta formar una mezcla homogénea, para después retener el crecimiento de levadura llevamos a refrigeración por 5 días hábiles. pasados los 5 días hábiles en refrigeración se le agregaron 50 gramos de harina de trigo y 50 gramos de agua purificada, para seguir alimentado las masas madres


CONCLUSIONES

El estudio comparativo del desarrollo de masas madre utilizando levaduras nativas, comerciales, liofilizadas y ultracongeladas ha demostrado que todas las variantes pueden generar una fermentación efectiva y un crecimiento saludable de las masas madre. A lo largo de los 19 días de experimentación, se observaron diferencias en la tasa de fermentación y la consistencia del crecimiento según el tipo de levadura y su método de conservación y activación. Las levaduras instantáneas e incubadas mostraron un comportamiento inicial robusto, mientras que las levaduras liofilizadas y ultracongeladas, a pesar de los procesos de conservación a los que fueron sometidas, mantuvieron una buena viabilidad y capacidad fermentativa. Estos hallazgos son de gran relevancia tanto para la industria panadera como para los artesanos y entusiastas de la panificación, ya que proporcionan opciones viables para la conservación de levaduras y la preparación de masas madre de alta calidad. 
Arroyo Cruz Brandon Daniel, Universidad Tecnológica Fidel Velázquez
Asesor: Dr. Rodolfo Zola García Lozano, Universidad Autónoma del Estado de México

ELECTRóNICA FLEXIBLE


ELECTRóNICA FLEXIBLE

Arroyo Cruz Brandon Daniel, Universidad Tecnológica Fidel Velázquez. Martinez Aquino Carlos Daniel, Instituto Politécnico Nacional. Asesor: Dr. Rodolfo Zola García Lozano, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Los circuitos flexibles representan hoy en día un avance tecnológico emergente, con creciente relevancia en áreas tales como la energética, médica, electrónica e industrial. Una muestra de esta condición es el gran esfuerzo que se está realizando, en el ámbito global, para el desarrollo de diferentes aplicaciones como: las pantallas flexibles en diversos dispositivos, así como los circuitos de aplicación, sensores, celdas solares entre otros. La complementariedad que ofrece la electrónica flexible con la electrónica convencional de silicio ha generado que esta tecnología esté ganando presencia, tanto en el ámbito científico como en el mercado. Un área de oportunidad que actualmente se tiene en México es la investigación, diseño, fabricación y aplicación de circuitos flexibles en dispositivos comerciales. En México pocas instituciones educativas abordan estos temas en sus programas de estudio. Por esta razón, como parte del Verano de investigación del Programa Delfin se inició en el aprendizaje del diseño de circuitos digitales básicos con base a la electrónica flexible.



METODOLOGÍA

Para contar con los elementos teóricos necesarios, se comenzó a estudiar el funcionamiento principal de los transistores MOSFET y TFT’s. Asimismo, se analizó el principio de funcionamiento de circuitos digitales básicos tales como: inversores con carga resistiva y carga activa. En colaboración con el Centro de Nanociencias y Micro y Nanotecnologías (CNMN) del IPN se participó en el diseño de una oblea multiproyecto, en la cual diferentes grupos de investigación enviaron sus diseños de circuitos digitales y analógicos. Estos diseños fueron fabricados en el CNMN-IPN. El circuito propuesto por el CU UAEM Ecatepec fue desarrollado en colaboración por los estudiantes del verano de investigación y por los estudiantes del programa de Maestría en ciencias de la computación que se imparte en el CU UAEM Ecatepec.  En el diseño se integraron los siguientes circuitos lógicos: AND de 2 y 3 entradas, OR de 2 y 3 entradas, XOR de 2 entradas, NOR de 3 entradas y OAI12. Para el diseño de los circuitos se utilizó la siguiente metodología: Análisis de requerimientos del circuito. Se analizaba el funcionamiento del circuito. Con base al uso de tablas de verdad y la expresión como suma de minitérminos se definía la salida para cada condición de entrada. Diseño y simulación eléctrica del circuito. Utilizando el software LTspice, realizamos el diagrama eléctrico de cada circuito. Para comprobar el funcionamiento se realizaba la simulación en CD y la simulación transitoria. Diseño del Layout. Una vez que las simulaciones en LT-Spice funcionaban se utilizó el software L-Edit para diseñar los circuitos a fabricar. Una vez concluidos los Layouts, con el apoyo del Dr. Zola, optimizamos los diseños para integrar todos los circuitos lógicos en una sola oblea de silicio. Al lograr esto, obtuvimos el diseño final. Durante todo el proceso, se llevó una bitácora donde se registró toda la información básica sobre cada circuito, incluyendo observaciones, diagramas y tablas de verdad. Con toda la información recopilada y los diseños terminados, contactamos al Instituto Politécnico Nacional (IPN), ya que la Universidad Autónoma del Estado de México (UAEM) colabora con el IPN en el Centro de Nanociencias y Micro y Nanotecnologías (CNMN). Ellos fueron los encargados de materializar nuestra oblea multiproyecto. El objetivo final al obtener los resultados de nuestra oblea, realizar la extracción de datos y compararlos con nuestras simulaciones, verificando la eficiencia y precisión de nuestros cálculos. En caso de discrepancias, estudiaríamos los factores externos que causaron dichas variaciones.  Paralelamente, para complementar la formación en el área se realizó la medición  de dispositivos básicos, tanto comerciales como de  película delgada. Entre los dispositivos que se caracterizaron se encuentran: diodos LED de diversos colores (rojo, azul, amarillo, naranja) y transistores (2N4401, 2N7000). Para ello, utilizamos fuentes de alimentación marca Keithley y una estación de puntas conectados al software MATLAB, para hacer la recopilación de datos. Con los datos obtenidos graficamos el comportamiento de cada componente utilizando Origin8, esto para procesar los datos de mediciones previamente extraídas para interpretar el comportamiento del voltaje con respecto a la corriente en cada dispositivo experimental. Simultáneamente, utilizamos ecuaciones matemáticas para simular el comportamiento de dispositivos similares, nuevamente empleando Origin8, con la asesoría del Ing. Ulises Blanco, estudiante de maestría. Lo que nos permitió obtener 3 resultados (Simulación LTSpice, Medición de datos y Modelo generado en Origin8), así comparar en graficas los distintos comportamientos de cada componente. 


CONCLUSIONES

Durante la estancia de verano se profundizó en el estudio de transistores MOSFET y circuitos inversores, se logró la integración de múltiples circuitos lógicos en una sola oblea de silicio. Esta experiencia no solo permitió adquirir un conocimiento profundo sobre el diseño y la simulación de circuitos, sino que también resaltó las limitaciones actuales y las oportunidades de mejora en la fabricación de circuitos flexibles. En conclusión, la estancia en el Proyecto Delfín proporcionó una valiosa oportunidad para contribuir al campo de los circuitos flexibles, estableciendo un puente entre la teoría y la práctica, y preparando el camino para futuros desarrollos y aplicaciones en este prometedor ámbito tecnológico.
Arroyo Magallón Said, Universidad de Guadalajara
Asesor: Dr. Jose Fernando Valencia Murillo, Universidad de San Buenaventura

APLICACIÓN DE ALGORITMOS PARA LA DETECCIÓN DE ESTENOSIS EN IMÁGENES DE ANGIOGRAFÍA POR TOMOGRAFÍA COMPUTARIZADA


APLICACIÓN DE ALGORITMOS PARA LA DETECCIÓN DE ESTENOSIS EN IMÁGENES DE ANGIOGRAFÍA POR TOMOGRAFÍA COMPUTARIZADA

Arroyo Magallón Said, Universidad de Guadalajara. Asesor: Dr. Jose Fernando Valencia Murillo, Universidad de San Buenaventura



PLANTEAMIENTO DEL PROBLEMA

La estenosis de las arterias coronarias es una condición crítica que puede llevar a eventos cardiovasculares graves como infartos de miocardio. La angiografía por tomografía computarizada (TC) es una herramienta diagnóstica no invasiva valiosa para evaluar las arterias coronarias y caracterizar la placa aterosclerótica. Sin embargo, interpretar imágenes de TC es complejo debido a variaciones en la calidad de la imagen y la experiencia del radiólogo. A pesar de los avances en la TC, como la mejora de la resolución temporal y espacial, detectar con precisión la estenosis coronaria sigue siendo un desafío. Esto se debe al movimiento del corazón, la presencia de artefactos y la variabilidad en la anatomía vascular. La falta de algoritmos robustos para el análisis automatizado puede llevar a diagnósticos erróneos o subestimar la severidad de las lesiones. Los algoritmos avanzados de procesamiento de imágenes y aprendizaje automático pueden mejorar significativamente la precisión en la detección de estenosis. Esto no solo permitiría un diagnóstico más rápido y preciso, sino que también reduciría la necesidad de procedimientos invasivos adicionales, disminuyendo el riesgo para los pacientes y optimizando los recursos de salud.



METODOLOGÍA

Revisión Bibliográfica Revisar la literatura sobre técnicas de detección de estenosis, algoritmos de procesamiento de imágenes y aprendizaje automático en imágenes médicas. Analizar estudios previos. Identificar algoritmos utilizados. Evaluar limitaciones y desafíos actuales. Recolección de Datos Obtener un conjunto de datos de imágenes de TC que incluya casos con y sin estenosis. Colaborar con hospitales para acceder a bases de datos. Asegurar la anotación por radiólogos expertos. Cumplir normativas éticas y de privacidad. Preprocesamiento de Imágenes Preparar las imágenes para el análisis mediante técnicas de preprocesamiento. Aplicar normalización y mejora de contraste. Eliminar artefactos y ruido. Segmentar las arterias coronarias de interés. Desarrollo de Algoritmos Diseñar algoritmos para la detección de estenosis. Implementar detección de bordes y segmentación. Usar redes neuronales para entrenar modelos de clasificación. Realizar pruebas para ajustar parámetros. Validación y Evaluación Evaluar la precisión de los algoritmos frente a la interpretación manual. Dividir datos en conjuntos de entrenamiento y prueba. Calcular métricas de rendimiento como sensibilidad y especificidad. Comparar resultados con evaluaciones de radiólogos. Integración Clínica Proponer la integración de algoritmos en el flujo de trabajo clínico. Desarrollar una interfaz de usuario para cargar imágenes y recibir resultados. Realizar pruebas de usabilidad con profesionales de la salud. Ajustar la herramienta según el feedback clínico. Documentación y Difusión Documentar hallazgos y difundir el conocimiento. Redactar un informe final. Presentar resultados en conferencias y revistas científicas. Compartir la herramienta con la comunidad médica.


CONCLUSIONES

Hemos avanzado en un sistema automatizado para identificar estenosis en imágenes de TC. Aunque se ha implementado un algoritmo en MATLAB, el proceso actual es manual, limitando su eficiencia y escalabilidad. Resultados Preliminares Desarrollo del Algoritmo: Creación de un algoritmo en MATLAB para preprocesamiento de imágenes y detección de estenosis. Entrenamiento de la Red Neuronal: Definición de la arquitectura y preparación de datos, pendiente el entrenamiento automatizado. Evaluación Inicial: El algoritmo detecta áreas con estenosis, pero se requiere validación exhaustiva. Limitaciones Identificadas El enfoque manual presenta desafíos como la variabilidad en la calidad de las imágenes y propensión a errores. Próximos Pasos Automatizar el entrenamiento de la red neuronal. Ampliar y anotar un conjunto de datos más diverso. Optimizar el algoritmo para mayor precisión. Realizar validaciones clínicas con radiólogos. Aunque se han logrado avances, se necesita un enfoque más automatizado para cumplir los objetivos del proyecto y mejorar el diagnóstico de enfermedades cardiovasculares.
Astúa Barrientos María José, Universidad Estatal a Distancia
Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana

ANáLISIS COMPARATIVO DE HERRAMIENTAS ESPECIALIZADAS EN PRUEBAS AUTOMATIZADAS DE SOFTWARE


ANáLISIS COMPARATIVO DE HERRAMIENTAS ESPECIALIZADAS EN PRUEBAS AUTOMATIZADAS DE SOFTWARE

Astúa Barrientos María José, Universidad Estatal a Distancia. Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana



PLANTEAMIENTO DEL PROBLEMA

En el desarrollo de software actual, la automatización de pruebas es fundamental para garantizar la calidad y eficiencia en los procesos de desarrollo. Sin embargo, la selección de la herramienta adecuada para la automatización de pruebas puede resultar desafiante debido a la variedad de opciones disponibles en el mercado. Además, diferentes proyectos pueden tener requisitos y necesidades específicas que requieren un análisis detallado para determinar la herramienta más adecuada.



METODOLOGÍA

El proyecto sigue una metodología bien definida que comienza con una investigación de herramientas de automatización de pruebas enfocadas en aplicaciones web, lo que se prioriza de la selección de herramientas es que sean compatibles con tecnologías web modernas y que permitan realizar pruebas específicas para la página web objetivo. Una vez seleccionadas las herramientas adecuadas, se procede con la instalación y configuración detallada, en este proceso incluye la preparación del entorno de pruebas para asegurar que las herramientas estén correctamente configuradas y puedan interactuar efectivamente con todos los componentes de la página web, se realizan pruebas preliminares para verificar la conectividad y funcionalidad básica de las herramientas en el entorno específico del proyecto. Después de la configuración de las herramientas, se implementan scripts y casos de prueba específicos para la página web, estos scripts se desarrollan para cubrir aspectos críticos de la funcionalidad y usabilidad de la página, como la navegación, ingreso de información y cualquier otra interacción importante que afecte la experiencia del usuario. Una vez desarrollados los scripts de prueba, se procede con la ejecución automatizada de pruebas, utilizando las herramientas seleccionadas para capturar resultados detallados y métricas de rendimiento Finalmente, se realiza una evaluación comparativa de las herramientas utilizadas, destacando sus fortalezas y limitaciones específicas en relación con la página web, se documentan todos los hallazgos, recomendaciones y conclusiones.


CONCLUSIONES

Se espera lograr una implementación exitosa de las herramientas seleccionadas para la automatización de pruebas, esto incluye la correcta instalación y configuración de las herramientas. Uno de los principales objetivos es la detección temprana de errores, se espera que la automatización de pruebas permita identificar y corregir problemas antes de que impacten a los usuarios finales, lo cual no solo mejora la calidad del software, sino que también reduce los costos y tiempos. Además de la mejora de la calidad del software, se espera que la automatización de pruebas optimice los procesos de desarrollo, al proporcionar pruebas repetibles y consistentes, se facilita una entrega más rápida y confiable de nuevas funcionalidades y actualizaciones, esto aumenta la eficiencia del equipo de desarrollo al minimizar el tiempo dedicado a pruebas manuales repetitivas y permitir un enfoque más centrado en la innovación y mejora continua.
Ávalos Alegría Alexandro, Instituto Tecnológico de Querétaro
Asesor: Dra. Maria Blanca Becerra Rodriguez, Instituto Tecnológico de Querétaro

FACTORES CRíTICOS PARA IMPLEMENTAR LEAN MAUFACTURING Y ECONOMíA CIRCULAR EN LAS EMPRESAS QUERETANAS


FACTORES CRíTICOS PARA IMPLEMENTAR LEAN MAUFACTURING Y ECONOMíA CIRCULAR EN LAS EMPRESAS QUERETANAS

Aguilera Baeza Andrea Jael, Instituto Tecnológico de Querétaro. Ávalos Alegría Alexandro, Instituto Tecnológico de Querétaro. Juárez Vargas Felipe Neri, Instituto Tecnológico de Querétaro. Asesor: Dra. Maria Blanca Becerra Rodriguez, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En este proyecto de investigación se hizo medir si las empresas queretanas han implementado la metodología de Lean Manufacturing y Economía Circular para mejorar su productividad. Además, de evaluar los factores críticos de otro país.



METODOLOGÍA

El diseño de investigación adoptado para el proyecto fue de tipo mixto, permitiendo obtener datos combinandos tanto cuantitativos como cualitativos para obtener una comprensión integral sobre el uso de economía circular y lean manufacturing en las empresas de los parques industriales de Querétaro, utilizando el método de encuesta como herramienta principal para la recolección de datos.   


CONCLUSIONES

Los resultados obtenidos han resaltado la importancia de varios elementos clave como: la cultura organizacional, la resistencia al cambio y la infraestructura y sistemas facilitadores para la separación en origen; también la existencia de procedimientos y estándares bien definidos, y el compromiso de los beneficiarios directos del proyecto. Estos factores han demostrado ser determinantes en la adopción de prácticas, que no solo optimizan la eficiencia operativa, sino que también promueven la sostenibilidad ambiental, alineando a las empresas con las tendencias globales de Economía Circular y Lean Manufacturing.  
Avalos Pérez Juan Felipe, Instituto Tecnológico de Matamoros
Asesor: Mtra. Tiffany Ariel Oropeza Bulik, Tecnológico de Estudios Superiores de Jocotitlán

DESARROLLO DE TECNOLOGíAS INNOVADORAS PARA ILUSTRACIóN DIGITAL Y SIMULACIóN 3D EN TIEMPO REAL.


DESARROLLO DE TECNOLOGíAS INNOVADORAS PARA ILUSTRACIóN DIGITAL Y SIMULACIóN 3D EN TIEMPO REAL.

Avalos Pérez Juan Felipe, Instituto Tecnológico de Matamoros. Asesor: Mtra. Tiffany Ariel Oropeza Bulik, Tecnológico de Estudios Superiores de Jocotitlán



PLANTEAMIENTO DEL PROBLEMA

La evolución en ilustración digital y simulación 3D en tiempo real está transformando la interacción y la experiencia del usuario. Sin embargo, surgen varios problemas que deben ser abordados. En la ilustración digital, los lápices ópticos capacitivos, cruciales para interactuar con pantallas táctiles, enfrentan desafíos significativos: 1-Precisión y Sensibilidad Insuficientes: Los lápices ópticos capacitivos actuales no siempre ofrecen la precisión necesaria para aplicaciones detalladas, como el diseño gráfico. La falta de sensibilidad puede afectar la fluidez y exactitud en el dibujo y la escritura. 2-Limitaciones de Diseño y Ergonomía: Muchos lápices ópticos no tienen un diseño ergonómico, causando incomodidad y fatiga durante el uso prolongado. Es necesario un diseño más cómodo. 3-Compatibilidad y Versatilidad: Los lápices ópticos capacitivos a menudo tienen limitaciones en términos de compatibilidad con diferentes pantallas y sistemas operativos, restringiendo su uso. En la simulación 3D en tiempo real, la integración de tecnologías avanzadas como captura de movimiento y realidad aumentada presenta desafíos: 1-Sincronización de Datos: Coordinar los datos de la captura de movimiento con la simulación 3D puede ser complejo. La latencia y los errores en la sincronización afectan la calidad de la simulación. 2-Integración de RA y Simulación 3D: La combinación de elementos virtuales con el entorno real mediante RA requiere una integración precisa. Las inconsistencias en escala, iluminación y perspectiva pueden causar desajustes perceptivos. 3-Performance y Recursos: Procesar datos de captura de movimiento y renderizar simulaciones 3D en tiempo real demanda altos recursos computacionales. La optimización es crucial para un rendimiento eficiente. 4-Interfaz de Usuario: Diseñar interfaces intuitivas para interactuar con el entorno 3D y RA, mientras se incorpora el feedback de la captura de movimiento, es un reto. La experiencia debe ser lo más natural posible. 5-Costos y Accesibilidad: Las tecnologías involucradas son costosas y requieren equipos especializados. Hacerlas más accesibles es un desafío importante.



METODOLOGÍA

1-Desarrollo del Lápiz Óptico Capacitivo: Investigación Inicial: Se analizó la tecnología de lápices ópticos, revisando resistivos, capacitivos, de inducción electromagnética, activos, con sensor de presión y funcionalidad de borrado. La revisión de literatura, incluyendo el artículo de María Peláez Piedrola, proporcionó contexto sobre las características de estos dispositivos. Prototipado y Pruebas: Se desarrollaron prototipos con grafito, esponja, caña de bolígrafo y aluminio. Las pruebas indicaron que el grafito no era adecuado. Se eligió una esponja humedecida con líquido conductor para mejorar precisión y respuesta táctil. La caña de bolígrafo reciclada y el aluminio ofrecieron un diseño ergonómico. Evaluación de Resultados: El lápiz óptico capacitivo final mostró mejoras en precisión, sensibilidad y ergonomía, ofreciendo una experiencia de usuario más fluida. 2-Simulación 3D en Tiempo Real con Captura de Movimiento y Realidad Aumentada: Investigación y Revisión: Se revisaron artículos sobre captura de movimiento y RA, como "Sistemas de captura y análisis de movimiento cinemático humano" y "La realidad aumentada: lo que debemos conocer", para entender sus capacidades y limitaciones. Desarrollo de Proyectos de Captura de Movimiento: Se realizaron dos proyectos: uno con Animaze para avatares animados en tiempo real y otro con Blender y Rokoko para captura y animación de movimientos. La integración del rig y la captura resultaron en animaciones de alta calidad. Desarrollo de Proyectos de RA: Se crearon dos aplicaciones en Unity con Vuforia. La primera proyectó un modelo 3D sobre una imagen, y la segunda mostró un video en lugar de un modelo 3D. Estas aplicaciones evaluaron diferentes enfoques de RA, analizando su rendimiento en dispositivos móviles.


CONCLUSIONES

Lápiz Óptico Capacitivo: Durante la estancia de verano el desarrollo de un lápiz óptico capacitivo ha superado las limitaciones de precisión y sensibilidad de los lápices existentes. Mejoras en diseño ergonómico y uso de materiales reciclados hacen de este lápiz una herramienta más accesible y respetuosa con el medio ambiente, optimizando la experiencia en ilustración digital. Simulación 3D en Tiempo Real: La integración de captura de movimiento y realidad aumentada que se realizó durante la estancia de verano ha mostrado avances significativos en la creación de experiencias inmersivas. La sincronización de datos, optimización del rendimiento y diseño de interfaces efectivas abordan los desafíos tecnológicos. Los proyectos destacan la importancia de la investigación continua y la innovación para ofrecer soluciones accesibles y eficientes.
Avendaño Alviso Anahi, Tecnológico de Estudios Superiores de Villa Guerrero
Asesor: Mtra. María Guadalupe Guerrero Ordoñez, Tecnológico de Estudios Superiores de Villa Guerrero

DESARROLLO DE UNA PAGINA WEB PARA EL CUIDADO DE LA SALUD MENTAL EN LOS JóVENES UNIVERSITARIOS.


DESARROLLO DE UNA PAGINA WEB PARA EL CUIDADO DE LA SALUD MENTAL EN LOS JóVENES UNIVERSITARIOS.

Avendaño Alviso Anahi, Tecnológico de Estudios Superiores de Villa Guerrero. Asesor: Mtra. María Guadalupe Guerrero Ordoñez, Tecnológico de Estudios Superiores de Villa Guerrero



PLANTEAMIENTO DEL PROBLEMA

La salud mental en el ámbito estudiantil es un tema de creciente preocupación en la sociedad contemporánea. Los estudiantes enfrentan una variedad de presiones académicas, sociales y personales, lo que hace fundamental comprender y abordar los desafíos que enfrentan en términos de bienestar psicológico. La experiencia universitaria, en particular, puede ser un período de transición y cambio significativo para muchos jóvenes. Según la Asociación Americana de Psicología, aproximadamente uno de cada tres estudiantes universitarios experimenta síntomas significativos de ansiedad o depresión durante su carrera académica. Estos trastornos mentales pueden tener un impacto profundo en la capacidad de los estudiantes para funcionar académicamente, socialmente y emocionalmente, afectando negativamente su calidad de vida y su éxito en la universidad. Además, la salud mental de los estudiantes también puede influir en su capacidad para aprovechar al máximo su experiencia educativa y desarrollar habilidades importantes para la vida, como la resiliencia, la autoestima y la capacidad de afrontar el estrés de manera saludable.



METODOLOGÍA

Para llevar a cabo esta investigación sobre la salud mental de los jóvenes universitarios, se siguió una metodología mixta, combinando enfoques cualitativos y cuantitativos. Esta metodología incluyó el uso de diversas fuentes de información y técnicas de recopilación de datos. En primer lugar, se realizó una revisión exhaustiva de la literatura existente sobre salud mental en jóvenes universitarios. Se consultaron artículos científicos, libros, informes de organizaciones de salud, blogs especializados y estudios de caso. Esta revisión ayudó a contextualizar el problema y a identificar los factores clave que influyen en la salud mental de los estudiantes. Además, se llevaron a cabo consultas con psicólogos, quienes proporcionaron información valiosa sobre los trastornos mentales más comunes en el ámbito universitario, así como sobre las mejores prácticas para su prevención y tratamiento. Paralelamente, se contó con la colaboración de maestros y compañeros en la creación de la página web, mejorando las habilidades necesarias para desarrollar un sitio de calidad. Por lo tanto, la página web ofrecerá una estructura integral con diversos apartados dedicados a la salud mental. Incluirá centros de ayuda especializados para distintas edades y niveles de gravedad, asegurando que cada usuario encuentre el apoyo adecuado a sus necesidades. Además, se proporcionarán contactos de psicólogos en diferentes especialidades, facilitando el acceso a profesionales calificados. La web también contará con una amplia variedad de fuentes de información confiables, que abarcan desde artículos y estudios científicos hasta blogs y recursos multimedia, todo diseñado para proporcionar un apoyo completo y accesible. Por lo tanto se entendió que la salud mental está influenciada por factores sociales, biológicos y psicológicos, incluye padecimientos como la depresión, la ansiedad y los trastornos del desarrollo en la infancia. Muchos de estos se han agravado en los últimos años por falta de atención o desconocimiento. Se reconoció que los adolescentes pueden enfrentar desafíos académicos durante su educación, como la presión de los compañeros, la falta de empatía, la falta de motivación y la dificultad con ciertas materias. El apoyo emocional es importante para el rendimiento académico, la entrega de proyectos y tareas, la atención en clase, y el respeto y responsabilidad. Si las emociones están desordenadas o alteradas, el estudiante puede no rendir al cien por ciento, lo que puede llevar a materias reprobadas o incluso a la baja escolar. Por ello, aconsejar sobre la importancia de establecer metas realistas y proporcionar ayuda adicional en las materias más complejas puede ser muy beneficioso para los jóvenes.


CONCLUSIONES

Durante la estancia de verano se adquirió conocimientos sobre la salud, enfermedades y trastornos mentales, que podemos tener o alguien cercano a nosotros pudiera tener, también se logro comprender y entender el funcionamiento de diferentes softwares y diferentes códigos para la creación de la página, sin embargo, al ser un extenso trabajo aun se encuentra en fase finales de prueba y error, y lanzamiento. Se espera concluir con éxito el proyecto para lograr tener una ayuda favorable a nuestros colegas estudiantes.
Avendaño Sánchez Zaira, Instituto Tecnológico Superior de Tierra Blanca
Asesor: Mtro. Javier Hilario Reyes Cordova, Universidad Tecnológica de Tehuacán

MEJORA DE LOS PROCESOS INSTITUCIONALES DE LA UNIVERSIDAD TECNOLóGICA DE TEHUACáN A PARTIR DE LA IMPLEMENTACIóN DE LA NORMA ISO 9001:2015


MEJORA DE LOS PROCESOS INSTITUCIONALES DE LA UNIVERSIDAD TECNOLóGICA DE TEHUACáN A PARTIR DE LA IMPLEMENTACIóN DE LA NORMA ISO 9001:2015

Avendaño Sánchez Zaira, Instituto Tecnológico Superior de Tierra Blanca. Collazos Bolaños Luisa Fernanda, Corporación Universitaria Remington. González Herrera Juan Alberto, Instituto Tecnológico de Querétaro. Romero Cordero Jhojan, Corporación Politécnico de la Costa Atlántica. Vega Hernández Adriana Sayuri, Instituto Tecnológico de Querétaro. Asesor: Mtro. Javier Hilario Reyes Cordova, Universidad Tecnológica de Tehuacán



PLANTEAMIENTO DEL PROBLEMA

En la constante necesidad de que en las instituciones de educación superior en México cuenten con un sistema que asegure la calidad de los procesos y servicios que se brindan dentro de la misma ha llevado a que todas estas instituciones busquen obtener la acreditación de un organismo que asegure que todos los procesos que se llevan a cabo dentro de las instituciones educativas cumplan con el principio de la mejora continua, a su vez la universidad tecnológica de tehuacán busca obtener la certificación en la norma iso 9001:2015, para poder demostrar ante la secretaría de educación pública que es una institución que cumple con los lineamientos básicos y que todos los procesos y servicios que se llevan a cabo dentro de la institución son de calidad y cumplen con el principio de la mejora continua por lo que una de las formas de poder lograrlo es a través de una casa certificadora que brinde el certificado y que lleva a cabo una evaluación de todos los procesos y servicios que brinda la institución y que se ven afectados por las partes interesadas, por lo que la presente investigación busca determinar si la certificación de la norma ISO 9001:2015 contribuye a la mejora de los procesos productivos en las instituciones de educación superior y los miembros de la comunidad universitaria perciben los beneficios de contar con dicha certificación, el poder evaluar los resultados que nos brinda el poder obtener una certificación como la norma ISO 9001:2015, permitirá determinar si la mejora continua contribuye hay crecimiento y desarrollo de las instituciones de educación superior, mejora las condiciones con respecto a un tiempo anterior, la presente investigación se lleva a cabo en el periodo de Enero a Septiembre del 2024, evaluando los indicadores del Programa Operativo Anual (POA) y esta supedito a la disponibilidad de la información que brinden las áreas de la Universidad tecnológica de Tehuacan.



METODOLOGÍA

La presente investigación parte del análisis de caso que ocurre en la universidad tecnológica de tehuacán y que parte de un estudio longitudinal que abarca del periodo de enero a septiembre del 2024, adicional a lo anterior el presente estudio comprende a toda la comunidad universitaria y a las partes interesadas que la conforman entendiendo qué se trata de un estudio descriptivo de cómo se lleva a cabo el proceso para lograr la certificación de la norma iso 9001:2015 en la universidad y cómo contribuye a la mejora de los procesos educativos y el alcance de los mismos en el círculo de Deming, que comprende planear, hacer, verificar y actuar que parte desde la alta dirección y el compromiso de la misma para poder llevar a cabo un proceso de certificación ya que la asignación y estrategias que mantiene la rectoría con respecto a dicha institución permiten establecer los alcances del sistema de gestión de la calidad y la evaluación de los mismos a través de algunos indicadores que ha desarrollado la institución y un análisis mixto, ya que se evalúan variables cuantitativas y cualitativas de la comunidad universitaria y se obtendrá información de primera mano mediante entrevistas a miembros de dicha comunidad para obtener su percepción con respecto a la implementación del sistema de gestión de la calidad y poder determinar mediante un análisis descriptivo de los múltiples beneficios que ofrece la universidad.


CONCLUSIONES

Lo que podemos apreciar de la presente investigación es que por cuestiones de tiempo no se podrá concluir de manera satisfactoria y que por la situación del programa delfín y el la corta estancia dentro de la misma no podremos ver de primera mano los resultados obtenidos pero sí podemos concluir que el proceso de la mejora continua dentro de las instituciones de educación superior es un proceso que se tiene que llevar a cabo de una manera muy particular de un análisis detallado y constante con la finalidad de entender qué lleva una institución de educación superior a buscar una certificación de calidad no solamente con el objetivo de cumplir con un mero requisito sino como la constante necesidad de la mejora continua de los procesos y el óptimo aprovechamiento de los recursos para lograr los fines con los que son desarrolladas las instituciones he aquí un avance que requiere más investigación y que no solamente corresponde a una cuestión de costos sino una situación en la que se tiene que atender los servicios educativos de calidad para que un alumno sea capaz de alcanzar estas metas y objetivos ya que no únicamente acude para llevar a cabo la generación del conocimiento sino para mejorar sus condiciones actuales y que las instituciones de educación superior son un medio para que éstas se logre no solamente buscando convenios con instituciones educativas homónimas sino con empresas a las que deberá de apoyar de una forma de otra brindando a alumnos de calidad y procesos y capacitación y todo aquello que le permita a la universidad mejorar su relación con las partes interesadas y con la comunidad misma en la que el desarrollo humano y la sostenibilidad junto con la sustentabilidad son mecanismos por los cuales tenemos que buscar un crecimiento constante.
Avila Argueta Naomi Michelle, Instituto Tecnológico de Zitácuaro
Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América

FACTORES ASOCIADOS AL BAJO PORCENTAJE DE RECICLAJE TEXTIL EN MEXICO


FACTORES ASOCIADOS AL BAJO PORCENTAJE DE RECICLAJE TEXTIL EN MEXICO

Arriaga Sarabia Gisela, Tecnológico de Estudios Superiores de Valle de Bravo. Avila Argueta Naomi Michelle, Instituto Tecnológico de Zitácuaro. Cástulo Hernández Monserrat, Instituto Tecnológico de Zitácuaro. Delgado Reséndiz Arantxa, Instituto Tecnológico de Zitácuaro. Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Un estudio de Greenpeace señala que en México se generan alrededor de 1.1 millones de toneladas de residuos textiles al año, en la dimensión ambiental, sin embargo, hay que destacar, según la Secretaría de Medio Ambiente y Recursos Naturales, que tan solo en la Ciudad de México se desechan 3 mil 700 millones de toneladas de residuos textiles al año y tan sólo se recicla el uno por ciento. Aunque en los tianguis mexicanos sí se comercializa con ropa de reúso, parte del problema del tianguis es que lo que no se reutiliza termina en la basura (Martínez Equihua, 2023 Greentology) contribuyendo a la contaminación del suelo y del agua. Como consecuencia, se observa una baja participación en prácticas de reciclaje textil debido a los paradigmas del "Fast fashion", impuesto por las tendencias de los consumidores, lo que contribuye a impactos negativos en el medio ambiente, como la liberación de sustancias químicas tóxicas durante la descomposición de los textiles y un aumento en las emisiones de gases de efecto invernadero debido a la producción continua de nuevos materiales. También se generan problemas económicos, ya que los materiales textiles reciclables, que podrían ser reintegrados en la economía circular, se desperdician.  



METODOLOGÍA

Se utilizaron herramientas como la encuesta para analizar los resultados refelados en esta misma.  La encuesta se aplico a habitantes de los diversos Estados de la Republica Mexicana, con el fin de conocer su perspectiva con el tema de reciclaje textil.  Tipo de encuesta: Cuantitativa, con preguntas abiertas y cerradas. Seccion 1: Datos demograficos Seccion 2: Conocimiento sobre reciclaje textil Seccion 3: Comportamiento actual Seccion 4: Barerras percibidas Con estos resultados se pretende hacer un estudio y observacion del panorama que tiene la sociedad acerca de este tema; para asi poder fomentar la educacion del reciclaje textil. 


CONCLUSIONES

Durante la estancia de verano, se logro adquirir los conocimientos teoricos del reciclaje en la industria indumentaria, y ponerlos en practica con el objetivo de conocer la perspectiva de los usuarios encuestados sobre este tema.  A pesar de que aun no se encuentran terminados los analisis, se puede concluir que, esta investigacion  nos muestra que la mayoría de las personas encuestadas tienen cierto grado de familiarización con el concepto de reciclaje textil, aunque un porcentaje significativo indicó tener poca o ninguna familiaridad con este tema. Es importante seguir promoviendo la conciencia sobre el reciclaje textil para fomentar prácticas sostenibles en la sociedad. Los resultados de la encuesta indican que la falta de información es el principal obstáculo para el reciclaje textil en México, seguido por la ubicación de puntos de recolección y la falta de incentivos. Para mejorar el porcentaje de reciclaje textil, se deben implementar estrategias educativas efectivas, aumentar la accesibilidad de los puntos de recolección y establecer incentivos que motiven a la población a participar.  
Avila Carrillo Jorge Armando, Universidad Politécnica de Sinaloa
Asesor: M.C. Alberto Morales Colado, Universidad Politécnica de Sinaloa

DESARROLLO DE MATERIAL DIDáCTICO.


DESARROLLO DE MATERIAL DIDáCTICO.

Avila Carrillo Jorge Armando, Universidad Politécnica de Sinaloa. Flores Reyes Benjamin, Universidad Politécnica de Sinaloa. Larez Nuñez Uziel Isaac, Universidad Politécnica de Sinaloa. Padilla Palencia Elba Noemi, Universidad Politécnica de Sinaloa. Ramos Abel Andres, Universidad Politécnica de Sinaloa. Asesor: M.C. Alberto Morales Colado, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En el mundo actual, las redes de comunicación son esenciales para conectar dispositivos y personas. Con el avance de la tecnología, la complejidad y las necesidades de infraestructura de red han aumentado, lo que requiere un conocimiento profundo de los equipos y las configuraciones necesarias para su funcionamiento eficiente. La demanda de redes confiables y seguras es mayor que nunca, y para satisfacer esta demanda, es fundamental que los profesionales estén bien preparados para enfrentar los desafíos tecnológicos actuales.



METODOLOGÍA

Objetivo 1: Establecer una base sólida de conocimientos sobre la configuración y uso de equipos de red. Durante las primeras semanas se probó el equipo físico, lo que permitió familiarizarse con su configuración y operación. Esta fase incluyó la identificación de las mejores prácticas y los desafíos comunes en la implementación de redes. Se exploraron diferentes modelos de routers y switches, aprendiendo sus características técnicas y cómo aprovecharlas al máximo en distintos entornos. Actividades de la semana 1: - Pruebas iniciales para configuración y reconocimiento de dispositivos. - Documentación de especificaciones técnicas y capacidades del hardware. Objetivo 2: Reforzar conocimientos prácticos mediante prácticas y laboratorios. En la segunda semana, se llevaron a cabo prácticas intensivas para reforzar los conocimientos adquiridos en clases y cursos. Estas prácticas, realizadas bajo la supervisión del profesor, aseguraron la correcta aplicación de los conceptos teóricos. Se emplearon simulaciones de situaciones reales para mejorar las habilidades de resolución de problemas y adaptación a distintos escenarios de red. Actividades de la semana 2: - Realización de prácticas supervisadas por nuestro asesor. - Aplicación de conceptos teóricos en situaciones prácticas. - Evaluación de resultados y ajuste de configuraciones. Objetivo 3: Crear material didáctico para el uso de equipos de red. Durante la tercera y cuarta semana, se centró en la creación de videos tutoriales sobre el uso y configuración de routers y switches. Estos materiales didácticos fueron diseñados para facilitar el aprendizaje y comprensión de las conexiones entre computadoras, switches y routers. Actividades de la semana 3: - Planificación de tutoriales. - Producción de videos sobre configuración de routers. Actividades de la semana 4: - Producción de videos sobre configuración de switches. - Explicación detallada de conexiones entre dispositivos de red. Objetivo 4: Implementar laboratorios avanzados que integren diversos equipos de red. Durante la quinta y sexta semana, se llevaron a cabo laboratorios que involucraron el uso de routers y switches. Se agregó un servidor de prueba en la nube para extender las prácticas y cubrir aspectos adicionales de configuración y administración de redes. Estos laboratorios permitieron a los estudiantes enfrentarse a situaciones complejas y desarrollar habilidades críticas para la gestión de redes modernas. Actividades de la semana 5: - Implementación de laboratorios con routers y switches. - Configuración de topologías de red complejas. - Análisis de rendimiento y resolución de problemas. Actividades de la semana 6: - Extensión de laboratorios con servidores en la nube. - Integración de servicios de red adicionales. - Evaluación de seguridad y eficiencia en las configuraciones de red. Objetivo 5: Realizar prácticas finales que integren todos los conocimientos adquiridos. En la séptima semana, se realizaron prácticas y laboratorios finales que abarcaban todos los temas vistos en las semanas anteriores, consolidando así los conocimientos adquiridos. Estas actividades finales fueron diseñadas para evaluar la capacidad de los estudiantes para aplicar de manera efectiva todos los conceptos aprendidos y resolver problemas complejos de red.   Actividades de la semana 7: - Realización de prácticas integradas y laboratorios finales. - Evaluación de habilidades y conocimientos adquiridos.


CONCLUSIONES

Resultados: Adicionalmente, el trabajo se centró en la creación de material didáctico utilizando Packet Tracer para simular configuraciones y escenarios de red complejos. Esto permitió un aprendizaje interactivo y práctico, facilitando la comprensión de conceptos teóricos aplicados a situaciones del mundo real. Packet Tracer fue una herramienta clave para simular diferentes topologías de red y evaluar el comportamiento de las configuraciones sin necesidad de equipo físico. Conclusiones: Durante el proyecto, se logró una comprensión profunda de la configuración y administración de redes de comunicación. La combinación de prácticas supervisadas, creación de material didáctico y laboratorios avanzados permitió a los estudiantes desarrollar habilidades prácticas esenciales. La integración de un servidor en la nube añadió una dimensión moderna a las prácticas, preparando a los estudiantes para desafíos del mundo real. El uso de Packet Tracer como herramienta de simulación fue fundamental para el éxito del proyecto, permitiendo a los estudiantes experimentar con configuraciones complejas en un entorno controlado. Este proyecto ha demostrado ser un éxito en la preparación de estudiantes para roles en el campo de las redes de comunicación, proporcionando una base sólida de conocimientos y habilidades prácticas necesarias para abordar los desafíos tecnológicos actuales.
Avila Maximo Leticia, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Diana Elizabeth Vázquez Valerdi, Benemérita Universidad Autónoma de Puebla

INVESTIGACIÓN DE LAS PROPIEDADES DE LAS PELÍCULAS DELGADAS DE ÓXIDO DE ZINC PARA APLICACIONES EN DISPOSITIVOS OPTOELECTRONICOS Y FOTOVOLTAICOS.


INVESTIGACIÓN DE LAS PROPIEDADES DE LAS PELÍCULAS DELGADAS DE ÓXIDO DE ZINC PARA APLICACIONES EN DISPOSITIVOS OPTOELECTRONICOS Y FOTOVOLTAICOS.

Avila Maximo Leticia, Benemérita Universidad Autónoma de Puebla. Moreno Gómez Jesús, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Diana Elizabeth Vázquez Valerdi, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Las películas delgadas de óxido de zinc (ZnO) son de gran interés científico por sus notables propiedades ópticas y eléctricas, siendo prometedoras para dispositivos optoelectrónicos y fotovoltaicos. La optimización de estas propiedades requiere entender cómo los parámetros de depósito, como temperatura y tiempo, influyen en las características finales del material. El ZnO, un semiconductor con un amplio band gap (3.25 a 4 eV), es altamente transparente en el espectro visible y absorbe fuertemente en la región ultravioleta, haciéndolo ideal para celdas solares, sensores y dispositivos optoelectrónicos. Sin embargo, las variaciones en el proceso de depósito pueden alterar significativamente la microestructura, orientación cristalina y defectos del material, afectando sus propiedades. La técnica de depósito por spray pirolisis ultrasónico ofrece ventajas frente a otros métodos de deposición de películas delgadas. Permite un control preciso sobre la composición y espesor de las películas, esencial para obtener propiedades específicas. Además, produce películas homogéneas y uniformes a gran escala, beneficiosas para aplicaciones industriales. Esta técnica opera a temperaturas más bajas que métodos como la deposición química de vapor (CVD), reduciendo el consumo de energía y los costos asociados a sistemas de depósito complejos que requieren ultra alto vacío y gases de arrastre.



METODOLOGÍA

El óxido de zinc (ZnO) es un semiconductor con un amplio band gap, alta transparencia en el espectro visible y fuerte absorción en la región ultravioleta, ideal para dispositivos optoelectrónicos y fotovoltaicos. La técnica de depósito por spray pirolisis ultrasónico se utiliza para sintetizar películas delgadas de ZnO debido a su capacidad para producir recubrimientos uniformes y controlados, facilitando la optimización de las propiedades ópticas y eléctricas. *Preparación de Soluciones Precursoras:* Se preparó una solución precursora de acetato de zinc dihidratado disuelto en metanol. Para una concentración de 0.2 M, se disolvieron 2.195 gramos de acetato de zinc en 50 ml de metanol. La solución se agitó ultrasónicamente por 2 horas y se dejó reposar 24 horas antes de su uso. *Limpieza de Sustratos:* Los sustratos de silicio y vidrio se limpiaron mediante inmersión en xileno, acetona y metanol durante 10 minutos en una cubeta ultrasónica. *Depósito de Películas:* El depósito de las películas de ZnO se realizó usando un nebulizador y una campana de cuarzo. Los sustratos se colocaron sobre una parrilla con temperaturas controladas de 300°C, 350°C y 400°C. La frecuencia de nebulización y el tiempo de depósito (2 a 20 minutos) se ajustaron para obtener películas de diferentes espesores y propiedades. *Caracterización de las Películas:* *Propiedades Ópticas:* La espectroscopía UV-Vis se utilizó para evaluar la absorción y transmitancia de las películas, mostrando alta absorción en la región UV y alta transparencia (superior al 80%) en la región visible. El índice de refracción (n) y el índice de extinción (k) se determinaron mediante espectroscopía, con valores bajos de k (0.0115 a 0.0916), indicando baja absorción de luz y alta transparencia en la región visible. *Propiedades Estructurales (XRD):* La difracción de rayos X (XRD) se utilizó para evaluar la cristalinidad, fase y orientación de las películas de ZnO. Las películas son policristalinas con fase hexagonal wurtzita. Las películas depositadas a 300°C y 350°C tienen orientación preferencial en el plano (101), mientras que a 400°C la orientación cambió al plano (100), sugiriendo un cambio en la dinámica de crecimiento cristalino a temperaturas más altas. *Propiedades Eléctricas:* Se realizaron mediciones de curvas I-V (corriente - voltaje) e I-T (corriente - tiempo) para evaluar las propiedades eléctricas de las películas de ZnO. Las variaciones en la orientación cristalina y el tamaño de los cristalitos afectan las propiedades eléctricas. La orientación (101) favorece el transporte de electrones debido a una estructura más ordenada, mientras que la orientación (100) a 400°C podría aumentar la densidad de estados defectivos, afectando negativamente la conductividad eléctrica pero mejorando la sensibilidad en aplicaciones de sensores. Se observó foto-conducción, con un aumento en la corriente de hasta tres órdenes de magnitud al exponer las películas a la luz visible (de 20 nA a 20 µA).


CONCLUSIONES

El desarrollo de este trabajo logró cumplir de manera satisfactoria los objetivos planteados al inicio de la investigación. Se realizó una caracterización exhaustiva de las películas delgadas de ZnO depositadas mediante la técnica de spray pirolisis ultrasónico, demostrando que es posible optimizar las condiciones de deposición para obtener películas con alta transparencia y bajas propiedades de absorción. Los resultados confirman que el control preciso de la temperatura y el tiempo de deposición permite ajustar la estructura cristalina y la morfología superficial, mejorando así el rendimiento en aplicaciones optoelectrónicas y fotovoltaicas. En resumen, esta investigación establece una base sólida para futuras aplicaciones del ZnO, destacando la efectividad de la técnica de spray pirolisis ultrasónico en la fabricación de materiales avanzados. Se obtuvo un band gap entre 3.25 y 4 eV y una transparencia superior al 80% en el espectro visible. Los resultados confirman que ajustar la temperatura y el tiempo de deposición mejora la estructura y la morfología de las películas, optimizando su rendimiento en aplicaciones específicas. En resumen, se establece una sólida base para futuras aplicaciones del ZnO, demostrando la eficacia de la técnica de spray pirolisis ultrasónico en la fabricación de estos materiales avanzados.
Avila Pérez Esmeralda, Universidad Tecnológica de Xicotepec de Juárez
Asesor: Post-doc Jose Luddey Marulanda Arevalo, Universidad Tecnológica de Pereira

CARACTERIZACIÓN DE RECUBRIMIENTOS DUROS APLICADOS POR SOLDADURA SMAW: EVALUACIÓN POR DESGASTE ABRASIVO BAJO NORMA TECNICA ASTM G-65.


CARACTERIZACIÓN DE RECUBRIMIENTOS DUROS APLICADOS POR SOLDADURA SMAW: EVALUACIÓN POR DESGASTE ABRASIVO BAJO NORMA TECNICA ASTM G-65.

Acundo Tellez Xochitl, Universidad Tecnológica de Xicotepec de Juárez. Avila Pérez Esmeralda, Universidad Tecnológica de Xicotepec de Juárez. Cervantes Arellano Samantha, Instituto Tecnológico de Morelia. Lemus Chávez Martín, Instituto Tecnológico de Morelia. Zacarias Rocha Osbaldo, Instituto Tecnológico de Morelia. Asesor: Post-doc Jose Luddey Marulanda Arevalo, Universidad Tecnológica de Pereira



PLANTEAMIENTO DEL PROBLEMA

Los aceros juegan un papel fundamental en la vida útil de las herramentas que son sometidos a distintos trabajos; es por eso que la aplicación de estos recubrimientos es de ayuda importante para mejorar las propiedades mecánicas que requerimos ayudando a alargar su vida util, de esta manera podemos ahorrar capital.



METODOLOGÍA

Se aplicaron 2 tipos de recubrimientos duros Gridur 600 y Gridur 350, además de un electrodo de aporte E 6011 a  placas de acero de bajo carbono para posteriormete a estos recubrimientos y electrodo aplicarles prubeas de dureza Rockwell , aplicar pruebas de de desgaste abrasivo en una máquina que cumple con la Norma Técnica ASTM G-65 y finalmente realizar pruebas de cacterizacion. 


CONCLUSIONES

Con los datos obtenidos apartir de las pruebas podemos concluir que es muy importante saber a que trabajo sera sometidos nuestros aceros, la dureza que buscamos siempre se encontraran apartir de aplicar varias capas de recubrimiento esto es porque en la primera capa siempre encontraremos una mezcla de composicion del acero base con recubrimiento mientras en la tercera capa en su mayoria encontraremos un % de recubrimiento mayor aportando mayores durezas.
Ayala Martínez Yaretzi Dayanna, Instituto Politécnico Nacional
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

IMPLEMENTACIóN DE PROGRAMAS EDUCATIVOS EN CONCEPTOS BáSICOS DE BASES DE DATOS Y LA INSTALACIóN DE MYSQL WORKBENCH PARA NIVELES BáSICOS Y MEDIA SUPERIOR


IMPLEMENTACIóN DE PROGRAMAS EDUCATIVOS EN CONCEPTOS BáSICOS DE BASES DE DATOS Y LA INSTALACIóN DE MYSQL WORKBENCH PARA NIVELES BáSICOS Y MEDIA SUPERIOR

Ayala Martínez Yaretzi Dayanna, Instituto Politécnico Nacional. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad las escuelas de niveles básicos y media superior carecen de una introducción a carreras especializadas; Solo unas pocas instituciones a nivel medio superior ofrecen alguna forma de orientación vocacional o especialización temprana. A pesar de que muchos estudiantes muestran una gran iniciativa e interés por aprender de manera continua, se ven limitados por la escasa información y las oportunidades disponibles. Las diversas áreas del conocimiento, como las bases de datos desarrolladas en el programa MySQL, representan una oportunidad significativa para los estudiantes procurando el desarrollo académico y profesional. Es fundamental que la población estudiantil de niveles básicos y media superior tenga acceso a una educación de calidad ya que esto no solo mejorará sus perspectivas académicas, sino que también contribuirá al desarrollo de habilidades técnicas y profesionales necesarias para el futuro. Por lo tanto, se plantea la necesidad de implementar programas educativos que incluyan la enseñanza de conceptos basicos dentro de las bases de datos y otras áreas tecnológicas desde los niveles básicos y media superior, garantizando así una formación integral y accesible para todos los estudiantes.  



METODOLOGÍA

Para abordar la falta de introducción a carreras especializadas en niveles básicos y media superior, se realizó una investigación exhaustiva sobre conceptos básicos de bases de datos. La investigación se dividió en las siguientes áreas clave: Dato Información Base de Datos Entidad Atributos Características de los Atributos Tuplas Sistema Gestor de Base de Datos (SGBD) Procedimiento de Investigación Recolección de Información: Se buscaron y analizaron fuentes bibliográficas y electrónicas que abordaron los conceptos básicos de bases de datos. Desarrollo de Material Educativo: Documento de investigación: Se elaboró un documento que compiló toda la información investigada, presentándola de manera clara y estructurada. Video tutorial: Se creó un video detallado sobre la descarga e instalación de MySQL y MAMP, mostrando paso a paso el proceso y cómo aplicar los conocimientos adquiridos. Guion del video: Se redactó un guión detallado para el video tutorial, asegurando que todos los pasos y explicaciones fueran claros y comprensibles. Presentación en Canva: Se diseñó una presentación interactiva en Canva para facilitar la explicación de los conceptos en clases presenciales. Materiales de Refuerzo: Preguntas de Evaluación: Se crearon preguntas sobre los temas abordados, con tres respuestas posibles, para reforzar el aprendizaje de los estudiantes. Sopa de Letras y Crucigramas: Se diseñaron actividades lúdicas, como sopa de letras y crucigramas, para ayudar a los estudiantes a familiarizarse con los términos y conceptos de bases de datos. Manuales de MySQL y MAMP: Se elaboraron manuales detallados que complementaron los videos, proporcionando una guía paso a paso para los estudiantes. Evaluación y Retroalimentación: Se implementaron sesiones de retroalimentación con los estudiantes para evaluar la efectividad del material educativo. Se ajustaron y mejoraron los materiales según los comentarios y sugerencias recibidas del investigador.


CONCLUSIONES

Como resultado de esta investigación logré adquirir conocimientos teóricos sobre los conceptos básicos de bases de datos y los puse en práctica mediante la creación de una serie de recursos educativos diseñados para facilitar la introducción a estos mismos en niveles básicos y media superior. Estos recursos, implementados dentro de un libro, incluyen videos tutoriales, presentaciones interactivas, guiones detallados, preguntas de evaluación y actividades lúdicas como sopas de letras y crucigramas. Además, se complementaron con manuales prácticos para el uso de MySQL y MAMP. Estos materiales se crearon con el fin de no solo proporcionar a los estudiantes una comprensión sólida de los conceptos básicos de bases de datos, sino que también fomenten el desarrollo de habilidades técnicas y de resolución de problemas. Se anticipa que la exposición temprana a estas áreas tecnológicas incremente la motivación e interés de los estudiantes por seguir carreras en el campo de la tecnología y de igual forma generen conocimientos de manera autónoma con sesiones de retroalimentación que generen a una mejora continua del programa educativo. ¿Cómo crees que la implementación de programas educativos especializados en bases de datos desde niveles básicos y media superior podría influir en el futuro académico y profesional de los estudiantes en el campo de la tecnología?
Ayala Mercado Eduardo, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. Maricela Aguilar Almanza, Instituto Tecnológico Superior de Irapuato

PROTOTIPO PARA EL CONTROL DE INVENTARIO, EMPLEANDO TECNOLOGíA RFID.


PROTOTIPO PARA EL CONTROL DE INVENTARIO, EMPLEANDO TECNOLOGíA RFID.

Ayala Mercado Eduardo, Instituto Tecnológico Superior de Irapuato. Correa González José Ulises, Instituto Tecnológico Superior de Irapuato. Granados Regalado Diego, Instituto Tecnológico Superior de Irapuato. Hernández Hdz Jonathan, Instituto Tecnológico Superior de Irapuato. Rodriguez Vázquez Magdiel Dario, Instituto Tecnológico Superior de Irapuato. Torres Morales Luis Daniel, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. Maricela Aguilar Almanza, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Objetivo    Desarrollar una alternativa viable para capturar datos del control de entradas, salidas y estatus de piezas de inventario con tecnología RFID, y almacenar los datos en un manejador de base de datos para consultas y/o modificaciones posteriores.  Problemática   La problemática identificada se da en una escuela de educación básica en una comunidad del Municipio de Irapuato, en la que la directora debe realizar inventario de material y mobiliario por lo menos una vez al finalizar el ciclo escolar. Actualmente el registro del material en inventario se almacena en archivos de Excel en los que la directora debe ir identificando salón por salón la existencia y estado de cada uno de los materiales mencionados. Antes de iniciar la revisión, debe asegurarse de realizar una copia de seguridad del archivo anterior para prevenir la pérdida de información o eventualidades. La revisión es tediosa ya que debe ir filtrando y haciendo notas en el mismo archivo, lo que es tardado y extenuante, hay ocasiones en que le lleva casi una hora concluir con el inventario en un solo salón, esto depende de la organización o ubicación del material o recurso.  



METODOLOGÍA

Metodología  El prototipo se desarrolló a través de la metodología XP (Extreme Programming/Programación Extrema).  Primero, se identificó la problemática central: la dificultad y el tiempo que conlleva revisar los elementos, se realizaron preguntas clave a la persona encargada, para entender a fondo el proceso actual y explorar alternativas que facilitarían el trabajo, se inició con el proceso de planificación donde se plantearon las posibles soluciones, tales como el desarrollo de una aplicación web, una aplicación móvil o de escritorio que cubriera las necesidades mediante el uso del prototipo.    Se optó por continuar con el desarrollo de una aplicación de escritorio, ya que es más beneficiosa para realizar los movimientos específicos que indicó el cliente en su problemática.  Antes de planearse las pestañas necesarias para desarrollar la aplicación de escritorio, se debían migrar los datos de Excel a una base de datos adecuada, se propuso usar SQLite3 para manejar los datos de forma local sin afectar el rendimiento del equipo, la migración se realizará una vez que la base de datos esté normalizada.  Como se mencionó anteriormente, se requiere normalizar las tablas antes de migrarlas. El cliente indicó que desea separar los datos A de los datos B, por lo que se procedió a realizar esta separación, asignando los campos requeridos para cada uno.  Aunque inicialmente se había definido que sería una aplicación de escritorio, es necesario tener en cuenta las pestañas a utilizar, inicialmente, se había pensado en una única pestaña que recibirá los datos de lectura del prototipo, sin embargo, tras analizar nuevamente la problemática, se identificó la necesidad de varias pestañas para la elaboración de la actividad, ya que se debe cubrir un sistema de inicio de sesión así como un menú para los diferentes campos que se quieren abarcar, por consiguiente, se propusieron las siguientes ideas:  Una pantalla encargada de realizar el Log-in.  Una pantalla encargada de fungir como Menú principal.  Una pantalla encargada de recibir los datos recabados por el prototipo y validar que existan en la base de datos.  Una pantalla que reciba y permita modificar cualquier campo de los datos recopilados por el prototipo.  Después de decidir las pantallas necesarias para la aplicación y determinar a dónde migrar los datos, se procede a desarrollar el prototipo para leer y enviar los datos a la aplicación de escritorio. 


CONCLUSIONES

Conclusión  Durante el verano, se adquirieron conocimientos teóricos y prácticos esenciales para simplificar y agilizar el proceso de inventario en la escuela mencionada. Se utilizaron tecnologías como Wifi, Bluetooth e infrarrojo para mejorar la eficiencia y precisión del registro y gestión de materiales. Sin embargo, debido a la extensión del trabajo, aún se encuentra en la fase de prototipo y no se pueden mostrar los datos obtenidos. Se espera una reducción de tiempo al realizar el inventario, así como un incremento en la eficiencia del inventario y en la búsqueda de este. 
Ayala Romero Daniela, Instituto Tecnológico Superior de Uruapan
Asesor: Mtro. Juan Carlos Gagna, Instituto Tecnológico de Estudios Superiores de Zamora

TRATAMIENTO DE AGUAS RESIDUALES MEDIANTE CAVITACIóN Y GOLPE DE ARIETE


TRATAMIENTO DE AGUAS RESIDUALES MEDIANTE CAVITACIóN Y GOLPE DE ARIETE

Ayala Romero Daniela, Instituto Tecnológico Superior de Uruapan. Cabello Granados Maria Evelyn, Instituto Tecnológico de Querétaro. López Reséndiz Andrea, Instituto Tecnológico de Querétaro. Asesor: Mtro. Juan Carlos Gagna, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

México enfrenta una crisis por falta de agua debido al aumento de la población y las actividades agropecuarias e industriales. La contaminación por aguas residuales domésticas e industriales es un desafío ambiental crítico. Esta situación se agrava por el tratamiento insuficiente de aguas residuales, ya que solo se trata el 57%. El uso de tecnología de cavitación y golpe de ariete en el tratamiento de aguas residuales es una solución viable para reducir la contaminación y aprovechar este recurso.



METODOLOGÍA

Proceso tradicional de tratamiento de aguas residuales Pretratamiento: Eliminación de sólidos grandes y flotantes. Igualación y homogeneización: Estabilización del flujo y la carga contaminante. Tratamiento biológico: Descomposición de materia orgánica mediante procesos anaerobios. Deshidratación de lodos: Reducción del volumen de lodos. Tratamiento terciario: Eliminación de compuestos orgánicos volátiles, patógenos y otros contaminantes. La cavitación y el golpe de ariete como alternativa La cavitación genera burbujas de vapor que colapsan, liberando energía y provocando un golpe de ariete. Beneficios: Descomposición de contaminantes: La energía liberada rompe las moléculas de los contaminantes. Oxidación de compuestos orgánicos: Elimina olores, sabores y compuestos tóxicos. Formación de radicales libres y ozono: Descompone contaminantes difíciles de eliminar. Mejora de la eficiencia de la bomba: Reduce costos y aumenta la productividad. Necesidad de investigación Estudios de caso: Identificar experiencias previas exitosas. Modelos matemáticos: Simular el comportamiento de la cavitación y el golpe de ariete en sistemas de tratamiento. Diseño de reactores: Desarrollar equipos específicos para inducir y controlar estos fenómenos.


CONCLUSIONES

Las empresas y personas generan muchos residuos, a menudo sin considerar su manejo adecuado. Un ejemplo es el agua, que después de ser usada se ensucia con restos del proceso o desechos domésticos. No siempre es viable desechar esta agua, ya que existen alternativas para su reutilización, como el tratamiento de agua que elimina elementos dañinos para darle un nuevo uso. El uso de una bomba con golpe de ariete es ventajoso para el tratamiento de aguas residuales industriales y domésticas. Este método utiliza la energía y movimiento del agua para dirigir el fluido, aprovechando la presión del agua al ingresar a la bomba y generando cavitación. Este proceso facilita el golpe de ariete, obteniendo beneficios en la depuración de agua residual. Hoy en día, los problemas ambientales severos son causados por la mala administración de recursos naturales y el manejo inadecuado de residuos. Los resultados de esta investigación sugieren que la combinación de cavitación y golpe de ariete puede ser útil para tratar ciertos contaminantes en aguas residuales. Sin embargo, es necesario realizar estudios adicionales para evaluar la viabilidad técnica de esta combinación a largo plazo, lo que podría ofrecer soluciones innovadoras y sostenibles para el tratamiento del agua.  
Ayon Rosales Dafne Gissell, Universidad de Guadalajara
Asesor: Dra. Alma Yolanda Alanis García, Universidad de Guadalajara

PROTOTIPO DIDáCTICO CEREBRAL


PROTOTIPO DIDáCTICO CEREBRAL

Ayon Rosales Dafne Gissell, Universidad de Guadalajara. Bautista Islas Joshua, Instituto Politécnico Nacional. Montalvo Maldonado Hugo Armando, Universidad de Guadalajara. Morales Sánchez Emanuel Alejandro, Universidad de Guadalajara. Asesor: Dra. Alma Yolanda Alanis García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Comprender el funcionamiento y las áreas del cerebro es fundamental no solo para la educación en neurociencia, sino también para la investigación en inteligencia artificial y el desarrollo de redes neuronales artificiales. Este proyecto se centra en la creación de un modelo interactivo del cerebro humano, con el objetivo de que los usuarios puedan conocer todas las partes fundamentales del cerebro, incluyendo su ubicación anatómica y sus funciones específicas. Consideramos que este modelo será una herramienta educativa valiosa para estudiantes, investigadores y el público en general, facilitando la divulgación científica de manera accesible y atractiva.



METODOLOGÍA

Se realizó una investigación exhaustiva sobre la anatomía y fisiología cerebral, enfocada en las diferentes partes y áreas específicas del cerebro que realizan tareas determinadas. Estas áreas, conocidas como lóbulos, incluyen: Lóbulo Frontal: Control del movimiento, personalidad, concentración, planificación, resolución de problemas, significado de las palabras, reacciones emocionales, habla y olfato. Lóbulo Parietal: Tacto y presión, gusto, y conciencia corporal. Lóbulo Temporal: Recepción y procesamiento de los sonidos, reconocimiento de rostros, emociones y memoria a largo plazo. Lóbulo Occipital: Vista. Cerebelo: Control motor, equilibrio y coordinación. Lóbulo Límbico: Control de emociones como felicidad, tristeza y amor. Con esta información, buscamos modelos para imprimir en 3D nuestro modelo didáctico. Se imprimió un modelo detallado del cerebro, asegurando una representación precisa de las estructuras anatómicas y sus interconexiones. Después del trabajo de diseño e impresión 3D, se dividieron los lóbulos y las áreas de cada una de las funciones del cerebro. Se desarrolló una aplicación móvil conectada a una Raspberry Pi, que permite la selección de regiones cerebrales específicas. Al seleccionar una región, la aplicación muestra un video explicativo sobre su funcionamiento, y el modelo didáctico se ilumina mediante LEDs en el área correspondiente, mostrando así al usuario la ubicación anatómica. Este desarrollo de interactividad asegura una experiencia de aprendizaje inmersiva y dinámica. Realizamos diferentes pruebas para evaluar la facilidad de uso, la comprensión del contenido y la efectividad de las tecnologías interactivas implementadas. Basados en la retroalimentación, realizamos ajustes y mejoras para optimizar la experiencia de usuario y la precisión del contenido.


CONCLUSIONES

El proyecto "Prototipo Didáctico Cerebral" ha logrado desarrollar una herramienta educativa innovadora que combina el modelado 3D, la interactividad mediante tecnologías avanzadas y la accesibilidad inclusiva. Las pruebas demostraron que el prototipo es fácil de usar y efectivo en la transmisión del conocimiento. Este proyecto tiene el potencial de transformar la enseñanza y el aprendizaje de la neurociencia.
Baca Cruz Alexis, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Adrian Núñez Vieyra, Instituto Tecnológico de Morelia

DETECCIóN FíSICA DE AMENAZAS USANDO REDES DE VIDEOVIGILANCIA VECINALES Y VíDEO ANáLISIS


DETECCIóN FíSICA DE AMENAZAS USANDO REDES DE VIDEOVIGILANCIA VECINALES Y VíDEO ANáLISIS

Baca Cruz Alexis, Instituto Tecnológico Superior de Ciudad Hidalgo. Carrillo Vaca Edgar Brandom, Instituto Tecnológico Superior de Ciudad Hidalgo. Mora Sandoval Juan David, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Adrian Núñez Vieyra, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

Los Sistemas de Videovigilancia, se están convirtiendo en un importante aliado para resolver o esclarecer diferentes problemas de seguridad tales como, accidentes de tránsito, 2 disturbios en la vía pública, destrozos y robos en propiedad privada, etc. Sin embargo, la mayoría de estos sistemas terminan convirtiéndose en gigantescas bases de datos que suelen ser analizadas manualmente después de ocurrido un delito. En diversas empresas, asi como en espacios públicos, son parte esencial la supervisión de la afluencia peatonal y la detección de posibles actos inusuales esto, surge a una necesidad mayor, fuera de los horarios laborales, como lo es en altas horas de la noche. Sin embargo, la falta de sistemas tecnológicos y la fata de sistemas automatizados para dicha supervisión han traído consigo, la falta de recursos suficientes para poder llevar a cabo investigaciones de seguridad. La problemática principal en la detección de amenazas radica en la ausencia de sistemas automatizados que incorporen diversos parámetros estandarizados para la detección, es por ello, que en el verano de la investigación, nos enfocamos en el desarrollo de un sistema basado en visión por computadora que utiliza modelos avanzados de detección y seguimiento para contar personas, registrar actividades y generar estadísticos con ayuda de la inteligencia artificial, ya que este enfoque tiene como objetivo optimizar la seguridad y la gestión de recursos en distintos periodos del día, tanto en horarios laborales como no laborales.



METODOLOGÍA

1. Configuración del Sistema: Hardware: Utilización de cámaras de seguridad compatibles con RTSP. Software: Implementación de un entorno de desarrollo basado en Python, utilizando bibliotecas como OpenCV, NumPy, y el modelo YOLOv8 para detectar personas. Base de Datos: Configuración de una base de datos MySQL para almacenar registros de detección de personas y actividades.   2. Detección y Seguimiento de Personas: Modelado: Implementación del modelo YOLOv8 para la detección de personas en los flujos de video en tiempo real. Seguimiento: Uso del algoritmo SORT para el seguimiento de las personas detectadas, asignando identificadores únicos a cada individuo.   3. Almacenamiento y Gestión de Datos: Registro de Actividades: Almacenamiento de los registros de detección en la base de datos MySQL, incluyendo la identificación de la persona, la actividad y la marca de tiempo. Limpieza de Datos: Funcionalidad para limpiar la tabla de datos de personas cuando sea necesario.   4. Generación de Estadísticas: Cálculo de Promedios: Desarrollo de consultas SQL para calcular la afluencia peatonal promedio en distintos horarios del día y días de la semana tanto laborales como no laborales. Visualización: Creación de una interfaz visual utilizando OpenCV para mostrar las estadísticas generadas.   5. Pruebas y Validación: Pruebas en Entorno Controlado: Implementación y ajuste del sistema en un entorno distinto (Raspberry pi 3, Raspberry pi 4, Raspberry pi 5, jetson Nano, por mencionar algunos entornos) para validar la precisión y eficiencia del sistema. Ajustes y Mejoras: Iteraciones basadas en los resultados de las pruebas para mejorar la detección, seguimiento y generación de estadísticas.


CONCLUSIONES

Al utilizar tecnología avanzada de visión por computadora y algoritmos de seguimiento, la implementación al sistema automatizado de supervisión y control de cámaras, nos permite una mejora significativa en la seguridad y gestión operativa de espacios públicos y privados, ya que el sistema proporciona un monitoreo continuo y preciso de la afluencia peatonal, tanto en horarios laborales como no laborales. Esto gracias a los estadísticos que se generan, ya que nos ofrecen una visión detallada de los patrones de comportamiento, facilitando la toma de decisiones ante esta implementación de seguridad.   EL enfoque no solo se centra en optimizar la eficiencia operativa, sino que fortalece tambien, la seguridad, proporcionando asi, una solución practica para el monitoreo, análisis y control de las actividades peatonales.
Balboa López Iván Enrique, Instituto Tecnológico de Matamoros
Asesor: Dra. Edith Corona Jiménez, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE LOS ESPECTROS INFRARROJOS DE EXTRACTOS DE BRáCTEAS DE BUGAMBILIA (BOUGAINVILLEA GLABRA) OBTENIDOS MEDIANTE SOLVENTES EUTéCTICOS PROFUNDOS NATURALES.


ANáLISIS DE LOS ESPECTROS INFRARROJOS DE EXTRACTOS DE BRáCTEAS DE BUGAMBILIA (BOUGAINVILLEA GLABRA) OBTENIDOS MEDIANTE SOLVENTES EUTéCTICOS PROFUNDOS NATURALES.

Balboa López Iván Enrique, Instituto Tecnológico de Matamoros. Asesor: Dra. Edith Corona Jiménez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La bugambilia (Bougainvillea glabra) es una planta ornamental ampliamente conocida por sus brácteas coloridas, que no solo aportan belleza visual, sino que también son una fuente rica en compuestos bioactivos como flavonoides, betalaínas y otros antioxidantes. La espectroscopia de infrarrojo es una herramienta mediante la cual se pueden identificar interacciones entre grupos funcionales, a la vez que caracterizar moléculas e identificar compuestos con mayor precisión. Es por esto que mediante esta técnica de identificación espectroscópica se busca identificar las mencionadas interacciones entre los grupos funcionales de las muestras obtenidas a partir de la extracción de bugambilia, además de caracterizar los NADES y sembrar un precedente bibliográfico que permita su pronta mejoría y adición a la industria agroalimentaria.



METODOLOGÍA

Los espectros infrarrojos (FT-IR) se obtuvieron mediante un equipo ATR (Spectrum 3, PerkinElmer) a partir de 5 tipos de extracto de brácteas de bugambilia secas y pulverizadas. Como solventes se probaron agua, etanol 50% v/v, NADES 1 (fructosa [30% m/m]/ácido cítrico [30% m/m]/agua [40% m/m]), NADES 2 (sorbitol [30% m/m]/ácido cítrico [30% m/m]/agua [40% m/m]) y NADES 3 (xilitol [30% m/m]/ácido cítrico [30% m/m]/agua [40% m/m]). De forma complementaria a los extractos, se obtuvieron los espectros infrarrojos de cada precursor y solvente utilizado.


CONCLUSIONES

En los precursores utilizados se visualizaron bandas características de los grupos funcionales en estos compuestos. Para el ácido cítrico, por ejemplo, se registraron bandas de absorción en 3493 cm-1, correspondiente a los grupos -OH libres en la molécula, junto a bandas en 1694 y 1745 cm-1, atribuidas a grupos C=O y C-O-H, respectivamente.  Los espectros FTIR también mostraron evidencia de interacciones moleculares entre los precursores utilizados para sintetizar los solventes eutécticos. En los tres NADES utilizados se observaron bandas entre 3330 y 3460 cm-1, correspondientes al estiramiento de grupos -OH. La banda de absorción en 1630 cm-1 podría ser atribuida la deformación angular de los grupos -OH de las moléculas de agua presentes en los NADES. Sumado a lo anterior en los tres NADES se registró un desplazamiento de la banda correspondiente a los grupos C=O de 1694, en el ácido cítrico, a 1714-1716 cm-1. Esto se considera un indicativo del aumento en la densidad de electrones del oxígeno en los grupos carbonilo, que a su vez puede explicarse por la formación de puentes de hidrógeno entre los precursores. También se observó un desplazamiento de las bandas correspondientes a los grupos -OH entre las longitudes de onda de 2000 y 2500 cm-1, lo que ofrece evidencia adicional de la formación de puentes de hidrógeno. Cabe resaltar que no se observaron cambios apreciables en los espectros FTIR de los extractos en comparación con los solventes puros. Esto podría deberse a la mayor cantidad relativa de los solventes en comparación con otros compuestos en los extractos, lo que produciría el traslape de espectros distintos.
Balderrabano Castro Fernando, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Ivan Salgado Transito, Centro de Investigaciones en Óptica (CONACYT)

DISEÑO Y DIMENSIONAMIENTO DE UNA PLANTA FOTOVOLTAICA DE 20 MW MEDIANTE SYSTEM ADVISOR MODEL.


DISEÑO Y DIMENSIONAMIENTO DE UNA PLANTA FOTOVOLTAICA DE 20 MW MEDIANTE SYSTEM ADVISOR MODEL.

Balderrabano Castro Fernando, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Ivan Salgado Transito, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

México posee una gran diversidad geográfica y climática que le permite explotar diversas fuentes de energía sustentable, especialmente la energía fotovoltaica debido a la abundancia de luz solar. A pesar de esto, la mayoría de los proyectos fotovoltaicos de gran escala se concentran en el norte del país, dejando al centro y sureste subexplotados. Esta situación plantea la cuestión de por qué estas regiones, a pesar de tener condiciones favorables en ciertas áreas, no cuentan con más proyectos fotovoltaicos importantes. Un análisis comparativo financiero y de diseño de proyectos en estas regiones podría revelar su potencial para convertirse en nuevos centros de desarrollo de energía solar, promoviendo un futuro energético más sostenible y reduciendo la dependencia de combustibles fósiles en México.



METODOLOGÍA

Dentro de la presente investigación se llevó a cabo una comparación del diseño de una planta fotovoltaica de 20 MW utilizando el System Advisor Model (SAM) en dos ubicaciones distintas de México: Centro-Norte y Sureste. Las ubicaciones seleccionadas fueron Aguascalientes, Aguascalientes y Los Humeros, Puebla, elegidas por la variabilidad en el apoyo y la presencia de sistemas fotovoltaicos de gran escala. La selección de estas ubicaciones se basó en factores como el Potencial Fotovoltaico, la Irradiación Normal Directa (DNI), la temperatura y su distribución de la electricidad generada. En función de la tecnología de generación fotovoltaica presente en México, se optó por utilizar paneles solares TSM-670DE21 de la marca Trina Solar e inversores PV-4100 de Gamesa Electric, realizando el dimensionamiento correspondiente de la planta. Posteriormente, con la ayuda de SAM, se efectuó un análisis financiero basado en los acuerdos de compra de energía (PPA) ofrecidos por la Comisión Federal de Electricidad (CFE), el único distribuidor de energía del país, incluyendo la adaptación del modelo financiero en el Mercado Eléctrico Mayorista para su venta en cada uno de los Nodos de distribución de energía. En los resultados de este análisis se evaluaron indicadores clave como la Tasa Interna de Retorno (IRR), el Valor Presente Neto (VPN) y el Costo Nivelado de Energía (LCOE). Los cuales indicaron una producción y un desempeño financiero favorables para la implementación de sistemas fotovoltaicos de gran escala en la zona sureste, a pesar del escaso apoyo y la menor presencia en comparación con las regiones más al norte del país.


CONCLUSIONES

Gracias al dimensionamiento realizado con SAM, se observó que la capacidad de producción de energía fotovoltaica es directamente proporcional a la Irradiancia Global en cada ubicación. Factores como altas temperaturas y humedad afectan negativamente la producción de la planta, reflejándose en las pérdidas por desviación de condiciones estándar de prueba (STC) de los módulos. Estas pérdidas fueron mayores en Aguascalientes debido a sus altas temperaturas, lo que subraya la importancia de considerar las condiciones climáticas específicas al planificar la instalación de plantas fotovoltaicas. La excelente producción de energía eléctrica en Los Humeros, Puebla, a pesar de no contar con los mismos niveles elevados de irradiancia que Aguascalientes, se debe principalmente a su ubicación estratégica. Situado a una altitud de aproximadamente 3,150 metros sobre el nivel del mar, Los Humeros disfruta de cielos más despejados, mayores velocidades del viento y temperaturas ambientales más bajas, todos factores que favorecen una óptima producción de energía solar. Estos datos se reflejan en una menor pérdida por desviación de condiciones estándar de prueba (STC) de los módulos fotovoltaicos. En relación con las matrices de precios de venta elaboradas para cada Nodo de distribución, se obtuvieron datos favorables para ambas ubicaciones. Aunque la demanda y el precio de la energía eléctrica son mayores en Aguascalientes comparado con Los Humeros, el promedio anual de los precios de los Nodos mostró una variación mínima del 1.11%, debido a que forman parte del mismo sistema nacional interconectado. Además, la producción de energía en Aguascalientes fue un 6.231% superior a la de Los Humeros, lo que resultó en una ganancia monetaria en el VPN del 22.09%, ventaja la cual se atribuye principalmente a la ubicación estratégica de la planta en Aguascalientes. Aunque la producción de AC y el VPN hayan sido menores en Los Humeros, Puebla, en comparación con Aguascalientes, esto no implica que la inversión no sea rentable. Por el contrario, sigue siendo una opción viable. La TIR es ligeramente inferior, lo que se traduce en una recuperación de ingresos en Puebla solo un 7.37% más lenta que en Aguascalientes. La región sureste del país, y en particular la zona conocida como Los Humeros en el estado de Puebla, representa una oportunidad rentable para la generación de energía fotovoltaica. Por lo que se recomienda una mayor exploración de oportunidades en esta área para futuros proyectos, dada su viabilidad económica y su potencial para contribuir significativamente al desarrollo de energías renovables en México.
Baltazar Segura Edith Aurora, Universidad Tecnológica de Tecamachalco
Asesor: Mg. Henry Adolfo Lambis Miranda, Fundación Universitaria Tecnológico Comfenalco

EXTRACCIÓN DE ALMIDÓN A PARTIR DE RESIDUOS DE PLÁTANO PARA LA ELABORACIÓN DE UN BIOPOLÍMERO


EXTRACCIÓN DE ALMIDÓN A PARTIR DE RESIDUOS DE PLÁTANO PARA LA ELABORACIÓN DE UN BIOPOLÍMERO

Baltazar Segura Edith Aurora, Universidad Tecnológica de Tecamachalco. Sánchez Mariles Danna Paola, Universidad de Guadalajara. Asesor: Mg. Henry Adolfo Lambis Miranda, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

Durante 2023, según datos de Agronet (2024), la producción de banano en Colombia aumentó un 2%, alcanzando un total de 2,6 millones de toneladas. Esta abundante producción no solo destaca la importancia del banano en la economía agrícola del país, sino que también genera una cantidad significativa de residuos. Estos subproductos, que incluyen cáscaras y otros materiales no comestibles, representan un desafío ambiental considerable. La creciente preocupación por el impacto ambiental de los polímeros sintéticos ha impulsado la búsqueda de alternativas sostenibles y biodegradables. Entre estas alternativas, los biopolímeros han resultado como una solución prometedora debido a su capacidad para reducir la dependencia de los recursos fósiles y minimizar los residuos plásticos. El almidón, un polisacárido natural abundante y renovable, ha sido ampliamente estudiado como materia prima para la producción de biopolímeros.



METODOLOGÍA

La metodología se dividió en dos partes, la primera fue la extracción del almidón y la segunda fue síntesis del bioplástico modificado. La extracción se llevó a cabo mediante el método de extracción húmedo (Hernandez-Carmona, 2017). Por su parte, la síntesis del biopolímero se replicó varias veces con diferentes concentraciones hasta que se llegó a las características deseadas. De la elaboración del plástico biodegradable se determinó que la velocidad de secado y cantidades de almidón y glicerina son factores muy importantes, ya que afectan la elasticidad y estabilidad de la película a través del tiempo. Si el secado es rápido y a altas temperaturas se produce un material quebradizo, frágil; por otro lado, si esta operación se realiza de forma gradual se obtiene una película elástica y sin cortes. En cuanto a la relación almidón/glicerina, al aumentar las proporciones de esta última en la formulación se obtenía un producto más elástico.


CONCLUSIONES

En conclusión, se están aprovechando subproductos que de otro modo serían desechados, contribuyendo a la reducción de residuos y al cuidado del medio ambiente. La utilización de estos residuos no solo es una solución sostenible, sino que también permite la producción de materiales de alta calidad.
Barajas Angarita María Angélica, Universidad de Investigación y Desarrollo
Asesor: Dr. Víctor Daniel Aréchiga Cabrera, Universidad de Guadalajara

REDISEñO DEL SITIO WEB "CULTURA DE PAZ" PARA LA PREVENCIóN DE LA VIOLENCIA Y EL ACOSO EN ESTUDIANTES DE LA UNIVERSIDAD DE GUADALAJARA


REDISEñO DEL SITIO WEB "CULTURA DE PAZ" PARA LA PREVENCIóN DE LA VIOLENCIA Y EL ACOSO EN ESTUDIANTES DE LA UNIVERSIDAD DE GUADALAJARA

Barajas Angarita María Angélica, Universidad de Investigación y Desarrollo. Asesor: Dr. Víctor Daniel Aréchiga Cabrera, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La violencia y el acoso en el entorno universitario son problemas graves que afectan el bienestar y el rendimiento académico de los estudiantes. Estas situaciones pueden provocar consecuencias emocionales y psicológicas severas, incluyendo ansiedad, depresión y, en casos extremos, el abandono de los estudios. Para prevenir estos casos y brindar apoyo a los estudiantes, existen páginas del área de Primeros Contactos y la Defensoría de los Derechos Universitarios del Centro Universitario del Sur de la Universidad de Guadalajara. Sin embargo, se identificó que estas páginas no contaban con una interfaz amigable para el usuario. A pesar de contener la información necesaria, su diseño visual rígido y la longitud de los textos hacían difícil la digestión de la información. Debido a esto, se vio la necesidad de realizar un rediseño de estas áreas por medio de un sitio web llamado Cultura de Paz, creando una experiencia más amigable y accesible para el usuario, utilizando recursos más interactivos y llamativos para dirigirse efectivamente al público objetivo.



METODOLOGÍA

Durante un periodo de 7 semanas, se llevaron a cabo reuniones semanales los viernes con el investigador en las cuales se dividió el proyecto en las siguientes etapas: Definición de objetivos: Inicialmente el investigador Víctor Daniel Aréchiga expresó la necesidad de dar un contenido más interactivo y juvenil al sitio web Cultura de paz y se estableció como objetivo principal el enriquecimiento de la página con propuestas visuales y elementos interactivos. Además, el investigador adjuntó los documentos necesarios para la respectiva investigación previa como el PASSE de Primeros Contactos y demás páginas de la universidad que complementan la información. Propuestas visuales y elementos interactivos: en cada semana se trabajaron diferentes propuestas visuales y se diseñaron elementos interactivos para la página web en las cuales se incluían gráficos, banners, artículos y herramientas interactivas como violentómetro, test y demás recursos que enriquecían la página. Revisión y Retroalimentación: Durante cada reunión semanal, se presentaban las propuestas al investigador Víctor Daniel Aréchiga para que este proporcionara la respectiva retroalimentación y sugerencias a mejorar para la siguiente semana. Esto permitió pulir continuamente las propuestas y ajustarlas a las necesidades del proyecto.


CONCLUSIONES

Durante la pasantía, se logró completar casi en su totalidad los recursos necesarios para sentar una base sólida y enriquecer el sitio web Cultura de Paz, proporcionando una interfaz más amigable para el usuario. Aunque aún no se ha implementado con estudiantes reales, se espera que, una vez en funcionamiento, tenga un impacto positivo en los estudiantes de la Universidad de Guadalajara, ayudando a muchos a enfrentar y superar situaciones de violencia y acoso.
Barajas Esparza Brandon Josue, Universidad de Guadalajara
Asesor: Post-doc José Alejandro Guerrero Vargas, Universidad del Rosario

SIMULACION COMPUTACIONAL


SIMULACION COMPUTACIONAL

Barajas Esparza Brandon Josue, Universidad de Guadalajara. Asesor: Post-doc José Alejandro Guerrero Vargas, Universidad del Rosario



PLANTEAMIENTO DEL PROBLEMA

1. Reconstrucción de Imágenes Médicas El objetivo de esta investigación es desarrollar y mejorar técnicas de reconstrucción tridimensional de imágenes médicas mediante el uso de software avanzado, como Materialise Mimics y Materialise 3-matic. Se busca obtener modelos precisos de estructuras óseas, incluyendo los huesos lumbares, pelvis, coxis, coxal y húmero, para su aplicación en la planificación quirúrgica, diseño de prótesis personalizadas y estudios biomecánicos. 2. Prueba de Marcha en Pacientes Latinos El objetivo de esta investigación es analizar y comprender la biomecánica de la marcha en pacientes latinos mediante la utilización de un sistema de captura de movimiento, Vicon Nexus. Se pretende identificar patrones de movimiento y posibles anomalías, contribuyendo así a mejorar las estrategias de tratamiento y rehabilitación en fisioterapia.



METODOLOGÍA

Investigación en Reconstrucción de Imágenes Médicas y Biomecánica de la Marcha Durante mi investigación, trabajé en dos áreas principales con gran dedicación: 1. Reconstrucción de Imágenes Médicas: Me enfoqué en la reconstrucción de imágenes médicas utilizando los avanzados softwares Materialise Mimics y Materialise 3-matic. Estos programas son cruciales para convertir imágenes DICOM de tomografías computarizadas en modelos tridimensionales detallados. El objetivo fue reconstruir con precisión diversas estructuras óseas, incluyendo los huesos lumbares 4 y 5, la pelvis, el coxis, el coxal y el húmero. Los procedimientos que realicé incluyeron: - Procesamiento de Imágenes DICOM: Importé las imágenes DICOM al software Mimics y realicé una segmentación precisa para aislar las estructuras óseas. - Generación de Modelos 3D: Transformé las imágenes segmentadas en modelos tridimensionales utilizando las herramientas de segmentación y modelado de Mimics. - Reparación y Refinamiento: En Materialise 3-matic, corregí imperfecciones y eliminé artefactos no deseados para asegurar la precisión de los modelos. - Detallado y Pulido: Apliqué filtros y herramientas de suavizado para mejorar la calidad visual y estructural de los modelos, preparándolos para aplicaciones médicas y quirúrgicas. Este trabajo no solo mejoró la calidad de los modelos 3D, sino que también proporcionó una base sólida para investigaciones futuras y aplicaciones clínicas, como la planificación quirúrgica y el diseño de prótesis personalizadas. 2. Prueba de Marcha en Pacientes Latinos: Colaboré con estudiantes y profesores de Fisioterapia para analizar la biomecánica de la marcha en pacientes latinos utilizando el sistema Vicon Nexus. El objetivo fue identificar patrones de movimiento y posibles anomalías para mejorar el tratamiento y la rehabilitación en fisioterapia. El proceso incluyó: - Colocación de Marcadores Reflectivos: Se colocaron 16 marcadores en puntos anatómicos específicos del tren inferior del paciente, siguiendo el protocolo establecido para capturar movimientos precisos. - Captura y Procesamiento de Datos: Registramos el movimiento del paciente durante diferentes ciclos de marcha y procesamos los datos para analizar los ciclos y reconstruir cualquier pérdida de información. - Análisis Biomecánico:Realizamos un análisis detallado de los patrones de movimiento y posibles anomalías en la marcha, interpretando los resultados en conjunto con el equipo de Fisioterapia. Mi entusiasmo por la investigación fue significativamente reforzado por trabajar bajo la supervisión de un investigador destacado, cuyo enfoque metodológico y apoyo fueron fundamentales para mi desarrollo. Su orientación creó un entorno de aprendizaje estimulante y valioso, haciendo que esta experiencia fuera profundamente gratificante y formativa. La combinación de técnicas avanzadas y un enfoque en la mejora de la calidad de vida de los pacientes contribuyó a un avance significativo en las técnicas de reconstrucción de imágenes médicas y el análisis biomecánico de la marcha.


CONCLUSIONES

1. Reconstrucción de Imágenes Médicas Mi experiencia en procesamiento de imágenes médicas incluye el uso de Materialise Mimics y 3-matic para convertir imágenes DICOM en modelos 3D detallados. Realicé segmentación, generación de modelos, reparación y refinamiento de imágenes, mejorando la precisión y calidad de los modelos para aplicaciones clínicas y quirúrgicas. 2. Prueba de Marcha en Pacientes Latinos En el análisis de la marcha, utilicé el sistema Vicon Nexus para capturar y procesar datos de movimiento. Colocando marcadores reflectivos y analizando patrones de marcha, pude identificar anomalías y mejorar estrategias de tratamiento en fisioterapia, destacando mis habilidades en el análisis biomecánico y la captura de movimiento. Trabajar con un investigador destacado fue una experiencia muy enriquecedora. Su enfoque metodológico y su apoyo fueron cruciales para mi desarrollo profesional, creando un entorno de aprendizaje estimulante y valioso. Esta experiencia combinó técnicas avanzadas y un enfoque en la mejora de la calidad de vida de los pacientes, resultando en una contribución significativa a la investigación y aplicaciones clínicas.
Barajas Marquez Samuel, Universidad Politécnica de Texcoco
Asesor: Dra. Diana Areli Mora Zimbrón, Benemérita Universidad Autónoma de Puebla

IMPACTO DE LA HUELLA DE CARBONO GENERADA POR EL AUTOTRANSPORTE DE CARGA EN MEXICO


IMPACTO DE LA HUELLA DE CARBONO GENERADA POR EL AUTOTRANSPORTE DE CARGA EN MEXICO

Barajas Marquez Samuel, Universidad Politécnica de Texcoco. Asesor: Dra. Diana Areli Mora Zimbrón, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En México, el autotransporte de carga es un componente vital de la economía, facilitando el movimiento de bienes y servicios a lo largo del país. Sin embargo, este sector también es una fuente significativa de emisiones de gases de efecto invernadero (GEI), contribuyendo de manera importante al cambio climático y a la contaminación del aire. A medida que el país busca cumplir con sus compromisos ambientales y reducir su huella de carbono, es crucial entender el impacto específico del autotransporte de carga y explorar soluciones para mitigar sus efectos negativos.



METODOLOGÍA

La metodología del caso es un enfoque sistemático que se utiliza para investigar y analizar un problema específico mediante la recolección y análisis de datos relevantes. En este proyecto, la metodología se centra en evaluar el impacto de la huella de carbono generado por el autotransporte de carga en México, utilizando un marco teórico basado en la implementación de mejoras tecnológicas, optimización de rutas y políticas gubernamentales. Hipótesis General "Si se implementan mejoras tecnológicas en los vehículos de autotransporte de carga, se optimizan las rutas y se adoptan políticas gubernamentales estrictas sobre emisiones, entonces se logrará una reducción significativa en la huella de carbono del autotransporte de carga en México, contribuyendo así a la mitigación del cambio climático y a la mejora de la calidad del aire y la salud pública." Variables e Indicadores Variable Independiente: Mejoras tecnológicas en vehículos (Indicador: Adopción de tecnologías de bajo consumo y vehículos eléctricos). Optimización de rutas (Indicador: Implementación de software de gestión de rutas). Políticas gubernamentales (Indicador: Regulaciones sobre emisiones y incentivos fiscales). Variable Dependiente: Reducción de la huella de carbono (Indicador: Disminución de emisiones de CO2). Implementación de la Metodología del Caso Diseño de Investigación: Tipo de Investigación: Mixta (cuantitativa y cualitativa). Enfoque: Exploratorio y descriptivo. Fuentes de Información: primarias: Informes de sostenibilidad, reportes de emisiones, estudios académicos, bases de datos gubernamentales y de organizaciones internacionales. Recolección de Datos: Revisión Documental: Análisis de reportes de sostenibilidad, informes de emisiones y estudios previos. Análisis de Datos: Estudio de Caso Comparativo: Comparar las prácticas de Tresguerras con otras empresas del sector que ya han implementado tecnologías sostenibles.    - Análisis Cuantitativo:      - Cálculo de Huella de Carbono: Utilizar datos de consumo de combustible y tipo de vehículos para calcular la huella de carbono actual de Tresguerras.      - Modelado de Escenarios: Crear modelos para evaluar el impacto de diferentes estrategias de reducción de emisiones, como la adopción de vehículos más eficientes o la optimización de rutas.  Evaluación de Impacto    - Comparación con Estándares: Evaluar cómo se comparan las emisiones de Tresguerras con estándares nacionales e internacionales, y con empresas líderes en sostenibilidad.    - Propuestas de Mejora: Identificar tecnologías, prácticas operativas, y políticas que Tresguerras podría adoptar para reducir su huella de carbono. Fuentes de Información Sitio web oficial de Tresguerras: Información sobre sus prácticas y reportes de sostenibilidad. https://www.tresguerras.com.mx/3G/ Artículos y publicaciones : Reportajes sobre la estrategia de crecimiento y sostenibilidad de Tresguerras. https://dialnet.unirioja.es/servlet/tesis?codigo=302431 https://dialnet.unirioja.es/buscar/tesis?querysDismax.DOCUMENTAL_TODO=como+afecta+el+transporte+en+la+contaminacion Informes de consultoras y agencias de sostenibilidad: Guías y análisis sobre las mejores prácticas en la industria. Analizar el caso de Tresguerras proporcionará una base sólida de datos empíricos y buenas prácticas que enriquecerán el proyecto.  permitirá hacer recomendaciones informadas y basadas en evidencia para la reducción de la huella de carbono en el sector del autotransporte de carga en México, contribuyendo a la mitigación del cambio climático y a la mejora de la calidad del aire y la salud pública.


CONCLUSIONES

Se espera que esta investigación sobre el impacto de la huella de carbono generada por el autotransporte de carga en México arroje varios resultados clave: Cuantificación de Emisiones: Se obtendrá una estimación precisa de las emisiones de gases de efecto invernadero generadas por el sector, lo que permitirá comprender su contribución al cambio climático y la contaminación del aire. Evaluación de Tecnologías y Prácticas Actuales: Se identificará el estado actual de las tecnologías y prácticas operativas en el sector, destacando tanto las fortalezas como las áreas que requieren mejoras. Propuestas de Mejora: Se desarrollarán recomendaciones específicas para reducir las emisiones, incluyendo la adopción de tecnologías más limpias, como vehículos eléctricos o híbridos, y la implementación de prácticas operativas más eficientes, como la optimización de rutas. Recomendaciones de Políticas: Se sugerirán políticas y medidas regulatorias que pueden ser adoptadas por el gobierno para incentivar y facilitar la reducción de emisiones en el sector del autotransporte de carga. En conjunto, estos resultados proporcionarán una hoja de ruta clara para reducir la huella de carbono del autotransporte de carga en México, contribuyendo a la mitigación del cambio climático y mejorando la calidad del aire y la salud pública.
Bárcenas Moreno Ian Luis, Instituto Tecnológico de Morelia
Asesor: Dr. Arturo Diaz Perez, Instituto Politécnico Nacional

METODOLOGíA PARA EL ANáLISIS DE REGISTROS DE ACCESO A DISPOSITIVOS IOT MEDIANTE GRAFOS


METODOLOGíA PARA EL ANáLISIS DE REGISTROS DE ACCESO A DISPOSITIVOS IOT MEDIANTE GRAFOS

Bárcenas Moreno Ian Luis, Instituto Tecnológico de Morelia. Asesor: Dr. Arturo Diaz Perez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En los últimos años el desarrollo de los dispositivos de "Internet of Things" han hecho posible la interconexión y la formación de redes entre dispositivos con diferentes tipos de sensores dentro de empresas, hógares, instituciones públicas, etc.  El IoT tiene enormes retos de seguridad ya que las redes de sensores son vulnerables a problemas como el malware, secuestro de sesión, robo de información, ataques DDoS, entre otras amenazas. Por ello se busca encontrar patrones de acceso en los sensores y dispositivos para proponer mejores políticas de acceso. Entender dichos patrones y el comportamiento normal o anormal de los usuarios de los dispositivos IoT requiere un modelo de los datos que los dispositivos obtengan, por esta razón, en este trabajo se propone una metodología para desarrollar un modelo en grafo que sirva en el análisis de los registros de los sensores de IoT.  



METODOLOGÍA

Se utilizó una base de datos disponibles en formato CSV proporcionada por el asesor de este proyecto que contenía  5,702,273 de registros de acceso de 5 diferentes tipos de dispositivos, a saber: "TV", "Cerraduras inteligentes", "Cámaras de Seguridad", "Termostatos" y "linternas". Para precisar, el modelo se enfocó en registros extraídos de dispositivos reales aunque también se trabajó con bases de datos diversas. Cada registro cuenta con 13 atributos más un identificador numérico, 11 categóricos, 2 numéricos, por lo que lo primero que se hizo fue determinar qué atributos era conveniente estudiar. Se calculó el coeficiente de contingencia de Pearson corregido en el coeficiente de Pawlik para crear una matriz de correlación entre los atributos. Aquellos atributos que contaban con un porcentaje mayor al 20% con más de un atributo ajeno fueron seleccionados para su estudio. Se realizó un proceso de normalización de los registros transformando los caracteres de las variables categóricas en números y las numéricas a valores entre 0 y 1. Después, se calculó una métrica de asociación entre cada par posible de registros del conjunto de datos. La métrica de asociación usada fue la similaridad de Gower para datos mixtos. Se uso del lenguaje de programación Python y la librería Pandas para procesar la ingente cantidad de registros con los que se contaba y hacer tanto los cálculos como la normalización sobre los registros. Para facilitar el cálculo mencionado, con Python se realizaron muestras de 1000 registros aleatorios con distribución de frecuencias de tipos de dispositivos similar a la de los registros completos. Los resultados de los cálculos fueron exportados a dos archivos formato CSV: el archivo de aristas, el cual contiene la similaridad  calculada a partir de la fórmula de la similaridad de Gower entre dos registros descartando aquellos que no superarán un umbral de 0.7 en la similaridad, los identificadores de ambos registros y el tipo de aristas entre los registros (en este caso es no dirigido). Y el archivo de Nodos que contiene los 1000 registros de la muestra que se estudia y sus atributos. Los dos archivos creados se importaron a Gephi, un software para visualización de grafos, y se experimentó con las herramientas del software para crear visualizaciones de los registros estructurados en un grafo cuyos vértices eran los registros y las aristas la similaridad entre los registros. Se utilizaron sobretodo las distribuciones "Force Atlas", "Fructerman-Reingold" y "Yifan Hu" para crear las visualizaciones. En Gephi se calcularon estadísticas que solamente pueden realizarse a partir de la estructura de grafo de los datos como las medidas de centralidad, el grado entre vértices y el coeficiente de agrupamiento para cada uno de los 1000 registros de la muestra. Los resultados arrojados por Gephi fueron almacenados en un archivo CSV, y se propuso y calculó una nueva métrica que es la suma ponderada de 5 de las métricas calculadas por Gephi. Las métricas con su ponderación son las siguientes: Grado: 0.3 Coeficiente de Agrupamiento: 0.2 Centralidad de Cercanía: 0.1 Centralidad de Intermediación: 0.2 Centralidad de Vector Propio: 0.2 A partir de las métricas calculadas en Gephi se propusó una métrica con las ponderaciones mencionadas para crear un ranking de importancia que tomé en cuenta las métricas calculadas a partir del grafo.  Finalmente, ya establecido el ranking, se identificaron los 10 registros de mayor valor en el conjunto de datos a partir de la métrica propuesta y se destacaron dichos registros en una visualización.


CONCLUSIONES

En esta estancia de verano se adquirieron muchos conocimientos en análisis de datos y su aplicación práctica a través de Python. Además, el uso de herramientas como Gephi y la creación y análisis de grafos fueron aprendizajes invaluables durante esta estancia. Aunque se necesita más investigación para valorar la conveniencia de las ponderaciones en la métrica propuesta, ya es posible obtener visualizaciones de grafos que considerendicha y ya se registraron los 10 vértices más relevantes en un conjunto de datos. Se espera, no obstante, hacer más experimentación para mejorar la métrica y el uso de esta metodología se puede aplicar a más conjuntos de datos que abarquen otras áreas de estudio llevando a cabo adecuadas interpretaciones. Esta metodología, aunque se puede mejorar, no está limitada a registros de acceso de dispositivos IoT, sino que se puede utilizar en otros conjuntos de datos.
Barón Tavera Luisa Cristina, Universidad de Investigación y Desarrollo
Asesor: Dr. Jose Manuel Gutiérrez Moreno, Universidad Autónoma de Baja California

EVALUACIóN DEL USO DE RESIDUOS DE PET COMO AGREGADOS EN CONCRETO: UNA SOLUCIóN SOSTENIBLE PARA LA INDUSTRIA DE LA CONSTRUCCIóN


EVALUACIóN DEL USO DE RESIDUOS DE PET COMO AGREGADOS EN CONCRETO: UNA SOLUCIóN SOSTENIBLE PARA LA INDUSTRIA DE LA CONSTRUCCIóN

Barón Tavera Luisa Cristina, Universidad de Investigación y Desarrollo. Díaz Castro Alejandra Isabel, Universidad de Investigación y Desarrollo. Soberanes Ruiz Mariana Jaqueline, Universidad Politécnica de Atlautla. Asesor: Dr. Jose Manuel Gutiérrez Moreno, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El uso intensivo de plástico en la sociedad moderna ha generado una acumulación significativa de residuos plásticos, especialmente de tereftalato de polietileno (PET). Estos residuos representan un desafío ambiental considerable debido a su lenta degradación, la cual puede tardar cientos de años, y su impacto negativo en los ecosistemas. La acumulación de residuos plásticos afecta a la fauna marina y terrestre, causando daños físicos y químicos a los organismos que ingieren o quedan atrapados en estos desechos. Además, la descomposición del plástico libera sustancias tóxicas que pueden contaminar suelos y cuerpos de agua, afectando la calidad de los recursos naturales. Paralelamente, la industria de la construcción, que es una de las principales consumidoras de recursos naturales, demanda grandes cantidades de agregados naturales (arena, grava y piedra triturada) para la producción de concreto. Esta extracción masiva de agregados tiene consecuencias negativas significativas para el medio ambiente, incluyendo la erosión del suelo, la pérdida de biodiversidad y la alteración de los paisajes naturales. La explotación de canteras y ríos para obtener estos materiales también contribuye a la degradación de ecosistemas y a la reducción de la capacidad de estos ambientes para proporcionar servicios ecológicos esenciales. Existe, por lo tanto, una necesidad urgente de encontrar soluciones sostenibles que puedan mitigar ambos problemas: la acumulación de residuos plásticos y la explotación excesiva de recursos naturales.



METODOLOGÍA

Para evaluar el uso de residuos de PET como agregados en concreto, se llevó a cabo una revisión exhaustiva de artículos investigativos suministrados por el docente investigador. Posteriormente, se extrajeron y analizaron datos clave de cada estudio, enfocándose en las propiedades mecánicas. Los resultados se recopilaron y compararon para identificar tendencias, acuerdos y discrepancias, proporcionando una evaluación crítica de la viabilidad del uso de PET en concreto y sugiriendo áreas para futuras investigaciones.


CONCLUSIONES

En conclusión, la utilización de residuos plásticos de PET como agregados en el concreto representa una alternativa viable para reducir el impacto ambiental de la industria de la construcción y promover la economía circular. En cuanto a la resistencia a la compresión, se observó que esta propiedad generalmente disminuye con el aumento del nivel de reemplazo de PET, excepto para la mezcla con un 5% de PET, que mostró una resistencia a la compresión ligeramente mayor que la mezcla de referencia (0% PET) a los 28 días de curado. De manera similar, la resistencia a la flexión tendió a disminuir con mayores contenidos de PET, aunque la mezcla con un 5% de PET presentó un comportamiento atípico, con un valor de resistencia a la flexión superior al de la mezcla de referencia. No obstante, se requieren investigaciones adicionales para optimizar la dosificación de los agregados de PET, desarrollar tratamientos superficiales efectivos y evaluar el comportamiento a largo plazo de este tipo de concreto. Aspectos como la durabilidad, la resistencia al fuego y la permeabilidad del concreto con agregados de PET deben considerarse para garantizar su aplicación segura y eficiente en diferentes tipos de estructuras.
Barragán Zepeda Carlos, Instituto Tecnológico de Tepic
Asesor: Dr. Filiberto Candia García, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE LA INCERTIDUMBRE DIMENSIONAL UNA APLICACIóN DEL MéTODO DE LOS ELEMENTOS FINITOS


ANáLISIS DE LA INCERTIDUMBRE DIMENSIONAL UNA APLICACIóN DEL MéTODO DE LOS ELEMENTOS FINITOS

Barragán Zepeda Carlos, Instituto Tecnológico de Tepic. Escamilla Villa Lidia Janet, Instituto Tecnológico de Tepic. Asesor: Dr. Filiberto Candia García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la industria metal mecánica (automotriz, aeronáutica y aeroespacial) la gestión de la calidad y la agenda 2030, objetivo 9 del desarrollo sustentable, promueven técnicas, estrategias y herramientas de la ingeniería industrial, como: Core Tools, Lean Manufacturing, Mentefactura, entre otras. En pro de minimizar la variabilidad o incertidumbre dimensional en el desarrollo de nuevos productos.  Debido a que la exactitud de las dimensiones geométricas de cualquier tipo de pieza (alambre, lámina o sólido) es una garantía de la repetitividad de los procesos de ensamble. Sin embargo, la principal limitación y alcance de estas tecnologías y filosofías se encuentra limitadas a la información que se genera hasta el final de los procesos cuando un producto o insumo es fabricado, tanto en sus partes como en el ensamble completo de estas. Entendiendo que un cambio de dimensión, mayor o menor; longitud, área o volumen, es un factor determinante, para determinar por observación la falta de calidad en un producto terminando. Asimismo, esta condición de genera en el ensamble del producto condiciones de esfuerzos internos (axial, cortante y torsión) y falta de equilibrio externo (simetría o axisimetría). Siendo el propósito de este trabajo documentar una guía didáctica que aprovecha el Método de los Elementos Finitos (MEF) como un recurso estratégico de digital-virtual, que permite la predicción de los desplazamientos ante condiciones mecánicas de esfuerzo y carga, generados por baja precisión de las tolerancias geométricas.



METODOLOGÍA

El desarrollo es experimental por simulación en software libre (open source), en elementos estructurales simples y complejos en geometrías 1D, 2D y 3D. El siguiente procedimiento ilustra la secuencia de validación de las simulaciones y las actividades instruccionales que derivan un proceso de enseñanza-aprendizaje. Primer paso se determinan los ejercicios y sus características (dimensiones y tolerancias geométricas y condiciones frontera) en base a la normativa DG&T. Segundo paso se resuelven los ejercicios por métodos convencionales exactos. Tercer paso se realiza la solución por medio del software libre basado en el MEF, para ello se define el preprocesamiento (tipo de geometría y malla), procesamiento (condiciones frontera) y postprocesamiento (extracción de datos geométricos y numéricos). Cuarto paso se comparan los resultados de la solución exacta versus la solución aproximada. Quinto paso se determina la variación de las dimensiones geométricas iniciales y se estima el porcentaje de incertidumbre para determinar la variabilidad de geométrica final. Quinto paso es la organización del documento guía mediante los apartados: Descripción del problema y diagrama esquemático; Diagrama de cuerpo libre; descripción de la solución por el método exacto, coordenadas de la malla, código de procesamiento, figura del comportamiento de la variable desplazamiento, tabla comparativa, interpretación cualitativa, reflexiones de las dimensiones y tolerancias geométricas en base a la norma DG&T.


CONCLUSIONES

Los valores de las simulaciones se validan de manera comparada mediante una batería de ejercicios resueltos de manera manual en el software Excel, mediante diversas formulaciones analíticas que proporcionan una solución exacta a los problemas Hipostáticos, Isostáticos e Hiperestáticos. Una tabla comparativa muestra en porcentaje el grado de exactitud de la simulación versus la solución exacta. Asimismo, los valores de los esfuerzos internos, fuerzas externas, deformaciones y desplazamientos, se cualifican como a través de las tolerancias propuestas, tanto de forma como de posición. La batería de ejercicios propuesta y resuelta por un software libre basado en el MEF como guía didáctica, es una estrategia educativa de alto impacto como complemento de la formación de los ingenieros dedicados a la gestión de la calidad de los procesos. La experiencia como usuario final de esta propuesta educativa es una formación integradora de las hard skill y soft skill, para la gestión de la calidad y mejora de los procesos en el diseño de nuevos productos y de los procesos productivos.
Barraza Ureña Javier David, Universidad Politécnica de Sinaloa
Asesor: M.C. Alejandro Pérez Pasten Borja, Universidad Politécnica de Sinaloa

DESARROLLO DE APLICACIóN INTELIGENTE DE APOYO A PERSONAS CON BAJA VISIóN (BLAIND)


DESARROLLO DE APLICACIóN INTELIGENTE DE APOYO A PERSONAS CON BAJA VISIóN (BLAIND)

Barraza Ureña Javier David, Universidad Politécnica de Sinaloa. Rochin Diaz Jazmin Isela, Universidad Politécnica de Sinaloa. Asesor: M.C. Alejandro Pérez Pasten Borja, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, las personas con problemas de visión enfrentan muchos retos en su vida diaria, especialmente para encontrar cosas y moverse por su entorno. A pesar de los avances tecnológicos, todavía hay una gran falta de accesibilidad y autonomía para estas personas. Este proyecto tiene como objetivo abordar estos desafíos mediante la creación de un programa que funcione como un asistente virtual para ellos. El programa utilizará tecnologías de reconocimiento de voz y detección de objetos para ayudar a estas personas a localizar objetos comunes y mejorar su independencia.



METODOLOGÍA

En primera instancia se realizó una investigación correspondiente sobre sistemas ya desarrollados por la comunidad científica, donde se encontró que muchos de estos sistemas se encontraban con limitaciones en la precisión de la detección de objetos de dichos sistemas e incluso había dificultades con la interacción que se tenía con usuarios con problemas de visión. Gracias a la investigación, se desarrolló una comprensión más a fondo sobre la complejidad del tema y de igual manera ayudo a entender acerca de las necesidades primordiales a ser atendidas. Posteriormente, se aplicó ingeniería de software, específicamente ingeniera de requisitos para obtener el lenguaje de programación y los algoritmos o librerías a utilizar. Como lenguaje de programación se eligió Python debido a su desarrollo de aplicaciones de inteligencia artificial y a su versatilidad en el procesamiento de datos. Mientras que, para las librerías a utilizar, se decidió hacer uso de la librería SpaCy, la cual, ayudaría bastante para el procesamiento del lenguaje natural, ya que esta librería es eficiente en el análisis de texto y la extracción de entidades. Una vez tomado en cuenta esto, se planificaron los requerimientos para llevar a cabo la elaboración de la detección de objetos. Se tomó la decisión de implementar la librería YOLO (You Only Look Once), la cual, permite una identificación precisa y rápida de objetos mediante el análisis de imágenes en tiempo real. Además, se implementaron sistemas de Speech to Text y Text to Speech, esto para convertir la indicación mediando la voz del usuario en texto y viceversa también, con el objetivo de facilitar la comunicación con el asistente y hacer una interacción más cómoda y sencilla entre ello. Finalmente, utilizando la metodología Scrum, se llevaron a cabo pequeños sprints los cuales permitieron un desarrollo ágil y organizado del sistema. Los sprints incluyeron: 1. Voz a Texto: Se basa en la implementación del sistema de reconocimiento de voz para convertir las frases dichas por el usuario en texto. 2. Detección de Comando y Objeto: Es la elaboración de los algoritmos que analizan el texto para detectar comandos específicos y usar la librería YOLO para la identificación de objetos mediante la cámara. 3. Texto a Voz: Implementa la funcionalidad de Text to Speech para proporcionar retroalimentación auditiva al usuario, indicando así la ubicación del objeto encontrado o sugiriendo alternativas en caso de no encontrar el objeto. Cada sprint tiene el enfoque general de asegurar que cada componente del sistema funcione correctamente antes de integrar el siguiente, con la finalidad de que se permita una mejora continua y una experiencia de usuario clara y efectiva.


CONCLUSIONES

Gracias a lo investigado y desarrollado a lo largo de este tiempo, se creó un código de prueba, el cual consiste en capturar la voz del usuario, luego analizar lo que se ha dicho, para después buscar y encontrar lo indicado o descrito. Actualmente, se sigue trabajando para acoplarlo con el detector de objetos y así mejorar su eficiencia, dando oportunidad a expandir su funcionalidad y poder percibir más objetos de los que puede localizar hoy en día. El programa está diseñado para ser intuitivo y accesible, por lo que, se anticipa que los usuarios encontrarán el sistema sencillo de utilizar, mejorando así su experiencia y su calidad de vida. Asimismo, se espera que el programa contribuya con la autonomía de las personas, brindando una base con la cual se pueda facilitar para ellos el encontrar y/o identificar objetos a su alrededor.
Barreda Bonilla Teresita de Jesús, Instituto Tecnológico Superior de Tacámbaro
Asesor: Mtra. Elizet Ibarra Limas, Instituto Tecnológico Superior de Tacámbaro

ITULO DEL PROYECTO SISTEMA WEB RESPONSIVO PARA LA IDENTIFICACIóN, EVALUACIóN Y PROPUESTAS DE ESTRATEGIAS DE ACUERDO A LOS ESTILOS DE APRENDIZAJE PARA LOS ESTUDIANTES DE NIVEL SUPERIOR


ITULO DEL PROYECTO SISTEMA WEB RESPONSIVO PARA LA IDENTIFICACIóN, EVALUACIóN Y PROPUESTAS DE ESTRATEGIAS DE ACUERDO A LOS ESTILOS DE APRENDIZAJE PARA LOS ESTUDIANTES DE NIVEL SUPERIOR

Barreda Bonilla Teresita de Jesús, Instituto Tecnológico Superior de Tacámbaro. Mora Leal Brandon, Instituto Tecnológico Superior de Tacámbaro. Asesor: Mtra. Elizet Ibarra Limas, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

La educación es uno de los mayores pilares para el desarrollo de la sociedad, es crucial que está se imparta de la mejor manera posible, utilizando todas las herramientas que se encuentren a nuestro alcance, eso por supuesto incluye las innovaciones tecnológicas; más aún si se trata de la educación superior dado el hecho de que es la última fase de transición hacia la etapa laboral, donde se tendrá que explotar todos y cada uno de los conocimientos adquiridos a lo largo de la vida escolar, naturalmente, se debe de tener noción de cuáles son las debilidades y fortalezas de cada estudiante, en base a esto, se propuso enfocar el uso de las tecnologías de la información para implementar el test de VARK a los alumnos de nivel superior, mediante un sistema web responsivo, esto no sólo permitirá reconocer las fortalezas y flaquezas del estudiante dependiendo de su estilo de aprendizaje, sino que a su vez, los docentes tendrán un panorama mucho más amplio acerca de con que tipos de aprendizaje convive dentro del aula, obtendrá estrategias y propuestas que le ofrecerán la oportunidad de mejorar la calidad y eficacia en el proceso de enseñanza-aprendizaje para sus alumnos.



METODOLOGÍA

Para el desarrollo de este proyecto, el verano pasado se levantaron todos los requerimientos correspondientes, para lo cual, con el análisis y el diseño del sistema obtenidos anteriormente, únicamente este verano mediante los resultados obtenidos a docentes de nivel superior y con la ayuda de estudiantes y docentes de pedagogía, desarrollamos propuestas, las cuales fueron implementadas en nuestro sistema, ya que, este es el objetivo del mismo. Después desarrollamos el sistema e hicimos pruebas del mismo. Las interfaces que se desarrollaron fueron las siguientes: Ventana principal: Aquí se muestran las estadísticas globales de la pagina Login: Inicio de sesión con restricciones dependiendo del tipo(rol) de usuario. Recuperación de usuario y contraseña: Corrobora el registro del correo electrónico y envía al mismo usuario y contraseña. Test: Encuesta realizada al alumno para lograr identificar su estilo de aprendizaje y en base a ello proponer estrategias educacionales Información de resultados: En esta pueden consultar el resultado de los test tanto de alumnos como de grupos enteros. Usuarios y grupos: En esta un usuario administrador puede agregar, modificar y eliminar los diferentes tipos de usuarios. Para el desarrollo de este sistema se utilizaron herramientas como HTML, CSS, JavaScript, PHP, mariaDB y XAMPP. Naturalmente, para llevar un control preciso de la construcción y evolución del sistema se desarrolló un informe técnico detallando cada una de las fases estructurales a las que se sometió este proyecto hasta convertirse en el producto que hoy se entrega. Dicha estructura abarco la implementación de diversas metodologías para el desarrollo, las que se utilizaron para la realización de este proyecto fueron la metodología descriptiva, correlacional, cualitativa, investigación transversal, la forma en que se recopilaron los requerimientos (mediante varias encuestas a docentes y alumnos de nivel superior), datos relevantes correspondientes al Instituto Tecnológico Superior de Tacámbaro, reconocimiento de problemáticas a resolver, alcances, limitaciones, conceptos clave, herramientas tecnológicas utilizadas, construcción de diagramas de caso de uso, de interacción (utilizando los diagramas de secuencia) y la documentación periódica de los resultados a las pruebas a las que se sometía el sistema con el propósito de asegurar su funcionamiento óptimo y preciso. Después del desarrollo del mismo se encuestaron a más de 20 alumnos de nivel superior, varios estudiantes de ingeniería, licenciaturas y posgrados, de esta manera se pudo probar el sistema, en el cual se descubrieron tanto ventajas como desventajas o debilidades de este mismo sistema.


CONCLUSIONES

Durante este verano de investigación logramos cumplir metas y adquirir aún más conocimientos y experiencias académicas, como el hecho de manipular más lenguajes y entornos de programación, más allá del que estábamos acostumbrados a utilizar, desarrollar un producto mucho más profesional y estructurado del cual tenemos la certeza de que su implementación será de gran apoyo tanto para docentes como para mejorar el aprovechamiento académico correspondiente a los alumnos de nivel superior, implementando diferentes herramientas tecnológicas conocidas y otras nuevas, el explotar nuestros conocimientos adquiridos hasta este punto de nuestra vida académica y plasmarlos dentro de la construcción de este ambicioso proyecto que nos atrevemos a decir que se ha completado de manera favorable.
Barrera Garcia Leonela Sarai, Universidad Autónoma de Chiapas
Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla

MODELADO, NAVEGACIóN E INTERACCIóN DE ARQUITECTURAS EN EL METAVERSO CON GAFAS VR Y RECONSTRUCCIóN DIGITAL FOTOGRAMETRICA DE OBJETOS Y FACHADAS ARQUITECTóNICAS USANDO DRONES.


MODELADO, NAVEGACIóN E INTERACCIóN DE ARQUITECTURAS EN EL METAVERSO CON GAFAS VR Y RECONSTRUCCIóN DIGITAL FOTOGRAMETRICA DE OBJETOS Y FACHADAS ARQUITECTóNICAS USANDO DRONES.

Barrera Garcia Leonela Sarai, Universidad Autónoma de Chiapas. Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Asesor: Dr. Víctor Manuel Martínez López, Benemerita Universidad Autonoma de Puebla Estudiante: Leonela Sarai Barrera Garcia, Universidad Autonoma de Chiapas Modelado, navegación e interacción de arquitecturas en el metaverso con gafas VR y reconstrucción digital fotogrametrica de objetos y fachadas arquitectónicas usando drones. 1. Experimentación y diseño en el espacio virtual con gafas VR. Planteamiento del Problema: En el ámbito del diseño arquitectónico contemporáneo, la realidad virtual (VR) se ha posicionado como una herramienta indispensable para la visualización y experimentación de proyectos antes de su ejecución física. El presente proyecto se enfoca en explorar y desarrollar competencias en el uso de gafas de realidad virtual Oculus Meta Quests, con el objetivo de integrar esta tecnología en el proceso de diseño arquitectónico mediante la configuración y exploración de modelos en entornos virtuales. 2. Fotogrametría. Planteamiento del problema: En la Facultad de Arquitectura, la precisión y el detalle en la documentación de estructuras arquitectónicas son esenciales para el análisis y la conservación. Las técnicas tradicionales de registro pueden ser laboriosas y no siempre logran capturar todos los detalles necesarios. La fotogrametría, que permite crear modelos 3D detallados a partir de fotografías, ofrece una solución moderna y eficiente, pero su implementación requiere conocimientos específicos y el uso de software adecuado. Actualmente, los estudiantes carecen de la capacitación necesaria para utilizar estas herramientas avanzadas, limitando su capacidad para llevar a cabo proyectos de documentación y análisis precisos.



METODOLOGÍA

Experimentación y diseño en el espacio virtual con gafas VR. 1. Configuración y familiarización con Oculus Meta Quest: Sesión inicial para configurar las gafas y familiarizarse con la interfaz y controles. Exploración del entorno virtual y práctica de navegación. 2. Enlace y configuración de programas de diseño: Aprender a conectar y configurar SketchUp, Arkio y Enscape con las gafas VR. Ejercicios prácticos para cargar y visualizar modelos arquitectónicos. 3. Desarrollo de un modelo para VR: Selección y optimización de un modelo arquitectónico para su visualización en VR. 4. Creación de tutoriales: Tutorial escrito y video para explicar cómo vincular y usar las gafas con los programas de diseño. Fotogrametría. Instalación del programa 3DF Zephyr Lite: Descargar e instalar el programa. Familiarizarse con el software mediante tutoriales. Modelado inicial de un objeto (estructura pináculo): Tomar 50 fotos de calidad del objeto. Crear un proyecto en 3DF Zephyr Lite y subir las fotos. Verificar que las fotos sean adecuadas. Procesamiento de fotografías: Generar nubes de puntos dispersas y densas. Extracción y optimización de la malla: Extraer y analizar la malla del objeto. Generar y limpiar la malla de textura. Optimización en Rhino: Importar y optimizar el modelo en Rhino. Exportar el modelo como archivo OBJ. Aplicación en una fachada colonial: Visitar el Centro Histórico de Puebla. Tomar 50 fotos de una fachada colonial. Procesar las fotos en 3DF Zephyr Lite para crear el modelado 3D.


CONCLUSIONES

 Experimentación y diseño en el espacio virtual con gafas VR. Se espera que al concluir el proyecto, el equipo de diseño y los participantes hayan adquirido habilidades avanzadas en el uso de gafas de realidad virtual Oculus Meta Quests y su integración con programas clave de diseño arquitectónico. Los tutoriales creados servirán como recursos útiles para futuros proyectos, mejorando la eficiencia y efectividad en la implementación de la tecnología VR en el campo del diseño arquitectónico. Este proyecto no solo fortalecerá la capacidad del equipo para ofrecer diseños más precisos y visualmente impactantes, sino que también posicionará al estudio como líder en la adopción de tecnologías emergentes para mejorar la calidad y la experiencia del usuario en el diseño arquitectónico. Fotogrametría. Al finalizar el proyecto, se espera que los participantes hayan adquirido habilidades prácticas en el uso del programa 3DF Zephyr Lite y en el proceso de fotogrametría para crear modelos 3D detallados a partir de fotografías. La actividad inicial proporcionará una base sólida para la aplicación de estos conocimientos en la documentación de una fachada colonial en el Centro Histórico de Puebla. Los modelos 3D obtenidos servirán como recurso valioso para estudios y proyectos arquitectónicos, y la experiencia adquirida promoverá la adopción de tecnologías avanzadas en el campo de la arquitectura y la conservación del patrimonio.
Barrios Yáñez Angel Rodrigo, Instituto Tecnológico de Pachuca
Asesor: Dr. Marco Antonio Moreno Ibarra, Instituto Politécnico Nacional

EVALUACIóN DE LA ACCESIBILIDAD PEATONAL EN LA CIUDAD DE MéXICO UTILIZANDO SISTEMAS DE INFORMACIóN GEOGRáFICA (GIS)


EVALUACIóN DE LA ACCESIBILIDAD PEATONAL EN LA CIUDAD DE MéXICO UTILIZANDO SISTEMAS DE INFORMACIóN GEOGRáFICA (GIS)

Barrios Yáñez Angel Rodrigo, Instituto Tecnológico de Pachuca. Ramos Blanco Xochitl Sarahi, Instituto Tecnológico de Iztapalapa II. Asesor: Dr. Marco Antonio Moreno Ibarra, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las ciudades se enfrentan a la presión de adaptarse y gestionar de manera efectiva su crecimiento para asegurar la habitabilidad, la sostenibilidad y la equidad social. En respuesta a estas demandas, emerge el concepto de "walkability" o accesibilidad peatonal como una piedra angular en la planificación urbana. El término abarca la creación de entornos urbanos que promuevan desplazamientos seguros y cómodos para peatones, fomentando estilos de vida saludables y reduciendo la dependencia del transporte motorizado En este contexto, el uso de Sistemas de Información Geográfica (GIS) se presenta como una herramienta esencial para evaluar y mejorar la accesibilidad peatonal en ciudades densamente pobladas como la Ciudad de México debido a que facilitan la integración de datos geoespaciales, lo que permite una toma de decisiones informada en planificación urbana. En este trabajo se propone desarrollar y aplicar los métodos de análisis geoespacial, utilizando un GIS, para evaluar la accesibilidad peatonal y los aspectos que la inhiben, con el objetivo de mejorar la conectividad en diversas áreas de la alcaldía Cuauhtemoc.



METODOLOGÍA

La metodología de trabajo consisitió de las siguientes etapas: Planificación y Antecedentes, Diseño y Análisis Geoespacial, Construcción y Ejecución del GIS, Evaluación y Pruebas del GIS e Informe Final. A continuación se detalla lo realizado en cada etapa. Elaboración plan de trabajo, que consistió de la calendarización de actividades, definición de objetivos, justificación, antecedentes, metas e impactos esperados. Posteriormente se analizaron los antecedentes, y aspectos relacionados Diseño y Análisis Geoespacial. Se realizó la capacitación en análisis espacial usando QGIS. Se realizó la recolección y validación de Datos, que incluyó la identificación de fuentes de datos relevantes (mapas, bases de datos urbanas, encuestas). Adicionalmente, se definió la metodología para análisis espacial del Walkability. Es importante mencionar que como caso de estudio se propuso utilizar la aclaldía Cuahtémoc de la CDMX. Se desarrolló una propuesta de metodología para la evaluación de la accesibilidad peatonal. Construcción y Ejecución del GIS. Se realizó la construcción del GIS sobre la plataforma de QGIS. Evaluación y Pruebas del GIS. Se realizaron pruebas preliminares para evaluar la robustez y precisión de los datos y de la metodología. Se identificaron áreas de mejora y ajustes necesarios en el GIS. Lo cual consistió en ajustar parámetros de distancia, tamaños de celdas para el análisis, valores de las ponderacionsprobar con otras funciones, modificar las escalas de visualización y ajuste de rangos de los intervalos


CONCLUSIONES

Existen diversos factores sociales y urbanos, que influyen a la población en como se transportan día a día, uno de ellos es la accesibilidad peatonal. Se integró un conjunto de datos que es relevante para el análisis de la accesibilidad peatonal compuesto por datos provenientes de diversas fuentes. En donde nos aseguramos que los datos provenieran de fuentes actualizadas para un análisis más fiable. QGIS es una herramienta útil que nos permite integrar los diferentes tipos de datos necesarios para realizar un correcto análisis. Se desarrolló una medida para evaluar la accesibilidad peatonal, basada en análisis la densidad de variables geográficas de cinco clases, cada una con un criterios específico de ponderación para cuantificar la importancia de cada uno de ellos. Se desarrolló una medida complementaria, que permite cuantificar los efectos de variables restringen la accesibilidad peatonal, los cuales se denominaron con inhibidores. En este caso los siguientes aspectos: Accidentes viales, Robos, Lesiones, Homicidios, Discriminación, Acoso y Secuestros. Al aplicar las medidas desarrolladas sonbe la alcaldía Cuauhtémoc, se identificó cuales son las zonas con mayor índice de caminabilidad y cuales son las características con las que cuenta. Se identificaron cuáles son las zonas con mayores niveles de inseguridad en la área de estudio y como pueden afectar la accesibilidad. Se tiene la perspectiva de incrementar el alcance de este trabajo, ya que vemos su utilidad, por lo que posiblemente realicemos nuestros temas de tesis en esta dirección.
Barrón Rodríguez Rosalía, Instituto Tecnológico de La Piedad
Asesor: M.C. Miriam Sedano Mendoza, Universidad Michoacana de San Nicolás de Hidalgo

MANUAL DE SEGURIDAD E HIGIENE PARA PEQUEÑAS EMPRESAS EN EL SECTOR DE FABRICACION DE SILLAS DE MADERA QUE BUSCAN LA CERTIFICACION


MANUAL DE SEGURIDAD E HIGIENE PARA PEQUEÑAS EMPRESAS EN EL SECTOR DE FABRICACION DE SILLAS DE MADERA QUE BUSCAN LA CERTIFICACION

Barrón Rodríguez Rosalía, Instituto Tecnológico de La Piedad. Asesor: M.C. Miriam Sedano Mendoza, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En México desgraciadamentre  existe la poca cultura sobre la seguridad y el ordena a la hora de realizar trabajos específicos . El principal problema es la falta de conocimiento sobre el tema en estas pequeñas empresas , tanto de el dueño de la misma como sus trabajadores, ya que están acoplados a trabajar de una manera mas practica y menos segura según el área en la que desarrollan sus productos. Esta falta de conocimiento lleva a que incluso la línea de producción sea retrasada por pequeños inconvenientes o accidentes que pueden ser causados día con día , sin mencionar que al paso del  tiempo el trabajador expuesto puede sufrir las consecuencias de manipular o manejar incorrectamente materiales en su área de trabajo, causándole inconvenientes en su salud para un futuro .Es por eso que este manual esta diseñado para que el dueño de la empresa/fabrica pueda conseguir si así lo desea un manual de apoyo para requerir los cococimientos necesarios parea una certificación , detallando de manera aun mas exacta los mínimos requerimientos y normas que necesita para hacerlo, así también de una rápida pero exacta información para el trabajador sobre el EPP necesario para su protección en cada área y posibles riesgos si no se cumplen.  



METODOLOGÍA

  MARCO TEORICO:Comúnmente las pequeñas empresas suelen tener un bajo control en la mayoría de sus áreas ya sea de producción ,fabricación, almacenes , administrativos ,etc ,cayendo en la creencia de que por ser pequeñas no pueden sufrir accidentes graves o hacer que su empresa este certificada. JUSTIFICACION:Este proyecto se justifica con la realización de un manual de seguridad e higiene acompañado de un material de apoyo (folleto) para un mayor entendimiento y facilidad de capacitación , enfocado en las pequeñas empresas de fabricación de sillas de madera en México dando así mismo a conocer los posibles riesgos y señalizaciones necesarias.En otro enfoque esta investigación beneficiara a los trabajadores que trabajan bajo posibles riesgos laborales sin ni siquiera saberlo , apoyándolos para defender su seguridad como trabajador . Este manual necesita el apoyo general de la administración de la empresa/fabrica y de sus trabajadores para tener los resultados esperados. Objetivo general:El objetivo es desarrollar de manera general un manual de seguridad e higiene para  salvaguardar la vida de los trabajadores .   Objetivo especifico:La realización de un manual de higiene y seguridad simplificado y desarrollado para una comprensión mas rápida y directa sobre el EPP necesitado   , acompañado  con un material de apoyo (folleto) para su mayor comprensión  ,están  enfocados a  las pequeñas empresas de fabricación de sillas de madera  que tienen un interés por adquirir una certificación de la misma lo requerido para realizar este trabajo seria:  Identificar equipos de protección generales, Identificar equipos de protección por áreas, Identificar áreas de señalización ENFOQUE: La siguiente investigación se desarrolla de manera cualitativa ya que se enfoca en estudiar las actividades, relaciones, asuntos, medios, materiales o instrumentos en una determinada situación, área  o problema. Es por eso que se utilizan los métodos de investigación de este tales como búsquedas bibliográficas ya que se maneja como un manual en general , se recopilan datos de distintas fabricas que realizan la misma producción de sillas de madera para plantear términos generales. REFERENCIA: Para tener una estandarización en el plan de Seguridad e Higiene se recurrió a la Norma OHSAS 18001:2007: Pto. 4.3.1 y otras normas requeridad para la certificacion. ​FORMA DE TRABAJO:Para el desarrollo de esta investigación y creación de manual de seguridad e higiene se investigara principalmente el EPP requerido por área , enfocándonos en los diferentes procesos que lleva la producción de una silla de madera .Utilizando de apoyo un manual de procedimientos del mismo para verificar con mayor precisión estas áreas y actividades . Para la elaboración de un manual de procedimientos se hizo , se realizo el apoyo de realizar un  diagramas de flujo sobre las áreas de la empresa y las etapas de elaboración de una silla de madera. El proyecto se desarrollara de la siguiente manera: Se identificaran las diferentes áreas y procesos requeridos para la elaboración de una silla de madera,Se identificara el EPP requerido para cada área y actividad,Se desarrollara un folleto con la información  necesaria sobre EPP requerido para una mayor comprensión de manera rápida.,Se describirá brevemente los posibles accidentes por área , así como los posibles riesgos en el área laboral,Se crearan EPP necesarios para cada área    


CONCLUSIONES

Durante esta estancia de verano , se logro adquirir conocimientos sobre temas de seguridad e higiene enfocándonos en sectores donde esta información no es tan solicitada o usada, ya que existe un tabú en donde las pequeñas empresas creen que la seguridad o una certificación esta fuera de su alcance , como apoyo a la investigación  se creo un folleto  y se busco la información requerida para realizar un manual de seguridad e higiene.   Este trabajo fue realizado de manera teórica por lo que sus resultados en campo aun no son posibles .Sin embargo se pueden tomar como conclusiones de lo aprendido ,que loa accidentes pueden ser disminuidos gracias a un buen orden y EPP requerido , el recurso humano puede ser impredecible en algunos casos po eso se necesita  la  seguridad necesaria para minimizar y controlar los riesgos posibles, mientras más se este preparado para evitarlos se puede garantizar una disminución de los mismos o incluso su total eliminacion.Como resultado esperados podemos esperar que las pequeñas empresas se sientan más confiadas al momento de leer estos materiales de apoyo y así implementen la seguridad en su campo laboral, creando así mas conciencia entre las necesidades del trabajador, y esperando que sea un motivo para que busquen la certificación , logrando una disminución de accidentes en estas áreas de trabajo y subiendo el porcentaje de empresas certificadas en el país.  
Barroso Llanos José Carlos, Instituto Tecnológico Superior de Irapuato
Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato

SISTEMA DE CONTROL ELECTRONEUMáTICO PARA ESTAMPADORA DE CUBIERTOS


SISTEMA DE CONTROL ELECTRONEUMáTICO PARA ESTAMPADORA DE CUBIERTOS

Barroso Llanos José Carlos, Instituto Tecnológico Superior de Irapuato. Llanos Aldaco Rogelio, Instituto Tecnológico Superior de Irapuato. Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Una máquina estampadora de cubiertos es un equipo utilizado para grabar o estampar diseños, logotipos, marcas u otros detalles en cubiertos y utensilios de mesa de metal. Estas máquinas pueden funcionar de manera manual, semiautomática o totalmente automática, dependiendo de las necesidades de producción y el nivel de precisión requerido. El problema que se tiene en un sistema de control neumático es que los componentes utilizados para la detección de la posición de los cilindros, son rodillos y estos están en contacto constantemente, haciendo que, con el paso del tiempo estos dispositivos presenten un desgaste, y el funcionamiento que deberían cumplir ya no lo hagan de manera correcta. Además de que, al momento de querer controlar los tiempos para la ejecución de movimientos de entrada o salida del vástago de los cilindros, no se logra realizar de manera precisa. Esto sucede porque el componente utilizado para realizar esta acción es una válvula de deceleración, la cual no tiene la capacidad de ser muy precisa, debido a que se tiene que estar regulado de forma manual y esto hace que no se tenga una buena precisión con los tiempos de su activación o desactivación, respectivamente. Esto provoca que el proceso de estampado no se haga de manera correcta y ocasiona que en el material ocurra un efecto llamado spring back, el cual hace referencia a la tendencia de un material de querer regresar a su forma original después de haber sido sometido a una fuerza con la que se planeaba dar cierta forma.



METODOLOGÍA

Debido a la problemática que se tenía, se optó por realizar una modificación del sistema de control y realizarlo de manera electroneumática, ya que este tipo de control permite tener una mayor precisión en el proceso, debido a que los componentes que se utilizan como medio de detección de movimientos del vástago del cilindro es llevado a cabo a base de sensores. La ventaja que tienen estos tipos de dispositivos es que no requieren tener contacto directo con el objeto a detectar, haciendo que su vida útil sea más larga. Y para el caso del control de los tiempos de realización de movimientos del vástago del cilindro, se cuenta con un contador que funciona a través de señales eléctricas, el cual es un dispositivo que tiene la capacidad de ser ajustado a los tiempos requeridos de forma exacta y su tiempo de respuesta es muy rápido, haciendo de este un excelente componente para cumplir con dicha función. Comparando ahora un sistema de control electroneumático con uno hidráulico, es que un sistema electroneumático es más económico en términos de componentes y mantenimiento, además de que el aire comprimido es más barato que los fluidos hidráulicos. Otra ventaja es que la presión con la que puede trabajar un sistema electroneumático puede llegar a ser la necesaria para realizar el estampado de cubiertos sin problemas, ya que el grosor de un cubierto oscila entre 1 y 2 milímetros, siendo así que un sistema hidráulico pueda estar un poco sobrado para realizar esta tarea. Por esta razón es que se propuso realizar un sistema de control electroneumático y no un sistema de control neumático o hidráulico. La primera propuesta del circuito electroneumático que se tuvo para realizar el estampado de cubiertos  estaba formado por un cilindro de simple efecto y un temporizador para controlar la salida del vástago del cilindro y así poder tener precisión en el estampado. Este funcionó de manera correcta, reteniendo el vástago del cilindro a la hora de accionarse por el tiempo requerido para realizar el estampado, pero el problema que se tenía era que cuando se retraía el vástago lo hacía de manera muy rápida, ya que el cilindro utilizado era de simple efecto y no se tenía el control de la velocidad del regreso. Esto podía llegar a afectar en la calidad del estampado. Por este motivo, se decidió colocar un cilindro de doble efecto, el cual ayudaría a tener un control en la retracción del vástago del cilindro y solucionar el problema presentado en la primera propuesta del circuito. Este circuito funcionó de manera correcta, solucionando el inconveniente que se había presentado en la primera propuesta y reteniendo de igual forma el vástago del cilindro a la hora de accionarse para realizar el estampado, pero esta vez, nos encontramos con un nuevo problema, el cual era que cuando se retraía el vástago, inmediatamente se volvía a accionar realizando de nuevo el proceso de estampado. Esto hacía que el tiempo no fuera el suficiente para la colocación de una nueva lámina. Es por esto que se decidió implementar un temporizador más para tener el control del tiempo de la salida del vástago del cilindro, y así poder solucionar este problema. Al realizar la simulación del circuito final, este mostró un funcionamiento correcto, haciendo los movimientos necesarios para realizar el proceso de estampado de manera controlada y precisa. El diseño se realizó de manera representativa, siendo así que los tiempos colocados en los temporizadores puedan ser modificados y acoplarse a las necesidades requeridas.  


CONCLUSIONES

Durante la estancia de verano se lograron reforzar y adquirir nuevos conocimientos teóricos sobre la electroneumática y ponerlos en práctica con la realización de diseños de sistemas de control para una máquina estampadora de cubiertos, apoyándonos con el software Fluidsim para la realización de simulaciones. Sin embargo, se espera mejorar aún más la eficiencia en el proceso, así como buscar implementar componentes que puedan beneficiar de mejor manera el control del estampado.
Basurto Morales Elizabeth, Instituto Tecnológico Superior de Alamo Temapache
Asesor: Post-doc Nelly Yolanda Céspedes Guevara, Fundación Universitaria del Área Andina

DIAGNóSTICO DE LA PROBLEMáTICA DE LOS PAM PRODUCTO DE LA EXTRACCIóN ILEGAL DE ORO ALUVIAL EN EL CORREGIMIENTO DE MINAS DE SANTA CRUZ EN EL MUNICIPIO DE BARRANCO DE LOBA, DEPARTAMENTO DE BOLíVAR.


DIAGNóSTICO DE LA PROBLEMáTICA DE LOS PAM PRODUCTO DE LA EXTRACCIóN ILEGAL DE ORO ALUVIAL EN EL CORREGIMIENTO DE MINAS DE SANTA CRUZ EN EL MUNICIPIO DE BARRANCO DE LOBA, DEPARTAMENTO DE BOLíVAR.

Basurto Morales Elizabeth, Instituto Tecnológico Superior de Alamo Temapache. Asesor: Post-doc Nelly Yolanda Céspedes Guevara, Fundación Universitaria del Área Andina



PLANTEAMIENTO DEL PROBLEMA

A lo largo de la historia, la minería ha sido una actividad económica fundamental que ha traído grandes transformaciones a las sociedades. Con el tiempo, se ha vuelto cada vez más tecnificada y avanzada. Sin embargo, aún conlleva grandes afectaciones ambientales visibles y significativas en cada entorno donde se lleva a cabo una explotación minera. Teniendo en cuenta la gran importancia que tiene la actividad minera en la dinámica económica del país, considerándose como uno de los principales motores de la economía nacional, es necesario definir y conocer los principales mecanismos para prevenir, estimar y resolver sus daños colaterales a nivel ambiental. Con el presente proyecto de investigación se busca identificar y caracterizar los pasivos ambientales relacionados con la extracción de arcillas cerámicas en labores mineras a cielo abierto abandonadas que afectan el municipio San Diego en el departamento del César. Para lograrlo, se describe la geomorfología del municipio de San Diego, Departamento de César. Dicha área se caracteriza por ser una planicie aluvial formada por sedimentos que provienen de la Sierra Nevada de Santa Marta.



METODOLOGÍA

Esta investigación está basada en un enfoque mixto, combinando lo descriptivo con un diseño no experimental, de los entornos objeto del presente estudio. Mediante este tipo de diseño se busca recolectar datos que sean relevantes para la investigación y que puedan ser analizados de forma cualitativa a través de la observación, y cuantitativa a través de ensayos de laboratorios, para así lograr abarcar todos los aspectos que conciernen la problemática.   Esto por medio de tres fases:   Fase investigativa Inicialmente, se recolecta información bibliográfica del área de estudio mediante artículos, revistas, mapas geológicos, documentos de investigación y libros, para conocer las características biofísicas, ambientales y socioeconómicas del Municipio de San Diego. Así mismo, se recopilará información sobre los conceptos relacionados y los riesgos asociados a PAM´s que han sido previamente estudiados, determinando el estado actual del país relacionado al tema de pasivos ambientales.   Fase exploratoria  El siguiente paso se basa en el trabajo de campo para conocer el área de estudio, correlacionar la información consultada previamente con la realidad encontrada en la zona de explotación abandonada. Simultáneamente, se realizará toma de datos de campo y muestreos representativos de suelo, vegetación, para su posterior análisis de laboratorio con la finalidad de caracterizar el lugar de estudio.   Los análisis realizados se describen a continuación y se explican los resultados obtenidos.   Humedad. P3 w(%) = = 22.22 % CHILL1 w(%) = = 20 % P3 w(%) = = 18.18 %   Color. Color Soil Munsell. Diagram 7.5YR 7/6.   Granulometría. Grava mal gradada con arena (GP) con 75.65% gravas, de las cuales 53.27% son gravas gruesas y 22.08% son gravas finas; 24.22% de arena, de las cuales 15.59% son gruesas, 8.5% medias y 0.13% finas y; 0.13% de finos. Tamaño máximo 64 mm.   Límite de plástico. P3: 22.33 CHILL: 21.16 EFGH: 21   Además, se incluyó un análisis multitemporal de cobertura vegetal mediante imágenes satelitales por medio del software ArcGIS. La imagen demuestra la comparación de la cobertura vegetal del año 2013 y 2023, se presenta una leyenda básica e intuitiva para el análisis. Las zonas de afectación comenzaron teniendo un baja e incluso nula cobertura vegetal, siendo esto perjudicial para el terreno de estudio, sin embargo, se presenta una mejoría en este aspecto en las áreas de interés, evidencia de la evolución de la capa vegetal de dichas áreas. Por lo mencionado, se destaca la oportunidad de mejora del área de estudio con el presente proyecto.


CONCLUSIONES

El análisis de la problemática de los Pasivos Ambientales Mineros (PAM) en Minas de Santa Cruz es esencial para enfrentar los desafíos ambientales, sociales y económicos de la región. Los hallazgos de este estudio servirán para guiar acciones concretas hacia la restauración del ecosistema, la protección de la salud pública y el desarrollo sostenible de la comunidad. La evaluación continua y la adaptación de las estrategias serán fundamentales para enfrentar los desafíos emergentes y aprovechar nuevas oportunidades para el desarrollo sostenible. En conclusión, en este estudio no solo se obtuvieron resultados preliminares, sino que también proporciona una base sólida para la acción inmediata y establece ruta guía para su continuación en un futuro.
Basurto Tenango Alberto, Instituto Tecnológico de Lázaro Cárdenas
Asesor: Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia

MERCADOS DE ELECTRICIDAD Y SERVICIOS AUXILIARES


MERCADOS DE ELECTRICIDAD Y SERVICIOS AUXILIARES

Basurto Tenango Alberto, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La recurrencia de la exposición de sistemas eléctricos a eventos climáticos extremos ha resultado en una disminución de la confiabilidad debido a la creciente falla simultánea de múltiples elementos de la red. Esto ha llevado a la necesidad de estándares cada vez más estrictos en la operación, que en búsqueda de una solución ha provocado diversas propuestas de modelos para la definición de costos marginales en presencia de contingencias. En este contexto, se estudia un modelo y sus contribuciones al proceso de optimización del mercado eléctrico que examina el funcionamiento y la fijación de precios a corto plazo de los diversos productos comercializados, energía/reserva, tomando en consideración límites de transmisión y restricciones de seguridad.



METODOLOGÍA

Se realizó un conjunto de simulaciones con diferentes redes eléctricas: 5, 14, 57 y 118 nodos. En las simulaciones se consideraron las acciones correctivas y la pérdida forzada de elementos de transmisión y generación. Aplicando cada vez condiciones más estrictas, siendo en este caso el criterio de seguridad N-k. Este criterio implica que el sistema debe ser capaz de soportar la pérdida simultanea de k componentes, generadores y líneas de transmisión. Con los resultados de las simulaciones se realizó un análisis de la viabilidad y el precio de la asignación de reservas con restricciones de seguridad. Se emplearon los entornos de Julia para la programación del problema de optimización y Gurobi para la resolución, además de MATLAB para la manipulación de datos. Las simulaciones se llevaron a cabo en una PC con un procesador Intel® Core i5 y 4 GB de RAM.


CONCLUSIONES

De la presente investigación se ha permitido recopilar y comparar el conjunto de datos en la determinación de costos de energía y reserva en mercados eléctricos co-optimizados con restricciones de seguridad. Los resultados numéricos obtenidos en diferentes sistemas, 5, 14, 57 y 118 nodos, respaldan la viabilidad y relevancia de estos enfoques en la gestión eficiente de sistemas eléctricos. Se concluyó que al tener un sistema optimizado para un conjunto de contingencias creíbles permite actuar de la manera más rápida y eficiente reduciendo los costos de generación.
Bautista Islas Joshua, Instituto Politécnico Nacional
Asesor: Dra. Alma Yolanda Alanis García, Universidad de Guadalajara

PROTOTIPO DIDáCTICO CEREBRAL


PROTOTIPO DIDáCTICO CEREBRAL

Ayon Rosales Dafne Gissell, Universidad de Guadalajara. Bautista Islas Joshua, Instituto Politécnico Nacional. Montalvo Maldonado Hugo Armando, Universidad de Guadalajara. Morales Sánchez Emanuel Alejandro, Universidad de Guadalajara. Asesor: Dra. Alma Yolanda Alanis García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Comprender el funcionamiento y las áreas del cerebro es fundamental no solo para la educación en neurociencia, sino también para la investigación en inteligencia artificial y el desarrollo de redes neuronales artificiales. Este proyecto se centra en la creación de un modelo interactivo del cerebro humano, con el objetivo de que los usuarios puedan conocer todas las partes fundamentales del cerebro, incluyendo su ubicación anatómica y sus funciones específicas. Consideramos que este modelo será una herramienta educativa valiosa para estudiantes, investigadores y el público en general, facilitando la divulgación científica de manera accesible y atractiva.



METODOLOGÍA

Se realizó una investigación exhaustiva sobre la anatomía y fisiología cerebral, enfocada en las diferentes partes y áreas específicas del cerebro que realizan tareas determinadas. Estas áreas, conocidas como lóbulos, incluyen: Lóbulo Frontal: Control del movimiento, personalidad, concentración, planificación, resolución de problemas, significado de las palabras, reacciones emocionales, habla y olfato. Lóbulo Parietal: Tacto y presión, gusto, y conciencia corporal. Lóbulo Temporal: Recepción y procesamiento de los sonidos, reconocimiento de rostros, emociones y memoria a largo plazo. Lóbulo Occipital: Vista. Cerebelo: Control motor, equilibrio y coordinación. Lóbulo Límbico: Control de emociones como felicidad, tristeza y amor. Con esta información, buscamos modelos para imprimir en 3D nuestro modelo didáctico. Se imprimió un modelo detallado del cerebro, asegurando una representación precisa de las estructuras anatómicas y sus interconexiones. Después del trabajo de diseño e impresión 3D, se dividieron los lóbulos y las áreas de cada una de las funciones del cerebro. Se desarrolló una aplicación móvil conectada a una Raspberry Pi, que permite la selección de regiones cerebrales específicas. Al seleccionar una región, la aplicación muestra un video explicativo sobre su funcionamiento, y el modelo didáctico se ilumina mediante LEDs en el área correspondiente, mostrando así al usuario la ubicación anatómica. Este desarrollo de interactividad asegura una experiencia de aprendizaje inmersiva y dinámica. Realizamos diferentes pruebas para evaluar la facilidad de uso, la comprensión del contenido y la efectividad de las tecnologías interactivas implementadas. Basados en la retroalimentación, realizamos ajustes y mejoras para optimizar la experiencia de usuario y la precisión del contenido.


CONCLUSIONES

El proyecto "Prototipo Didáctico Cerebral" ha logrado desarrollar una herramienta educativa innovadora que combina el modelado 3D, la interactividad mediante tecnologías avanzadas y la accesibilidad inclusiva. Las pruebas demostraron que el prototipo es fácil de usar y efectivo en la transmisión del conocimiento. Este proyecto tiene el potencial de transformar la enseñanza y el aprendizaje de la neurociencia.
Bautista Vivanco Denisse Yemirel, Instituto Politécnico Nacional
Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica

DESARROLLO DE UN PROTOTIPO PARA EL MONITOREO Y CONTROL DE ASPERSORES CON TECNOLOGíA DE INTERNET DE LAS COSAS ORIENTADO AL MEJORAMIENTO DE LA CALIDAD DEL AIRE EN EL SECTOR MINERO Y SUS POBLACIONES ALEDAñAS.


DESARROLLO DE UN PROTOTIPO PARA EL MONITOREO Y CONTROL DE ASPERSORES CON TECNOLOGíA DE INTERNET DE LAS COSAS ORIENTADO AL MEJORAMIENTO DE LA CALIDAD DEL AIRE EN EL SECTOR MINERO Y SUS POBLACIONES ALEDAñAS.

Arenas Monsalve Juan Arenas, Universidad Simón Bolivar. Bautista Vivanco Denisse Yemirel, Instituto Politécnico Nacional. Herrera Muñoz Sebastian David, Universidad Simón Bolivar. Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

La Guajira, al ser una región con una dependencia económica significativa a la minería, enfrenta un dilema crucial entre el desarrollo económico, la preservación del medio ambiente y la salud comunitaria, pues acorde a los reportes de la Fundación Hemera y  a los estudios de Urrea y Calvo, se han documentado efectos negativos de la minería en la calidad del aire de dicha zona sobre todo en la mina Cerrejón, como consecuencia de la emisión de gases  tales como dióxido de azufre (SO2) y óxido de nitrógeno (NOx), así como de partículas finas por  la considerable extracción de carbón, generando problemas de salud respiratoria en los residentes locales.  Además, la contaminación del agua y la alteración de los ecosistemas acuáticos también se han registrado como impactos secundarios de la actividad minera. Las soluciones convencionales, como la aspersión manual de agua, han sido insuficientes para enfrentar la dimensión del desafío, resaltando la necesidad de enfoques innovadores y tecnológicos. Este proyecto aborda la contaminación del aire en la minería de La Guajira mediante la integración de tecnologías de la industria 4.0, como el Internet de las Cosas (IoT), para desarrollar un sistema de aspersión inteligente. Este enfoque promete mejorar la calidad del aire de forma efectiva y eficiente, beneficiando la salud de las comunidades locales y el medio ambiente. La importancia del estudio radica en su enfoque integral para abordar un problema ambiental crítico en una región económicamente importante por la minería, alineándose con políticas de sostenibilidad, transformación energética y desarrollo tecnológico.



METODOLOGÍA

Considerando las condiciones de la zona, se empleó el controlador I/O LoRa Wan Dragino LT-22222-L como nodo de comunicación a larga distancia y bajo consumo de energía. Junto con un sistema compuesto por un Arduino Nano, relevadores externos y un banco de baterías, permite el control de la aspersión inteligente a distancia, operando los relevadores internos del controlador para abrir y cerrar válvulas de aspersores. Se definió el diagrama de conexiones del sistema a implementar con el controlador I/O LoRaWan Dragino LT-22222-L y otros elementos. Luego, se realizó el dimensionamiento integral del sistema considerando las fichas técnicas de los componentes, a partir de ello se diseñó un contenedor para proteger el sistema, considerando alta resistencia a impactos, aislamiento eléctrico, resistencia al agua y polvo, sostenibilidad en condiciones de humedad y temperaturas de 45-55°C, y protección UV. El contenedor se modeló en 3D usando Onshape, determinando tolerancias y añadiendo pernos y orificios para el ensamblaje y sellado adecuado. Paralelamente, se trabajó en la comunicación a larga distancia con el Dragino LT-22222-L, basado en el microcontrolador STM32L072 y el chip LoRa sx1276. Se configuró adecuadamente según el hardware, adquiriendo el firmware adecuado para la versión y frecuencia del equipo (915MHz para la Guajira). Usando un módulo conversor TTL-USB y el software STM32 Cube Programmer, se cargó el firmware en formato .hex tras reiniciar el dispositivo. Con el software serial port utility, se configuró el controlador con los siguientes comandos AT: AT+FDR: Restablecimiento de fábrica. AT+NJM=1: Modo de unión a la red LoRaWan por OTAA. AT+ADR=1: Ajuste dinámico de la tasa de datos. AT+DEUI= xx xx xx xx xx xx xx xx: Identificador único de 64 bits. AT+APPEUI= xx xx xx xx xx xx xx xx: Identificador único de aplicación de 64 bits. AT+APPKEY=XX XX XX XX XX XX XX XX XX XX XX XX XX XX XX XX: Clave criptográfica de 128 bits. AT+JOIN: Unión del dispositivo a la red. Tras la configuración, se vinculó y registró el dispositivo en The Things Network (TTN), mediante la creación de una aplicacion y la captura de las claves del dispositivo en ella, con ello se obtuvo el envío-aceptación de una solicitud de unión a la red. A través de la aplicación en TTN en la sección de Downlinks, se realiza el control remoto de los relevadores del controlador con el envío de comandos con la estructura: 03 XX XX, donde el tercer y cuarto dígito controlan el relevador 1, y el quinto y sexto, el relevador 2 (00 abre y 01 cierra los relevadores). El controlador y demás componentes se resguardan en el contenedor diseñado para su instalación en zonas mineras de la Guajira, Colombia. Una vez instalado, se realizan pruebas de alcance y se incluye el Gateway DLOS8 para recibir retroalimentación del controlador, facilitando la toma de decisiones y procesamiento de datos, determinando cuándo activar y desactivar la aspersión de agua. El Gateway, junto con su antena, debe ser instalado donde haya un operador para verificar y probar el alcance, que según el fabricante de Dragino, puede cubrir kilómetros.


CONCLUSIONES

Durante esta estancia de verano, se logró adquirir conocimiento en la implementación de la tecnología LoRaWan, así como también se reforzó y se puso en práctica los conocimientos previos sobre diseño 3D para implementación física. Gracias a lo anterior, se obtuvo la generación de un diseño 3D de contenedor para zonas con condiciones ambientales complejas, se seleccionó PET-G como material apto para las condiciones y, además, se realizó la configuración del controlador y la configuración en TTN. No obstante, al tratarse de un proyecto de larga extensión, aún se encuentra en la fase de configuración y pruebas de alcance, y no se puede mostrar datos del alcance en distancia de la comunicación obtenidos. Se espera lograr establecer comunicación a una distancia de 10km entre el nodo (controlador) y la zona de operación, donde se encuentra el Gateway para la operación remota de los relés. Por otra parte, se espera una autonomía del sistema de 6 meses en la zona de implementación hasta su próximo mantenimiento, gracias al aislamiento por el contenedor diseñado.
Beas Hernández Luis Elias, Universidad Tecnológica de Nayarit
Asesor: Mg. María Antonieta Clemente Velarde, Instituto Nacional de Formación Técnica Profesional - INFOTEP

HERRAMIENTAS PARA EL DESPLIEGUE DE SERVICIOS DE TRANSPORTE PÚBLICO CON MOVILIDAD INTELIGENTE VERDE EN EL DEPARTAMENTO DE LA GUAJIRA


HERRAMIENTAS PARA EL DESPLIEGUE DE SERVICIOS DE TRANSPORTE PÚBLICO CON MOVILIDAD INTELIGENTE VERDE EN EL DEPARTAMENTO DE LA GUAJIRA

Beas Hernández Luis Elias, Universidad Tecnológica de Nayarit. Cruz del Angel Alan, Instituto Tecnológico Superior de Huauchinango. Hermosillo Sandoval Edwin Gabriel, Universidad Tecnológica de Nayarit. Ramos Avalos Roberto, Universidad Tecnológica de Nayarit. Asesor: Mg. María Antonieta Clemente Velarde, Instituto Nacional de Formación Técnica Profesional - INFOTEP



PLANTEAMIENTO DEL PROBLEMA

Planteamiento El estudio se centra en la infraestructura para la innovación tecnológica en el Departamento de La Guajira y las tecnologías y herramientas de movilidad inteligente verde presentes en la infraestructura del transporte público de esta localidad. El objetivo principal es describir y analizar las características actuales de la infraestructura de transporte público en relación con las tecnologías de movilidad inteligente y sostenible. Se busca identificar las oportunidades y desafíos para la implementación de estas tecnologías en el contexto de La Guajira.



METODOLOGÍA

Metodología El estudio se enmarca en un diseño de investigación no experimental y transeccional descriptivo. Esto significa que no se manipularon las variables de estudio y que los datos fueron recolectados en un solo momento temporal. Se utilizó un enfoque de investigación de campo, recolectando datos directamente de la realidad, en este caso, de las Alcaldías Municipales y Secretarías de Movilidad del Departamento de La Guajira. La población de estudio incluyó a los directores de transporte público y a los Secretarios de Movilidad de los municipios seleccionados​


CONCLUSIONES

Conclusiones Infraestructura Tecnológica Actual: La investigación reveló que la infraestructura tecnológica actual del transporte público en La Guajira es limitada. Hay una falta de sistemas avanzados de gestión y monitoreo de flotas, lo que dificulta la eficiencia operativa y la implementación de tecnologías de movilidad inteligente. Potencial para la Innovación: A pesar de las limitaciones actuales, existe un potencial significativo para la adopción de tecnologías de movilidad inteligente en La Guajira. Las autoridades locales y los actores del sector pueden aprovechar las oportunidades de innovación tecnológica para mejorar la sostenibilidad y la eficiencia del transporte público, lo cual contribuiría al desarrollo regional y al bienestar de la población​
Becerra Gómez Ismael, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez

OPTIMIZACIóN PARA PROCESOS DE MANUFACTURA ESBELTA Y ADITIVA CON IMPRESIóN 3D: APLICACIóN DE METODOLOGíAS LEAN SIX SIGMA, ESTUDIO DE TIEMPOS PREDETERMINADOS MOST Y DISEñO DE EXPERIMENTOS (DOE)


OPTIMIZACIóN PARA PROCESOS DE MANUFACTURA ESBELTA Y ADITIVA CON IMPRESIóN 3D: APLICACIóN DE METODOLOGíAS LEAN SIX SIGMA, ESTUDIO DE TIEMPOS PREDETERMINADOS MOST Y DISEñO DE EXPERIMENTOS (DOE)

Becerra Gómez Ismael, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Gómez Acuña José Alfonso, Universidad Simón Bolivar. Luque Carranza Jeniffer, Universidad Simón Bolivar. Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

En la manufactura moderna, combinar técnicas esbeltas y aditivas es crucial para maximizar eficiencia y calidad. Este proyecto se centra en optimizar procesos mediante Lean Six Sigma, el Estudio de Tiempos Predeterminados MOST y el Diseño de Experimentos (DOE).  La línea de ensamblaje del carro LEGO Green Cruiser 31056 necesita ajustar el tiempo de ciclo para alcanzar una producción de 180 unidades por hora, manteniendo eficiencia y reduciendo inventario. La implementación precisa de MOST es clave para asegurar un Takt Time de 20 segundos por unidad. En la producción de probetas de plástico, variables como temperatura del filamento, temperatura de la cama y patrón de relleno son cruciales para la resistencia a la tensión. Identificar y optimizar estos factores es esencial para mejorar la calidad y consistencia de las probetas. El diseño de turbinas eólicas de pequeña escala utilizando impresión 3D se explora para generar energía renovable. El reto es encontrar el diseño más eficiente para un generador de 15 cm, optimizando la conversión de energía cinética en mecánica, contribuyendo a soluciones energéticas sostenibles. Para los aviones de papel, se ha identificado variabilidad en la longitud de las alas, que debe ser de 60 mm ± 2 mm. Esta inconsistencia sugiere problemas en fabricación y medición, haciendo necesario estandarizar el proceso para cumplir con las especificaciones. Este proyecto integra Lean Six Sigma, MOST y DOE para reducir desperdicios, mejorar eficiencia, y optimizar tiempos y procesos. Además, busca mejorar la calidad identificando y ajustando variables críticas como la resistencia a la tensión y la eficiencia de turbinas eólicas impresas en 3D. Así, establece un marco para futuras mejoras y la adaptación de nuevas tecnologías en manufactura esbelta y aditiva.



METODOLOGÍA

Para optimizar los procesos de manufactura esbelta y aditiva mediante impresión 3D, se integraron metodologías clave: Lean Six Sigma, Estudio de Tiempos Predeterminados MOST y Diseño de Experimentos (DOE). El proyecto inicial se enfocó en mejorar la eficiencia y calidad en la producción de turbinas de Arquímedes a escala reducida (15 cm), utilizando impresión 3D para maximizar la eficiencia energética. Con Lean Six Sigma, se identificaron los requisitos del cliente y se redujo la variabilidad en el rendimiento mediante mejoras en el diseño y fabricación de aviones de papel, que debían tener una longitud de 60 mm con un margen de ±2 mm. El análisis de los procesos actuales de impresión 3D permitió evaluar la capacidad del proceso y abordar la variabilidad en la calidad de los componentes, utilizando herramientas estadísticas como Cpk y pruebas de normalidad para identificar causas raíz y oportunidades de mejora. El método MOST se aplicó para optimizar los tiempos de ensamblaje y fabricación de carros LEGO, descomponiendo las actividades en movimientos básicos medidos en unidades de tiempo estándar (TMU). Esto ayudó a determinar el número óptimo de estaciones de trabajo y el ciclo necesario para cumplir eficientemente con la demanda del cliente de 180 carros/hora. Por último, el Diseño de Experimentos (DOE) se utilizó para evaluar diferentes diseños de probetas impresas en 3D. Usando software como Minitab, se planificaron y analizaron experimentos fraccionados, considerando variables críticas como el material de impresión y los parámetros de impresión. Las pruebas de rendimiento midieron la resistencia de las probetas, integrando un enfoque que mejoró la calidad, eficiencia y competitividad en la manufactura de componentes avanzados mediante tecnologías innovadoras de fabricación.


CONCLUSIONES

El proyecto "Optimización para Procesos de Manufactura Esbelta y Aditiva con Impresión 3D" ha alcanzado sus metas al aplicar metodologías avanzadas para mejorar procesos de manufactura. La implementación de Lean Six Sigma, MOST y DOE ha permitido identificar y corregir ineficiencias, resultando en productos de alta calidad y eficiencia operativa. Para la Turbina de Arquímedes, las pruebas con modelos impresos en 3D confirmaron la viabilidad de estas estructuras para generar energía limpia. El diseño optimizado para impresión 3D demostró ser altamente eficiente, resaltando el potencial de esta tecnología para desarrollar dispositivos energéticos sostenibles y personalizados, contribuyendo a la lucha contra el cambio climático. En el caso de los Aviones de Papel, Six Sigma resolvió problemas de variabilidad en la producción, mejorando el sistema de medición y estableciendo estándares operativos más rigurosos. Esto condujo a una notable mejora en la capacidad del proceso y a una reducción en las piezas defectuosas, validando la efectividad de Lean Six Sigma en la estandarización y mejora continua. Para los Carros LEGO, la técnica MOST permitió una optimización precisa del proceso de ensamblaje, ajustando el tiempo de ciclo para cumplir con el Takt Time requerido. Esto resultó en un flujo de producción eficiente y alineado con la demanda del cliente, validando la precisión de las estimaciones de tiempo y asegurando la consistencia del proceso. Finalmente, en las Probetas de Plástico, el diseño experimental identificó los factores clave para maximizar la resistencia a la tensión, destacando la importancia de la cabina de impresión. La validación del modelo permitió predecir y alcanzar configuraciones óptimas para la producción, esencial para mejorar la calidad y durabilidad de los productos impresos en 3D. En resumen, el proyecto demuestra que combinar metodologías de manufactura esbelta y aditiva con herramientas analíticas avanzadas puede transformar procesos industriales, mejorando significativamente la calidad, eficiencia y sostenibilidad, y sentando una base sólida para futuras innovaciones.
Becerril Bérmudez Oliver, Universidad Mexiquense del Bicentenario
Asesor: Dra. Ingrid Yadibel Cuevas Zuñiga, Instituto Politécnico Nacional

UN áRBOL UN REFLECTOR


UN áRBOL UN REFLECTOR

Becerril Bérmudez Oliver, Universidad Mexiquense del Bicentenario. Asesor: Dra. Ingrid Yadibel Cuevas Zuñiga, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La falta de un sistema de carga y almacenamiento de energía a través de organismos botánicos no permite utilizar las laderas con reflectores en avenidas.



METODOLOGÍA

Objetivos de la investigación Objetivo general. - Proponer un sistema de carga y almacenamiento de energía a través de organismos botánicos que utilice las laderas como reflectores en avenidas como parte del proceso de transición energética justa y sustentable Objetivos específicos Describir la situación del sector energético Identificar en la literatura lo relacionado con transición energética justa y sustentable e innovación Recabar información de dispositivos para almacenaje de energía Analizar el funcionamiento de los dispositivos y de los componentes de sistemas de carga existentes Determinar los tipos de luces a bajo watts Preguntas de investigación Pregunta general. - ¿Qué elementos debe contener un sistema de carga y almacenamiento de energía a través de organismos botánicos que utilice las laderas como reflectores en avenidas como parte del proceso de transición energética justa y sustentable? Las preguntas especificas de esta investigación son: ¿Cómo es la situación energética actualmente? ¿Qué información existe en lo relacionado a la transición justa y sustentable e innovación? ¿Qué tipo de sistemas de almacenaje de energía existen? ¿Cómo funcionan los componentes de equipos de carga existente? ¿Qué tipos de luces existen a baja intensidad de watts?


CONCLUSIONES

La transición energética justa y sustentable es una tarea en la que todos deberíamos estar involucrados, hacer nuestra pequeña aportación desde aprovechar al máximo la energía solar, hasta no dejar encendidos dispositivos que no se usan. Se han implementado reglamentos de transito en la que los auto motores que necesitan un 100% de gasolinas o diésel no pueden circular en las grandes ciudades que tienen una demanda de transporte muy excedente, por lo que las compañías han lanzado a los mercados autos híbridos o totalmente eléctricos. Es buena idea el inventar un sistema de carga que alimente a reflectores mediante baterías o capacitores que a su vez serán cargados por la energía que produzcan los organismos botánicos. Esto si llegara a hacer un éxito, llevaría a la reforestación en las carreteras principales. Las luces LEDs son los principales candidatos para crear un reflector que ayude a la seguridad de transportistas y mejorar las perspectivas de los muchos caminos que hay en el mundo. Las crecientes en las áreas urbanas, así como las industrias han dado como consecuencia la gran demanda de energía eléctrica que requieren para funcionar, por este motivo se producen grandes cantidades de energía a base de hidrocarburos, y con ello grandes emisiones de gases de efecto invernadero.  
Becerril Cortes Carlos Fabricio, Instituto Politécnico Nacional
Asesor: Dr. Ángel Gabriel Andrade Reátiga, Universidad Autónoma de Baja California

ANáLISIS COMPARATIVO DE MODELOS DE PROPAGACIóN PARA REDES MóVILES


ANáLISIS COMPARATIVO DE MODELOS DE PROPAGACIóN PARA REDES MóVILES

Becerril Cortes Carlos Fabricio, Instituto Politécnico Nacional. Asesor: Dr. Ángel Gabriel Andrade Reátiga, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El espectro radioeléctrico (en el rango de terahercios (THz) que se tiene previsto utilizarse para los sistemas de comunicaciones móviles celulares de sexta generación (6G), promete velocidades de datos significativamente superiores a las que ofrecen los sistemas homólogos predecesores y una latencia extremadamente baja. Esta nueva generación permitirá que aplicaciones como la realidad aumentada, la inteligencia artificial y la automatización industrial sean el futuro próximo una realidad. Sin embargo, esta tecnología no está exenta de enfrentar desafíos técnicos, como mayor atenuación de las señales y la necesidad de una infraestructura de comunicación más densa. Por otra parte, la regulación del espectro radioeléctrico por organismos como el IFT en México, también es crucial para asegurar la implementación efectiva de los sistemas 6G y maximizar sus beneficios.  



METODOLOGÍA

En este verano de investigación, investigué sobre los fundamentos de operación de las redes móviles celulares. También analicé sobre las decisiones que ha tomado el Instituto Federal de Telecomunicaciones (IFT en México) y Comisión de Regulación de Comunicaciones (CRC en Colombia) con respecto a la banda de frecuencias en el rango de los 6 GHz.  Estudié diferentes modelos de propagación, tales como Modelo de Friis, Modelo de tierra plana y Modelo de Hata, como métodos para predecir el área de cobertura de una célula y la pérdida por trayectoria que una señal pueda sufrir entre una estación base y un receptor móvil o fijo. En la última etapa de la investigación logré generar un modelo de propagación a partir de las mediciones que realicé en el interior de mi casa. Apliqué la metodología propuesta por Rappaport para crear un modelo matemático que describe el comportamiento de la señal emitido por un punto de acceso y propagado en un entorno de propgación en interiores. En este estudio, utilicé como transmisor un punto de acceso tipo Wi-Fi y como receptor un teléfono móvil. El análisis lo realicé para dos frecuencias de operación 2.4 GHz y 5 GHz. Los resultados de mi modelo los comparé con modelos de propagación reportados en la literatura y estudiados durante el verano (Modelo de Friis, Modelo de tierra plana y Modelo de Hata).  


CONCLUSIONES

Se espera que los sistemas 6G, al finalizar su desarrollo e implementación, ofrezca velocidades de datos ultrarrápidas, latencias prácticamente inexistentes y una capacidad de conexión masiva sin precedentes. Esta tecnología permitirá avances significativos en áreas como la realidad aumentada y virtual, la inteligencia artificial y la automatización industrial. Además, 6G facilitará una conectividad más integral y eficiente, transformando la forma en que interactuamos con la tecnología y potenciando la innovación en numerosos sectores.  
Bejarano Reyes Albert, Instituto Tecnológico Superior de Las Choapas
Asesor: Mtro. José Luis Rivera Cruz, Instituto Tecnológico Superior de Ciudad Serdán

APROVECHAMIENTO DE LA PULPA DE MANGO PARA LA OBTENCIóN DE BIOETANOL Y BEBIDAS ALCOHóLICAS FERMENTADAS


APROVECHAMIENTO DE LA PULPA DE MANGO PARA LA OBTENCIóN DE BIOETANOL Y BEBIDAS ALCOHóLICAS FERMENTADAS

Bejarano Reyes Albert, Instituto Tecnológico Superior de Las Choapas. Asesor: Mtro. José Luis Rivera Cruz, Instituto Tecnológico Superior de Ciudad Serdán



PLANTEAMIENTO DEL PROBLEMA

El mango, una de las frutas más apreciadas y cultivadas en México, enfrenta desafíos significativos en términos de desperdicio y manejo. México es uno de los principales productores de mango a nivel mundial, con el estado de Guerrero liderando la producción, Sin embargo, después de la cosecha, se genera una cantidad considerable de desperdicio. Esto representa un problema ambiental debido a la alta producción. [Miguel Lorenzo Santiago-2017]. El desperdicio de mango en México es un desafío multifacético que requiere enfoques integrales, desde la producción hasta la disposición final. Es fundamental implementar prácticas sostenibles y fomentar la conciencia sobre la importancia de reducir el desperdicio y aprovechar al máximo esta deliciosa fruta.  [Miguel Lorenzo Santiago-2017]. En la región sur del estado de Veracruz, la producción de mango es abundante durante la época de cosecha, sin embargo, se estima que solo se aprovecha alrededor del 60% de la fruta, dejando un 40% que se desperdicia. Este desperdicio no solo representa una pérdida económica para los productores, sino que también tiene un impacto ambiental negativo debido a la descomposición de la fruta. [Secretaría de Agricultura y Desarrollo Rural].



METODOLOGÍA

Se peso la fruta que se utilizaría, en este caso obteniendo un peso de 1.350kg luego se lavó y desinfecto la fruta, así como todos los materiales que formarían parte del proceso para poder extraer la pulpa del mango. Se extrajo una cantidad de 820 gramos de pulpa y 482 gramos de residuos (Cascara y semilla). Seguido de la etapa de pesado, se midieron los grados Brix de la pulpa mango para saber la cantidad de azúcar que contiene y ajustar los grados brix requeridos para la fermentación. La medición de los grados Brix se realizó con un refractómetro de la marca Atago, el cual posee una escala de 0 a 30 grados. La pulpa de mango presento una medida de 15° Brix. Para alcanzar los grados 25° Brix necesarios para la fermentación, a la pulpa de mango se le añadió azúcar de caña en una cantidad de 145 gramos de azúcar, con lo que se obtuvieron los 25°brix. Se realizo una prueba de ph con tiras de papel indicador de la marca cytiva obteniendo un ph de 5 que esta en el rango optimo que es de 4.5 a 6.0 para poder obtener una fermentación alcohólica y después el mosto se llevó a un recipiente donde se le añadió la levadura (Se utilizo un gramo litro de levadura de la marca Nevada) para llevar a cabo la fermentación. Se coloco el mosto en un lugar con muy poca luz para que no llegara a afectar a la levadura en su crecimiento y se le coloco una trampa de agua para que se liberara el CO2 y que no entrera oxígeno al medio ya que este puede llegar a afectar las condiciones de fermentación. Se colocaron tres sistemas de fermentación con tres mostos a diferentes periodos de fermentación. El sistema uno se dejó fermentar 5 dios, el segundo sistema 7 días, y el tercer sistema 12 días, Siento este último el que obtuvo mejores resultados obteniendo mayor cantidad de alcohol a las condiciones ambientales del lugar en donde se montó el experimento. Se realizó una primera destilación, destilando toda la cantidad de mosto, de esta primera destilación se obtuvieron de 96.7ml de un total de mosto fermentado (2 litros) Se realizó una segunda destilación al destilado obtenido en la primera destilación en este proceso de destilación se separó en 3 partes: La cabeza que fueron los primeros 5ml que se destilaron, que es la parte del destilado donde  se encuentra el metanol, el cuerpo que es la parte importante del destilado se destilo a una temperatura entre 78°c y 82°, obteniendo una cantidad de 21ml, y las colas que es donde se encuentra la mayor cantidad de agua u otras moléculas como éteres, ácidos grasos además de algunos compuestos fenólicos fueron separadas dando un volumen de 60ml. Se le realizaron diferentes pruebas al destilado las cuales fueron: grados Brix que nos dio como resultado de 30° Brix estando dentro del promedio de los destilados de fruta que es de 30°Brix - 45° Brix, se realizó una prueba de ph con el potenciómetro y nos dio como resultado de 5.1 ph que esta el rango de los destilados de aguardientes de fruta que es de 4.0 - 5.2, se realizó una prueba cualitativa para comprobar que el cuerpo del destilado estaba libre de metanol la prueba que realizamos es la de oxidación de ácido sulfúrico y dicromático, se pudo observar que el cuerpo estaba libre de metanol, calculamos los grados de alcohol del cuerpo con un alcoholímetro de Gay Lussac que tiene una escala de 0°-100° y nos dio un total de 38° grados que es similar al de los aguardientes de frutas ya que el rango es de 37°- 45°de alcohol y por último se realizó una prueba de fuego en el cuerpo del destilado para comprobar la presencia de etanol dando positiva.


CONCLUSIONES

Se logró cumplir con el objetivo que era aprovechar materia prima que es desperdiciada, y así poder contribuir un poco con el medio ambiente debido a que las frutas cuando entran en proceso de descomposición liberan CO2 y esto genera contaminación al medio ambiente. Se llego a comprender que con la técnica destilación se pueden obtener productos como Bioetanol a partir de diferentes frutas que son desechadas después de algún proceso o que por su producción excesiva son desaprovechadas y en algunos casos en que la cantidad de producción por la temporada es sumamente alta. Se obtuvo una bebida alcohólica fermentada utilizando la pulpa de mango. La técnica de destilación se puede utilizar para obtener destilados de frutas, biocombustibles a partir de frutas y materiales de desecho que por su producción excesiva llegan a ser desperdiciados sin ningún tipo de aprovechamiento, otro punto importante que se concluyo es que los tiempos de fermentación y demás parámetros del proceso de destilación se tienen que adaptar al área geográfica donde se desarrolla el proceso debido a que las condiciones ambientales como temperatura y presión son factores que determina que los procesos de elaboración de bebidas alcohólicas fermentadas permitan obtener productos de calidad.
Beleño Neira Silvia Daniela, Universidad Autónoma de Bucaramanga
Asesor: Dra. Eugenia Erica Vera Cervantes, Benemérita Universidad Autónoma de Puebla

IMPLEMENTACIóN DE SISTEMAS DE HIPERMEDIA ADAPTATIVA PARA EL APOYO EN EL APRENDIZAJE DE MATEMáTICAS EN EL GRADO QUINTO DE PRIMARIA EN COLOMBIA


IMPLEMENTACIóN DE SISTEMAS DE HIPERMEDIA ADAPTATIVA PARA EL APOYO EN EL APRENDIZAJE DE MATEMáTICAS EN EL GRADO QUINTO DE PRIMARIA EN COLOMBIA

Beleño Neira Silvia Daniela, Universidad Autónoma de Bucaramanga. Asesor: Dra. Eugenia Erica Vera Cervantes, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Las matemáticas juegan un papel importante en la formación académica, esta área aporta al desarrollo del pensamiento crítico y mejora habilidades de razonamiento. Sin embargo, muchos estudiantes desde sus primeros años escolares presentan dificultades en esta asignatura, bien sea debido a la falta de interés, comprensión de forma superficial o simplemente no la comprenden porque sus bases no son sólidas. Por tal motivo, este proyecto propone la implementación de Sistemas de Hipermedia Adaptativa en quinto de primaria, siendo este el puente entre la primaria y bachillerato; momento fundamental para que los estudiantes consoliden su conocimiento y puedan llegar preparados a su nueva etapa escolar e incluso puedan reconocer la gran aplicabilidad de esta área en la vida cotidiana.



METODOLOGÍA

La metodología se estructuró teniendo en cuenta las siguientes etapas: 1. Identificar las razones por las cuales los estudiantes no comprenden la temática. 2. Desarrollar el entorno de aprendizaje. 3. Diseñar los Sistemas Hipermedia Adaptativos a un grupo.


CONCLUSIONES

Durante la estancia del XXIX Verano de Investigación Científica Delfín se logró adquirir conocimientos sobre los sistemas de hipermedia adaptativas y todo lo que conlleva la creación de los mismos. Debido al poco tiempo, solo se realizó el diseño para que en un futuro se pueda probar con los estudiantes. Los resultados esperados son, que los estudiantes comprendan el temario de matemáticas con mayor facilidad, desarrollen la capacidad para analizar situaciones a través de conceptos matemáticos y que puedan adquirir un mayor interés por esta área.
Bello Gordillo Allison Darlyng, Fundación Universitaria del Área Andina
Asesor: Mg. Leonardo Valderrama García, Corporación Universitaria Minuto de Dios

IMPLEMENTACION DE IA PARA ESTIMAR EL TIEMPO Y EL CRECIMIENTO DE UNA PLANTA EN CULTIVOS HIDROPONICOS


IMPLEMENTACION DE IA PARA ESTIMAR EL TIEMPO Y EL CRECIMIENTO DE UNA PLANTA EN CULTIVOS HIDROPONICOS

Bello Gordillo Allison Darlyng, Fundación Universitaria del Área Andina. Lopez Molina Diana Carolina, Fundación Universitaria del Área Andina. Asesor: Mg. Leonardo Valderrama García, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

En los cultivos hidropónicos, es muy importante saber el tamaño de las plantas para poder cosechar en el momento justo y aprovechar al máximo los recursos como el agua y los nutrientes. Actualmente, medir el tamaño de las plantas a mano es un proceso muy incierto, que puede tener errores. Esto puede llevar a desperdiciar recursos y a cosechar en momentos no ideales, afectando la calidad y cantidad de la producción.   Además, las plantas en sistemas hidropónicos pueden crecer a diferentes ritmos debido a cambios en el entorno, lo que dificulta predecir exactamente cuándo estarán listas para la cosecha. Esto significa que la información disponible en la web o en los instructivos para cultivar no siempre se puede seguir al pie de la letra. Por otro lado, debido a la falta de herramientas automáticas que midan con precisión el tamaño de las plantas, los agricultores se ven impedidos de tomar decisiones bien informadas en tiempo real. Esta carencia tecnológica limita la eficiencia de sus cultivos, ya que no pueden optimizar el uso de recursos ni planificar adecuadamente las cosechas, lo que repercute negativamente en la productividad y sostenibilidad de sus operaciones. Por eso, se propone desarrollar un sistema de visión computacional que automatice la identificación y medición de manera porcentual del tamaño de las plantas. Este sistema debería proporcionar datos precisos y constantes, ayudando a los agricultores a determinar en qué porcentaje de crecimiento esta su planta para así mismo reconocer que medidas tomar y pueda avanzar efectivamente.



METODOLOGÍA

Para la implementación del proyecto, se utilizará la aplicación Teachable Machine como instrumento automatizado para detectar el tiempo y el crecimiento de las plantas en cultivos hidropónicos. La metodología se desarrollará en las siguientes etapas: 1 Abrir aplicación desde la web Recolección de Datos: Se tomarán fotografías de las plantas en diferentes etapas de crecimiento utilizando una cámara de alta resolución. Las imágenes se etiquetarán de acuerdo con las diferentes fases de crecimiento y se almacenarán en una base de datos organizada. Validación y Prueba: Se llevarán a cabo pruebas con imágenes nuevas y no vistas por el modelo para validar su precisión y eficacia. Se evaluará la capacidad del modelo para predecir el tiempo estimado de cosecha basado en las características visuales de las plantas. Implementación del Sistema: Se integrará el modelo entrenado en una aplicación práctica que pueda ser utilizada por los agricultores en sus dispositivos móviles o computadoras. La aplicación permitirá a los agricultores tomar fotos de sus plantas y recibir una estimación del tiempo restante para la cosecha y el estado de crecimiento de estas.


CONCLUSIONES

Se espera que la aplicación desarrolle con precisión las diversas etapas de crecimiento de las plantas. Esto no solo busca minimizar los errores inherentes a los métodos manuales de estimación, sino también establecer una herramienta invaluable para los cultivos hidropónicos.  
Bellucci Chacon Laura Daniela, Universidad de Investigación y Desarrollo
Asesor: Mg. Ingrid Carolina Moreno Rodriguez, Universidad Santo Tomás

REVISIóN BIBLIOGRáFICA DE TENDENCIAS EN LOS SISTEMAS DE GESTIóN


REVISIóN BIBLIOGRáFICA DE TENDENCIAS EN LOS SISTEMAS DE GESTIóN

Aguirre Esparza July Vanessa, Universidad de Investigación y Desarrollo. Bellucci Chacon Laura Daniela, Universidad de Investigación y Desarrollo. Asesor: Mg. Ingrid Carolina Moreno Rodriguez, Universidad Santo Tomás



PLANTEAMIENTO DEL PROBLEMA

En el contexto empresarial actual, los sistemas de gestión se han convertido en herramientas esenciales para las organizaciones, donde juegan un papel fundamental en el cumplimiento en unos de los objetivos del desarrollo sostenible el (ODS 9: Industria, Innovación e Infraestructura) ya que estos sistemas proporcionan un marco estructurado para gestionar y mejorar continuamente los procesos de una organización, asegurando que las operaciones sean eficientes, seguras y sostenibles. La integración de sistemas de gestión en áreas como calidad, medio ambiente, seguridad y salud en el trabajo permite a las empresas alinear sus prácticas con los principios del desarrollo sostenible. En Colombia, la adopción de sistemas de gestión se ha incrementado notablemente debido a la necesidad de cumplir con estándares internacionales, mejorar la calidad de los productos y servicios, y optimizar los procesos internos. Además de que es un tema de creciente interés tanto en el ámbito cacadémico como en el empresarial. Según un informe del Departamento Administrativo Nacional de Estadística (DANE, 2023) aproximadamente el 70% de las grandes empresas en Colombia han adoptado diversas formas de sistema de gestión basado en las últimas tendencias tecnológicas. Una tendencia clave en Colombia es la integración de múltiples sistemas de gestión en un solo sistema integrado. Empresas de diversos sectores adoptan sistemas que combinan las normas ISO 9001 (calidad), ISO 14001 (medio ambiente) e ISO 45001 (seguridad y salud en el trabajo). Esta integración permite a las empresas gestionar de manera más eficiente sus recursos y procesos, evitando la duplicación de esfuerzos y reduciendo costos administrativos. Otra tendencia es la digitalización de los sistemas de gestión. De acuerdo al autor Petkoff Bankoff et al. (2023) destaca la importancia de actualizar los sistemas de gestión de calidad para adaptarse a las rápidas transformaciones de la Industria 4.0. Subraya cómo la integración de tecnologías emergentes, como Blockchain, puede optimizar la eficiencia y calidad de los procesos industriales, y la necesidad de investigar la implementación de otras tecnologías disruptivas como el IoT y Big Data. Esto es fundamental para facilitar la optimización de la tercerización y la integración de procesos multi organizacionales, promoviendo así una adaptación más eficaz y proactiva a las demandas tecnológicas actuales. Estas tecnologías permiten una mayor automatización, monitoreo en tiempo real y análisis predictivo, lo que facilita la toma de decisiones informadas y la mejora continua. Empresas como Ecopetrol, una de las más grandes del país, están liderando esta transformación digital para optimizar sus operaciones y mejorar su sostenibilidad. En este contexto, entender estas tendencias no solo es crucial para identificar las mejores prácticas y tecnologías emergentes, sino también para anticipar los desafíos y oportunidades que enfrentarán las organizaciones en el futuro cercano. Es por esto, que mediante la presente investigación se busca dar respuesta a la siguiente pregunta ¿Cuáles son las tendencias que se presentan actualmente en torno a los sistemas de gestión?



METODOLOGÍA

El método a elegir para la presente investigación será de carácter exploratorio y descriptivo, basándose en una revisión bibliográfica sistemática de fuentes académicas y profesionales relevantes, donde se consultaron en las bases de datos de Scielo, Google Académico y EBSCO seleccionadas por su amplia cobertura en temas relacionados con la gestión empresarial. Los criterios de búsqueda incluyeron palabras clave como "implementación de sistemas de gestión", "eficiencia organizacional" y "políticas empresariales". Se consideraron artículos publicados entre 2015 y 2023 para asegurar la relevancia y actualidad de la información. Además, se creó una matriz de revisión en la que se clasificaron los artículos seleccionados según el tipo de sistema de gestión, año de publicación, autores, objetivos del estudio, metodología utilizada y principales hallazgos que permitió organizar y analizar las fuentes más relevantes sobre el tema. Así mismo las actividades propuestas para dar cumplimiento al desarrollo de la presente investigación han partido inicialmente de establecer el planteamiento del problema, se hizo una lectura general de cada documento para determinar su relevancia y aporte a la investigación, de igual manera, se descartó aquellos que no cumplieron con los criterios de selección en relación con el problema planteado y la temática seleccionada, posterior a ello se hará la interpretación y sus respectivas conclusiones. 


CONCLUSIONES

Las tendencias actuales en estos sistemas están transformando profundamente la manera en que las organizaciones operan y se relacionan con su entorno. La revisión bibliográfica de las tendencias de los sistemas de gestión busca obtener una comprensión profunda y actualizada de los avances, prácticas emergentes y desafíos en el campo de la gestión empresarial. Este análisis es fundamental para identificar cómo las empresas pueden optimizar sus procesos, mejorar la eficiencia operativa y mantener su competitividad en un mercado global en constante cambio. Ademas facilita el cumplimiento de los objetivos del desarrollo sostenible, como la mejora de la calidad, seguridad y la sostenibilidad son aspectos centrales que configuran el panorama actual. Comprender y responder a estos sistemas no es solo una cuestión de mantenerse competitivo, sino de asegurar la supervivencia y el éxito a largo plazo en un mundo empresarial cada vez más complejo y demandante. Las organizaciones que logren adaptarse a estas tendencias tendrán una ventaja competitiva significativa. 
Beltrán Cruz Diego Alfredo, Universidad Autónoma de Sinaloa
Asesor: Mtra. Carmen Jeannette Sampayo Rodríguez, Instituto Tecnológico Superior de Huauchinango

APLICACIóN WEB PARA EL CONTROL DE INVENTARIOS CON PUNTO DE VENTA


APLICACIóN WEB PARA EL CONTROL DE INVENTARIOS CON PUNTO DE VENTA

Beltrán Cruz Diego Alfredo, Universidad Autónoma de Sinaloa. Asesor: Mtra. Carmen Jeannette Sampayo Rodríguez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, muchas tiendas de abarrotes pequeñas enfrentan desafíos al gestionar sus inventarios y ventas de manera eficiente. A menudo, el acceso a tecnologías avanzadas como sistemas automatizados de inventario y ventas es limitado. Aunque el uso de internet está cada vez más extendido, muchas de estas tiendas aún dependen de métodos manuales y sistemas rudimentarios para registrar y gestionar sus operaciones diarias. Hoy en día, existen proveedores que ofrecen soluciones de punto de venta (POS) diseñadas para pequeños comercios, facilitando la gestión de inventarios, ventas y reportes. Sin embargo, muchas de estas soluciones todavía no están completamente integradas con los sistemas de gestión de inventarios y contabilidad de las tiendas, lo que dificulta una administración eficaz y en tiempo real de las operaciones comerciales. El objetivo de este proyecto es diseñar una aplicación de punto de venta específicamente adaptada para tiendas de abarrotes pequeñas. Esta aplicación deberá ser fácil de usar y accesible, permitiendo a los comerciantes gestionar sus inventarios, realizar ventas y generar reportes directamente desde un dispositivo móvil o una computadora, sin necesidad de complejas instalaciones de software o hardware costoso. En la siguiente sección, se describirá la metodología utilizada para el diseño de esta aplicación de punto de venta y se presentarán las conclusiones sobre su potencial impacto en la eficiencia operativa y la rentabilidad de Pequeñas y Medianas Empresas.



METODOLOGÍA

Con base en las especificaciones y requerimientos funcionales y no funcionales del sistema, se logró desarrollar un punto de venta utilizando PHP (versión 8.2.0), JavaScript (versión 1.5), HTML (HTML5), MySQL (versión 8.3), Bootstrap (versión 5.3.0), JQuery (versión 3.6.0), CSS3, para la generación de un punto de venta para una tienda de mediano y corto alcance. Las principales actividades desarrolladas fueron las siguientes: Levantamiento de los requerimientos básicos para el punto de venta. Creación del diseño de las ventanas para el desarrollo. Desarrollo de la aplicación web con sus funcionalidades. En la primera semana se hizo una revisión del estado del arte de softwares similares. Se analizó si la propuesta del proyecto para realizar el desarrollo de una aplicación de control de inventario para la administración y gestión de productos para una PYME.   En la segunda semana se levantaron los requerimientos funcionales y no funcionales para el desarrollo de la aplicación, mediante entrevistas y observación del estilo de trabajo actual que se buscaba mejorar. Posteriormente, se realizó el análisis de los datos obtenidos para la creación de la lógica interna del sistema. En la tercera semana se trabajó en el diseño y la creación de la base de datos relacional en el gestor de base de datos phpMyAdmin (versión 5.2.0) con las consultas CRUD en MySQL (PHP Data Objects) para las tablas de ventas, usuarios, perfiles, compras, productos, roles y sus respectivos permisos, entre otros. En la cuarta semana se diseñaron y programaron las interfaces de usuario en Sublime Text (versión 4.1.4.3) y las conexiones a la base de datos para Altas, Bajas, y modificaciones en las tablas de ventas, usuarios, perfiles, compras, productos, roles y sus respectivos permisos, implementado el modelo MVC entre otros. En la quinta semana se programaron los requerimientos funcionales y los algoritmos previamente definidos utilizando tecnologías como JavaScript, PHP, Ajax, JQuery, Bootstrap, HTML, CSS, y CSS3. En la última semana se realizaron las pruebas del proyecto, donde se buscó identificar y corregir todos los errores que surgieron durante el desarrollo e implementación. También se llevó a cabo un análisis para verificar si el proyecto cumplía con los objetivos planteados en el levantamiento de requerimientos.


CONCLUSIONES

Durante la implementación de este sistema de punto de venta, se exploraron y aplicaron diversas tecnologías modernas y metodologías ágiles para asegurar la eficiencia y funcionalidad del software. El proyecto permitió mejorar la gestión de inventarios y ventas de la tienda. A través del desarrollo de esta aplicación, se fortaleció el conocimiento en la gestión y optimización de bases de datos relacionales, así como en la implementación de interfaces de usuario intuitivas y responsivas. Este enfoque no solo mejoró la operatividad diaria de la tienda, sino que también contribuyó a la sostenibilidad al promover prácticas eficientes y económicas en la administración de recursos.
Beltrán Herrera Jorge Andrés, Universidad Autónoma de Sinaloa
Asesor: Dr. Alfonso Talavera López, Universidad Autónoma de Zacatecas

SíNTESIS DE TITANO SILICATOS IMPREGNADOS CON PT-SN EMPLEADOS EN LA REACCIóN DE DESHIDROGENACIóN DE PROPANO PARA EL ESTUDIO DEL EFECTO DE LA CANTIDAD DE TI.


SíNTESIS DE TITANO SILICATOS IMPREGNADOS CON PT-SN EMPLEADOS EN LA REACCIóN DE DESHIDROGENACIóN DE PROPANO PARA EL ESTUDIO DEL EFECTO DE LA CANTIDAD DE TI.

Beltrán Herrera Jorge Andrés, Universidad Autónoma de Sinaloa. Villa Diaz Ana Cristina, Universidad Autónoma de Sinaloa. Asesor: Dr. Alfonso Talavera López, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Con una producción mundial de aproximadamente 78 millones de toneladas de propileno, éste supone una de las olefinas más demandadas en la industria debido a sus múltiples usos. Existen dos procesos principales en la producción de propileno: en torno al 56% de su producción mundial es obtenida como subproducto de la producción de etileno, mientras que un 33% se obtiene como producto en el refino del petróleo. Sólo un 7% es producido a partir de la deshidrogenación de propano y la transformación de etileno y butilenos. Se espera que el consumo de propileno crezca a un nivel ligeramente superior al PIB mundial durante los próximos cinco años. La media de dicho crecimiento podría rondar el 5% anual, siendo incluso superior al crecimiento del etileno, por lo que se espera un mayor auge dentro de la industria del plástico con el uso del polipropileno en detrimento del polietileno. En ese sentido, una de las tecnologías que está cobrando especial importancia es la deshidrogenación de parafinas (propano), debido a la mayor disponibilidad de propano procedente de estas reservas. En líneas generales, su precio ha disminuido notablementedebido a su grandisponibilidad, loque hace al proceso de deshidrogenación más atractivo, como tecnología alternativa para la producción de propileno. La producción de propileno a partir de la deshidrogenación de propano supone un gran reto de optimización, puesto que es un proceso altamente endotérmico, que se encuentra limitado por el equilibrio termodinámico y en el cual, además de la reacción principal, coexisten reacciones secundarias como la de craqueo térmico del propano o la de formación de coque, la cual provoca una rápida desactivación del catalizador.



METODOLOGÍA

Se realizó revisión bibliográfica referente al tema y se calculó la termodinámica de la reacción de deshidrogenación de propano, con el objetivo de conocer los valores máximos de conversión que se podrían obtener a las condiciones que se van a implementar en los posteriores experimentos, para después comenzar con la síntesis de los soportes SBA-16 y KIT-6 para la posterior implementación de Ti y de la fase activa Pt-Sn mediante impregnación húmeda incipiente.   Para la síntesis de SBA-16 se comenzó diluyendo 6.42g de Pluronic F-127 en una solución de agua-HCl con agitación vigorosa durante 2 horas hasta su completa disolución, una vez completado lo anterior, se agregaron 24 mL de 1-Butanol y se dejó agitando por una hora. Posteriormente, se agregaron 32.6 mL de tetraetil ortosilicato (TEOS) y se dejó agitando por 24 horas, una vez transcurrido este tiempo se mete a una autoclave y se lleva a 100°C por 24 horas, después se filtró y se lavó dos veces el contenido, para llevarlo a secar por 24 horas a 100°C, finalmente, se llevó a calcinar a 550°C por 6 horas.   Para la síntesis del soporte KIT-6, se comenzó por diluir 12g de Pluronic P123 en una solución de agua-HCl cuidando que la temperatura estuviera cercana a los 35°C hasta la completa disolución del Pluronic P123. Una vez disuelto, se agregaron 14.8 mL de 1-Butanol y se dejó agitando por 1 hora para posteriormente agregar 33.4 mL de TEOS y dejarlo agitando por 24 horas. Posteriormente se lleva a una autoclave y se lleva a 100°C por 24 horas, para después filtrar y lavar el producto, el cual se llevó a secar por 24 horas a 100°C y finalmente se llevó a calcinar a 550°C por 6 horas.   Se siguió el mismo procedimiento para la implementación de Ti a los soportes sintetizados, el cual consiste en pesar aproximadamente 3g de soporte, ya sea KIT-6 o SBA-16, y se disolvieron en una solución agua-HCl, esperando a que llegara a una temperatura de 5°C, una vez llegada a la temperatura, se ajustó el pH a 10 utilizando hidróxido de amonio. Se añadió una solución de etanol- propóxido de titanio (IV)-ACAC, en las proporciones necesarias para tener cierto porcentaje de titanio deseado, en este trabajo se utilizaron porcentajes de 10, 13 y 16, posteriormente se dejó agitando a 5°C por 2 horas y una vez cumplido el tiempo se llevó a secar por 24h a 100°C y a calcinar por 4 horas a 400°C.   Una vez obtenidos los titanosilicatos, se llevó a cabo una impregnación húmeda incipiente, donde se pesaron 0.0291g de cloruro de estaño y 0.015g de nitrato de tetraaminoplatino (II) necesarios para obtener los porcentajes de Pt y Sn deseados en el catalizador, los cuales fueron diluidos en un cierto volumen de agua desionizada que es igual al volumen de poro del soporte que se va a impregnar. Se fue agregando la solución gota a gota a 1 gramo de soporte y mezclando hasta acabar la solución, posteriormente se llevó a secar a 100°C.   Una vez obtenidos los catalizadores, se llevaron a cabo diferentes experimentos para evaluar los siguientes parámetros: Conversión. Selectividad. Desactivación. Los experimentos se llevaron a cabo de la misma manera, solamente variando el catalizador empleado, para realizar cada experimento se comenzó pesando 150mg del catalizador escogido, el cual fue introducido en el reactor de flujo continuo en el que se llevó a cabo la reacción de deshidrogenación de propano a una temperatura de 520°C con un tiempo de reacción de 6 horas, en el cual entraban los siguientes flujos: 13mL/min de propano(C3H8), 2.2mL/min de hidrógeno (H2) y 135mL/min de nitrógeno (N2). Se caracterizaron los gases de salida del reactor mediante un cromatógrafo de gases, donde los resultados arrojados por el equipo serán utilizados para la evaluación de los parámetros mencionados anteriormente.


CONCLUSIONES

Durante esta estancia de verano se lograron adquirir conocimientos teóricos y prácticos a cerca de la deshidrogenación directa de propano, en donde se realizó un extenso trabajo en la fabricación de catalizadores adecuados para este tema y la manipulación del sistema de reacción para la obtención de los resultados de dicha reacción, sin embargo, al tratarse de un contenido amplio los primeros datos arrojados en la primera etapa no fueron los esperados ya que no se cumplieron todos los objetivos. Se espera que en las siguientes etapas se obtengan los resultados que complementen nuestro trabajo.  
Beltran Manzano Aylin Guadalupe, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)

EVALUACIóN DE LA PRECISIóN EN LOS PRONóSTICOS DE PIEZAS ENTREGADAS Y ANáLISIS DE LA VARIABILIDAD EN HORARIOS DE SALIDA EN EL TRANSPORTE DE MERCANCíAS


EVALUACIóN DE LA PRECISIóN EN LOS PRONóSTICOS DE PIEZAS ENTREGADAS Y ANáLISIS DE LA VARIABILIDAD EN HORARIOS DE SALIDA EN EL TRANSPORTE DE MERCANCíAS

Beltran Manzano Aylin Guadalupe, Instituto Tecnológico de Ciudad Juárez. Cabral Rivera Frida Nayeli, Instituto Tecnológico de Ciudad Juárez. Rosas Archiveque Amado, Universidad de Sonora. Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En el ámbito del transporte de mercancías, la precisión en los pronósticos de piezas entregadas y la coordinación de los horarios de salida son fundamentales para asegurar la eficiencia operativa y la satisfacción del cliente. Sin embargo, se ha observado que existen discrepancias significativas entre las piezas pronosticadas y las realmente entregadas, así como variabilidad en los horarios de salida entre diferentes rutas. Estas discrepancias pueden llevar a ineficiencias logísticas, incrementos en costos y afectación en la calidad del servicio. Los problemas identificados son inexactitud en los pronósticos de piezas entregadas, las diferencias significativas entre las cantidades de piezas pronosticadas y las entregadas generan desafíos en la gestión de inventarios, planificación de recursos y cumplimiento de plazos. Esto puede deberse a limitaciones en los modelos de pronóstico o a factores no anticipados en la cadena de suministro. El otro problema es Variabilidad en los Horarios de Salida entre Ciudades, esto por la inconsistencia en los horarios de salida puede reflejar una falta de coordinación y planificación, lo que impacta en la optimización de rutas y tiempos de entrega. Esta variabilidad puede estar influenciada por factores específicos de cada ciudad, como infraestructura, regulaciones locales, o condiciones de tráfico. Este reporte busca identificar y cuantificar estas discrepancias y variabilidades, y explorar las posibles causas y soluciones para mejorar la precisión en los pronósticos y la eficiencia en la gestión de los horarios de salida. El análisis detallado proporcionará una base para el desarrollo de estrategias de mejora en la logística del transporte de mercancías, con el objetivo de optimizar los procesos operativos y reducir costos.



METODOLOGÍA

Para realizar el análisis estadístico pertinente se tomaron en cuenta varias actividades principales como la  recopilación de datos que consiste en identificar de dónde provienen los datos. La frecuencia con la que estos son recopilados, así como definir claramente las variables medidas. Se tiene que llevar a cabo una limpieza de datos para que estos tengan coherencia y así mismo decidir cómo se van a manejar los datos atípicos si es que existen. El primer paso es realizar el análisis de datos mediante una apreciación general de los datos. Después de esto se deben de visualizar los datos por medio de los diferentes gráficos existentes así como agregar anotaciones que puedan explicar anomalías o cambios en los datos. Por último se debe hacer la interpretación de los datos de acuerdo al contexto en el que se está trabajando, comprobando que las hipótesis que sean planteadas se acepten o rechacen según sea el caso.


CONCLUSIONES

El presente estudio ha demostrado que el uso de RStudio en la optimización de procesos logísticos y en el análisis de datos en el sector del transporte de piezas puede ser altamente efectivo. A través del análisis detallado de las diferencias entre las piezas pronosticadas y las realmente entregadas, se ha evidenciado que existen discrepancias significativas que pueden abordarse y minimizarse mediante el uso de técnicas avanzadas de análisis de datos y modelado predictivo. Uno de los hallazgos más importantes de este estudio es la identificación de patrones de error y variabilidad en los pronósticos, particularmente en ciertos estados como Veracruz y Ciudad de México, que presentaron las mayores discrepancias. Estos resultados subrayan la necesidad de ajustar los modelos predictivos y los procesos logísticos para mejorar la precisión y eficiencia en la entrega de piezas. La aplicación de la prueba t para muestras pareadas ha revelado una diferencia estadísticamente significativa entre los pronósticos y los valores reales, con un valor p extremadamente pequeño, lo que nos permite rechazar la hipótesis nula de que no hay diferencia significativa entre los pronósticos y los valores reales. Esta diferencia media, aunque cuantitativamente pequeña (aproximadamente 0.599), es crucial para entender y mejorar los procesos logísticos. El uso de RStudio ha facilitado no solo el análisis y visualización de grandes volúmenes de datos, sino también la implementación de algoritmos complejos que pueden predecir y optimizar la logística del transporte de piezas. La capacidad de RStudio para manejar datos de manera eficiente y su interfaz amigable han sido factores clave en la realización de este estudio. En conclusión, este proyecto ha permitido demostrar que la incorporación de herramientas avanzadas de análisis de datos como RStudio puede conducir a mejoras significativas en la eficiencia y precisión de los procesos logísticos en el sector del transporte de piezas. La capacidad de identificar y corregir discrepancias, así como de optimizar rutas y procesos, representa un avance importante hacia la modernización y mejora continua de la logística en esta industria. Esta investigación no solo aporta una metodología robusta para la optimización de procesos logísticos mediante el uso de RStudio, sino que también sienta las bases para futuras investigaciones que puedan expandir y aplicar estos hallazgos a otras áreas del transporte y la logística, impulsando así la innovación y eficiencia en el sector.
Beltran Mirafuentes Gabriela Patricia, Universidad Autónoma de Sinaloa
Asesor: Dr. Jose Manuel Villegas Izaguirre, Universidad Autónoma de Baja California

DESARROLLO DE UNA PLATAFORMA DIGITAL PARA LA MONITORIZACIóN AMBIENTAL PARTICIPATIVA: UNA PRIMERA VERSIóN


DESARROLLO DE UNA PLATAFORMA DIGITAL PARA LA MONITORIZACIóN AMBIENTAL PARTICIPATIVA: UNA PRIMERA VERSIóN

Beltran Mirafuentes Gabriela Patricia, Universidad Autónoma de Sinaloa. Asesor: Dr. Jose Manuel Villegas Izaguirre, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

La creciente preocupación por los problemas ambientales, como la contaminación del aire y el cambio climático, ha llevado a la necesidad de una mayor participación ciudadana en la monitorización de estos fenómenos. Las redes oficiales de monitoreo, aunque esenciales, a menudo son limitadas en su cobertura y en la frecuencia de los datos que proporcionan. Esto crea una oportunidad para que los ciudadanos se involucren activamente en la recolección de datos ambientales, contribuyendo así a una comprensión más completa de las condiciones ambientales locales.   Sin embargo, para que esta participación sea efectiva, se requiere una plataforma digital que facilite la recolección, almacenamiento y visualización de los datos generados por sensores de bajo costo. La falta de herramientas accesibles y fáciles de usar puede limitar la capacidad de los ciudadanos para contribuir a la ciencia ciudadana. Este proyecto busca abordar esta necesidad mediante el desarrollo de una plataforma digital que permita a los ciudadanos participar en la monitorización ambiental, utilizando tecnologías accesibles y de bajo costo.



METODOLOGÍA

Investigación Bibliográfica El primer paso en el desarrollo de la plataforma fue realizar una exhaustiva revisión de la literatura científica. Se analizaron 40 artículos relevantes que abordan temas como la monitorización ambiental, la ciencia ciudadana y el uso de tecnologías de bajo costo. Esta investigación proporcionó una base sólida de conocimiento sobre las mejores prácticas y los desafíos asociados con el desarrollo de plataformas digitales para la recolección de datos ambientales. Diseño de la Base de Datos Para gestionar los datos recolectados por los sensores, se diseñó e implementó una base de datos utilizando MySQL. Esta base de datos está estructurada para almacenar información sobre los diferentes parámetros ambientales que se medirán. Desarrollo del Front-End La interfaz de usuario de la plataforma digital fue desarrollada utilizando HTML y JavaScript. Se diseñó una interfaz intuitiva que permite a los usuarios visualizar los datos de manera clara y accesible. Esta visualización es crucial para que los ciudadanos comprendan mejor la información ambiental y puedan tomar decisiones informadas. Implementación del Servidor Se desarrolló un servidor utilizando Node.js para gestionar la comunicación entre los sensores y la base de datos. Este servidor permite la recolección de datos en tiempo real y asegura que la información se almacene de manera eficiente en la base de datos.    Mejoras Una vez que la plataforma fue desarrollada, se llevaron a cabo pruebas exhaustivas para asegurar su funcionalidad. Se recomendó la migración a un sistema de front-end más robusto, como Angular o React, para mejorar la experiencia del usuario y facilitar futuras expansiones de la plataforma.


CONCLUSIONES

El resultado de este proyecto es una primera versión funcional de la plataforma digital para la monitorización ambiental participativa. Esta plataforma incluye: Base de datos MySQL: Estructurada para almacenar datos ambientales de manera eficiente. Interfaz de usuario: Desarrollada en HTML y JavaScript, que permite a los ciudadanos visualizar datos de forma clara y accesible. Servidor Node.js: Que gestiona la comunicación entre los sensores y la base de datos, permitiendo la recolección de datos en tiempo real. A pesar de ser una versión inicial, la plataforma ha demostrado su potencial para facilitar la participación ciudadana en la monitorización ambiental. Los usuarios pueden acceder a datos relevantes y contribuir a la recopilación de información valiosa.   El desarrollo de una plataforma digital para la monitorización ambiental participativa representa un paso significativo hacia la inclusión de los ciudadanos en la ciencia ciudadana. La primera versión de esta plataforma, aunque aún sujeta a mejoras, sienta las bases para un sistema que puede evolucionar y adaptarse a las necesidades de los usuarios. La migración a tecnologías de front-end más avanzadas, como Angular o React, será fundamental para optimizar la experiencia del usuario y ampliar las funcionalidades de la plataforma.En el futuro, se prevé que esta plataforma no solo permita la recolección de datos ambientales, sino que también fomente una mayor conciencia y participación ciudadana en cuestiones ambientales
Benavides López Engel José, Universidad Nacional Autónoma de Nicaragua, Managua
Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco

ANáLISIS DE FACTIBILIDAD LEGAL Y TéCNICA DE UNA MáQUINA DOSIFICADORA DE TESTALES


ANáLISIS DE FACTIBILIDAD LEGAL Y TéCNICA DE UNA MáQUINA DOSIFICADORA DE TESTALES

Benavides López Engel José, Universidad Nacional Autónoma de Nicaragua, Managua. Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

Existen múltiples programas que promueven la innovación, generando múltiples ideas disruptivas, pero en muchas ocasiones se encuentran reducidos a elementos fundamentalmente teóricos sin ningún tipo de seguimiento. En la encuesta sobre Investigación y Desarrollo Tecnológico (ESIDET) realizada por el INEGI muestra que, en 2017, el 31.5% de las empresas de manufactura declararon haber realizado procesos de innovación en productos, pero solo el 14.7% de las empresas reportaron haber introducido al mercado productos nuevos o significativamente mejorados, lo que significa que existe una brecha entre la capacidad de innovación y la factibilidad de la innovación. Dentro del contexto presentado se realizó un análisis de factibilidad técnica y legal a una máquina dosificadora de testales (bolas de masa), en el marco de las leyes mexicanas y nicaragüenses al compartir la necesidad de optimizar los procesos de producción de tortillas, con tecnología accesible a las pequeñas empresas productoras.



METODOLOGÍA

En el proceso de elección a la idea a desarrollar se seleccionó un proyecto de innovación desarrollado en el Instituto Tecnológico Superior de Pánuco, dentro de las diferentes opciones se eligió una investigación sobre el diseño 3D de máquina de dosificadora de testales, teniendo en cuenta los objetivos de desarrollo sostenible, pues en México se consumen 75 kilos de tortilla al año per cápita, convirtiéndose en el mayor consumidor mundial de este producto, por lo cual existen alrededor de 169,598 microempresas dedicadas a la elaboración de productos de panadería y tortillas, según el Censo Económico realizado en 2019 por el INEGI, por lo cual ofrecer un producto orientado a las pequeñas y medianas empresas es un curso de acción necesario. La investigación se dividió en dos apartados, el análisis de factibilidad legal y el análisis de factibilidad técnica; inicialmente se consultaron las diferentes normativas mexicanas sobre salubridad con la finalidad de cumplir con todos los requerimientos legales y técnicas ante la fabricación, las normativas consultadas fueron: NORMA Oficial Mexicana NOM-251-SSA1-2009, Prácticas de higiene para el proceso de alimentos, bebidas o suplementos alimenticios. NORMA Oficial Mexicana NOM-187-SSA1/SCFI-2002, Productos y servicios. Masa, tortillas, tostadas y harinas preparadas para su elaboración y establecimientos donde se procesan. Especificaciones sanitarias. Información comercial. Métodos de prueba. PROYECTO de Norma Oficial Mexicana NOM-120-SSA1-1994, Bienes y servicios. Prácticas de higiene y sanidad para bienes y servicios. NORMA Oficial Mexicana NOM-093-SSA1-1994, Bienes y servicios. Prácticas de higiene y sanidad en la preparación de alimentos que se ofrecen en establecimientos fijos. Con la finalidad de complementar estas normativas se consultó la normativa ISSO aplicable a la fabricación de maquinaria de manufactura por lo que se consultaron las siguientes normativas. ISSO 9001:2015 Sistemas de gestión de la calidad. ISSO 20000 Calidad de los Servicios ISO 14159:2008 Seguridad de las máquinas. Requisitos de higiene para el diseño de las máquinas. 12100: 2010 Seguridad de las máquinas. Principios generales para el diseño. Evaluación del riesgo y reducción del riesgo. Normativas nicaragüenses consultadas. NTON 03 026: Norma técnica obligatoria nicaragüense de manipulación de alimentos. requisitos sanitarios para manipuladores. NTON 11 004- 00: Norma técnica de requisitos básicos para la inocuidad de productos y subproductos de origen vegetal LEY N°. 842: Ley de protección de los derechos de las personas consumidoras y usuarias A partir de la normativa se realizó una investigación sobre los materiales más adecuados para la fabricación, teniendo en cuenta el cumplimiento de la norma en estándares de calidad y la reducción de su coste; la máquina dosificadora consta de cinco partes: cilindro, base, cuchillas, puerta con función de aplanado, palanca y cilindro dosificador. Para el cilindro y la puerta con función de aplanado se eligió el aluminio 6063 por maleabilidad, alta resistencia a la corrosión y tolerancia al tratamiento térmico, lo que permite que resista los diferentes tratamientos de salubridad como constantes procesos de desinfección, pasteurización y contacto con múltiples químicos de desinfección abrasivos, por su condición como metal tiende a no almacenar bacterias y el aluminio 6063 permite ser lo suficientemente resistente para resistir la carga multiaxial que requiere el diseño. Para la base y cilindro dosificador se optó por un polímero termoplástico de alta densidad, por su facilidad de mecanización, su popular uso en el procesamiento de alimentos, su bajo costo y su capacidad de reprocesamiento lo que permite estar alineado con las políticas de economía circular. En las cuchillas se decidió utilizar acero inoxidable el acero 440C por su alta resistencia a la corrosión y durabilidad, lo que permite que las cuchillas resistan su continuó uso y pierdan el filo en un periodo de tiempo más amplio, retrasando los mantenimientos correctivos.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de las normativas aplicables en la fabricación de productos, así como el proceso correcto sobre la elección de materiales adecuados que cumplan con los requerimientos legales y técnicos, pero debido a las limitaciones de logísticas y de presupuesto no se lograron realizar experimentos sobre el funcionamiento
Bernabe Hernandez Anahi, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca

DESARROLLO DE DISEñO DE MEZCLA DE TIERRA ESTABILIZQADA PROYECTADA PARA PROTOTIPO DE BRAZO ROBóTICO


DESARROLLO DE DISEñO DE MEZCLA DE TIERRA ESTABILIZQADA PROYECTADA PARA PROTOTIPO DE BRAZO ROBóTICO

Bernabe Hernandez Anahi, Benemérita Universidad Autónoma de Puebla. Ochoa Torres Karla, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

La industria de la construcción en el mundo y especialmente en México, Oaxaca, emplea en su mayoría procesos manuales, lo cual conlleva a procedimientos que ponen en peligro la vida humana, para ello se plantea el desarrollo y diseño de una mezcla de tierra estabilizada que sea capaz de proyectarse.  



METODOLOGÍA

La metodología a seguir fue tener un estado del arte sobre mezclas de tierra, consultar expertos en el tema para partir de una referencia con lo cual partir; posteriormente contar con el equipo necesario en laboratorio, material, herramientas, así como la supervisión y apoyo de Arquitectos e ingenieros con la previa experiencia para lograr capacitar al equipo y asi obtener un mejor resultado. Después de contar con lo necesario se debía analizar el tipo de tierra a emplear asi como hacer pruebas de granulometría para decidir su implementación, a partir de ello bajo criterios previamente seleccionados en el estado del arte se decidieron los aditivos para mejorar y estabilizar la mezcla. Al concluir este proceso se prosiguió a realizarle pruebas de compresión, de plasticidad y de fluidez, además de analizar los resultados obtenidos y conseguir un resultado satisfactorio.


CONCLUSIONES

De acuerdo a la investigación y la expermentación se concluyó que se puede realizar y es capaz de duplicarse el diseño de la mezcla de tierrra estabilizada en cuanto se cumplan las variables aplicadas, al aplicar mayor búsqueda de información y experimentación puede mejorarse dicho diseño, por lo cual tenemos como conclusión del Programa Delfín que logramos aprender en este proyecto de investigación sobre el proceso metodológico y práctico para poder llevar acabo una investigación, dejando nos como enseñanza el trabajo en equipo, la resiliencia y la importancia de la investigación para poder aplicarlo a futuras investigaciones.
Bernal Pérez Luis Ángel, Instituto Politécnico Nacional
Asesor: Dr. Alejandro Garza Galicia, Universidad del Valle de Atemajac

ANALISIS DEL POTENCIAL DE LA CONCENTRACIóN SOLAR


ANALISIS DEL POTENCIAL DE LA CONCENTRACIóN SOLAR

Bernal Pérez Luis Ángel, Instituto Politécnico Nacional. Castillo Rojas Carlos Antonio, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Guerrero Niño Felipe Eugenio, Universidad Politécnica de Altamira. Jiménez Romero Aída Yolanda, Universidad de Guadalajara. Lara Amado Jesus Modesto, Tecnológico de Estudios Superiores de Valle de Bravo. Suarez Garcia Fernando Yered, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Alejandro Garza Galicia, Universidad del Valle de Atemajac



PLANTEAMIENTO DEL PROBLEMA

El cambio climático y la crisis energética representan dos de los desafíos más urgentes y complejos de nuestra era. Las emisiones de gases de efecto invernadero (GEI), resultantes principalmente de la quema de combustibles fósiles, han contribuido significativamente al calentamiento global, causando efectos adversos en el medio ambiente, como el aumento del nivel del mar, eventos meteorológicos extremos y la pérdida de biodiversidad. En el contexto de México y muchos otros países en desarrollo, la dependencia de fuentes de energía no renovables no solo agrava estos problemas ambientales, sino que también limita el acceso a energía limpia y accesible para la población. México, en particular, enfrenta una situación crítica debido a su creciente demanda de energía, la cual no puede ser satisfecha de manera sostenible con las tecnologías y recursos actuales. Esto ha generado un aumento en las emisiones de GEI, colocando al país en una posición donde debe equilibrar la necesidad de desarrollo económico con la protección del medio ambiente. A nivel global, la transición hacia energías renovables es vista como una solución clave para mitigar el cambio climático. Sin embargo, esta transición enfrenta múltiples desafíos técnicos, económicos y sociales, especialmente en países con infraestructuras limitadas y diversas condiciones climáticas.



METODOLOGÍA

El presente proyecto de investigación se centró en la evaluación de diversas tecnologías de generación de energía con el objetivo de desarrollar un software de apoyo a la toma de decisiones. Este software busca integrar consideraciones económicas, sociales, medioambientales y culturales para optimizar la generación y uso de energía en México. Se llevaron a cabo pruebas experimentales utilizando los siguientes equipos: Concentrador solar tipo CCP Estufa solar Estufa de gas Estufa eléctrica Panel solar fotovoltaico Motor Stirling Durante un periodo de siete semanas, se recolectaron datos experimentales utilizando una serie de sensores especializados, tales como anemómetros para medir la velocidad del viento, termopares para monitorear temperaturas, multímetros para registrar parámetros eléctricos y sensores de radiación para evaluar la intensidad de la radiación solar. Toda la información recopilada fue almacenada en una base de datos centralizada, diseñada para facilitar el análisis y la interpretación de los datos. Asimismo, se elaboró un software en Python que implementa conexiones a las bases de datos donde registramos las mediciones por cada tecnología implementada, factores para la toma de decisiones, variables de eficiencia y finalmente, un árbol de decisión que toma las siguientes consideraciones: Factores económicos: En donde toma en consideración el costo de implementación, operación y mantenimiento de las tecnologías evaluadas. Factores sociales: Considerando la accesibilidad de las tecnologías y su impacto en la calidad de vida de las comunidades. Factores medioambientales: Buscando la reducción de emisiones de GEI, protección a la salud humana y conservación de recursos naturales. Factores culturales: Buscando en un futuro que la escalabilidad del proyecto generé una aceptación y adaptación de las tecnologías en contextos culturales específicos.


CONCLUSIONES

Las pruebas experimentales arrojaron los siguientes resultados de eficiencia para cada tecnología evaluada: Concentrador solar tipo CCP: Eficiencia máxima de 31% Estufa de gas: Eficiencia de 63% Estufa solar: Eficiencia de 19% Estufa eléctrica: Eficiencia de 57% Estos datos proporcionan una base sólida para el desarrollo del software, que busca ofrecer recomendaciones sobre la mejor combinación de tecnologías para diferentes escenarios y condiciones locales. La implementación de colectores solares y otras tecnologías de energía renovable presenta desafíos significativos debido a la geometría solar y las condiciones climáticas adversas. Factores como la variabilidad en la intensidad de la radiación solar, la disponibilidad de recursos naturales y la infraestructura existente limitan la eficiencia y la viabilidad de estas tecnologías en ciertas regiones. Sin embargo, este proyecto ha demostrado que es posible avanzar hacia una transición energética sostenible mediante el uso de herramientas de decisión integrales y bien informadas, que consideran una amplia gama de factores y que priorizan la sostenibilidad medioambiental y el bienestar social. Este enfoque holístico es crucial para asegurar que la transición energética no solo sea técnicamente viable, sino también equitativa y respetuosa con los ecosistemas locales y las comunidades.
Bernardino Jaramillo Fernando, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Pedro Vera Serna, Universidad Politécnica de Tecámac

DISEñO DE BICICLETA ELéCTRICA RECARGABLE CON MATERIALES AVANZADOS LIGEROS


DISEñO DE BICICLETA ELéCTRICA RECARGABLE CON MATERIALES AVANZADOS LIGEROS

Bernardino Jaramillo Fernando, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Pedro Vera Serna, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

La congestión urbana y la contaminación ambiental son problemas críticos en las ciudades modernas. Los automóviles eléctricos, aunque representan una alternativa más ecológica, enfrentan limitaciones significativas como tiempos de carga prolongados y altos costos de fabricación. En este contexto, las bicicletas eléctricas (e-bikes) surgen como una solución potencialmente viable y sostenible para el transporte urbano. Sin embargo, el diseño y desarrollo de una e-bike eficiente y económica requiere una investigación meticulosa en términos de componentes, materiales y tecnología.



METODOLOGÍA

Se llevó a cabo una investigación exhaustiva sobre los diferentes tipos de motores eléctricos y sistemas de transmisión para determinar cuál sería la mejor opción para la e-bike. Posteriormente, se diseñó un modelo detallado de la bicicleta en un software de CAD, teniendo en cuenta factores como la ergonomía, la aerodinámica y la resistencia estructural. Se seleccionaron materiales ligeros y resistentes, como el aluminio y la fibra de carbono, para optimizar el peso sin comprometer la durabilidad. Al igual se realizaron cálculos precisos para evaluar la capacidad de la batería y la autonomía de la bicicleta. Finalmente, se validaron los resultados obtenidos y se concluyó que la e-bike diseñada cumple con los requisitos de eficiencia, sostenibilidad y funcionalidad para el transporte urbano.


CONCLUSIONES

El desarrollo de una e-bike mediante el uso de un software de CAD y la selección adecuada de materiales ha demostrado ser una solución eficiente y viable para el transporte urbano. La e-bike diseñada no solo ofrece una buena autonomía y velocidad, sino que también es ligera y robusta. Este proyecto evidencia que las e-bikes pueden ser una alternativa sostenible y económica frente a los vehículos motorizados tradicionales. Futuros trabajos pueden enfocarse en mejorar la capacidad de la batería y la integración de tecnologías inteligentes para optimizar aún más el rendimiento y la experiencia del usuario.
Betancourt Guzmán Kateri Nataly, Universidad de Guadalajara
Asesor: Mg. Gustavo Adolfo Correa Solano, Universidad Cooperativa de Colombia

ANáLISIS DE LA MOVILIDAD SOSTENIBLE Y PLAN DE MEJORA PARA LA CALIDAD DE VIDA EN LA CIUDAD DE GUADALAJARA


ANáLISIS DE LA MOVILIDAD SOSTENIBLE Y PLAN DE MEJORA PARA LA CALIDAD DE VIDA EN LA CIUDAD DE GUADALAJARA

Betancourt Guzmán Kateri Nataly, Universidad de Guadalajara. Asesor: Mg. Gustavo Adolfo Correa Solano, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

La movilidad es un aspecto de gran importancia para el crecimiento de las ciudades debido a la interacción de los diferentes procesos económicos y especiales del entorno. El crecimiento y la demanda propician la necesidad de acceder a los lugares donde se desarrollan distintas actividades socioeconómicas, por este motivo, gran parte de la población hace uso de los diferentes sistemas de transportes. Sin embargo, actualmente existe un crecimiento desmedido del mismo, lo que provoca dificultades de traslado, contaminación y complicaciones médicas en las personas. Guadalajara es una ciudad que presenta varias dificultades en el medio de transporte, es por ello, que durante la estancia del Verano de Investigación se realizó un análisis acerca de los diferentes proyectos y planes para la mejora de la movilidad sostenible de la ciudad.



METODOLOGÍA

La metodología empleada fue una metodología mixta, mediante esta metodología, se observa el comportamiento de la movilidad tanto cuantitativamente como cualitativamente, lo que nos permite, una mejor observación y análisis del entorno, con el objetivo de ser lo más precisos con la información y obtener resultados viables y que puedan ser considerados para futuros proyectos. El primer punto que se realizó fueron investigaciones relacionadas al tema de movilidad sostenible; con ello, se prosiguió a identificar las diferentes contribuciones que se han tenido dentro de las diferentes organizaciones y países, como lo son las ODS, Banco Mundial, Banco Interamericano de Desarrollo, Red de ciudades sostenibles, Comisión Andina de Fomento CAF, Plan de movilidad de la Ciudad de México, Plan de movilidad de la ciudad de Guadalajara y en artículos de investigación. Con la información recopilada se prosiguió a realizar los objetivos generales y específicos de la investigación, agregando además una justificación que respaldara la investigación. Además, se complementaron elementos como la redacción del marco teórico y la búsqueda de información mediante artículos científicos. Prosiguiendo con los objetivos específicos, se realizó un diagnostico respecto a la situación actual en tema de la movilidad sostenible en el municipio de Guadalajara. Con ello, se observó los acontecimientos y problemas que sufre la ciudad en la movilidad. Después, se caracterizaron las modalidades existentes de movilidad sostenible en la ciudad, para reconocer y observar las facilidades que existen para la mejora de la movilidad. Contemplando los puntos anteriores; se realizó un análisis para los puntos estratégicos de mejoramiento de la movilidad sostenible, mediante un análisis de causa y efecto para determinar las causas que conducen a ese estado de movilidad sostenible. Siguiendo con el objetivo, se caracterizaron las causas mediante los grados de complejidad, grados de incidencia y la incidencia del costo, para obtener un puntaje total y con ello, formular acciones de mejora que permitan soluciones viables y seguras. Finalmente, se presentan los resultados finales, que permiten observar el estudio de investigación y las conclusiones de esta.


CONCLUSIONES

Durante la estancia de verano se logró recopilar un conjunto de planes y proyectos sobre la movilidad sostenible dentro de la ciudad de Guadalajara, siguiendo una metodología del estudio mixto, en donde se utilizaron diferentes herramientas de investigación, y con ello, se realizó un análisis de la información obtenida. Personalmente, considero que la ciudad de Guadalajara podría tener un futuro próspero para el tema de movilidad sostenible, debido a que es una de las ciudades que proyecta mucho potencial para crecer y mejorar. Cabe agregar que gracias al Verano de la Investigación Científica he podido reforzar mi formación académica al permitir conocer desde otra perspectiva el tema de la movilidad sostenible de la ciudad de Guadalajara.
Betancourt Rodriguez Miguel Angel, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa

IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA DETECCIóN DE OBJETOS Y MOVIMIENTOS MEDIANTE LAS APLICACIONES DE LAS REDES NEURONALES CONVOLUCIONALES Y YOLO


IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA DETECCIóN DE OBJETOS Y MOVIMIENTOS MEDIANTE LAS APLICACIONES DE LAS REDES NEURONALES CONVOLUCIONALES Y YOLO

Betancourt Rodriguez Miguel Angel, Instituto Tecnológico Superior de Apatzingán. Cordoba Alvarez Bryan Abel, Instituto Tecnológico Superior de Apatzingán. Lara Fernandez Jhonatan Omar, Instituto Tecnológico Superior de Apatzingán. Reyes Baeza Oliver Uriel, Instituto Tecnológico Superior de Apatzingán. Vallejo Vázquez Sanjuana Candelaria, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

A medida que la tecnología ha avanzado, la IA ha evolucionado desde algoritmos básicos hasta sofisticados modelos de aprendizaje profundo, mejorando significativamente la precisión y la eficiencia en múltiples aplicaciones. Desde los primeros enfoques en visión por computadora, la IA ha integrado técnicas innovadoras como las redes neuronales convolucionales (CNN) y el aprendizaje profundo para detectar y analizar objetos y movimientos en tiempo real. Al usar algoritmos de aprendizaje profundo y redes neuronales, los dispositivos pueden identificar y clasificar objetos con rapidez y precisión, lo que a su vez tiene un impacto positivo en la seguridad civil, la atención médica y la eficiencia operativa en múltiples industrias. Los avances en IA han potenciado la detección de objetos, movimientos y tiempos, destacando sus aplicaciones en diversos sectores, la inteligencia artificial está transformando la detección de objetos y movimientos, los desafíos asociados y las oportunidades emergentes en un mundo cada vez más interconectado.  La inteligencia artificial ha emergido como una herramienta crucial en la detección de objetos, movimientos y tiempos, revolucionando diversos sectores mediante la mejora de precisión y eficiencia en el análisis de datos. El artículo realizado a lo largo de la estancia se entrenó una inteligencia artificial con métodos diferentes y analizar los campos de aplicación en los cuales se utiliza la inteligencia artificial para la detección de objetos y movimientos de forma rápida y precisa.



METODOLOGÍA

Para el desarrollo de cada uno de los métodos se implementaron diferentes algoritmos y modelos de aprendizaje, así como bibliotecas y frameworks de software entre otras herramientas para lograr el objetivo de detectar los objetos y los tiempos de movimientos, así como medir las estadísticas de entrenamiento, precisión y la predicción en la detección de los objetos. Para esto, el primer experimento de prueba será un carro de juguete. El experimento con el carro de juguete se llevará a cabo en varias fases: ·      Preparación del Dataset. -      Se recopilarán imágenes del carro de juguete en diferentes posiciones, ángulos y condiciones de iluminación. -      Se etiquetarán las imágenes utilizando herramientas como LabelImg para identificar las partes del carro (carrocería, chasis, llantas, luces, etc.). ·      Configuración del Entorno de Desarrollo. -       Se instalarán y configurarán las bibliotecas y frameworks necesarios, como TensorFlow, PyTorch y OpenCV. -      Se utilizará YOLOv3 para la creación del dataset y YOLOv8 para el entrenamiento del modelo de detección de objetos. ·      Entrenamiento del Modelo. -      Se dividirá el dataset en conjuntos de entrenamiento y validación. -      Se ajustarán los hiperparámetros del modelo, como el número de épocas, la tasa de aprendizaje y el tamaño del lote. -      Se ejecutará el entrenamiento del modelo, monitorizando las métricas de rendimiento como la precisión, la sensibilidad y la especificidad. ·      Evaluación del Modelo. -      Se evaluará el rendimiento del modelo en un conjunto de datos de prueba no visto durante el entrenamiento. -       Se analizarán las métricas de rendimiento para determinar la eficacia del modelo en la detección de las partes del carro de juguete. -      Se realizarán ajustes en el modelo y se volverá a entrenar si es necesario para mejorar la precisión y la robustez. ·      Implementación y Pruebas en Tiempo Real. -       Se implementará el modelo entrenado en un entorno de producción. -      Se realizarán pruebas en tiempo real utilizando un flujo de video en directo para detectar y rastrear el carro de juguete. -      Se medirán los tiempos de respuesta y la precisión en la detección en diferentes condiciones de prueba. ·      Análisis de Resultados y Mejora Continua: -       Se recopilarán y analizarán los resultados obtenidos durante las pruebas en tiempo real. -      Se identificarán posibles áreas de mejora y se propondrán soluciones para optimizar el rendimiento del modelo. -      Se iterará sobre el proceso de entrenamiento y evaluación para refinar el modelo y mejorar su capacidad de detección y predicción.


CONCLUSIONES

El artículo destaca herramientas como OpenCV, TensorFlow y Keras, junto con otros recursos como GitHub, Python y Anaconda, son esenciales para el desarrollo y la implementación de soluciones de detección basadas en IA. En conclusión, la capacidad de la IA para detectar y seguir objetos y movimientos continuará evolucionando, impulsando la transformación y el progreso en numerosos sectores, y su futuro es prometedor en la modernización de nuestras interacciones con el mundo digital y físico El experimento inicial con el carro de juguete proporcionará una base sólida para el desarrollo y la validación del modelo de detección de objetos. Los conocimientos y experiencias obtenidos en este proceso serán fundamentales para abordar desafíos más complejos en futuros proyectos de detección y reconocimiento de objetos.
Betancourt Soto Roberto, Universidad Autónoma de Sinaloa
Asesor: Dr. Edgar Gonzalo Cossio Franco, Universidad del Valle de Atemajac

DESARROLLO DE SOFTWARE PARA LA VISUALIZACIóN DE BIOMARCADORES COMO APOYO A ENTREVISTAS CLíNICAS REALIZADAS A JóVENES CON TENDENCIAS SUICIDAS


DESARROLLO DE SOFTWARE PARA LA VISUALIZACIóN DE BIOMARCADORES COMO APOYO A ENTREVISTAS CLíNICAS REALIZADAS A JóVENES CON TENDENCIAS SUICIDAS

Betancourt Soto Roberto, Universidad Autónoma de Sinaloa. Duran de la Rosa Ailed Citlalli, Instituto Politécnico Nacional. Martinez Hernandez Jorge, Instituto Tecnológico Superior de Ciudad Hidalgo. Melendez Bustamante Luis Fernando, Instituto Politécnico Nacional. Ramírez Estrada Julio César, Universidad de Guadalajara. Tovar Morales Tania Carolina, Instituto Politécnico Nacional. Asesor: Dr. Edgar Gonzalo Cossio Franco, Universidad del Valle de Atemajac



PLANTEAMIENTO DEL PROBLEMA

La depresión y el suicidio son problemas graves de salud mental que afectan a un número creciente de jóvenes en todo el mundo, según datos de la OMS.  El manejo y tratamiento de la depresión y la prevención del suicidio requieren un enfoque multifacético, que incluya la monitorización y análisis de indicadores biométricos y comportamentales. Sin embargo, existe una falta de herramientas integradas que permitan a los profesionales de la salud mental correlacionar datos biométricos con respuestas emocionales y psicológicas en tiempo real. En respuesta a esta necesidad, nuestro proyecto tiene como objetivo desarrollar un software que interprete los datos de wearables y los relacione con audios de entrevistas a estudiantes con problemas de depresión que han intentado suicidarse. El software generará una base de datos que permitirá a los usuarios observar los cambios en las respuestas biométricas ante preguntas que puedan causar incomodidad. Este análisis proporcionará una visión integral de las interacciones entre las respuestas fisiológicas y emocionales, facilitando la identificación de patrones de riesgo y posibles intervenciones. Durante el periodo de investigación, estudiaremos las respuestas biométricas, tales como la acelerometría, giroscopio, actividad electrodermal (EDA), temperatura, frecuencia cardíaca (BVP) y picos sistólicos, correlacionándolas con las respuestas emocionales extraídas de los audios de las entrevistas. Esto permitirá un análisis predictivo de los trastornos, las formas de actuar de las personas y los cambios físicos del cuerpo, proporcionando una herramienta valiosa para la prevención y el tratamiento de la depresión y el comportamiento suicida en estudiantes.



METODOLOGÍA

Para el desarrollo de nuestro proyecto, seguimos una metodología estructurada basada en la investigación científica, inteligencia artificial aplicada a tendencias suicidas y principios de ingeniería de software. A continuación, se detallan los pasos seguidos: Recolección de Información: Se realizó una revisión exhaustiva de artículos científicos y bases de datos relevantes sobre metodologías de investigación, el método científico, tendencias suicidas y el uso de IA en este contexto. Se recopilaron datos sobre el diseño y desarrollo de software utilizando wearables, así como los aspectos biométricos que estos dispositivos pueden registrar. Diseño de Requerimientos Funcionales: Con base en la información recolectada, se definieron los requerimientos funcionales del software. Se elaboraron distintos tipos de diagramas para la representación de estos requerimientos: de estados, de secuencia, de clases, de casos de uso, de componentes, de nodos, de comunicación y de flujo. Documentación: Se prepararon documentos siguiendo los estándares IEEE 1016 y 830, que incluyen especificaciones de diseño y requisitos del software. Búsqueda y Selección de Herramientas y Librerías: Se investigaron y seleccionaron aplicaciones y librerías que facilitaran la creación de repositorios de código y la conversión de archivos. Para el manejo de datos biométricos, se optó por utilizar librerías de Python que permitan convertir archivos .avro (formato de los wearables) a .csv. Para la transcripción de entrevistas, se seleccionaron herramientas que conviertan archivos de audio .m4a a texto (.txt). Recolección de Datos: Con la colaboración de estudiantes de psicología de la Universidad del Valle de Atemajac (UNIVA), se realizaron entrevistas a estudiantes con problemas de depresión que han intentado suicidarse. Los datos biométricos se obtuvieron mediante el uso de wearables que registran cambios físicos como acelerometría, giroscopio, actividad electrodermal (EDA), temperatura, frecuencia cardíaca (BVP) y picos sistólicos. Desarrollo del Software: Se desarrollaron códigos y scripts en Python para la conversión de los datos recolectados y la creación de un sistema de correlación. Se diseñaron y programaron las estructuras de datos necesarias para almacenar y procesar la información biométrica y las transcripciones de las entrevistas. Se generaron archivos JSON y otros formatos de datos necesarios para el funcionamiento del software. Implementación y Validación: Se implementó el software de correlación que relaciona las respuestas biométricas con las transcripciones de las entrevistas. Se están desarrollando modelos de IA para la predicción del riesgo de suicidio basado en los datos obtenidos, utilizando técnicas avanzadas de análisis predictivo y machine learning. Próximos Pasos: Continuar con el desarrollo del software de predicción utilizando IA. Validar y mejorar los modelos predictivos con más datos y pruebas. Integrar el sistema completo y realizar pruebas exhaustivas para asegurar su precisión y efectividad en la identificación de patrones y riesgos asociados con tendencias suicidas. Con estas investigaciones y desarrollo se dió lugar a los inicios de los artículos para poder plasmar el análisis de este proyecto para futuros estudiantes e investigadores.


CONCLUSIONES

Durante la estancia de verano se logró el estudio y la interpretación en la logística y el desarrollo del software indicado, de factores que se relacionan a respuestas físicas y mentales con algún estímulo externo como son preguntas y/o personas en una entrevista, y de patrones sociales en estudiantes respecto a la forma de actuar ante la depresión, el estrés y la ansiedad con la finalidad de deducir signos de suicidio. Hasta este momento sólo se pueden mostrar las correlaciones físicas en el software de las entrevistas, aún faltan las predicciones respecto a estas pruebas.
Betancur Mejia Maria Jose, Universidad Autónoma de Manizales
Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla

MODELADO, NAVEGACIóN E INTERACCIóN DE ARQUITECTURAS EN EL METAVERSO CON GAFAS VR Y RECONSTRUCCIóN DIGITAL FOTOGRAMETRICA DE OBJETOS Y FACHADAS ARQUITECTóNICAS USANDO DRONES.


MODELADO, NAVEGACIóN E INTERACCIóN DE ARQUITECTURAS EN EL METAVERSO CON GAFAS VR Y RECONSTRUCCIóN DIGITAL FOTOGRAMETRICA DE OBJETOS Y FACHADAS ARQUITECTóNICAS USANDO DRONES.

Betancur Mejia Maria Jose, Universidad Autónoma de Manizales. Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Realidad virtual como alternativa de visualización en proyectos de diseño y arquitectura: Planteamiento del problema: En la actualidad la realidad virtual es una herramienta para algunos profesionales tener la posibilidad de acercar y generar una experimentación en sus usuarios con los diferentes proyectos propuestos, creando escenarios de interacción y comunicación entre las propuestas de diseño y quienes van a comprarlas. Encontrando una problemática general de las personas que quieren asumir el reto de implementar estas nuevas herramientas como el desconocimiento de los productos o las interfaces que se deben utilizar, buscando con este proyecto el desarrollo de competencias en el uso de gafas de realidad virtual, para facilitar el tratamiento de los proyectos con los instrumentos de trabajo. Objetivo del proyecto: El objetivo principal del proyecto es generar una experimentación en las gafas de realidad virtual, que genere las habilidades suficientes en los estudiantes para el manejo de las aplicaciones como Sketchup, Arkio y Endscape enlazadas con las gafas, dando como producto la realización de un tutorial que facilite a futuros profesionales el uso de este tipo de herramientas. 2. Construcción de modelos 3D a través de fotogrametría y mapeo con vuelos de Dron:   Planteamiento del problema: Por medio de las técnicas de fotogrametría realizar el mapeo de objetos y estructuras arquitectónicas, obteniendo datos para el resultado de modelos tridimensionales. Dichos datos generan la posibilidad de que diferentes profesionales pueda utilizar los modelos para futuros análisis, o planificación de proyectos que requieran modificaciones sobre los objetos e inmuebles ya estudiados. Objetivo del proyecto:  Esta línea de investigación tiene varios objetivos; el primero de ellos es lograr el alcance del manejo de plataformas de diseño (3DF Zephyr) que permite la realización de modelos tridimensionales por medio de fotogrametría y obteniendo dos modelos tridimensionales modificables: un objeto y una fachada urbana. 



METODOLOGÍA

Realidad virtual como alternativa de visualización en proyectos de diseño y arquitectura: Metodología: Familiarización con las gafas VR (Oculus Meta Quest): Se realiza un primer acercamiento de las gafas en donde conocemos el funcionamiento de los mismos, el uso de los diferentes botones de interacción Configuración de las gafas VR (Oculus Meta Quest): Se configuran las gafas VR, con la creación de usuario y el enlace a la aplicación descargada en el celular, experimentando con la navegación de la herramienta para entender con exactitud el funcionamiento. Enlace con los diferentes programas de diseño: Aprender a enlazar y configurar los programas como Arkio, Sketchup y Endscape, una vez realizado el enlace se realizan ejercicios prácticos para interactuar con modelos ya construidos en las gafas de realidad virtual. Elección de modelo 3D para la visualización en las gafas VR: Se hace la elección de un modelo ya elaborado o la elaboración de un modelo, para generar la presentación en la realidad virtual según la parametrización y configuración del programa de diseño seleccionado. Realización de tutoriales: Se elabora un paso a paso preciso que explique tanto el uso de las gafas VR, como la vinculación de ellas con los programas de diseño. Se entrega el resultado de un PDF escrito con el proceso de manera detallada y un video que muestre la interfaz de toda la configuración y visualización. 2. Construcción de modelos 3D a través de fotogrametría y mapeo con vuelos de Dron: Metodología: Experimentación con la interfaz del programa: Por medio de una serie de fotografías se realiza un proyecto orientado con ayuda del maestro, en donde se entiende el funcionamiento de la plataforma y cada uno de los pasos para generar como resultado final el archivo modificable. Elaboración de un modelo tridimensional: Se realiza el mapeo y la fotogrametría de un objeto elegido por cada estudiante, en donde se aplica cada uno de los conocimientos aprendidos previamente. Elaboración de modelo tridimensional de una fachada: Se realiza el mapeo y registro fotográfico de una fachada, en donde se evidencien las características de patrimonio de la ciudad de Puebla, y se hace el debido procedimiento en el programa de diseño obteniendo como resultado final el archivo modificable y limpio de la fachada registrada y elegida. Mapeo y registro fotográfico de la edificación La Monjita: Una vez vinculado y estudiado el manejo de drones, se realizará el mapeo y registro fotográfico de la edificación de la universidad para obtener un modelo tridimensional completo por medio de una malla realizada a través de una nube densa de puntos que nos genera el modelo modificable.


CONCLUSIONES

1. Realidad virtual como alternativa de visualización en proyectos de diseño y arquitectura: En los resultados esperados de esta línea de proyecto es la consolidación de conocimientos y habilidades frente al uso de las gafas de realidad virtual y su debida configuración con los diferentes programas de diseño. Una vez alcanzados estos, se desarrollan 3 tutoriales, cada uno guiado a una plataforma de diseño diferente (Arkio, Sketchup, Endscape), sirviendo estos como recursos a futuros estudiantes y profesionales que quieran hacer uso de estas nuevas tecnologías, facilitando así la inmersión y la adopción, buscando optimizar la primera experiencia con las gafas de realidad virtual y la configuración misma. 2. Construcción de modelos 3D a través de fotogrametría y mapeo con vuelos de Dron: Como resultados de esta línea de investigación obtenemos algunos resultados como modelos tridimensionales, gracias a los conocimientos adquiridos, de objetos, fachadas coloniales y edificaciones de la universidad. Siguiendo todas con un conocimiento adquirido gracias a la exploración con el maestro, que finaliza con una consolidación de habilidades frente al modo de operación de la plataforma 3DF Zephyr
Bobadilla Diaz Emmanuel, Universidad Mexiquense del Bicentenario
Asesor: Ing. José Miguel Jaimes Ramírez, Instituto Tecnológico de Querétaro

DESARROLLO DE SISTEMA TESARIO DIGITAL UMB (UNIVERSIDAD MEXIQUENSE DEL BICENTENARIO).


DESARROLLO DE SISTEMA TESARIO DIGITAL UMB (UNIVERSIDAD MEXIQUENSE DEL BICENTENARIO).

Bobadilla Diaz Emmanuel, Universidad Mexiquense del Bicentenario. Asesor: Ing. José Miguel Jaimes Ramírez, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

Actualmente en la UMB Tenango del Valle se carece de un sistema de biblioteca digital de trabajos escritos de titulación de los egresados de las 3 licenciaturas LICENCIATURA EN ADMINISTRACIÓN, LICENCIATURA EN NUTRICIÓN e INGENIERÍA EN SISTEMAS COMPUTACIONALES, que permita acceder, administrar, visualizar y conocer los proyectos finales, tesis, memoria de residencias, proyecto de investigación, entre otros. Garantizando que la información esté segura y disponible en tiempo real. Desarrollar una aplicación web que facilite el almacenamiento, control y visualización de trabajos de titulación mediante frontend y backend conectadas por medio de api-rest con un sistema gestor de base de datos Mysql, para concentrar los trabajos escritos de los alumnos egresados de la Universidad Mexiquense del Bicentenario Tenango del Valle.



METODOLOGÍA

Metodología de Cascada El desarrollo del sistema seguirá la metodología en cascada, que consta de fases secuenciales bien definidas. Análisis Requisitos del sistema:         Requisitos funcionales:             Gestión de Usuarios El sistema debe permitir a los usuarios registrarse con nombre completo, correo electrónico, fecha de nacimiento, y contraseña. El sistema debe permitir a los usuarios iniciar sesión utilizando su correo electrónico y contraseña.  El sistema debe permitir a los usuarios recuperar su contraseña a través de su correo electrónico.             Gestión de Documentos El sistema debe permitir la creación de trabajos de titulación con título, resumen, palabras clave, y pdf del documento. El sistema debe permitir la visibilidad de documentos de todos los alumnos egresados de la institución. El sistema debe permitir la búsqueda de trabajos de investigación de interés. El sistema debe permitir visualizar el pdf publicado para su revisión.         Requisitos No Funcionales:             Rendimiento El tiempo de respuesta para cualquier solicitud no debe exceder los 6 segundos de respuesta.             Seguridad El sistema debe hashear las passwords.             Usabilidad El sistema debe ser intuitivo y fácil para usuarios sin formación técnica. El sistema debe ser accesible para usuarios con diferentes capacidades.             Compatibilidad El sistema debe ser compatible con los navegadores más utilizados como: Google Chrome, Firefox, Safari y Edge. Diseño del sistema     El sistema seguirá una arquitectura cliente-servidor con frontend basado en React y un backend basado en Node.js. Comunicándose a través de APIs REST.     Cliente(Frontend) Framework: React  Herramienta de construcción: Vite Enrutamiento: React Router DOM Manejador de estado global: Context API     Servidor(Backend) Plataforma: Node.js Framework: Express.js Base de Datos: Mysql Implementación           Frontend  Tecnologias utilizadas: React, Vite, React Router DOM, React-Toastify, ContextAPI, localStorage, tailwind. Por medio de React con la herramienta Vite, Se utilizó tailwind css para el maquetado y estilizado de las vistas. Cada vista está conectada a React Router DOM y al ContextAPI. ContextAPI es un manejador de estado global el cual permite compartir variables y funciones en diferentes vistas evitando compartir cada propiedad por todos los componentes de React. Se utilizó para tener de una forma centrada todo el código necesario para las consultas al backend y el correcto funcionamiento del mismo. Para evitar la repetición de código y que sea escalable con el tiempo. El contextAPI al momento de entrar a una vista realiza una comprobación mediante json web token, el cual tiene un tiempo de vida de un día. El sistema cuenta con dos manejadores de estado, documentosContext (todas las funciones y variables necesarias para visualizar documentos, crear y editar). usuarioContext (todas las funciones y variables para la creación, recuperación e inicio de sesión de los usuarios). Las vistas se diseñaron en una aplicación llamada Figma el cuál nos permite plasmar las ideas y el diseño que se quiere tomar antes de pasarlo a código. Es bastante eficiente y sencillo ya que Figma permite hacer cambios rápidos y su gran capacidad de reutilización de componentes. Esto facilitó bastante el diseño, se redujo las horas de trabajo ya que al final se contaba con un diseño que simplemente iba a ser migrado a css y html.        Backend Tecnologías utilizadas: Node.js,Express,Mysql, Prisma,brypt. Comenzó con la configuración inicial y creación básica del backend con express como por ejemplo la instancia de express, configuración del puerto, configuración del routing, configuración de carpeta pública, se utilizó la arquitectura de MVC(Model View Controller). Para la base de datos se utilizó Mysql. Para agilizar las consultas y tener seguridad sobre la inyección de sql, se utilizó un ORM llamado Prisma. Existen dos controladores, usuariosController (se encarga de todas las consultas, creación, edición y eliminación de cuentas), en segundo, documentosController (se encarga de las consultas, creación, edición y eliminación de documentos). Para el almacenamiento de los documentos se utilizó la librería llamada multer la cual permite almacenar imágenes,documentos, etc. en la carpeta pública del backend. Pruebas Tanto backend como Frontend se conectaron de forma correcta y realizaron las funciones que se esperaban, como la creación de usuario, inicio de sesión, creación de documentos, edición y eliminación. Al final el sistema realiza correctamente el CRUD en los documentos y el correcto funcionamiento del mismo.    


CONCLUSIONES

Durante la estancia del verano se logró adquirir conocimiento de programación entre frontend y backend. La comunicación entre ambos para llevar a cabo y cumplir los objetivos y requisitos necesarios. Se tuvo como objetivo la creación y desarrollo del sistema para el uso de los clientes finales que serían estudiantes. Se realizaron pruebas unitarias al sistema y se culmino.
Bolaños Gaytan Luz Daniela, Universidad de Guadalajara
Asesor: Dr. David Israel Bravo Barcenas, Universidad de Guadalajara

DETERMINACIÓN DE LA RESISTENCIA A LA BIO-CORROSIÓN ELECTROQUÍMICA DE ALEACIONES TI6ZR2FEXMO FABRICADAS POR FUNDICIÓN POR ARCO ELÉCTRICO.


DETERMINACIÓN DE LA RESISTENCIA A LA BIO-CORROSIÓN ELECTROQUÍMICA DE ALEACIONES TI6ZR2FEXMO FABRICADAS POR FUNDICIÓN POR ARCO ELÉCTRICO.

Bolaños Gaytan Luz Daniela, Universidad de Guadalajara. Soperanez Garcia Leonardo Israel, Universidad de Guadalajara. Asesor: Dr. David Israel Bravo Barcenas, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La necesidad de desarrollar aleaciones metálicas para aplicaciones biomédicas está impulsando la investigación de materiales con propiedades mecánicas y biocompatibilidad adecuadas. Las aleaciones de titanio como el Ti-6Al-4V se utilizan ampliamente. Sin embargo, la liberación de iones de aluminio y vanadio plantea riesgos para la salud y su alto módulo elástico puede provocar incompatibilidad biomecánica con el hueso humano. En este contexto, se están investigando nuevas aleaciones como Ti6Zr2FexMo que contienen molibdeno (Mo) como elemento estabilizador en la fase β-Ti. Este estudio tiene como objetivo investigar cómo los cambios en el contenido de Mo en estas aleaciones afectan su microestructura y propiedades de resistencia a la corrosión electroquímica en un ambiente simulado al corporal (electrolito y temperatura) con el propósito de posiblemente mejorar la biocompatibilidad y las propiedades mecánicas; con el objetivo de superar las limitaciones de las aleaciones convencionales.  



METODOLOGÍA

Se utilizaron polvos metálicos de titanio (Ti), circonio (Zr), hierro (Fe) y molibdeno (Mo) para preparar aleaciones Ti6Zr2FexMo con diferentes contenidos de Mo (1, 3, 5, 10 y 12 % atómico). El Zr y el Fe se mantuvieron constantes al 6 y 2 % at., respectivamente, y se utilizó Ti como balance. Antes del procesamiento, se realizó un análisis inicial del polvo mediante microscopía electrónica de barrido por emisión de campo (FE-SEM) y difracción de rayos X (DRX) para determinar la morfología y composición de los polvos de partida.   Para la preparación de la aleación, el resto de cada elemento se calculó en función de la densidad y la composición, lo que dio como resultado un peso total de 6 gramos por muestra. Los polvos se mezclaron y colocaron en moldes de acero inoxidable y se trataron previamente con estearato de zinc para reducir la fricción, durante su extracción. La mezcla se compacta utilizando una prensa hidráulica empleando una carga de 32 KN para asegurar la integridad estructural de las briquetas.   El proceso de la fundición se llevó a cabo en un horno de arco eléctrico (modelo BIGE-TEC-BIC 1207) bajo atmósfera controlada de argón, con temperaturas que alcanzaron hasta 3000 °C. Este proceso se repitió cuatro veces para asegurar la homogeneidad de las aleaciones. Los lingotes resultantes se cortaron en secciones longitudinales utilizando una cortadora de precisión y un disco de diamante; finalmente se montaron en resina acrílica para una mejor manipulación.   Se realizó una preparación superficial de las muestras, mediante un desbaste con hojas de papel de lija de carburo de silicio de grano graduado (desde 180 hasta 2500) para eliminar defectos superficiales. Luego, las muestras se pulieron con soluciones de óxido de aluminio con tamaños de partícula de 3, 1 y 0,05 µm para lograr un acabado especular a espejo. Las muestras se limpiaron en un baño de ultrasonido con agua destilada y alcohol durante 15 min, respectivamente, para eliminar residuos de grasa y abrasivos provenientes del desbaste y/o el pulido.   Para evaluar la resistencia a la bio-corrosión electroquímica de las aleaciones, se llevó a cabo un análisis de corrosión simulando condiciones de fluido corporal simulado (SBF) a una temperatura de 36.5 °C. Primero se realizaron pruebas de potencial de circuito abierto (OCP, por sus siglas en inglés) para estabilizar el potencial en aproximadamente 60 min. Posteriormente, se llevaron a cabo pruebas de polarización lineal (LPR, por sus siglas en inglés) con un potencial de ± 200 mV alrededor del OCP, y una velocidad de escaneo de 1 mV/s; con ayuda del potenciostato de la marca Corrtest Instruments, modelo CS350M, con un arreglo tradicional de tres electrodos (de referencia, Ag/AgCl, un contra electrodo de platino, y de trabajo las muestras de estudio). Para garantizar la reproductibilidad de los resultados, este análisis se repitió tres veces para cada muestra. Los datos obtenidos se procesaron y graficaron utilizando los softwares Excel, CS Studio6, OriginLab y CView, permitiendo una visualización detallada y un análisis integral del contenido de Mo en las propiedades de resistencia a la corrosión electroquímica de las aleaciones.  


CONCLUSIONES

En este estudio, se fabricaron con éxito seis aleaciones Ti6Zr2FexMo con diferentes proporciones de Mo mediante fundición por arco. Aunque no se realizó difracción de rayos X (DRX), se utilizaron herramientas de análisis de datos como Excel, CS Studio6, OriginLab y CView para evaluar las propiedades y la microestructura de la aleación. La experiencia práctica adquirida ha demostrado cómo los cambios en la composición afectan las propiedades de los materiales.   Este estudio representa un avance importante en la optimización de materiales para implantes biomédicos y, aunque aún se encuentra en sus primeras etapas, proporciona una base sólida para futuras investigaciones. Se propone investigar más a fondo la relación entre la composición de la aleación y el rendimiento biológico con el objetivo de desarrollar implantes más seguros y eficaces. Los conocimientos adquiridos servirán de base para la mejora continua en el diseño y aplicación de materiales biomédicos.   REFERENCIAS   [1]GIL, F. J., & PLANELL, J. A. (2019). Aplicaciones biomédicas de titanio y sus aleaciones. https://upcommons.upc.edu/bitstream/handle/2099/6814/Article04.pdf [2]Mitsuo Niinomi • Takayuki Narushima •  Masaaki Nakai (2015)  Advances in Metallic Biomaterials ( Volumen 4) Springer [3]Mikell O.Groover  (2010) Fundamentals of Modern Manufacturing: Materials, Processes, and Systems (5th edition) John Wiley & Sons Inc [4] Joseph D. Bronzino • Donald R Peterson (2015) The Biomedical Engineering Handbook ( Volume set) ‎CRC Pr  
Bolaños Tello Lina Marcela, Universidad Libre
Asesor: Dra. Marisol Vázquez Tzompantzi, Instituto Politécnico Nacional

ANáLISIS DE REDES DE COLABORACIóN DEL INSTITUTO POLITéCNICO NACIONAL (I.P.N)


ANáLISIS DE REDES DE COLABORACIóN DEL INSTITUTO POLITéCNICO NACIONAL (I.P.N)

Bolaños Tello Lina Marcela, Universidad Libre. Asesor: Dra. Marisol Vázquez Tzompantzi, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las redes de colaboración científica son herramientas fundamentales para comprender cómo individuos u organizaciones colaboran en la producción de conocimiento. Estas redes permiten analizar y visualizar la estructura de las colaboraciones, facilitando la identificación de patrones, fortalezas y debilidades en las interacciones académicas. El presente estudio se enfoca en la red de colaboración de los graduados de doctorado del Instituto Politécnico Nacional (IPN), con el objetivo de analizar las colaboraciones en coautoría dentro de su producción científica. Se evaluará una muestra de estos graduados en dos áreas de investigación: Ciencias Sociales y Administrativas, e Ingeniería y Ciencias Físico-Matemáticas. Este análisis proporcionará una visión detallada de las dinámicas de colaboración en estas disciplinas, contribuyendo a la comprensión de cómo se estructuran y desarrollan las redes de coautoría en el contexto académico del IPN.



METODOLOGÍA

En la primera semana, se llevó una revisión literaria sobre redes de colaboración científica, enfocándose en sus métricas y componentes.  Se suministra una hoja de Excel donde se encuentran los nombres de graduados del IPN para posteriormente, acceder a la base de datos de Scopus por un periodo de seis días para obtener información de autores los cuales se clasificaron en dos áreas específicas: Ciencias Sociales y Administrativas, e Ingeniería y Ciencias Físico-Matemáticas. Los datos recopilados fueron organizados en archivos CSV para su análisis posterior. Se emplearon herramientas avanzadas de análisis bibliométrico como: VOSviewer utilizado para la creación de Coauditoria con el método fuerza de asociación logrando observar nodos y conexiones presentes permitiendo la visualización y exploración de las redes de colaboración, Bibliometrix para realizar un análisis detallado de las redes, la modularidad y las palabras clave las cuales se acomodaron por  filtros de tiempos donde se observa una nube de palabras para su posterior análisis y Gephi para llevar a cabo un análisis matemático avanzado de las redes, calculando medidas de centralidad, modularidad y densidad, lo que proporcionó una visión comprensiva de la estructura y cohesión de las redes de colaboración científica.


CONCLUSIONES

A partir de la base de datos suministrada, que inicialmente incluía 224 graduados divididos en dos áreas de investigación — Ciencias Sociales y Administrativas (22 autores) e Ingeniería y Ciencias Físico-Matemáticas (160 autores) — se construyeron redes que revelaron una expansión significativa en la colaboración científica. Se identificaron un total de 325 autores y 1030 colaboraciones en el análisis inicial, que se amplió a 5558 autores y 1,074,043 colaboraciones en la red global y logrando observar las palabras claves que se acomodan tras periodos de tiempo (cada periodo varia las palabras claves) también se observó una notable concentración de autores afiliados al Instituto Politécnico Nacional y ubicados en la Ciudad de México. El estudio no solo proporcionó una visión detallada de la estructura y dinámica de las redes de colaboración científica, sino que también subrayó la importancia de las herramientas analíticas utilizadas. La aplicación de VOSviewer, Bibliometrix y Gephi permitió una visualización clara y un análisis profundo de las redes, facilitando la identificación de nodos clave, patrones de colaboración y medidas de centralidad. Además, se observó cómo la colaboración entre investigadores de diferentes áreas puede influir en la producción científica y la creación de conocimiento, destacando la importancia de estas redes para el avance científico. La experiencia adquirida en el uso y análisis de redes de colaboración no solo enriqueció el entendimiento teórico del concepto, sino que también ofreció herramientas prácticas valiosas para futuros estudios en la comunidad científica.
Bonilla Heraldez Jonathan Obed, Universidad Autónoma de Baja California
Asesor: Dr. Pável Zúñiga Haro, Universidad de Guadalajara

DISEñO Y EVALUACIóN EXPERIMENTAL DE MODULACIóN PWM SINUSOIDAL PARA INVERSOR TRIFáSICO CON ARDUINO


DISEñO Y EVALUACIóN EXPERIMENTAL DE MODULACIóN PWM SINUSOIDAL PARA INVERSOR TRIFáSICO CON ARDUINO

Bonilla Heraldez Jonathan Obed, Universidad Autónoma de Baja California. Asesor: Dr. Pável Zúñiga Haro, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, existe una tendencia global hacia la migración a fuentes de energía renovable debido a las condiciones climáticas y geopolíticas, así como a la creciente demanda y aplicación de la generación distribuida en zonas urbanizadas comerciales y residenciales, lo cual se logra principalmente mediante paneles fotovoltaicos. Esto crea la necesidad de sistemas de inversores cada vez más eficientes, útiles y versátiles. La mayoría de estas fuentes de energía limpias consisten en sistemas de corriente directa (CD), mientras que el sistema eléctrico funciona en corriente alterna (CA). Por lo tanto, la correcta conmutación entre estos sistemas a través de un inversor es clave para la utilización de esta energía en el sistema eléctrico de potencia. Los inversores pueden utilizar distintas tecnologías, aplicaciones y configuraciones que han sido ampliamente estudiadas. Sin embargo, este artículo se basa en un inversor experimental trifásico conmutado por transistores IGBT, los cuales permiten usar el inversor de manera bidireccional, ya sea convirtiendo corriente continua a corriente alterna o viceversa, aplicándose tanto como inversor como rectificador. Para desarrollar este artículo, abordaremos su configuración como inversor, centrándonos en programar y modular PWM para generar un sistema trifásico senoidal. Esto se logrará mediante simulaciones en Simulink y mediciones realizadas en la salida del microcontrolador con un osciloscopio, para posteriormente analizar la señal generada a través de su descomposición en componentes armónicos utilizando la transformada rápida de Fourier (FFT) en MATLAB. Esto permitirá determinar su componente fundamental, así como sus componentes armónicos, con miras a sentar las bases para crear un filtro y asegurar que efectivamente se genere la sinusoide fundamental a través de la Modulación por Ancho de Pulso (PWM).



METODOLOGÍA

Se utilizó MATLAB Simulink para simular la generación de señales PWM. Se generó una señal triangular de 3,922 Hz, basada en el modo de corrección de fase del Arduino, y se comparó con una señal senoidal para producir PWM. Las señales se invirtieron mediante una compuerta NOT para generar la señal PWM complementaria. Posteriormente, se generaron los voltajes de línea Vab, Vbc y Vca mediante compuertas lógicas, siguiendo una tabla de verdad. La frecuencia fundamental obtenida fue de 60 Hz, con componentes armónicas en niveles casi nulos hasta alcanzar el valor de 1,840 y 2,080 Hz, lo cual resulta adecuado para replicarse en la realidad ya que estas frecuencias estarían al menos a una década de la sinusoide fundamental. La programación del microcontrolador Arduino se realizó en Arduino IDE. Inicialmente, se declararon los pines PWM como entradas para evitar energización indeseada y luego como salidas sincronizadas con valores establecidos. Se configuraron los timers para generar PWM con señal triangular y sincronización entre ellos, asegurando la simetría de la onda sinusoidal modulada. Un ciclo While actualizó los valores de PWM en un punto medio de la señal portadora para evitar errores en la escritura. Para la medición de resultados, se utilizó un osciloscopio GWInstek MSO-22004EA operando a 1 MHz con 100,000 datos por canal. Las mediciones se realizaron para un voltaje de línea a la vez, debido a la limitación en el número de canales. Se verificó la correcta generación de los tres voltajes de línea sin condiciones de cortocircuito, obteniendo frecuencias fundamentales cercanas a 60 Hz (60.13 Hz para Vab, 60.01 Hz para VBC, y 60.10 Hz para VCA), con un error promedio de 0.13%. En cuanto a la modulación de la sinusoide y su respectivo PWM, la frecuencia calculada y los valores obtenidos a través del osciloscopio se acercan bastante a la simulación. Sin embargo, en el espectro armónico se observa más variación con respecto a la simulación, obteniendo más ruido y frecuencias indeseadas. Esto es esperado debido a la interferencia en un prototipo real en contraste con el simulado. No obstante, entre la frecuencia fundamental de 60 Hz y el próximo pico considerable, hay una diferencia mayor, con los próximos picos relevantes en 3,500 y 3,740 Hz. El tiempo muerto programado fue de 5 µs, medido en 4.94 µs con un error del 1.2%, adecuado para los IGBTs utilizados, que requieren aproximadamente 1 a 3 µs. Este margen adicional aseguró un funcionamiento seguro del sistema. El análisis armónico mediante FFT en MATLAB permitió determinar la frecuencia fundamental y las componentes armónicas, confirmando la efectividad de la modulación por ancho de pulso y la viabilidad del sistema trifásico senoidal.


CONCLUSIONES

En este trabajo se presentó el diseño y la simulación de una señal senoidal trifásica utilizando Modulación por Ancho de Pulso implementada con Arduino. Los resultados de la simulación en Simulink, junto con el análisis de la señal experimental mediante la Transformada Rápida de Fourier en MATLAB, confirmaron la existencia de la frecuencia fundamental en 60 Hz, presentando los componentes armónicos esperados. Además, la aplicación de un filtro Butterworth de cuarto orden verificó la existencia de las señales senoidales y de un sistema trifásico adecuadamente desfasado. Los resultados experimentales concuerdan con las simulaciones, validando la viabilidad de la propuesta para la generación de PWM trifásico. El tiempo muerto de 4.94 µs demostró ser beneficioso al mejorar la distribución del espectro de frecuencias, alejando los armónicos de la frecuencia fundamental. Para trabajos futuros, se recomienda la implementación de un sistema de control más avanzado para mantener la estabilidad de la frecuencia. Asimismo, se debe diseñar un filtro pasa-bajos específico para reducir las componentes armónicas no deseadas en la salida del inversor, basándose en el espectro armónico graficado.
Borbon Borbon Valenzuela Rosario Alvina, Universidad de Sonora
Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa

EVALUACIóN DEL COMPORTAMIENTO SíSMICO EN ESTRUCTURAS


EVALUACIóN DEL COMPORTAMIENTO SíSMICO EN ESTRUCTURAS

Borbon Borbon Valenzuela Rosario Alvina, Universidad de Sonora. Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Evaluación del Comportamiento Sísmico en Estructuras   Estudiante: Rosario Alvina Borbon Valenzuela……… Universidad de Sonora campus Navojoa, …a222207104@unison.mx. Asesor: Dr. Bojórquez Mora Edén de Universidad Autónoma de Sinaloa, Culiacán de Rosales Sinaloa, eden_bmseg@hotmail.com   1. Planteamiento del Problema Los sismos son fenómenos naturales que pueden causar graves daños y pérdidas de vidas humanas. A medida que las ciudades crecen y se urbanizan, la seguridad de las estructuras frente a estos eventos se vuelve cada vez más importante. La capacidad de una estructura para resistir y sobrevivir a un sismo depende de múltiples factores, como el diseño estructural, los materiales utilizados, las características del suelo y la intensidad del sismo. El estudio del comportamiento sísmico de los edificios es crucial para entender cómo las estructuras responden a las fuerzas generadas durante un sismo. Un componente clave en este estudio es el espectro de respuesta, que representa gráficamente la reacción de una estructura a diferentes frecuencias de vibración. Estos conceptos son esenciales para evaluar la vulnerabilidad sísmica de las edificaciones y para diseñar estructuras más seguras y resistentes.



METODOLOGÍA

2. Metodología Para llevar a cabo la investigación dentro del programa Delfín, se inició con una revisión de conceptos fundamentales relacionados con los sismos y el diseño estructural. Se definió qué es un sismo, explicando que se trata de movimientos bruscos y breves de la corteza terrestre que liberan energía en forma de ondas sísmicas. Estas ondas pueden causar daños significativos en estructuras y el medio ambiente. Se analizó el comportamiento sísmico de los edificios, entendiendo cómo responden las estructuras ante las fuerzas sísmicas. El espectro de respuesta se utilizó como herramienta para evaluar estas respuestas, mostrando cómo diferentes niveles de intensidad sísmica afectan a las estructuras. Este espectro se emplea en el diseño de estructuras resistentes a sismos, la estimación de daños, el análisis de riesgo sísmico y la verificación de cumplimiento de normas de construcción.


CONCLUSIONES

3. Conclusiones La participación en el programa Delfín permitió una comprensión más profunda de la importancia de estar informados sobre los sismos y sus efectos. Se destacó la relevancia de conceptos como intensidad y magnitud sísmicas, así como la necesidad del diseño de estructuras sismo-resistentes. El estudio de los espectros de respuesta se reveló como un aspecto fundamental en el diseño de estructuras seguras, proporcionando una base para evaluar la vulnerabilidad y optimizar los diseños estructurales. La investigación y el desarrollo continuos en este campo son cruciales para minimizar los riesgos asociados con los sismos y asegurar la integridad de las edificaciones.  
Borquez Moroyoqui Jesus Sergio, Universidad de Sonora
Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa

DETERMINACIóN DE MEDIDAS DE INTENSIDADES SíSMICAS Y EFECTOS DE SISMOS ANTE ESTRUCTURAS


DETERMINACIóN DE MEDIDAS DE INTENSIDADES SíSMICAS Y EFECTOS DE SISMOS ANTE ESTRUCTURAS

Borquez Moroyoqui Jesus Sergio, Universidad de Sonora. Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El sismo más intenso registrado hasta la fecha ocurrió en Chile el 22 de mayo de 1960, con una magnitud de 9.5 grados en la escala Richter. Este sismo, el más grande del mundo, percibido en todo el sur de América. Murieron 1,655 personas, 3,000 resultaron heridas, y 2,000,000 perdieron sus hogares. Un evento similar ocurrió en 2004 en el Océano Índico, con un terremoto de magnitud 9.1 cerca de la costa oeste de Sumatra (Indonesia), resultando en la muerte o desaparición de casi 228,000 personas. Estos eventos demuestran por qué los sismos representan un desafío significativo para la ingeniería civil. Por lo tanto, el desarrollo de la ingeniería sísmica, en conjunto con la ingeniería civil, es crucial para diseñar edificaciones con características antisísmicas que ofrezcan mayor soporte y seguridad durante un sismo. Es fundamental estudiar los factores que influyen en las edificaciones para mitigar o reducir los efectos de estos fenómenos naturales, mediante el diseño y cálculo de estructuras basadas en estudios previos de la intensidad sísmica en cada región.



METODOLOGÍA

Revisión Bibliográfica: Se realizó una revisión exhaustiva de la literatura para comprender los principios de la ingeniería sísmica y su integración con la ingeniería civil. Se estudió el impacto de los sismos en las estructuras sismorresistentes. Recopilación de Datos Sísmicos: Se obtuvieron registros sísmicos de acelerogramas que proporcionan datos sobre la aceleración del suelo durante los sismos. Estos datos permiten evaluar la intensidad sísmica y las características del movimiento sísmico. Análisis de Aceleración y Velocidad: Se analizaron los acelerogramas para determinar la aceleración y la velocidad del suelo en diferentes intervalos de tiempo. Se integraron las aceleraciones para obtener las velocidades. Cálculo de Intensidad de Arias (IA): Utilizando los registros de aceleración, se calculó la Intensidad de Arias. Elaboración de Espectros de Respuesta: Los espectros de respuesta representan las respuestas máximas de osciladores con masa y amortiguamiento constantes, para un conjunto de estructuras (periodos de vibrar). En nuestro caso, nos enfocamos en registros sísmicos representantes de la Ciudad de México. Estos espectros permiten definir espectros de diseño que ayudan a ofrecer soluciones estadísticamente confiables para diversas condiciones según sea el tipo de suelo en donde se desplantaran las estructuras. Desarrollo de Software de Análisis: Se creó un programa que procesa registros sísmicos y genera gráficos de aceleraciones, velocidades, Intensidad de Arias y Espectros de respuesta. Evaluación de Resultados y Aplicación Práctica:  Los espectros de respuesta y las medidas de intensidad obtenidas son utilizadas para la evaluación y optimizar del diseño de estructuras sismorresistentes, enfocándose en su adaptación a las características específicas del suelo y las condiciones sísmicas de la región. Este tipo análisis permite ajustar los parámetros de diseño para mejorar la seguridad y la resiliencia de las edificaciones ante eventos sísmicos.


CONCLUSIONES

Es fundamental que los ingenieros civiles comprendan los fenómenos sísmicos y las medidas de intensidad sísmica para diseñar estructuras sismorresistentes. Este conocimiento es crucial para salvaguardar la vida y los bienes de las personas. El análisis de intensidades sísmicas y la elaboración de espectros de respuesta permiten el diseño de edificaciones más seguras y resistentes, mejorando significativamente la capacidad de respuesta ante eventos sísmicos y contribuyendo a la seguridad y resiliencia de las comunidades.
Borquez Zazueta Carlos Yahir, Universidad de Sonora
Asesor: Dr. Rolando Flores Ochoa, Universidad de Sonora

DISEñO Y FABRICACIóN DE LíNEA DE ENSAMBLE DIDáCTICA


DISEñO Y FABRICACIóN DE LíNEA DE ENSAMBLE DIDáCTICA

Borquez Zazueta Carlos Yahir, Universidad de Sonora. Lopez Olivares Omar, Universidad de Sonora. Asesor: Dr. Rolando Flores Ochoa, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La realización de prácticas de laboratorio o talleres durante las clases a nivel licenciatura especialmente en clases de mecatrónica es fundamental e influye de manera positiva en los estudiantes, además con el desarrollo de dichas prácticas se potencian las habilidades técnicas. La carrera de mecatrónica al ser una disciplina que integra la mecánica, la electrónica, la informática y el control requiere de habilidades prácticas. Por un lado, el desarrollo de prácticas permite a los estudiantes aplicar los conceptos teóricos aprendidos en clase a situaciones reales, consolidando así su comprensión y por otro, aprenden y adquieren habilidades en el manejo de herramientas y equipos especializados, la programación de sistemas de control, el diseño de circuitos electrónicos y la integración de sistemas mecánicos con componentes electrónicos, así como el trabajo en equipo. Los equipos didácticos con los que se desarrollan prácticas ya sea de neumática, electricidad, electrónica, entre otras, normalmente son sellados y se ve el funcionamiento, pero en algunos casos es difícil comprender como funciona sin verlo internamente. En ese sentido y considerando la importancia de la realización de actividades prácticas y de conocer el funcionamiento de interno de componentes, dispositivos,  actuadores, entre otros. El presente proyecto tiene el propósito de abordar el diseño y fabricación de una línea de ensamble didáctica donde se muestre el funcionamiento de los dispositivos mecánicos, eléctricos y electrónicos que la componen, para con ello tratar de reducir la brecha entre la teoría y la práctica que se da en algunas materias.



METODOLOGÍA

Para la realización de la línea de ensamble didáctica primero se planeó una lista con cada una de las piezas, componentes eléctricos, electrónicos y demás elementos a utilizar. 1. Diseño del Prototipo - Diseño Conceptual:   - Teniendo en cuenta los componentes a utilizar se comenzó con el proceso de diseño y modelado en 3D de las piezas donde también se profundizo en el uso del software de modelado 3D; cada una de las piezas se diseñaron  considerando tolerancias geométricas y dimensionales, analizando la forma más eficiente de ensamblarse con las demás piezas y los elementos que tienen movimiento se diseñaron con el fin de utilizar el menor número de mecanismos, optimizando todo el proceso con el menor número de piezas posibles pero tomando en cuenta que cada uno de los elementos conforman una máquina didáctica para que cualquier persona interesada que vea el funcionamiento conozca y entienda la ejecución y desempeño de mecanismos, pistones rodillos, así como el uso de la programación.   - Diseño Detallado:   - Después del diseño y modelado 3D, se pasaron los archivos de diseño al software para impresión 3D, donde pudimos simular el proceso de la impresión, se observó el número de capas de filamento de cada pieza, el saber si necesitaban o no algún tipo de soporte en ciertas geometrías y a su vez se obtuvo el tiempo y peso de cada impresión. - Revisión del Diseño:   - Recibimos retroalimentación de usuarios tales como compañeros y maestros, así como de nuestro maestro investigador acerca del diseño que como usuarios les llamaba más la atención y recibimos recomendaciones, las cuales fueron atendidas.   2. Desarrollo del Prototipo - Configuración de características: - Preparar las herramientas y partes necesarias. Teniendo las piezas impresas que se mencionan a continuación: las principales piezas para ensamblar (búho y base búho), los alimentadores de piezas a ensamblar, todas las piezas para el pistón (cámara, base tuerca, tapa para cámara pistón, pieza para ensamble tornillo-motorreductor), resbaladilla, riel y compuerta, con todo esto se procedió a crear una lluvia de ideas sobre los distintos mecanismos a utilizar para lograr el ensamble de las piezas antes mencionadas.     3. Pruebas del Prototipo Posteriormente se comenzó la fabricación de la banda transportadora la que se compone de la banda de polietileno, los rodillos sobre los que correrá dicha banda, los cuales fueron torneados como parte del proyecto por nosotros mismos, ya que uno de los objetivos de la estancia era practicar el mecanizado como proceso de manufactura y dos piezas de acrílico sobre los que montamos la banda. Con todo lo anteriormente descrito se comenzó con la parte de programación, elaboración de circuito eléctrico y electrónico. La programación la utilizamos al momento de crear un programa para nuestro Arduino y para la pantalla LCD 1602 keyPad Shield, la cual utilizamos para pedirle al usuario ¿Cuántos elementos ensamblados quiere que realice nuestra línea?; el circuito eléctrico se implementó en la creación de un puente h para alternar el giro de motores y se utilizó la electrónica para el control de servomotores y motorreductores, así como para un puente h. Para finalizar se montaron todos los componentes sobre una base de madera dando termino al diseño y a la fabricación de nuestra línea de ensamble didáctica. Además, se realizaron cada uno de los siguientes puntos: - Pruebas Unitarias:   - Verificar que cada componente funcione correctamente de manera aislada. - Pruebas de Integración:   - Asegurar que los componentes funcionen juntos sin problemas. - Pruebas de Usuario:   - Realizar pruebas con usuarios reales para recibir retroalimentación. - Documentación de Errores:   - Registrar y priorizar los problemas encontrados.


CONCLUSIONES

Durante nuestra estancia de verano, se logró tocar una parte de la ingeniería mayormente de mecatrónica, carrera que estudiamos, que es la parte teórica-práctica y la integración de las distintas áreas que esta conlleva como lo son la mecánica, diseño y manufactura, programación y electrónica, así con el mayor enfoque en nuestra área de investigación que es la automatización integral.  
Bracamontes Burgara Kevin, Universidad de Guadalajara
Asesor: Dr. Omar Avalos Alvarez, Universidad de Guadalajara

CLASIFICACIóN DE PRUEBAS DE BIOMARCADORES SANGUíNEOS DE M-TUBERCULOSIS PARA SU DETECCIóN USANDO REDES NEURONALES CONVOLUCIONALES


CLASIFICACIóN DE PRUEBAS DE BIOMARCADORES SANGUíNEOS DE M-TUBERCULOSIS PARA SU DETECCIóN USANDO REDES NEURONALES CONVOLUCIONALES

Bracamontes Burgara Kevin, Universidad de Guadalajara. Asesor: Dr. Omar Avalos Alvarez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La tuberculosis (TB) es una de las principales enfermedades infecciosas y causa de mortalidad a nivel mundial. La tuberculosis pulmonar es causada por el bacilo aerobio no esporulado, Mycobacterium tuberculosis, que reside principalmente en el fagolisosoma de los macrófagos alveolares. En México se registran más de 28 mil casos de tuberculosis al año y 30 por ciento de las personas portadoras lo desconoce. Es necesario fortalecer la capacidad de detección de TB con la búsqueda activa de casos por el personal de salud a través de la realización en lo posible de pruebas. El presente trabajo tiene como objetivo desarrollar un clasificador de pruebas rápidas y monitoreo de la enfermedad en tiempo real, que pueda ser utilizado incluso por personal sin preparación técnica especializada. La tecnología está basada en la captura de biomarcadores en sangre, a través de imágenes e inteligencia artificial.



METODOLOGÍA

Para el desarrollo del proyecto se realizaron procesos de Deep Learning a partir de un total de 231 pruebas de TB, creando un algoritmo de inteligencia artificial basado en redes neuronales convolucionales para clasificar las pruebas. Obtención y preparación de datos Se recopila información de los métodos de clasificación, API (interfaz de programación de aplicaciones), distribución del Dataset, la arquitectura y selección de parámetros. Se eligió Python como el lenguaje de programación para el proyecto por ser de alto nivel en conjunto con Google Colab al ser un entorno de desarrollo en la nube, no requerir configuración ninguna, su acceso a tarjetas gráficas gratuitas, además de permitir utilizar datos almacenados en Google Drive. Entre las librerías usadas destaca TensorFlow debido a sus funciones dedicadas al aprendizaje automático, especialmente las redes neuronales y la de Keras, la cual es una API sobre Deep Learning que corre dentro de TensorFLow. Scikit-learn por sus herramientas de evaluación y ajuste de modelos, como es el reporte de clasificación y la matriz de confusión. También se empleó Matplotlib para crear diferentes visualizaciones de datos, tales como gráficas de pérdida y precisión del modelo y distribución de las predicciones. Dataset De las 231 pruebas (110 imágenes de pruebas positivas, 89 negativas y 32 desconocidas), para la división de datos, solo se usaron las positivas y negativas (199 en total) en porcentajes de: 85% entrenamiento, 10% prueba y 5% validación. Las imágenes registradas como desconocidas son utilizadas como parámetro de clasificación y así conocer si el modelo asignó la categoría correctamente. A su vez se usaron imágenes generadas por inteligencia artificial usando el método BEGAN, para aumentar las pruebas y evaluar sus comportamientos. Exploración y análisis de datos Teniendo los datos que pueden ser utilizados, se procede a su análisis, que consistirá en determinar qué datos influyen de forma significativa en el resultado que se intenta obtener, qué características deben ser utilizadas y cuáles descartadas por no ser suficientemente significativas. Durante esta fase también se deben comprobar los posibles problemas que conllevan los datos utilizados, tales como desequilibrio en algunas características. Desarrollo y preparación de modelos Una vez conocidos los puntos fuertes y débiles del conjunto de datos, se desarrollará el modelo preparado para obtener el resultado deseado. Este desarrollo se realizará de forma iterativa, creando modelos y mejorándolos con la nueva información que se aporte en las siguientes fases. En esta primera etapa se obtendrá el diseño y entrenamiento de diferentes modelos con los que se realizan las pruebas propuestas, para obtener un clasificador de pruebas negativo-positivo. Posteriormente se realizaron ajustes y pruebas de clasificación para conocer sus desempeños. Diseño de la red neuronal convolucional La diferencia entre las redes consiste en que serán desarrolladas, variando la cantidad y valores de capas convolucionales en la arquitectura. Las pruebas variaron en: Capas convolucionales: de 2 a 5, con tamaños de filtro de 2x2 a 4x4 y dimensiones de la capa de entrada de 140x140 a 250x250. Tipo de Pooling: Max o Average Neuronal en capas densas: cantidades de 256 y 512. Funciones de activación: Sigmoid, Softmax, ReLU. Técnicas de regularización: Dropout de 0.3 y 0.5. Compilación y entrenamiento: Se utilizó el optimizador adam y un learning rate decreciente, entrenando el modelo en 20 épocas usando los conjuntos de entrenamiento y validación. Obtención de modelos Una vez diseñada la CNN, se procede con su entrenamiento el cual se puede definir como el ajuste de los parámetros de la red, mediante procesos de iteración, para así encontrar el conjunto de pesos que minimicen el error de clasificación. Las imágenes están etiquetadas para poder reconocer la imagen y predecir su categoría. Tras acabar el entrenamiento se obtienen los valores de precisión, las matrices de confusión y se guarda cada modelo. Esta experimentación permite comparar los modelos entrenados entre ellos y así obtener qué modelo funciona de manera óptima y escoger el modelo que brinda los mejores resultados.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos sobre redes neuronales y cómo se aplica a técnicas de detección de tuberculosis. Aunque el trabajo es extenso y existen áreas por implementar, no se obtuvieron resultados concluyentes en cuestión si el modelo se comporta de la misma manera ante diferentes variables, sin embargo, al momento se destaca por su buena precisión y fiabilidad al realizar la clasificación de pruebas bajo las condiciones establecidas, de igual manera se logró concluir que las redes neuronales convolucionales son más efectivas como clasificadores de dos tipos en este contexto.  Se espera que esta tecnología al mejorarse, la inteligencia artificial y el aprendizaje supervisado podrá reducir costos y determinar la presencia de infección, lo que demuestra un alto potencial para la vigilancia epidemiológica de tuberculosis, además, de permitir apreciar los resultados sin necesidad de ser un experto.
Bribiesca Pineda Samanta Yareli, Instituto Tecnológico de Morelia
Asesor: Dr. Jaime Sánchez Valente, Instituto Mexicano del Petróleo

ESTUDIO DEL DESEMPEñO DE CATIONES METáLICOS EN LA FOTODEGRADACIóN DE COMPUESTOS FENóLICOS ACUOSOS.


ESTUDIO DEL DESEMPEñO DE CATIONES METáLICOS EN LA FOTODEGRADACIóN DE COMPUESTOS FENóLICOS ACUOSOS.

Bribiesca Pineda Samanta Yareli, Instituto Tecnológico de Morelia. Zamudio Sánchez Tania Carolina, Instituto Tecnológico de Morelia. Asesor: Dr. Jaime Sánchez Valente, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el fenol y sus derivados constituyen una grave amenaza tanto para el medio ambiente como para la salud pública. La presencia de estos compuestos en fase líquida facilita la contaminación de los cuerpos de agua, lo cual puede desencadenar efectos adversos considerables en la integridad biológica de la fauna y en el bienestar de las poblaciones humanas que entran en contacto con dichas sustancias. Esta problemática impone la necesidad de investigar y desarrollar metodologías que aceleren la degradación de estos compuestos, con el objetivo de mitigar los potenciales daños derivados de su acumulación progresiva en el medio ambiente. En este contexto, los hidróxidos dobles laminares (HDL o hidrotalcita) han emergido como una alternativa prometedora y eficaz para abordar esta cuestión. En la actualidad, el fenol y sus derivados constituyen una grave amenaza tanto para el medio ambiente como para la salud pública. La presencia de estos compuestos en fase líquida facilita la contaminación de los cuerpos de agua, lo cual puede desencadenar efectos adversos considerables en la integridad biológica de la fauna y en el bienestar de las poblaciones humanas que entran en contacto con dichas sustancias. Esta problemática impone la necesidad de investigar y desarrollar metodologías que aceleren la degradación de estos compuestos, con el objetivo de mitigar los potenciales daños derivados de su acumulación progresiva en el medio ambiente. En este contexto, los hidróxidos dobles laminares (HDL o hidrotalcita) han emergido como una alternativa prometedora y eficaz para abordar esta cuestión. En la actualidad, el fenol y sus derivados constituyen una grave amenaza tanto para el medio ambiente como para la salud pública. La presencia de estos compuestos en fase líquida facilita la contaminación de los cuerpos de agua, lo cual puede desencadenar efectos adversos considerables en la integridad biológica de la fauna y en el bienestar de las poblaciones humanas que entran en contacto con dichas sustancias. Esta problemática impone la necesidad de investigar y desarrollar metodologías que aceleren la degradación de estos compuestos, con el objetivo de mitigar los potenciales daños derivados de su acumulación progresiva en el medio ambiente. En este contexto, los hidróxidos dobles laminares (HDL o hidrotalcita) han emergido como una alternativa prometedora y eficaz para abordar esta cuestión.



METODOLOGÍA

Se sintetizaron hidrotalcitas secundarias, terciarias y cuaternarias (MgCoCuAl, MgCoAl, MgCuAl, CoAl y CuAl) mediante el método de coprecipitación a baja saturación, manteniendo una relación divalente-trivalente de 3. La caracterización de estas muestras se realizó por difracción y fluorescencia de rayos X para confirmar la estructura deseada. El método de síntesis consiste en la adición simultánea y controlada de una solución metálica 1 M y una solución alcalina 2 M en un reactor herméticamente sellado, bajo agitación magnética constante a 500 rpm. El pH se mantiene estable en 9 durante todo el proceso. Una vez completada la precipitación de la solución metálica (reactivo limitante), se sellan las entradas del reactor para preservar la humedad. Posteriormente, se eleva la temperatura entre 65°C y 75°C, manteniendo estas condiciones durante 18 horas en un proceso denominado añejamiento. Tras este periodo, se procede a la filtración al vacío y al lavado con agua desionizada en una proporción de 10:1 (10L de agua para lavado por cada 1L de solución) para eliminar los iones no incorporados a la estructura. El producto se seca en una estufa a 100°C durante 18 a 20 horas, se muele y se tamiza a través de una malla No. 100. Para el proceso de fotocatálisis, se realizaron experimentos con soluciones de fenol a diferentes concentraciones: 50, 100 y 470 ppm. Se determinó que la solución de 50 ppm presentaba la mejor tasa de degradación. En base a estos resultados, se establecieron las siguientes condiciones: se utilizan 400 ml de solución de fenol a 50 ppm y 0.4 g de hidrotalcita en un reactor equipado con un recirculador que nos ayuda a mantener la reacción a 25°C, una lámpara UV de longitud de onda X λ y una bomba de oxígeno. Bajo agitación constante a 500 rpm, se permite un tiempo de adsorción fenol-HDL de 30 minutos en oscuridad, tomando muestras a los 0, 15 y 30 minutos. Posteriormente, se activa la lámpara UV y se toman muestras cada 30 minutos hasta completar 240 minutos de reacción. Cada hidrotalcita se somete a este proceso de fotocatálisis, cuantificando la degradación del fenol mediante espectrofotometría UV-Vis en un rango de 200 a 400 λ. Este procedimiento permite evaluar comparativamente la eficacia de las diferentes hidrotalcitas sintetizadas en la degradación fotocatalítica del fenol en solución acuosa.


CONCLUSIONES

Se observó que los materiales que contienen magnesio en su estructura son más resistentes mecánicamente. Además, hasta ahora, la hidrotalcita compuesta por magnesio, cobre, cobalto y aluminio (MgCuCoAl) ha mostrado ser la mejor para la fotodegradación de fenol en agua.
Briñez Arciniegas Cristhian Felipe, Universidad de Investigación y Desarrollo
Asesor: M.C. Judith Pérez Marcial, Benemérita Universidad Autónoma de Puebla

ANáLISIS E IMPLEMENTACIóN DE HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL PARA LA GENERACIóN AUTOMáTICA DE DESARROLLO WEB


ANáLISIS E IMPLEMENTACIóN DE HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL PARA LA GENERACIóN AUTOMáTICA DE DESARROLLO WEB

Briñez Arciniegas Cristhian Felipe, Universidad de Investigación y Desarrollo. Cortes Perez Haminton, Universidad de Investigación y Desarrollo. Cuadros Vega Juan David, Universidad de Investigación y Desarrollo. Asesor: M.C. Judith Pérez Marcial, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del Problema  Las herramientas generadoras de código han evolucionado significativamente desde las herramientas CASE, que se centraban en la automatización del desarrollo de software a través del modelado y la generación de código básico, hasta las modernas herramientas basadas en IA que pueden entender el contexto y generar código complejo de manera más precisa y eficiente. Esta evolución ha llevado a un aumento en la productividad, una mayor calidad del código y una reducción en los errores manuales, aunque todavía existen desafíos relacionados con la dependencia de datos y la necesidad de supervisión humana.  El desarrollo de software tradicional enfrenta desafíos significativos en términos de eficiencia, productividad, calidad y velocidad. La codificación manual consume mucho tiempo y es propensa a errores. Con el avance de la inteligencia artificial (IA), surge la oportunidad de transformar estos procesos mediante la generación automática de código, aunque es necesario que el usuario tenga conocimientos de lenguajes y técnicas de programación para darle un correcto uso a la IA y validar el código proporcionado por esta. Este proyecto busca analizar e implementar herramientas de IA que puedan interpretar descripciones en lenguaje natural y generar código, mejorar la velocidad de escritura y la reducción de errores, garantizar la transparencia y seguridad del código, mitigar sesgos para promover la equidad, proteger la privacidad de los datos y considerar el impacto laboral en los desarrolladores, fomentando su adaptación profesional, así como estandarizar y automatizar la creación de estructuras básicas y repetitivas en el desarrollo de software.  



METODOLOGÍA

Metodología  El proyecto se realizó utilizando Visual Studio Code, con cada integrante del equipo trabajando desde su casa y avanzando en el proyecto de manera colaborativa. Se evaluó ChatGPT como la inteligencia artificial, haciéndole preguntas específicas sobre el código y las tareas a realizar, las cuales fueron resueltas por la IA. Además, la metodología fue fundamentalmente de trabajo en grupo, donde se compartieron conocimientos y se coordinaron esfuerzos para cumplir con los objetivos del proyecto.       1. Análisis  Análisis de Herramientas de IA:  Investigar modelos de lenguaje natural, asistentes de programación y generadores de código basados en IA.  Ejemplos de herramientas: GPT-4 de OpenAI, GitHub Copilot, TabNine, y IntelliCode de Microsoft.    Evaluación de Necesidades y Selección de Herramientas:  Identificar áreas del proceso de desarrollo que se beneficiarán más de la automatización.  Evaluar y seleccionar herramientas de IA que se adapten mejor a las necesidades específicas.      2. Diseño  Uso de Chat GPT para el Desarrollo Web:  Utilizar Chat GPT para realizar toda la página web desde la landing page hasta las diferentes funciones de esta.  Reformular las preguntas a Chat GPT para obtener una información más clara y  estructurar mejor las preguntas para tener un desarrollo guiado y que entienda mejor lo que se quiere conseguir.  Contextualizar a la IA para que pueda realizar bien el código y cómo implementarlo.    3. Desarrollo  Uso de Chat GPT para el Desarrollo Web:  Implementar las funciones y características definidas en la fase de diseño, utilizando Chat GPT para generar y refinar el código necesario.  Integrar las herramientas seleccionadas durante el análisis para optimizar el desarrollo.    4. Pruebas  Monitoreo y Mejora Continua:  Recopilar el feedback de los desarrolladores para identificar problemas y áreas de mejora.  Analizar las métricas de rendimiento y productividad para evaluar la efectividad del código generado y las herramientas utilizadas.        5. Mantenimiento  Monitoreo y Mejora Continua:  Continuación del monitoreo del desempeño del software y las herramientas de IA.  Implementación de mejoras y ajustes basados en el feedback continuo y el análisis de métricas, asegurando la calidad y eficiencia del software a lo largo del tiempo. 


CONCLUSIONES

Conclusiones Generales  Se logró percibir que la IA funciona de manera eficiente cuando se le hacen preguntas específicas y se es claro y conciso en las peticiones. Sin embargo, para poder utilizar IA en el desarrollo de código, es imprescindible contar con un conocimiento mínimo de programación. La IA, en este caso ChatGPT, no puede realizar todo un trabajo de programación por sí sola, ya que requiere de la intervención humana para guiar y corregir el proceso, esto se hace validando que el código proporcionado por la IA este bien estructurado, que se adapte la secuencia de preguntas con los objetivos planteados y se ajuste con el programa que se está realizando, también corrigiendo errores de contexto que puede llegar a tener la IA y saber ubicar el código en el programa.  La implementación de herramientas de IA para la generación automática de código promete mejoras significativas en eficiencia, productividad, calidad y velocidad en el desarrollo de software. Se espera una reducción considerable del tiempo necesario para escribir y revisar código, un aumento en la productividad al permitir a los desarrolladores centrarse en tareas más complejas y creativas, una mejora en la calidad del código con menos errores, y una aceleración del ciclo de desarrollo. Sin embargo, es crucial asegurar la precisión de la IA, manejar adecuadamente la seguridad y privacidad de los datos, y superar la resistencia al cambio por parte de los desarrolladores. También se concluyó en la investigación que si se puede tener ética mientras se utiliza la IA para programar, solo hay que saber que está bien utilizar o hacer con una IA y tener cuidado con el código que resulta. 
Bucio Leyva Atziry, Instituto Tecnológico de Zitácuaro
Asesor: Dr. Marco Antonio Navarrete Seras, Universidad Michoacana de San Nicolás de Hidalgo

BLOQUES DE TIERRA COMPRIMIDA (BTC) EN MUROS: RESISTENCIA A CARGA PUNTUAL Y RESISTIVIDAD ELéCTRICA


BLOQUES DE TIERRA COMPRIMIDA (BTC) EN MUROS: RESISTENCIA A CARGA PUNTUAL Y RESISTIVIDAD ELéCTRICA

Bucio Leyva Atziry, Instituto Tecnológico de Zitácuaro. Asesor: Dr. Marco Antonio Navarrete Seras, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La industria de la construcción es una de las industrias más contaminantes alrededor del mundo. A medida que la población mundial crece y la urbanización se expande, la demanda de nuevas infraestructuras y edificaciones aumenta exponencialmente, una alternativa para este problema es el aprovechamiento de materiales como los bloques de tierra comprimida (BTC) en obras civiles, para esto se realizaron pruebas destructivas (carga puntual) y no destructivas (resistividad eléctrica) en especímenes hechos con cal, cemento, arena y suelo proveniente del estado de Michoacán: Ajuno, Erongaricuaro y Santiago Undameo.



METODOLOGÍA

En la investigación se realizaron pruebas destructivas (Carga Puntual) y pruebas no destructivas (Resistividad Eléctrica) con la finalidad de evaluar la integridad, las propiedades de los bloques de tierra comprimida (BTC). Para la prueba de carga puntual se probaron 40 fragmentos irregulares de BTC con suelo proveniente del estado de Michoacán: 16 de Ajuno, 12 de Santiago Undameo y 12 de Erongaricuaro. Siguiendo la Standard Test Method for Determination of the Point Load Strength Index of Rock (D18.12, 2016) se realizó el siguiente procedimiento: Ensayos de bloques y fragmentos irregulares: Se registró la medida de la distancia (D) entre los puntos de contacto de las platinas, así como también la anchura de probeta, (W), perpendicular a la dirección de carga. Como los lados no eran paralelos, se calculó (W) como:  W= (W1+W2)/2 La anchura (W) se utilizó en el cálculo del índice de resistencia a la carga puntual independiente del modo de falla. Se introdujo el espécimen en la máquina de ensayo y se cerraron las platinas hasta hacer contacto con la dimensión más pequeña del bloque (D), cuidando que estas estuvieran lejos de los bordes y esquinas. Se aumentó progresivamente la carga hasta que se produjo la falla en un plazo de 10 a 60 segundos y se registró la carga (P en KN). Los procedimientos 1-3 se repitieron para cada espécimen de ensayo de la muestra. Para la prueba de resistividad eléctrica se probaron 15 especímenes de BTC con suelo proveniente del estado de Michoacán: 5 de Ajuno, 5 de Santiago Undameo y 5 de Erongaricuaro. Siguiendo el procedimiento del libro Durar: Se identificó el tipo de procedimiento a seguir según el sitio, en el caso de la investigación, fue en laboratorio. Una vez definido el procedimiento de muestreo para los testigos, se procedió a  tomar las dimensiones (área, (A), diámetro, (Ø), y longitud, (L)). Mediante la fuente y a través de las placas metálicas adosadas a las caras laterales del espécimen se sometió a éste a una corriente dada, (I) y se registró el voltaje, E. En el caso de esta investigación el instrumento utilizado proporcionaba automáticamente la resistencia eléctrica Re en ohm. La resistividad se obtuvo con la siguiente expresión: p=Re(A/L)...ohm-cm Los procedimientos 2-3 se repitieron para cada espécimen  


CONCLUSIONES

En la prueba de carga puntual se obtuvo que los especímenes con suelo de Erongaricuaro (E) tuvieron mayor resistencia a compresión uniaxial con un promedio de 64.90 kg/cm2, en segundo lugar, los especímenes con suelo de Santiago de Undameo (SU) con una resistencia promedio de 53.57 kg/cm2 y por último los especímenes con suelo de Ajuno (A) con una resistencia promedio de 44.79 kg/cm2. En la prueba de resistividad eléctrica se obtuvo que los especímenes con suelo de Santiago  Undameo (SU) tuvieron mayor resistividad con una resistividad eléctrica promedio de 4456.08 ohm-cm, en segundo lugar los especímenes con suelo de Erongaricuaro (E) con una resistividad eléctrica promedio de 3888.95 ohm-cm y en último lugar los especímenes con suelo de Ajuno (A) resistividad eléctrica promedio de 3421.90 ohm-cm. Los resultados en la prueba de carga puntual se compararon con lo establecido en la norma mexicana NMX-C-508-ONNCCE- 2015 referente a la utilización de este material en la construcción que establece las características y métodos de ensayo para BTC estabilizados con cal para su uso en muros de carga, divisorios y techos de bóvedas, superando la resistencia mínima de 3 MPa. En los resultados de la prueba de resistividad eléctrica, se obtuvo que los especímenes tienen alto riesgo a la corrosión. Debe tenerse en cuenta que la resistividad solo es un parámetro que controla la velocidad de corrosión del acero de refuerzo en el concreto, por lo tanto, no podrá considerarse como único criterio para definir o prever un posible daño en la estructura. La realización de pruebas destructivas y no destructivas es esencial para garantizar la calidad, seguridad y durabilidad de las estructuras en la construcción. Las pruebas destructivas, aunque implican la destrucción de muestras, proporcionan datos críticos sobre la resistencia y el comportamiento de los materiales bajo condiciones extremas. Por otro lado, las pruebas no destructivas permiten evaluar la integridad y las propiedades de los materiales sin dañarlos, facilitando el monitoreo continuo y la detección temprana de posibles fallas. Los autores agradecen el soporte del Programa Delfín con su Programa de la Investigación Científica y Tecnológica del Pacífico; de la Coordinación de la Investigación Científica de la Universidad Michoacana de San Nicolás de Hidalgo; del CONAHCYT con el Proyecto de Grupo de Ciencia de Frontera CF-2023-G-985, con el Proyecto de Ciencia Básica y de Frontera Investigadores Consolidados CBF2023-2024-1613, con el Pronace 321260; con el IXM-2313; del ICTI, Instituto de Ciencia y Tecnología del Estado de Michoacán, y del Laboratorio Ing Luis Silva Ruelas de la Facultad de Ingeniería Civil, UMSNH.    
Buenrostro Huerta Luis Javier, Instituto Tecnológico de Morelia
Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional

INFLUENCIA DEL COMBUSTIBLE SECUNDARIO Y SU RELACIóN CON LOS PARáMETROS DE LA FLAMA Y LA EFICIENCIA DE COMBUSTIóN DEL PROCESO AC-HVAF


INFLUENCIA DEL COMBUSTIBLE SECUNDARIO Y SU RELACIóN CON LOS PARáMETROS DE LA FLAMA Y LA EFICIENCIA DE COMBUSTIóN DEL PROCESO AC-HVAF

Buenrostro Huerta Luis Javier, Instituto Tecnológico de Morelia. Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El rociado térmico es una técnica innovadora de depósito de materiales para la obtención de recubrimientos que permiten mejorar ciertas propiedades de los materiales, se han desarrollado nuevas tecnologías en este ámbito que combinan parámetros de velocidad y calor para la obtención de recubrimientos óptimos. Técnicas como HVOF se combinan un componente cinético y térmico que permite una adhesión de las partículas adecuado para diversas aplicaciones. Sin embargo, trasladar esta tecnología al campo industrial requiere de reducir costos y optimizar los procesos. Obtener una alta tasa de depósito sobre los sustratos, así como una densidad y dureza adecuada en relación con las aplicaciones, es importante para concretar la funcionalidad de los recubrimientos, donde la optimización se vuelve necesaria para evitar el desperdicio de los polvos sin perder la eficiencia del recubrimiento. La técnica de rociado térmico AC-HVAF y sus variantes como la combustión activada (AC) permiten alcanzar este objetivo a través del uso de gas LP y aire como materias primas principales. En este proceso las presiones de los gases juegan un papel importante para determinar la velocidad de las partículas y el carácter reductor u oxidante de la flama, esta característica puede ser medida a través de las dimensiones de la flama y un índice de mérito que nos permite definir los parámetros adecuados para la proyección térmica de los materiales, viéndose afectada también por la geometría de la boquilla de Laval que permite acelerar un fluido compresible a velocidades supersónicas en dirección axial, convirtiendo energía térmica en energía cinética. El objetivo de este proyecto es generar una metodología que permita obtener, analizar y procesar una gran cantidad de datos de los experimentos, relacionados a los parámetros utilizados en la técnica de HVAF y poder aplicar los resultados obtenidos en el rociado térmico de diversos materiales con una alta eficiencia y reduciendo los costos al mínimo posible.



METODOLOGÍA

La obtención de las flamas se realiza a través de la pistola Uniquecoat M3 con la configuración 2L2, en conjunto con el brazo robótico KUKA México KR 60-3 y otros equipos como el compresor de aire de alta presión Kaeser Compressors México y el sistema de alta presión de nitrogéno Atlas Copco, entre otros. Se generaron vídeos con flamas en parámetros distintos de aire y combustible, primario y secundario, con ayuda de una cámara de alta resolución posicionada a 2 metros de distancia de manera perpendicular a la boquilla de la pistola permitiendo observar las plumas de rociado. Una vez generadas un total de 324 grabaciones en distintas condiciones, se utilizó el software Flame Tracker y Excel para el procesamiento y obtención de datos relacionados a la intensidad lumínica (medidas en lumas) de las flamas. se determinó un margen del 20% para delimitar el final de la pluma de rociado, permitiendo determinar la longitud en la etapa de estabilización. El procedimiento para determinar el ancho de la flama se realizó de manera vertical para ser analizado de la misma manera. El análisis de las grandes cantidades de datos obtenidos se optimizó a través del desarrollo de un protocolo en Python que permite la limpieza de datos no significativos, además de la extracción y visualización de las secciones estables de la flama en gráficas relacionadas a los fotogramas procesados y generando el largo, ancho y desviación estándar correspondientes en una lista de Excel, automatizando el proceso en su totalidad. Finalmente, se generan gráficos de contorno en Origin 2018 que facilitan la interpretación de la información en relación con el largo y ancho de la pluma de rociado según las condiciones en las que fueron generadas.


CONCLUSIONES

Los resultados teóricos describen una flama de bajo espesor y mayor largo ya que permite generar un depósito de polvos más concentrado y por lo tanto, de mayor densidad, que constantemente se ve relacionado a buenas propiedades mecánicas. Por otro lado, los resultados en las gráficas de contorno muestran que la longitud de la llama varía de los 44 hasta los 223 mm. Que en relación con el ancho a través de un índice de mérito nos permiten ubicar las condiciones óptimas para generar esas dimensiones de pluma de rociado característica de cada configuración. Sin embargo, también fue posible identificar zonas en el gráfico donde la relación de aire y combustible no aplican directamente en la práctica ya que se pueden producir un exceso de gas combustible o aire que evita la formación de un flama estable para realizar el proceso de rociado térmico. Algunos de los resultados esperados incluyen el desarrollo de recubrimientos de alta densidad y excelentes propiedades mecánicas, aplicando los parámetros óptimos encontrados a través de la metodología planteada, además de generar una herramienta adecuada para la predicción de las condiciones más adecuadas de proyección para distintos materiales, donde se podría variar la presión de los gases e incluso la configuración de la pistola.
Burgos Ramirez Perla Guadalupe, Instituto Tecnológico Superior de Cajeme
Asesor: Dr. Humberto Aceves Gutiérrez, Instituto Tecnológico de Sonora

ANáLISIS DE LA HUELLA DE CARBONO GENERADA POR LA PREPARACIóN DE CARNE ASADA EN CARNICERíAS DE CIUDAD OBREGóN: CASO DE ESTUDIO CARNICERíAS EN LA COLONIA CAJEME


ANáLISIS DE LA HUELLA DE CARBONO GENERADA POR LA PREPARACIóN DE CARNE ASADA EN CARNICERíAS DE CIUDAD OBREGóN: CASO DE ESTUDIO CARNICERíAS EN LA COLONIA CAJEME

Burgos Ramirez Perla Guadalupe, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. Humberto Aceves Gutiérrez, Instituto Tecnológico de Sonora



PLANTEAMIENTO DEL PROBLEMA

La industria alimentaria, y en particular la producción de carne, es reconocida como uno de los mayores contribuyentes a las emisiones de gases de efecto invernadero. En el noroeste de México, la carne ocupa un lugar central en la cultura alimentaria, consumiéndose principalmente asada. Según el estudio de Taddei, Preciado, Robles y Garza (2012), los consumidores de carne en esta región presentan patrones de preferencia que varían según la ciudad. En ciudad Obregón, la preferencia por la carne de res es particularmente alta, con un comportamiento atípico en comparación con otras ciudades como Hermosillo. La preparación de carne asada en carnicerías es una práctica extendida en Ciudad Obregón, Sonora. Esta preferencia y práctica culinaria tienen implicaciones ambientales significativas, especialmente en términos de emisiones de CO2.



METODOLOGÍA

Este estudio se enfocó en medir las emisiones de carbono de la carne asada vendida en carnicerías de la colonia Cajeme, en ciudad Obregón. Para hacerlo, se recopilaron datos de forma cualitativa y descriptiva, usando entrevistas directas y registros de ventas. Se eligieron tres carnicerías en la colonia Cajeme que tenían asadores y llevaban un registro de sus ventas de carne asada. Primero, se llevó a cabo una revisión de información sobre la huella de carbono relacionada con el consumo de carne. Esto incluyendo estudios previos sobre patrones de consumo en México y en otras regiones y naciones. Trabajos como el de Marí Fontestad (2018), que estudian las variaciones en la huella de carbono según el tipo de carne y los procesos de producción, tendrán un enfoque particular. Se realizaron entrevistas a los encargados de las carnicerías para entender sus patrones de ventas y obtener información sobre las cantidades de carne asada cada día y la cantidad de carbón utilizada. Luego, se recolectaron datos de los registros de ventas y cantidad de carbón utilizado durante una semana completa. Se anotaron las cantidades de carne asada y carbón en kilogramos por día. Para calcular las emisiones de carbono, se utilizó un valor de 28.50 kg CO2 eq por cada kilogramo de carne a la salida del frigorífico, basado en el estudio de Bongiovanni et al. (2023). Este valor se multiplicó por la cantidad de carne asada cada día para obtener las emisiones diarias de cada carnicería. Después se calculó la estimación de carbono por el carbón, utilizando el valor de 1.8333 kg CO2 por kilogramo de carbón vegetal, basado en el estudio de Elias, S. (2022). Luego, se sumaron las emisiones de CO2 por cantidad de carne y las emisiones de CO2 por cantidad de carbón para obtener las emisiones de carbono asociadas con la carne asada y el uso de carbón vegetal en tres carnicerías de la colonia Cajeme, ciudad Obregón. Se organizaron los datos en tablas para mostrar la cantidad de carne asada, consumo de carbón y las emisiones de carbono correspondientes por día. Luego se compararon los resultados entre las carnicerías para identificar patrones y diferencias en las emisiones.


CONCLUSIONES

Al mirar los datos de emisiones de CO₂ de las tres carnicerías, vemos que hay diferencias importantes en cuánto CO₂ que se emite en total en cada lugar. La Carnicería 2 es la que más CO₂ emite, con un total de 7894.662 kg CO₂ eq, mientras que la Carnicería 3 es la que menos emite, con 1312.6656 kg CO₂ eq. La carnicería 1tuvo como resultados emisiones de CO₂ por Carne: 2622.00 kg CO₂ eq, emisiones de CO₂ por Carbón: 109.998 kg CO₂, y en total emisiones de CO₂: 2731.998 kg CO₂ eq. La carnicería 2 tuvo como resultados emisiones de CO₂ por Carne: 7638.00 kg CO₂ eq, emisiones de CO₂ por Carbón: 256.662 kg CO₂ y en total emisiones de CO₂: 7894.662 kg CO₂ eq , siendo la que más carne vendió durante la semana. La carnicería 3 tuvo emisiones de CO₂ por Carne: 1254.00 kg CO₂ eq, emisiones de CO₂ por Carbón: 58.6656 kg CO₂, y un total de Emisiones de CO₂: 1312.6656 kg CO₂ eq. Comparando las tres carnicerías, se observa que la Carnicería 2, con las mayores ventas de carne, también tiene las mayores emisiones de carbono diarias, totalizando 7894.662 kg de CO₂. Por otro lado, la Carnicería 3, con menores ventas, presenta las menores emisiones con 1312.6656 kg de CO₂. En conclusión, el estudio demuestra que las emisiones de carbono están directamente relacionadas con la cantidad de carne asada vendida. Las carnicerías que asan y venden más carne generan una mayor huella de carbono diaria. Al comparar los resultados obtenidos con los hallazgos del estudio de Marí Fontestad (2018) sobre la huella de carbono asociada al consumo de alimentos de origen animal en España. Marí Fontestad reporta que la huella de carbono (HC) para la carne de pollo es de 27 kg CO₂-e por kilogramo de carne de pollo. Si se vendiera las mismas cantidades de pollo asado que se vendió de carne en las carnicerías daría como resultado que producen menor cantidad de CO2, por lo tanto, el pollo al generar una menor huella de carbono tiene menor impacto ambiental.
Cabello de la Torre Kevin Ulises, Universidad de Guadalajara
Asesor: Dr. José Alberto Luna López, Benemérita Universidad Autónoma de Puebla

OBTENCION DE PELICULAS DELGADAS DE OXIDO DE NIQUEL PARA APLICACION EN CELDAS SOLARES


OBTENCION DE PELICULAS DELGADAS DE OXIDO DE NIQUEL PARA APLICACION EN CELDAS SOLARES

Cabello de la Torre Kevin Ulises, Universidad de Guadalajara. Asesor: Dr. José Alberto Luna López, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la búsqueda de fuentes de energía sostenibles y renovables, las celdas solares han emergido como una solución prometedora para reducir la dependencia de los combustibles fósiles y mitigar los efectos del cambio climático. Sin embargo, la eficiencia y el costo de producción de las celdas solares siguen siendo desafíos importantes que limitan su adopción masiva.  Uno de los materiales que ha mostrado un potencial significativo en la mejora de la eficiencia de las celdas solares es el óxido de níquel (NiO). Este material presenta propiedades electrónicas y ópticas que lo hacen adecuado para su uso en celdas solares A pesar de sus ventajas, la integración del óxido de níquel en celdas solares aún enfrenta desafíos técnicos y económicos que deben ser abordados para lograr su implementación a gran escala.  



METODOLOGÍA

1.- Preparación de Soluciones de Óxido de Níquel Pesar 2.91 g de nitrato de níquel hexahidratado usando una balanza analítica. Esta cantidad se basa en preparar una solución de 0.1 M de Ni(NO₃)₂ en 100 mL de agua destilada. Disolver el nitrato de níquel en 100 mL de agua destilada en un vaso de precipitados. Agitar la solución con un agitador magnético hasta que el nitrato de níquel esté completamente disuelto. Transferir la solución preparada a un frasco de almacenamiento y etiquetarlo adecuadamente.   2.- Preparación del Sustrato: Limpiar los sustratos sumergiéndolos en una solución de detergente y agua destilada, seguido de enjuague con agua destilada y etanol. Secar los sustratos con aire comprimido y calentarlos a 100°C durante 10 minutos para eliminar cualquier residuo de humedad. 3.- Procedimiento de Spray Pirólisis: Colocar los sustratos limpios en la placa calefactora o en el interior del horno y ajustar la temperatura a 400-500°C. Conectar la solución de óxido de níquel al sistema de spray pirolisis. Ajustar la presión de la bomba de aire o nitrógeno para obtener un aerosol fino y uniforme. Pulverizar la solución sobre los sustratos calientes a una distancia de 20-30 cm. La solución se descompondrá térmicamente al contacto con el sustrato caliente, formando una capa de óxido de níquel. Controlar la temperatura del sustrato durante el proceso usando un termopar. Repetir el proceso de pulverización varias veces hasta alcanzar el espesor deseado de la película. Dejar enfriar los sustratos recubiertos gradualmente a temperatura ambiente. 4. -Caracterización IV (Corriente-Voltaje) Colocar el sustrato con la película de óxido de níquel en una plataforma adecuada para mediciones eléctricas. Conectar las sondas de pruebas a la película de óxido de níquel. Configurar la fuente de corriente continua para aplicar un voltaje en un rango adecuado (por ejemplo, -1V a 1V). Medir la corriente resultante utilizando un multímetro digital. Registrar las mediciones de corriente para cada valor de voltaje aplicado. Repetir las mediciones varias veces para asegurar la reproducibilidad. Analizar los datos obtenidos para determinar la relación corriente-voltaje (IV) de la película de óxido de níquel. Graficar la curva IV y calcular parámetros eléctricos importantes, como la resistencia, el umbral de corriente y la densidad de corriente. 5.- Caracterización de Baño Termocrómico Preparación de la Solución Termocrómica: Utilizar una solución termocrómica comercial o preparar una solución a base de compuestos termocrómicos como el óxido de vanadio (VO₂). Disolver el compuesto termocrómico en un solvente adecuado (por ejemplo, etanol o agua) en las concentraciones recomendadas por el proveedor o literatura científica. Procedimiento de Baño Termocrómico: Llenar un recipiente de vidrio con la solución termocrómica preparada. Colocar el recipiente en un baño termostático y ajustar la temperatura a un valor inicial (por ejemplo, 20°C). Sumergir el sustrato con la película de óxido de níquel en la solución termocrómica. Incrementar gradualmente la temperatura del baño en pasos (por ejemplo, de 5°C en 5°C) utilizando la placa calefactora. Mantener el sustrato en la solución durante un tiempo fijo en cada temperatura (por ejemplo, 5 minutos). Registrar cualquier cambio visual en el color del sustrato con la película de óxido de níquel a cada temperatura. Utilizar una fuente de luz y un espectrofotómetro UV-Vis para medir los cambios en la absorbancia o transmitancia de la película de óxido de níquel a diferentes temperaturas. Graficar los cambios ópticos en función de la temperatura para determinar el comportamiento termocrómico de la película de óxido de níquel.  


CONCLUSIONES

A lo largo de este estudio, se llevaron a cabo una serie de experimentos para evaluar las propiedades del óxido de níquel (NiO) depositado mediante spray pirolisis y sus características eléctricas y termocrómicas. Sin embargo, los resultados obtenidos no alcanzaron las expectativas iniciales. El trabajo en este campo continúa, y los resultados obtenidos proporcionan una base valiosa para futuras investigaciones.  
Cabello Granados Maria Evelyn, Instituto Tecnológico de Querétaro
Asesor: Mtro. Juan Carlos Gagna, Instituto Tecnológico de Estudios Superiores de Zamora

TRATAMIENTO DE AGUAS RESIDUALES MEDIANTE CAVITACIóN Y GOLPE DE ARIETE


TRATAMIENTO DE AGUAS RESIDUALES MEDIANTE CAVITACIóN Y GOLPE DE ARIETE

Ayala Romero Daniela, Instituto Tecnológico Superior de Uruapan. Cabello Granados Maria Evelyn, Instituto Tecnológico de Querétaro. López Reséndiz Andrea, Instituto Tecnológico de Querétaro. Asesor: Mtro. Juan Carlos Gagna, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

México enfrenta una crisis por falta de agua debido al aumento de la población y las actividades agropecuarias e industriales. La contaminación por aguas residuales domésticas e industriales es un desafío ambiental crítico. Esta situación se agrava por el tratamiento insuficiente de aguas residuales, ya que solo se trata el 57%. El uso de tecnología de cavitación y golpe de ariete en el tratamiento de aguas residuales es una solución viable para reducir la contaminación y aprovechar este recurso.



METODOLOGÍA

Proceso tradicional de tratamiento de aguas residuales Pretratamiento: Eliminación de sólidos grandes y flotantes. Igualación y homogeneización: Estabilización del flujo y la carga contaminante. Tratamiento biológico: Descomposición de materia orgánica mediante procesos anaerobios. Deshidratación de lodos: Reducción del volumen de lodos. Tratamiento terciario: Eliminación de compuestos orgánicos volátiles, patógenos y otros contaminantes. La cavitación y el golpe de ariete como alternativa La cavitación genera burbujas de vapor que colapsan, liberando energía y provocando un golpe de ariete. Beneficios: Descomposición de contaminantes: La energía liberada rompe las moléculas de los contaminantes. Oxidación de compuestos orgánicos: Elimina olores, sabores y compuestos tóxicos. Formación de radicales libres y ozono: Descompone contaminantes difíciles de eliminar. Mejora de la eficiencia de la bomba: Reduce costos y aumenta la productividad. Necesidad de investigación Estudios de caso: Identificar experiencias previas exitosas. Modelos matemáticos: Simular el comportamiento de la cavitación y el golpe de ariete en sistemas de tratamiento. Diseño de reactores: Desarrollar equipos específicos para inducir y controlar estos fenómenos.


CONCLUSIONES

Las empresas y personas generan muchos residuos, a menudo sin considerar su manejo adecuado. Un ejemplo es el agua, que después de ser usada se ensucia con restos del proceso o desechos domésticos. No siempre es viable desechar esta agua, ya que existen alternativas para su reutilización, como el tratamiento de agua que elimina elementos dañinos para darle un nuevo uso. El uso de una bomba con golpe de ariete es ventajoso para el tratamiento de aguas residuales industriales y domésticas. Este método utiliza la energía y movimiento del agua para dirigir el fluido, aprovechando la presión del agua al ingresar a la bomba y generando cavitación. Este proceso facilita el golpe de ariete, obteniendo beneficios en la depuración de agua residual. Hoy en día, los problemas ambientales severos son causados por la mala administración de recursos naturales y el manejo inadecuado de residuos. Los resultados de esta investigación sugieren que la combinación de cavitación y golpe de ariete puede ser útil para tratar ciertos contaminantes en aguas residuales. Sin embargo, es necesario realizar estudios adicionales para evaluar la viabilidad técnica de esta combinación a largo plazo, lo que podría ofrecer soluciones innovadoras y sostenibles para el tratamiento del agua.  
Cabello Valencia Kevin Jesus, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Angélica María Álzate Ibáñez, Fundación Universidad de América

PROPUESTA DE UN SISTEMA DE REGISTRO DE ASISTENCIA SIMPLIFICADO CON ESP32 Y RFID


PROPUESTA DE UN SISTEMA DE REGISTRO DE ASISTENCIA SIMPLIFICADO CON ESP32 Y RFID

Cabello Valencia Kevin Jesus, Instituto Tecnológico Superior de Apatzingán. Calderon Alvarez Odhette Sharai, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Angélica María Álzate Ibáñez, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

En la era de transformación digital, las empresas se enfrentan al desafío de adaptarse a los cambios tecnológicos para la gestión eficiente de los procesos y la toma de decisiones basadas en datos [1]. Las PYMES enfrentan el desafío de altos costos iniciales y la necesidad de infraestructura adecuada para la implementación de nuevas tecnologías, lo cual puede dificultar su capacidad para adoptar soluciones tecnológicas [2]. Aunque las tecnologías han evolucionado significativamente y existen sistemas avanzados de control de asistencia basados en biometría y reconocimiento facial, estos métodos suelen implicar inversiones significativas y una complejidad técnica que puede resultar abrumadora para las PYMES. La implementación de un sistema de registro de asistencia simplificado utilizando ESP32 y RFID ofrece una solución efectiva y eficaz para estas empresas. En este contexto, el presente trabajo propone el desarrollo de un sistema de registro de asistencia funcional usando el microcontrolador ESP32 como tecnología accesible y de bajo costo para PYMES, que permita abordar los desafíos mencionados y mejorar la precisión en el seguimiento de las horas trabajadas del personal. El ESP32 es un microcontrolador con conectividad inalámbrica incorporada, el cual ha ganado un creciente reconocimiento tanto en el ámbito académico como entre los desarrolladores debido a sus diversas aplicaciones en el Internet de las cosas (IoT) [3].  



METODOLOGÍA

  Revisión de la Literatura El estudio parte de una búsqueda exhaustiva en bases de datos académicas como Scopus para identificar investigaciones previas relacionadas con nuestro enfoque. Esta revisión nos permitió seleccionar tres referentes que se alineaban estrechamente con nuestros objetivos. Los estudios analizados revelaron tendencias comunes en la selección de hardware: Microcontrolador: ESP32 Módulos de identificación: RFID-RC522 o PN532 Componentes auxiliares: sensores de proximidad LED, cámaras compatibles con ESP32, y displays LCD de 16x2 segmentos Aunque no se especificaba, inferimos que estos proyectos utilizan el entorno de desarrollo de Arduino, aprovechando la amplia disponibilidad de ejemplos y códigos en la comunidad en línea.   Selección de Hardware y Software Se utilizó el microcontrolador ESP32 junto con el módulo RFID-RC522 para implementar la lectura de tarjetas y conectividad IoT. En el aspecto de software, se optó por MicroPython como lenguaje de programación y Thonny como IDE, aprovechando su optimización para microcontroladores y facilitando el desarrollo rápido de prototipos. Esta combinación de hardware y software permitió crear un sistema de registro de asistencia robusto y económico, ideal para las necesidades de las PYMES.   Desarrollo del Prototipo Preparación del ESP32: Comenzamos por flashear el ESP32 con el firmware de MicroPython utilizando Thonny. Accedimos a la categoría "Interpreter" en los ajustes de Thonny y seleccionamos "Install or update MicroPython (esptool)", asignamos los valores acorde a nuestro modelo de placa de desarrollo y se flasheó en un minuto aproximadamente.   Conexión del hardware Conectamos el módulo RFID-RC522 al ESP32 siguiendo este esquema: SDA (Serial Data Input/Output) → PIN 5 del ESP32 SCK (Serial Clock) → PIN 18 del ESP32 MOSI (Master Out Slave In) → PIN 23 del ESP32 MISO (Master In Slave Out) → PIN 19 del ESP32 RST (Reset) → PIN RX2 del ESP32 Nota: El módulo RC522 se alimenta con 3.3V directamente del ESP32 durante la fase de experimentación. Para un entorno de producción, se contempla el uso de una fuente de alimentación externa para garantizar un funcionamiento continuo y estable.   Programación del microcontrolador El uso de MicroPython ha permitido emplear librerías que aceleran el desarrollo sobre el ESP32, utilizamos la librería micropython-mfrc522, que contiene la clase y métodos necesarios para leer y escribir información sobre las tarjetas RF, en nuestro caso bastará con leer su valor, ya que si se da la posibilidad de escribir en ellas, puede existir duplicidad de identificadores.


CONCLUSIONES

El sistema de registro de asistencia basado en ESP32 y RFID-RC522 demuestra ser una solución innovadora y eficaz para las PYMES, superando los desafíos de costos y complejidad asociados con sistemas más avanzados. La implementación, facilitada por MicroPython y Thonny, junto con la integración de APIs, resulta en un sistema robusto y flexible que cumple los objetivos de accesibilidad y eficiencia. Este proyecto no solo ofrece una solución inmediata a las necesidades de gestión de asistencia, sino que también establece un precedente para el uso de tecnologías accesibles en la optimización de procesos empresariales. Su potencial de adaptación y mejora continua sugiere un impacto duradero en la forma en que las PYMES abordan la gestión de personal, abriendo camino a futuras innovaciones en este campo. Resultados Precisión en el Registro: Tasa de éxito de lectura de tarjetas: Se obtuvo una tasa de éxito superior al 95% en la lectura de tarjetas RFID, lo cual se pudo validar mediante pruebas repetidas en diferentes condiciones. Costos y Escalabilidad: Utilizando ESP32 y RFID-RC522, se observó una reducción significativa en los costos comparados con sistemas comerciales de registro de asistencia. Se esperaba que el costo total por unidad no excediera los $20 USD, y fue así, fueron cerca de $15 USD. Esto permite escalar y ampliar sus posibilidades manteniendo un costo bajo. Satisfacción del Usuario: Encontramos una aceptación positiva por parte de las personas que probaron nuestro desarrollo. Un detalle a resaltar fue la duda de las personas si era posible personalizar la tarjeta a su placer, cosa que sí es posible, esto aumentó el nivel de satisfacción. Validación del Prototipo: Las pruebas piloto en diversos entornos institucionales (oficinas y escuelas) mostraron que el sistema es viable y efectivo en diferentes contextos, inclusive en lugares donde el internet no es tan cercano.
Cabral Dominguez Oscar Valdemar, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Dr. Mauricio Vásquez Rendón, Universidad de Medellín

FIBRAS DE NOPAL AÑADIDAS A MORTEROS TIPO M PARA AUMENTAR SU RESISTENCIA A LA FLEXIÓN


FIBRAS DE NOPAL AÑADIDAS A MORTEROS TIPO M PARA AUMENTAR SU RESISTENCIA A LA FLEXIÓN

Cabral Dominguez Oscar Valdemar, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Dr. Mauricio Vásquez Rendón, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

En el campo de la construcción, la búsqueda de materiales sostenibles y eficientes ha llevado a la exploración de recursos naturales que puedan mejorar las propiedades de los materiales tradicionales. En este contexto, el nopal (Opuntia spp.), una planta cactácea abundante en regiones áridas y semiáridas, ha emergido como un recurso valioso debido a sus características mecánicas y químicas. Este proyecto se enfoca en la incorporación de fibras de nopal en morteros tipo M, con el objetivo de incrementar su resistencia a la flexión, una propiedad crucial para la durabilidad y la estabilidad estructural de las construcciones. Existen resientes estudios de autores como Juárez Alvarado, Torees Ponce que nos mencionan acercar de el prometedor futuro que tienen las fibras vegetales dentro de la construcción.



METODOLOGÍA

Dentro de la metodología del proyecto, se dividió en dos partes diferentes como lo son la extracción y la obtención de fibras utilizando dos diferentes técnicas y el proceso de adición y elaboración de las viguetas para su posterior prueba a flexión Para la extracción de fibras de nopal se utilizaron dos diferentes técnicas •Extracción de fibras de nopal por técnica de por secado. •Extracción de fibras por residuos de nopal licuado.


CONCLUSIONES

Extraer las fibras de nopal es una tarea complicada. Es por ello que debemos diseñar un método para extracción de carácter mecánico. La revisión de la literatura indica el gran potencial de las fibras naturales (como el  nopal) como refuerzo en morteros para aumentar su resistencia a la flexión.
Cabral Rivera Frida Nayeli, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)

EVALUACIóN DE LA PRECISIóN EN LOS PRONóSTICOS DE PIEZAS ENTREGADAS Y ANáLISIS DE LA VARIABILIDAD EN HORARIOS DE SALIDA EN EL TRANSPORTE DE MERCANCíAS


EVALUACIóN DE LA PRECISIóN EN LOS PRONóSTICOS DE PIEZAS ENTREGADAS Y ANáLISIS DE LA VARIABILIDAD EN HORARIOS DE SALIDA EN EL TRANSPORTE DE MERCANCíAS

Beltran Manzano Aylin Guadalupe, Instituto Tecnológico de Ciudad Juárez. Cabral Rivera Frida Nayeli, Instituto Tecnológico de Ciudad Juárez. Rosas Archiveque Amado, Universidad de Sonora. Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En el ámbito del transporte de mercancías, la precisión en los pronósticos de piezas entregadas y la coordinación de los horarios de salida son fundamentales para asegurar la eficiencia operativa y la satisfacción del cliente. Sin embargo, se ha observado que existen discrepancias significativas entre las piezas pronosticadas y las realmente entregadas, así como variabilidad en los horarios de salida entre diferentes rutas. Estas discrepancias pueden llevar a ineficiencias logísticas, incrementos en costos y afectación en la calidad del servicio. Los problemas identificados son inexactitud en los pronósticos de piezas entregadas, las diferencias significativas entre las cantidades de piezas pronosticadas y las entregadas generan desafíos en la gestión de inventarios, planificación de recursos y cumplimiento de plazos. Esto puede deberse a limitaciones en los modelos de pronóstico o a factores no anticipados en la cadena de suministro. El otro problema es Variabilidad en los Horarios de Salida entre Ciudades, esto por la inconsistencia en los horarios de salida puede reflejar una falta de coordinación y planificación, lo que impacta en la optimización de rutas y tiempos de entrega. Esta variabilidad puede estar influenciada por factores específicos de cada ciudad, como infraestructura, regulaciones locales, o condiciones de tráfico. Este reporte busca identificar y cuantificar estas discrepancias y variabilidades, y explorar las posibles causas y soluciones para mejorar la precisión en los pronósticos y la eficiencia en la gestión de los horarios de salida. El análisis detallado proporcionará una base para el desarrollo de estrategias de mejora en la logística del transporte de mercancías, con el objetivo de optimizar los procesos operativos y reducir costos.



METODOLOGÍA

Para realizar el análisis estadístico pertinente se tomaron en cuenta varias actividades principales como la  recopilación de datos que consiste en identificar de dónde provienen los datos. La frecuencia con la que estos son recopilados, así como definir claramente las variables medidas. Se tiene que llevar a cabo una limpieza de datos para que estos tengan coherencia y así mismo decidir cómo se van a manejar los datos atípicos si es que existen. El primer paso es realizar el análisis de datos mediante una apreciación general de los datos. Después de esto se deben de visualizar los datos por medio de los diferentes gráficos existentes así como agregar anotaciones que puedan explicar anomalías o cambios en los datos. Por último se debe hacer la interpretación de los datos de acuerdo al contexto en el que se está trabajando, comprobando que las hipótesis que sean planteadas se acepten o rechacen según sea el caso.


CONCLUSIONES

El presente estudio ha demostrado que el uso de RStudio en la optimización de procesos logísticos y en el análisis de datos en el sector del transporte de piezas puede ser altamente efectivo. A través del análisis detallado de las diferencias entre las piezas pronosticadas y las realmente entregadas, se ha evidenciado que existen discrepancias significativas que pueden abordarse y minimizarse mediante el uso de técnicas avanzadas de análisis de datos y modelado predictivo. Uno de los hallazgos más importantes de este estudio es la identificación de patrones de error y variabilidad en los pronósticos, particularmente en ciertos estados como Veracruz y Ciudad de México, que presentaron las mayores discrepancias. Estos resultados subrayan la necesidad de ajustar los modelos predictivos y los procesos logísticos para mejorar la precisión y eficiencia en la entrega de piezas. La aplicación de la prueba t para muestras pareadas ha revelado una diferencia estadísticamente significativa entre los pronósticos y los valores reales, con un valor p extremadamente pequeño, lo que nos permite rechazar la hipótesis nula de que no hay diferencia significativa entre los pronósticos y los valores reales. Esta diferencia media, aunque cuantitativamente pequeña (aproximadamente 0.599), es crucial para entender y mejorar los procesos logísticos. El uso de RStudio ha facilitado no solo el análisis y visualización de grandes volúmenes de datos, sino también la implementación de algoritmos complejos que pueden predecir y optimizar la logística del transporte de piezas. La capacidad de RStudio para manejar datos de manera eficiente y su interfaz amigable han sido factores clave en la realización de este estudio. En conclusión, este proyecto ha permitido demostrar que la incorporación de herramientas avanzadas de análisis de datos como RStudio puede conducir a mejoras significativas en la eficiencia y precisión de los procesos logísticos en el sector del transporte de piezas. La capacidad de identificar y corregir discrepancias, así como de optimizar rutas y procesos, representa un avance importante hacia la modernización y mejora continua de la logística en esta industria. Esta investigación no solo aporta una metodología robusta para la optimización de procesos logísticos mediante el uso de RStudio, sino que también sienta las bases para futuras investigaciones que puedan expandir y aplicar estos hallazgos a otras áreas del transporte y la logística, impulsando así la innovación y eficiencia en el sector.
Cabrera Gomez Elfego, Instituto Tecnológico Superior de Coalcomán
Asesor: Mg. Gabriel Dario Piñeres Espitia, Universidad de la Costa

METODOLOGíA PARA VISUALIZAR EN LA NUBE LOS DATOS OBTENIDOS POR UN SISTEMA DE MONITOREO AGRíCOLA BASADO EN EL SUMIDERO DLOS8


METODOLOGíA PARA VISUALIZAR EN LA NUBE LOS DATOS OBTENIDOS POR UN SISTEMA DE MONITOREO AGRíCOLA BASADO EN EL SUMIDERO DLOS8

Cabrera Gomez Elfego, Instituto Tecnológico Superior de Coalcomán. Pulido Sanchez Edgar, Instituto Tecnológico Superior de Coalcomán. Asesor: Mg. Gabriel Dario Piñeres Espitia, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La agricultura enfrenta el desafío crítico de optimizar la producción y la salud de los cultivos mediante el monitoreo en tiempo real de las condiciones del suelo. La falta de datos precisos sobre temperatura, humedad y conductividad del suelo impide a los agricultores tomar decisiones informadas, lo que puede llevar a un uso ineficiente de recursos como el agua y fertilizantes. Monitorear las condiciones del suelo es crucial para controlar los sistemas de riego y aprovechar mejor el agua, un recurso cada vez más escaso. El riego excesivo o insuficiente no solo desperdicia agua, sino que también puede dañar los cultivos y reducir el rendimiento agrícola. Implementar sistemas de monitoreo avanzados permite ajustar las prácticas de riego según las condiciones reales del suelo, mejorando la eficiencia en el uso del agua y contribuyendo a la sostenibilidad y productividad agrícola.



METODOLOGÍA

Fase 1: Identificar la Arquitectura y Funcionamiento El sistema de monitoreo agrícola consta de: Nodos de Sensores: Capturan datos de temperatura, humedad y conductividad del suelo. Sumidero DLOS8: Recibe datos de los nodos de sensores y los transmite a la nube. TTN (The Things Network): Plataforma para la transmisión y almacenamiento de datos IoT. Herramienta en la Nube: Alternativa a TTN para la visualización y análisis de datos, como Mosquitto con MQTT Explorer. Datacake: Plataforma IoT para la visualización y gestión de datos en tiempo real. Fase 2: Revisión de la Literatura Se realizó una revisión bibliográfica para identificar mejores prácticas y desafíos comunes en el uso del sumidero DLOS8 y herramientas asociadas como Mosquitto, TTN y MQTT Explorer. Se utilizaron bases de datos académicas como Google Scholar, IEEE Xplore, SpringerLink y ScienceDirect. Fase 3: Configuraciones y Requerimientos Configuraciones Iniciales del Sumidero DLOS8: Conexión Física: Conectar el sumidero DLOS8 a la fuente de alimentación y asegurarse de que los sensores estén correctamente conectados. Configuración de Red: Acceder a la interfaz de configuración del DLOS8 y configurar los parámetros de red. Configuración de Protocolo: Seleccionar el protocolo LoRaWAN y configurar los parámetros de comunicación. Integración con TTN: Registrar el dispositivo en la consola de TTN y configurar DevEUI, AppEUI y AppKey en el DLOS8. Configuraciones de la Herramienta TTN: Registro en TTN: Crear una cuenta y acceder a la consola de TTN. Creación de Aplicación: Configurar una nueva aplicación en TTN. Registro del Dispositivo: Añadir un nuevo dispositivo y configurar DevEUI, AppEUI y AppKey. Configuración de Integraciones: Configurar integraciones para enviar datos a Mosquitto con MQTT Explorer. Visualización de Datos: MQTT Broker (Mosquitto): Configurar un broker MQTT utilizando Mosquitto. MQTT Explorer: Utilizar MQTT Explorer para suscribirse a los topics del broker. Dashboards y Gráficos: Crear dashboards personalizados en Datacake para visualizar los datos de temperatura, humedad y conductividad. Uso de Datacake: Registro en Datacake: Registrarse en Datacake.io. Agregar Dispositivo: Agregar y configurar el sumidero DLOS8 en Datacake. Integración con TTN: Configurar una integración HTTP en TTN y ajustar los métodos de autenticación. Creación de Dashboards: Crear dashboards y agregar widgets para visualizar los datos. Monitoreo y Visualización: Configurar alertas y monitorear los datos en tiempo real.


CONCLUSIONES

En resumen, el proyecto ha logrado establecer una metodología robusta y efectiva, permitiendo la integración y visualización de datos críticos para la agricultura moderna y proporcionando una herramienta valiosa para mejorar la toma de decisiones y la productividad en el campo. Se ha proporcionado una guía completa que no solo aborda los desafíos técnicos, sino que también ofrece una solución práctica y escalable para agricultores y profesionales del sector. A través de tres fases, se abordaron aspectos clave del proyecto: la identificación de la arquitectura y el funcionamiento del sistema, la revisión exhaustiva de la literatura para identificar mejores prácticas y desafíos comunes, y la definición y documentación detallada de los pasos para configurar el sumidero DLOS8 y la herramienta en la nube. Esta metodología optimiza el monitoreo en tiempo real de las condiciones agrícolas, mejorando la gestión de recursos y contribuyendo a la sostenibilidad y eficiencia de las operaciones agrícolas, permitiendo la integración y visualización de datos críticos para mejorar la toma de decisiones y la productividad en el campo.
Cabrera Sanchez Jhon Sebastian, Universidad de Investigación y Desarrollo
Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez

ESTUDIO AERODINáMICO DEL PERFIL NACA 0006


ESTUDIO AERODINáMICO DEL PERFIL NACA 0006

Cabrera Sanchez Jhon Sebastian, Universidad de Investigación y Desarrollo. Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Los perfiles aerodinámicos desempeñan un papel fundamental en el diseño y rendimiento de aeronaves, automóviles, veleros y una amplia variedad de estructuras que interactúan con fluidos en movimiento. Estos perfiles, también conocidos como perfiles alares o perfiles NACA (National Advisory Committee for Aeronautics), son formas curvas cuidadosamente diseñadas que permiten generar sustentación y minimizar la resistencia aerodinámica al moverse a través de un fluido, como el aire. En este trabajo de investigación, exploraremos los principios fundamentales del perfil NACA 0006, su importancia en diversas aplicaciones tecnológicas y los factores clave que influyen en su eficiencia y rendimiento. Analizaremos cómo la geometría, el ángulo de ataque, la velocidad del flujo y otros parámetros influyen en las características aerodinámicas de este perfil. A lo largo de este estudio, profundizaremos en la fascinante interacción entre un perfil aerodinámico y el flujo de aire circundante, destacando su relevancia en la ingeniería aeroespacial, la industria automotriz y otras áreas donde la eficiencia aerodinámica es crucial para el rendimiento y la seguridad.



METODOLOGÍA

(Martínez, 2005) implementó el perfil NACA0006 en su diseño preliminar de un vehículo aeronáutico de despegue y aterrizaje vertical debido a las buenas prestaciones de este, se puede observar en la tabla 2.3, que el perfil NACA 0006 tiene la mayor relación CL / CD llamada también fineza aerodinámica del perfil, teniendo la más alta relación empuje - potencia. (Fernández, 2023) usó un perfil aerodinámico en su diseño estructural de un avión B-1 Lancer, este específicamente fue utilizado en el diseño de la cola, insertándolo en el plano horizontal en la parte trasera del fuselaje. Posteriormente, creó un boceto en el plano vertical donde se marca el camino necesario para la operación de barrido utilizada con el objetivo de crear la geometría deseada. Para la realización de la cola vertical utilizó el mismo perfil NACA 0006, aprovechando las mismas prestaciones para deflexiones tanto positivas, como negativas y, por tanto, fue necesario un perfil simétrico para conseguir control sobre la estabilidad.


CONCLUSIONES

0 grados: Dado que el perfil NACA 0006 es simétrico y diseñado para minimizar la resistencia aerodinámica, a cero grados de inclinación se esperaba que el flujo de aire se mantuviera adherido al perfil de forma eficiente, pero debido a la velocidad del extractor se generaron varios remolinos y las líneas de flujo se distorsionaban. 15 grados: Se apreciaron cambios en la distribución del flujo de aire alrededor del perfil. Esto resultó en una mayor separación del flujo y en aparición de más zonas de turbulencia. 30 grados: Este aumento en la inclinación provocó una separación más pronunciada del flujo, la formación de más vórtices y turbulencia presentó un comportamiento aún más complejo. 45 grados: Se apreciaron cambios drásticos en la distribución del flujo de aire alrededor del perfil. Esta alta inclinación puede provocó una separación muy alta del flujo, la formación de vórtices muy fuertes y una turbulencia intensa en general. 60 grados: Debido al alto grado de inclinación la turbulencia era extremadamente intensa, impredecible, con una separación extrema del flujo y efectos adversos severos en la aerodinámica del perfil. 75 grados: La turbulencia presentó un comportamiento extremadamente complejo y desafiante. Se apreciaron cambios drásticos en la distribución del flujo de aire alrededor del perfil. Esta alta inclinación puede provocó una separación extrema del flujo, la formación de vórtices muy fuertes y una turbulencia muy intensa
Cahuich Cruz Wilberth Antony, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Mtro. Héctor Alejandro Galvez López, Universidad de Guadalajara

IOT 4 ALL DASHBOARD


IOT 4 ALL DASHBOARD

Cahuich Cruz Wilberth Antony, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Carrillo Gutierréz Armando Baruc, Universidad Tecnológica de Nayarit. Asesor: Mtro. Héctor Alejandro Galvez López, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad  (2024) nos encontramos ya en la cuarta revolución industrial la cual  ha traído muchos beneficios a la sociedad. Con ella, tuvimos la llegada del Internet de las cosas(IOT), la cual nos ha proporcionado grandes beneficios tecnológicos como pueden ser la recolección masiva de datos y los sistemas automatizados, entre otros.  Sin embargo, una problemática que se presenta en la recolección masiva de datos es que los datos que se recolectan de estos sensores pueden demasiados por lo tanto al tener un cúmulo tan grande de datos se corre el riesgo de obviar lo verdaderamente  importante que es: el análisis e interpretación de los datos Otra problemática es poder enviar los datos para que puedan ser analizados y visualizados. Tener algunos de estos servicios que nos permitan tener conectividad entre nuestros sensores y los servidores puede ser una inversión  costosa, no sólo en términos de servicio, si no en los componentes electrónicos necesarios.  



METODOLOGÍA

Para poder realizar la aplicación, fue necesario entender a fondo el tema y la problemática que se pretendía abordar. Por ello, investigamos diversos artículos científicos, los cuales nos ayudaron a tener una mayor perspectiva del problema y, de esta manera, generar una solución adecuada. Una vez concluida la fase de investigación, comenzamos a crear wireframes y prototipos para la aplicación. Para esta tarea, utilizamos programas como Figma y Miro, que nos permitieron diseñar y visualizar las interfaces de usuario de forma eficiente. La aplicación desarrollada lleva por nombre ClusterHub. Tras la fase de diseño, empezamos con las pruebas de comunicación utilizando el protocolo de MQTT (Message Queuing Telemetry Transport). Para ello, nos apoyamos con el programa Mosquitto, el cual nos facilitó la comprensión de los protocolos de comunicación entre los sensores y otros sistemas. Estas pruebas fueron esenciales para asegurar la correcta transmisión de datos entre los dispositivos y la aplicación. Posteriormente, iniciamos la programación de la aplicación. Para el desarrollo del front-end, utilizamos el framework de React Native, lo que nos permitió crear una interfaz de usuario atractiva y funcional. Por otro lado, para el desarrollo del back-end, empleamos Python, un lenguaje de programación robusto y versátil, adecuado para manejar la lógica de negocio y la comunicación con el servidor. Para el almacenamiento de los datos, optamos por utilizar MySQL como sistema gestor de base de datos, debido a su fiabilidad y capacidad para manejar grandes volúmenes de información de manera eficiente. En resumen, el desarrollo de ClusterHub involucró una cuidadosa investigación inicial, el diseño detallado de wireframes y prototipos, pruebas exhaustivas de comunicación utilizando MQTT y Mosquitto, y la implementación final utilizando tecnologías como React Native para el front-end, Python para el back-end y MySQL para la gestión de la base de datos.  


CONCLUSIONES

Durante esta estancia de verano adquirimos diversos conocimientos de diversos temas, desde el protocolo de comunicación en los sensores hasta mejorar la habilidad de la programación, investigación, redacción, así como el entendimiento acerca de la recolección de datos de los sensores IoT y de igual manera aprendimos sobre el impacto tecnológico que nos ofrece la cuarta revolución industrial. La gran ventaja que nos proporciona el análisis de datos y machine learning.
Cala Girón Ely Andrea, Universidad de Investigación y Desarrollo
Asesor: Dra. María Mercedes Sinisterra Díaz, Universidad Libre

ESTUDIO DEL IMPACTO DE LAS TECNOLOGíAS DE LA INFORMACIóN Y COMUNICACIONES(TIC)EN LOS EMPRENDIMIENTOS DEL SECTOR AGROPECUARIO EN EL DISTRITO ESPECIAL DE BARRANCABERMEJA, COLOMBIA


ESTUDIO DEL IMPACTO DE LAS TECNOLOGíAS DE LA INFORMACIóN Y COMUNICACIONES(TIC)EN LOS EMPRENDIMIENTOS DEL SECTOR AGROPECUARIO EN EL DISTRITO ESPECIAL DE BARRANCABERMEJA, COLOMBIA

Cala Girón Ely Andrea, Universidad de Investigación y Desarrollo. Asesor: Dra. María Mercedes Sinisterra Díaz, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

Las tecnologías de la información y comunicaciones (TIC) a lo largo del tiempo se han ido convirtiendo en herramientas indispensables y potenciadoras como lo dice (Ortega,2023) las TIC representan grandes ventajas para todo tipo de sectores, como la reducción de costos y tiempo en el mundo de los negocios, técnicas de enseñanza en el sector educativo y además aportan mayor comodidad a las personas en su vida diaria. Las TIC ofrecen grandes ventajas para las empresas en todos los sectores y el agropecuario no es la excepción, ya que se ve grandemente beneficiado en temas como productividad y competitividad en el mercado; de igual manera este sector se ha destacado no solo en Colombia si no en todo el mundo debido al desarrollo económico y social que brinda a las naciones. Según el (Ministerio de Agricultura, 2024) informó que el sector agropecuario aporto un 6% al PIB del último trimestre de 2023 en Colombia y obtuvo un crecimiento total de 1.8%, lo que demuestra que este Sector se encuentra en crecimiento, posicionándose cada vez más como una actividad importante para la economía del país y las ciudades. Aunque este sector sea tan importante, no todos los nuevos emprendedores quieren lanzarse y pertenecer a él, ya que según la ( Cámara de comercio de Barrancabermeja, 2023) al finalizar el tercer trimestre de 2023 el distrito cuenta con 8162 empresas, de las cuales solo 134 pertenecen al sector agropecuario lo que representa un 1.6% del total, el mayor número de empresas se ubica en el sector del comercio con un total de 3256 lo que representa un 40% y el sector servicios con 1668 empresas lo que representa un 20.4% del total del distrito. Según los datos suministrados por la cámara de comercio se evidencia que el sector agropecuario es el penúltimo con menor número de empresas después del minero, además según MINTIC,(2023) 17 de cada 100 colombianos tienen conexión fija a internet, en el caso del distrito especial de Barrancabermeja cuenta con áreas rurales aisladas de la zona urbana como el corregimiento el centro, el llanito, la meseta de san Rafael y la fortuna lugares en donde la señal de Internet y las telefonías fijas no son estables, estos corregimientos al ser mayormente rural su principal actividad económica y mano de obra local excluyendo al corregimiento el centro en el que se divide la agricultura y la explotación de petróleo, es dirigida al campo en actividades como la piscicultura, la parte avícola y la apicultura. La cámara de comercio del distrito ( Cámara de comercio de Barrancabermeja,2020) ofrece desde el 2020 programas como el de renace y emprende que va dirigido a un público focalizado específico en el que se incluyen desplazados, tercera edad, población LGBTI , madres cabeza de hogar entre otros, pero no hay programas específicos para emprendimientos rurales lo que hace que estos empresarios al ser en gran porcentaje campesinos dejen sus negocios informales y trabajen con su propio capital, de igual forma es importante conocer si estos negocios o emprendimientos informales cuentan o no con las TIC si lo hacen cuál es el conocimiento que tienen de estas y los beneficios que les pueden aportar, y si no lo hacen si la razón es por la falta de señal de Internet en las áreas rurales o bien ya sea por la falta de recursos económicos que no les permiten costear todo lo que involucra emplearlas diariamente como método de productividad y competitividad; además Barrancabermeja es una ciudad reconocida a nivel nacional por ser de industria petrolera, especialmente refinación y explotación de petróleo por lo que al sector rural no se le brinda tanto apoyo , es por lo cual que se le da gran importancia a investigar sobre los impactos que pueden traer las TIC para estos emprendimientos que aún no la adoptan y no se apropian de sus grandes beneficios . 1.1 formulación del problema ¿Como se puede realizar un estudio del impacto de las Tecnologías de la Información y Comunicaciones (TIC) referente a la productividad y la competitividad de los emprendimientos del sector agropecuario en el Distrito especial de Barrancabermeja ?



METODOLOGÍA

Está Investigación busca Evaluar el impacto de las Tecnologías de la Información y Comunicaciones (TIC) en la productividad y la competitividad de los emprendimientos del sector agropecuario en el Distrito Especial de Barrancabermeja. Para el desarrollo se abordara desde un paradigma Mixto (Hernández-Sampieri & Mendoza(2020) dado que es importante capturar una realidad objetiva y otra subjetiva dentro del ambiente de estos emprendedores que permita conocer a fondo las perspectivas, experiencias y opiniones, además de medir estadísticamente el nivel de apropiación de las Tics en sus negocios para lograr evaluar y concluir sobre su impacto en competitividad y productividad. El método a elegir para la presente investigación será de tipo descriptivo y explicativo, además se fundamenta en un marco teórico, de igual manera será una investigación participante.Las actividades propuestas para dar cumplimiento al desarrollo de la presente investigación han partido inicialmente de establecer el planteamiento del problema, posterior a ello se ha realizado una revisión de bibliografía en relación con el problema planteado y la temática seleccionada, se planteó una hipótesis, se diseñará un instrumento para la recolección de la Información ( cuestionario) y posterior a ello se hará la interpretación y sus respectivas conclusiones. El trabajo de campo se llevará a cabo en la ciudad de Barrancabermeja.


CONCLUSIONES

Se encontró que las TIC ya están siendo implementadas en la mayoría de emprendedores encuestados, pero si se evidencio desafíos y barreras como las siguientes: los altos costos de implementar la tecnología constantemente, la falta de habilidades y conocimientos, el no saber cómo integrar las actividades diarias del campo con la tecnología y la resistencia al cambio, también se dio como resultado que la mayoría de Emprendimientos están utilizando sus redes sociales para vender sus productos o plataformas de comercio, pero no tienen conocimiento en temas como agricultura de precisión, servicios financieros en línea , capacitaciones en línea o incluso sacarle provecho a la telemedicina para animales, aunque la mayoría selecciono que si ha notado un cambio e impacto con utilizar las TIC en su emprendimiento casi todos ellos hablan sobre las ventas y la facilidad para vender lo que evidencia que solo asocian la tecnología a ventas en línea y no a otros servicios también importantes de los que pueden beneficiarse. En cuanto a los emprendedores la mayoría tienen sus emprendimientos en áreas rurales y si cuentan con internet pero solo con celular con datos lo que también evidencia que no tienen los suficientes medios para facilitarles el utilizar programas para optimizar tareas costos o procesos ya que en un celular es mucho más difícil que contar con un computador.
Calderon Alvarez Odhette Sharai, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Angélica María Álzate Ibáñez, Fundación Universidad de América

PROPUESTA DE UN SISTEMA DE REGISTRO DE ASISTENCIA SIMPLIFICADO CON ESP32 Y RFID


PROPUESTA DE UN SISTEMA DE REGISTRO DE ASISTENCIA SIMPLIFICADO CON ESP32 Y RFID

Cabello Valencia Kevin Jesus, Instituto Tecnológico Superior de Apatzingán. Calderon Alvarez Odhette Sharai, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Angélica María Álzate Ibáñez, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

En la era de transformación digital, las empresas se enfrentan al desafío de adaptarse a los cambios tecnológicos para la gestión eficiente de los procesos y la toma de decisiones basadas en datos [1]. Las PYMES enfrentan el desafío de altos costos iniciales y la necesidad de infraestructura adecuada para la implementación de nuevas tecnologías, lo cual puede dificultar su capacidad para adoptar soluciones tecnológicas [2]. Aunque las tecnologías han evolucionado significativamente y existen sistemas avanzados de control de asistencia basados en biometría y reconocimiento facial, estos métodos suelen implicar inversiones significativas y una complejidad técnica que puede resultar abrumadora para las PYMES. La implementación de un sistema de registro de asistencia simplificado utilizando ESP32 y RFID ofrece una solución efectiva y eficaz para estas empresas. En este contexto, el presente trabajo propone el desarrollo de un sistema de registro de asistencia funcional usando el microcontrolador ESP32 como tecnología accesible y de bajo costo para PYMES, que permita abordar los desafíos mencionados y mejorar la precisión en el seguimiento de las horas trabajadas del personal. El ESP32 es un microcontrolador con conectividad inalámbrica incorporada, el cual ha ganado un creciente reconocimiento tanto en el ámbito académico como entre los desarrolladores debido a sus diversas aplicaciones en el Internet de las cosas (IoT) [3].  



METODOLOGÍA

  Revisión de la Literatura El estudio parte de una búsqueda exhaustiva en bases de datos académicas como Scopus para identificar investigaciones previas relacionadas con nuestro enfoque. Esta revisión nos permitió seleccionar tres referentes que se alineaban estrechamente con nuestros objetivos. Los estudios analizados revelaron tendencias comunes en la selección de hardware: Microcontrolador: ESP32 Módulos de identificación: RFID-RC522 o PN532 Componentes auxiliares: sensores de proximidad LED, cámaras compatibles con ESP32, y displays LCD de 16x2 segmentos Aunque no se especificaba, inferimos que estos proyectos utilizan el entorno de desarrollo de Arduino, aprovechando la amplia disponibilidad de ejemplos y códigos en la comunidad en línea.   Selección de Hardware y Software Se utilizó el microcontrolador ESP32 junto con el módulo RFID-RC522 para implementar la lectura de tarjetas y conectividad IoT. En el aspecto de software, se optó por MicroPython como lenguaje de programación y Thonny como IDE, aprovechando su optimización para microcontroladores y facilitando el desarrollo rápido de prototipos. Esta combinación de hardware y software permitió crear un sistema de registro de asistencia robusto y económico, ideal para las necesidades de las PYMES.   Desarrollo del Prototipo Preparación del ESP32: Comenzamos por flashear el ESP32 con el firmware de MicroPython utilizando Thonny. Accedimos a la categoría "Interpreter" en los ajustes de Thonny y seleccionamos "Install or update MicroPython (esptool)", asignamos los valores acorde a nuestro modelo de placa de desarrollo y se flasheó en un minuto aproximadamente.   Conexión del hardware Conectamos el módulo RFID-RC522 al ESP32 siguiendo este esquema: SDA (Serial Data Input/Output) → PIN 5 del ESP32 SCK (Serial Clock) → PIN 18 del ESP32 MOSI (Master Out Slave In) → PIN 23 del ESP32 MISO (Master In Slave Out) → PIN 19 del ESP32 RST (Reset) → PIN RX2 del ESP32 Nota: El módulo RC522 se alimenta con 3.3V directamente del ESP32 durante la fase de experimentación. Para un entorno de producción, se contempla el uso de una fuente de alimentación externa para garantizar un funcionamiento continuo y estable.   Programación del microcontrolador El uso de MicroPython ha permitido emplear librerías que aceleran el desarrollo sobre el ESP32, utilizamos la librería micropython-mfrc522, que contiene la clase y métodos necesarios para leer y escribir información sobre las tarjetas RF, en nuestro caso bastará con leer su valor, ya que si se da la posibilidad de escribir en ellas, puede existir duplicidad de identificadores.


CONCLUSIONES

El sistema de registro de asistencia basado en ESP32 y RFID-RC522 demuestra ser una solución innovadora y eficaz para las PYMES, superando los desafíos de costos y complejidad asociados con sistemas más avanzados. La implementación, facilitada por MicroPython y Thonny, junto con la integración de APIs, resulta en un sistema robusto y flexible que cumple los objetivos de accesibilidad y eficiencia. Este proyecto no solo ofrece una solución inmediata a las necesidades de gestión de asistencia, sino que también establece un precedente para el uso de tecnologías accesibles en la optimización de procesos empresariales. Su potencial de adaptación y mejora continua sugiere un impacto duradero en la forma en que las PYMES abordan la gestión de personal, abriendo camino a futuras innovaciones en este campo. Resultados Precisión en el Registro: Tasa de éxito de lectura de tarjetas: Se obtuvo una tasa de éxito superior al 95% en la lectura de tarjetas RFID, lo cual se pudo validar mediante pruebas repetidas en diferentes condiciones. Costos y Escalabilidad: Utilizando ESP32 y RFID-RC522, se observó una reducción significativa en los costos comparados con sistemas comerciales de registro de asistencia. Se esperaba que el costo total por unidad no excediera los $20 USD, y fue así, fueron cerca de $15 USD. Esto permite escalar y ampliar sus posibilidades manteniendo un costo bajo. Satisfacción del Usuario: Encontramos una aceptación positiva por parte de las personas que probaron nuestro desarrollo. Un detalle a resaltar fue la duda de las personas si era posible personalizar la tarjeta a su placer, cosa que sí es posible, esto aumentó el nivel de satisfacción. Validación del Prototipo: Las pruebas piloto en diversos entornos institucionales (oficinas y escuelas) mostraron que el sistema es viable y efectivo en diferentes contextos, inclusive en lugares donde el internet no es tan cercano.
Calderón García Rodrigo, Universidad Tecnológica de Tecamachalco
Asesor: Dr. Javier Garrido Meléndez, Universidad Veracruzana

OBSERVADORES DE SISTEMAS LINEALES Y NO LINEALES.


OBSERVADORES DE SISTEMAS LINEALES Y NO LINEALES.

Calderón García Rodrigo, Universidad Tecnológica de Tecamachalco. Machorro Serrano Jonathan, Universidad Tecnológica de Tecamachalco. Asesor: Dr. Javier Garrido Meléndez, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

En la actualidad los observadores de control se enfocan en las dificultades y desafíos inherentes a su diseño e implementación en sistemas de control. En muchos sistemas de control, es fundamental conocer todos los estados del sistema para implementar estrategias únicas de control efectivas. Sin embargo, no siempre es posible medir directamente todos los estados debido a limitaciones en los sensores, costos, accesibilidad o restricciones físicas. Los observadores de control se diseñan estimar los estados no medidos a partir de entradas y salidas. La función principal es estimar el estado completo de un sistema, cuando no es posible medir todos los estados directamente, por ejemplo, en motores de corriente continua y en motores de corriente alterna, no es muy práctico medir directamente todas las variables de estado, como las corrientes en las bobinas o la velocidad angular, El observador de estado, puede estimar variables no medibles a partir de la corriente y el voltaje aplicados, posteriormente permite un control más preciso de sistemas. En los sistemas dinámicos, tanto lineales como no lineales, la necesidad de conocer los estados internos del sistema a partir de mediciones limitadas es fundamental para el control de diversos tipos de componentes. Los observadores son códigos o estructuras diseñadas para estimar los estados internos de un sistema basándose en las salidas medidas y el modelo del sistema. Para un sistema que sea tanto lineal o no lineal, los estados internos del sistema no siempre son accesibles directamente mediante mediciones con sensores. Sin embargo, es posible que dispongamos de ciertas salidas (outputs) y entradas (inputs) del sistema. El problema central es diseñar un observador lineal que su función sea la de estimar los estados internos del sistema de manera precisa y confiable en tiempo real para así hacer que nuestro sistema cargue o inicie lo más rápido posible, ya sea en segundos o milisegundos.



METODOLOGÍA

Para diseñar observadores para sistemas lineales y no lineales implica pasos bien definidos que aseguran la capacidad de estimar estados internos a partir de entradas y salidas. En sistemas lineales, el observador y la matriz de observación son herramientas clave. PASO SISTEMAS LINEALES SISTEMAS NO LINEALES Definición Espacio de estados A, B, C, D Funciones f (x, u), h (x, u) Observación Matriz de observación en 0 Criterios de observación Diseño de observador Observador Observadores lineales Implementación Simulación y pruebas Simulación y pruebas Realización Circuito en físico Circuito en físico Se han estado utilizando sistemas básicos principalmente para reconocer y familiarizarse más a fondo con los sistemas lineales, como, por ejemplo: x˙(t)=A x(t)+Bu(t)                                                      y(t)=C x(t)+Du(t) Donde: x(t) es el vector de estados. u(t) es el vector de entradas. y(t) es el vector de salidas. A, B, C, D, son matrices de dimensiones apropiadas que definen la dinámica del sistema. El diseño de observadores para sistemas lineales es un área fundamental en el control de sistemas en aplicaciones que abarcan desde la robótica hasta la ingeniería de procesos. La capacidad de estimar estados internos difíciles de medir de forma física  permite un control más preciso y eficiente, mejorando la seguridad, la estabilidad y el rendimiento de los sistemas dinámicos.    


CONCLUSIONES

Durante la estancia de verano logre adquirir nuevos conocimientos fundamentales sobre la función de los observadores de estado, ya que son importantes para la estimación de estados no medibles directamente en un sistema. Aprender sobre observadores de estado me ayudo a comprender la base sólida en la teoría de control de sistemas, así como habilidades prácticas esenciales para implementar y ajustar estos sistemas en entornos reales. Durante el programa Delfín he logrado adquirir conocimientos teóricos y prácticos de Observadores de sistemas lineales, logré ponerlos en practica para comprobar que lo que nos dicen los libros de observadores como es el libro de Control Moderno de Katzuhiko Ogata. Aprendimos la importancia del uso de observadores en la industria, en el área de control moderno, sin embargo, al ser un tema muy amplió las fases del proyecto se siguen aplicando y ajustando, ya que se espera diseñar un observador que pueda ser más rápido y más preciso, debido al tiempo de la estancia no se pudo llevar a acabo muchas pruebas de otros observadores, pero los resultados obtenidos con el observador lineal cumplen con los objetivos previstos.
Calderón Guzmán Ana Cristina, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

ANáLISIS DE FACTORES QUE INFLUYEN EN LA SATISFACCIóN DEL CLIENTE EN EL SECTOR EMPRESARIAL DE LA REGIóN


ANáLISIS DE FACTORES QUE INFLUYEN EN LA SATISFACCIóN DEL CLIENTE EN EL SECTOR EMPRESARIAL DE LA REGIóN

Calderón Guzmán Ana Cristina, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

 La satisfacción del cliente es una métrica que indica qué tan felices están los consumidores con los productos y servicios de una empresa. La satisfacción del cliente implica que tú, como proveedor de una solución determinada, cubres las necesidades y expectativas de tus clientes. Esto se aplica a cualquier interacción antes y después de la venta, así como durante la misma. Para conocer la satisfacción del cliente, no basta con asumir que un cliente está realmente satisfecho porque se va con una sonrisa en la cara y no se queja de ti en Internet. Algunas personas pueden ser simplemente educadas. Lamentablemente nada asegura que la satisfacción al cliente será para siempre, por eso debes medir la satisfacción del cliente y saber qué piensan tus consumidores. La satisfacción del cliente se origina a partir de una serie de interacciones y percepciones que el cliente tiene con una empresa y sus productos o servicios tomando en cuenta diversos factores como recomendaciones, durabilidad y funcionalidad del producto, facilidad de compra, atención y servicio, relación calidad-precio, implementar cambios, entre otros. Debido a esto los gerentes deben hacer un análisis para visualizar el área en la que están fallando además de generar e implementar una serie de estrategias que sean funcionales para poder aumentar el índice de satisfacción al cliente, generando una mejora efectiva dentro de la organización.



METODOLOGÍA

La metodología empleada en esta investigación fue la siguiente, se escogieron los factores en torno a la calidad, precio, atención, apariencia, entre otros. A partir de esto se indago en distintas fuentes de investigación y dimos con algunas teorías de satisfacción al cliente como lo es la teoría de Noriaki Kano la cual es una metodología para entender y categorizar las preferencias del cliente con respecto a los atributos y características de un producto o servicio. La teoría se centra en cómo los diferentes atributos afectan la satisfacción del cliente y proporciona una manera de priorizar las características del producto o servicio en función de su impacto en la satisfacción del cliente. Por lo que dicha teoría se divide en los siguientes atributos: Atributos de Desempeño Atributos de Encantamiento Atributos Indiferentes De esta manera cada atributo se divide en diversos factores que influyen en la atención al cliente, los cuales se usaron para generar una encuesta que fue aplicada dentro de la región de Tacámbaro, teniendo una población de 210 personas que adquieren artículos de papelería. MUESTREO ESTRATIFICADO PARA UNA MUESTRA DE n=  176 PERSONAS Etratos                             Población           Porcentaje            Total Multipapeleria Tacámbaro  120                   57.14285714         100 Multipapeleria Viña              50                     23.80952381         43 Multipapeleria Cerro Partido 40                    19.04761905         33                                               210                                               176 A partir de esto, se consideró también, el muestreo sin reemplazo para cada estrato, el cual se realizó a través de un software con la función =ALEATORIO() Y =JERARQUIA, posteriormente se creó y se analizaron las diferentes graficas que nos arrojó cada una de las preguntas hasta llegar a una conclusión.


CONCLUSIONES

Conclusiones A partir de lo antes mencionado, se mencionó obtener una conclusión clara y concisa. A través del análisis de los cuestionarios, las personas de la región de Tacámbaro se dejan guiar más por la apariencia y por la relación precio-calidad de un producto ya que la cuestión de la cortesía no les genera tanta un problema al respecto, aunque siempre es importante generar un ambiente agradable para los clientes. Por el momento no se pueden generar estrategias precisas debido a que debemos identificar el área más crítica para profundizar más acerca de la importancia que tiene el mantener a los clientes satisfechos.
Calderón Leyva José de Jesús, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Juan Jose Bedolla Solano, Instituto Tecnológico de Acapulco

PLATAFORMA AUTOMATIZADA PARA LA GESTIóN Y EL FOMENTO DE PROYECTOS ECONóMICOS EN GUERRERO


PLATAFORMA AUTOMATIZADA PARA LA GESTIóN Y EL FOMENTO DE PROYECTOS ECONóMICOS EN GUERRERO

Calderón Leyva José de Jesús, Instituto Tecnológico de Chilpancingo. Navarrete Ambrosio Oswaldo, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Juan Jose Bedolla Solano, Instituto Tecnológico de Acapulco



PLANTEAMIENTO DEL PROBLEMA

En Guerrero, existe una considerable población de emprendedores con potencial y creatividad, pero muchos de ellos desconocen las oportunidades disponibles en diversas plataformas que podrían ayudarles a crecer y expandir sus negocios. Esta falta de información y acceso a recursos limita severamente su capacidad para desarrollarse económicamente y contribuir al bienestar de sus comunidades. El desconocimiento sobre herramientas digitales y plataformas de apoyo impide que los emprendedores aprovechen plenamente los recursos de financiamiento, capacitación y asesoría técnica que podrían impulsar sus proyectos. Además, la dispersión de la información y la falta de una centralización efectiva resultan en una gestión ineficiente y fragmentada de los recursos disponibles, lo que agrava la situación.



METODOLOGÍA

Análisis Documental e Investigativo Se llevó a cabo un análisis comparativo con el objetivo de identificar y analizar plataformas similares que pudieran servir de modelo para expandir el conocimiento sobre emprendimiento entre los emprendedores de Guerrero. Esta investigación implicó un análisis exhaustivo de diversas plataformas existentes en México y en otras partes del mundo, evaluando sus funcionalidades, tecnologías empleadas y el impacto generado en sus respectivas comunidades emprendedoras. Se consultaron fuentes académicas, informes y estudios de caso para obtener una visión detallada y comparativa de cada sistema. Encuestas a Emprendedores Locales Como parte de la metodología, se diseñó y aplicó una encuesta dirigida a 120 emprendedores en Guerrero. El propósito de esta encuesta fue obtener una comprensión profunda de las características demográficas, educativas y sectoriales de los emprendedores locales, así como de sus necesidades y desafíos específicos. Los datos recolectados permitieron identificar las áreas donde se requería mayor apoyo y tomarlas en cuenta a la hora del desarrollo. Desarrollo Tecnológico de la Plataforma Para el desarrollo de la plataforma, se utilizaron tecnologías modernas y eficientes, asegurando una interfaz amigable y una funcionalidad robusta: HTML para la estructura básica de las páginas web. CSS para el diseño y la presentación visual, asegurando una experiencia de usuario atractiva. JavaScript para la interactividad en el lado del cliente, mejorando la usabilidad. PHP para la lógica del sistema en el servidor, facilitando la gestión de datos y procesos. MySQL para la gestión de bases de datos, garantizando un almacenamiento seguro y eficiente de la información. phpMyAdmin para la administración de MySQL, permitiendo una gestión sencilla y efectiva de la base de datos. Resultados Los resultados de la plataforma fueron muy satisfactorios. Se logró centralizar y simplificar el acceso a diversos tipos de apoyo para los emprendedores, desde financiamiento hasta asesoría y recursos formativos. La plataforma facilitó el registro de emprendedores y la gestión de sus proyectos, permitiendo una supervisión más eficiente y un seguimiento continuo de sus avances. Los emprendedores que utilizaron la plataforma reportaron mejoras significativas en la organización y ejecución de sus proyectos. La facilidad de acceso a la información y recursos necesarios redujo el tiempo y esfuerzo requeridos para gestionar sus emprendimientos. Además, la plataforma proporcionó herramientas personalizadas y módulos de ayuda interactiva, aumentando la eficiencia y accesibilidad, independientemente del nivel de experiencia tecnológica de los usuarios. Impacto y Beneficios El impacto de la plataforma en la comunidad emprendedora de Guerrero ha sido notable. Al proporcionar una herramienta centralizada y fácil de usar, se ha fomentado un ambiente de colaboración y apoyo entre los emprendedores.  El impacto del sistema se manifiesta en tres áreas clave: social, al fomentar el emprendimiento y mejorar la calidad de vida en comunidades; ambiental, al apoyar proyectos sostenibles como la agricultura y la pesca; y económico, al fortalecer la economía local y mejorar la eficiencia en la administración gubernamental. 


CONCLUSIONES

La implementación de la plataforma ha demostrado ser una solución efectiva para abordar la problemática de la falta de emprendimientos en la región. A través de una investigación aplicada y un análisis comparativo exhaustivo, se desarrolló una plataforma que no solo centraliza y simplifica el acceso a recursos y apoyo, sino que también empodera a los emprendedores locales mediante la capacitación en el uso de tecnologías digitales. Ha demostrado ser una herramienta valiosa y multifacética que aborda eficazmente los desafíos del emprendimiento en Guerrero. Su impacto positivo en las áreas social, ambiental y económica subraya la importancia de continuar apoyando y expandiendo este tipo de iniciativas para promover el desarrollo integral de la región.
Calderón Martínez Eduardo Josué, Instituto Tecnológico Superior del Sur de Guanajuato
Asesor: Mtro. David Morales Orozco, Instituto Tecnológico Superior del Sur de Guanajuato

PROTOTIPO INICIAL DE REALIDAD AUMENTADA PARA MOSTRAR INFORMACIóN DE COMPONENTES ELECTRóNICOS


PROTOTIPO INICIAL DE REALIDAD AUMENTADA PARA MOSTRAR INFORMACIóN DE COMPONENTES ELECTRóNICOS

Calderón Martínez Eduardo Josué, Instituto Tecnológico Superior del Sur de Guanajuato. Ramírez Guzmán Juan Manuel, Instituto Tecnológico Superior del Sur de Guanajuato. Asesor: Mtro. David Morales Orozco, Instituto Tecnológico Superior del Sur de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Prototipo inicial de realidad aumentada para mostrar información de componentes electrónicos El planteamiento consiste en que nuestro objetivo era hacer una aplicación capas de mostrar los componentes de dispositivos electrónicos o elementos electrónicos mejor dicho, por ejemplo un sensor ultrasonido y una placa esp32 o un arduino en su defecto, al escanear la imagen o el sensor que se tuviera, mostraría un prefabs con un elemento en 3d con todas y cada una de las partes que conforman ese elemento



METODOLOGÍA

En este verano se desarrolló un prototipo de realidad aumentada, para mostrar información de los componentes electrónicos, todo esto se inició sacando información sobre realidad aumentada, después se realizó una capacitación en el uso de Unity para desarrollar una aplicación de realidad aumentada para Android, así como la integración de algunos sensores y controladores como puede ser el ESP32. Con la base de lo anterior, se procedió a desarrollar un prototipo que sea capás de escanear el entorno, en específico componentes eléctricos, como puede ser un sensor ultrasónico o el mismo ESP32, que al momento de escanearlo muestre un prefab con la información del dispositivo electrónico como puede ser sus componentes. Durante el desarrollo de la aplicación se realizaron varias pruebas junto con la redacción del reporte de investigación. Como último, se completó el reporte, se documentaron los procesos y los resultados obtenidos.


CONCLUSIONES

En conclusión almenos de nuestra parte puedo decir que las conclusiones que llegamos de acuerdo a este proyecto fueron que este tipo de tecnologías de realidad aumentada ayudan mucho día a día ya que con tan solo escanear o visualizar el elemento con la cámara del dispositivo que se tenga la aplicación puede agregar y ver los datos elementales que se desean saber de dicha cosa o elemento identificado con la aplicación claro aunque no lea muchos dispositivos la nuestra aún es algo funcional ya que si tuviéramos o nos diéramos a la tarea de perfeccionarse al máximo lograríamos grandes hazañas con la misma desde identificar y mostrar la información del elemento hasta poder agregar un poco de información histórica de lo mismo, por ejemplo podríamos mostrar datos relevantes del elemento o agregar unos consejos al momento que la aplicación note el elemento es decir recomendar las formas de uso del mismo y cosas similares mostrar ejemplos con otro tipos de imágenes y tener la oportunidad de hacer una simulación en resumen llegamos a la conclusión de que la realidad aumentada facilitaría demasiado nuestra realidad simple haciéndola más simple con ayuda de dicha realidad. También posiblemente en la actualidad no se ve mucho la realidad aumentada más que en videojuegos, como ejemplo Pokémon Go, pero en un futuro no muy lejano la podríamos ver para simplificarnos la vida, ya sea para mostrar información, para guiarnos viendo unas líneas invisibles en la pantalla de nuestro celular usando la cámara, mostrando datos curiosos en ciertos lados del mundo como miles de ideas más que se pueden hacer con realidad aumentada.
Calderon Rojas Jesus Manuel, Universidad de Investigación y Desarrollo
Asesor: Dr. Edwin Gerardo Acuña Acuña, Universidad Latinoamericana de Ciencia y Tecnología

OPTIMIZATION OF URBAN MOBILITY WITH IOT AND BIG DATA TECHNOLOGY FOR THE INFORMATION AND KNOWLEDGE SOCIETY IN INDUSTRY 5.0


OPTIMIZATION OF URBAN MOBILITY WITH IOT AND BIG DATA TECHNOLOGY FOR THE INFORMATION AND KNOWLEDGE SOCIETY IN INDUSTRY 5.0

Almanza Ferruzca Ana, Instituto Tecnológico de Querétaro. Calderon Rojas Jesus Manuel, Universidad de Investigación y Desarrollo. Garcia Bayona Maria Fernanda, Universidad de Investigación y Desarrollo. Pérez Soto José Saúl, Universidad Tecnologica de León. Rojo Rojo Camilo Nelson, Instituto Tecnológico de Querétaro. Asesor: Dr. Edwin Gerardo Acuña Acuña, Universidad Latinoamericana de Ciencia y Tecnología



PLANTEAMIENTO DEL PROBLEMA

La optimización de la movilidad urbana en el contexto de ciudades inteligentes enfrenta desafíos significativos, particularmente en la gestión eficiente del tráfico y la reducción de la congestión. Según (Yan & Zhao, 2024) y (Aoki, 2024), el aumento de la urbanización y la creciente prevalencia de problemas de tráfico reflejan una crisis global de movilidad urbana, influenciada por la falta de infraestructura adecuada y la gestión ineficaz del tráfico. (Ku, 2024) y (Jones, 2023) señalan que esta situación ejerce una presión considerable sobre los sistemas urbanos, que a menudo carecen de los recursos y tecnología necesarios para proporcionar una gestión del tráfico adecuada. En este contexto, es esencial adoptar estrategias integrales que aborden de manera preventiva y oportuna los problemas de tráfico en el ámbito urbano, especialmente en ciudades inteligentes (Nikkhah, kahanali, & sharyari, 2023). (van der Meij et al., 2023) indican que los primeros síntomas de problemas de movilidad urbana incluyen congestiones recurrentes y tiempos de viaje impredecibles, que pueden evolucionar a condiciones más severas si no se detectan y tratan a tiempo. (Devianto et al., 2023) y (Samadi, Mirnezami, & Torabi Khargh, 2023) subrayan la importancia de implementar herramientas y métodos innovadores que permitan diagnósticos precisos y oportunos para prevenir la evolución de estos problemas. Para enfrentar este desafío en las ciudades inteligentes, es fundamental contar con herramientas tecnológicas que identifiquen y diferencien entre patrones de tráfico normales y anormales. (Tabash et al., 2023) destacan que el uso de tecnologías para la captura y análisis de datos de tráfico desempeña un papel crucial en la detección y diagnóstico temprano de problemas de congestión. Este enfoque innovador no solo elevaría los estándares en el diagnóstico, sino que también impulsaría intervenciones tempranas y personalizadas, mejorando la eficiencia del sistema de transporte urbano.



METODOLOGÍA

El estudio adoptó un enfoque cuantitativo, poniendo a prueba hipótesis mediante la medición numérica y el análisis estadístico para identificar patrones de tráfico y validar teorías (Ibrahim, 2022). Se desarrolló el objeto de investigación buscando regularidades y relaciones entre los componentes del estudio (Mohan, Paunova, & Lee, 2024). Se incluyó una subcategoría descriptiva para identificar las propiedades y características del fenómeno relacionado con las estrategias principales para evaluar la eficiencia del tráfico en intersecciones críticas dentro de ciudades inteligentes (Zhou, 2024). Asimismo, se añadió una subcategoría exploratoria para modelar detalladamente cada factor relevante en el uso de modelos basados en IA para la evaluación del tráfico (Wang, 2023). La muestra seleccionada consistió en 350 intersecciones críticas en el año 2024, donde se recopilaron datos de tráfico con el consentimiento de las autoridades municipales. El tamaño de la muestra se determinó utilizando el modelo de población finita, con una base de datos conocida de las intersecciones al momento del estudio. Los datos fueron recopilados a través de centros urbanos en América Latina, Norteamérica, Asia y Europa, garantizando una variabilidad geográfica y demográfica, y estableciendo una base sólida para el análisis comparativo y la extrapolación de los resultados (Zhou, Liu, & Li, 2024). 


CONCLUSIONES

El estudio demuestra que los sistemas basados en inteligencia artificial (IA) son capaces de detectar problemas de tráfico en intersecciones críticas con un alto nivel de precisión, evidenciado en los resultados obtenidos. Estos sistemas no solo mejoran la precisión, sensibilidad y especificidad en la clasificación de datos de tráfico, sino que también logran una clara discriminación entre condiciones normales y problemáticas.Los resultados del estudio ofrecerán una hoja de ruta para las partes interesadas, promoviendo una estrategia basada en la toma de decisiones informadas y resaltando el papel de la tecnología en la protección de infraestructuras, datos y personas. Desde una perspectiva teórica, las implicaciones incluyen el desarrollo de investigaciones tanto en el ámbito académico como empresarial. Este estudio abre la puerta a nuevos trabajos que exploren la relación entre diversos problemas de tráfico que afectan la eficiencia operativa de las intersecciones y cómo las tecnologías emergentes pueden contribuir a su detección, prevención y resolución.En conclusión, los sistemas basados en IA ofrecen una herramienta poderosa y eficaz para la evaluación y manejo del tráfico en intersecciones críticas, y su integración en ciudades inteligentes promete mejoras significativas en la calidad de vida y la eficiencia operativa de las generaciones futuras.
Calderón Velásquez Sara, Instituto Tecnológico Metropolitano
Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional

SíNTESIS Y CARACTERIZACIóN DE FOTO CATALIZADORES DE TIO2/ GRAFENO Y TIO2/AG ACTIVOS EN LUZ VISIBLE PARA SU USO EN LA DEGRADACIóN FOTO CATALíTICA SOLAR DE CONTAMINANTES EMERGENTES DE ORIGEN FARMACéUTICO


SíNTESIS Y CARACTERIZACIóN DE FOTO CATALIZADORES DE TIO2/ GRAFENO Y TIO2/AG ACTIVOS EN LUZ VISIBLE PARA SU USO EN LA DEGRADACIóN FOTO CATALíTICA SOLAR DE CONTAMINANTES EMERGENTES DE ORIGEN FARMACéUTICO

Calderón Velásquez Sara, Instituto Tecnológico Metropolitano. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El objetivo del proyecto es Desarrollar y caracterizar fotocatalizadores basados en TiO2 modificados con grafeno y plata para evaluar la eficiencia en la degradación de contaminantes emergentes provenientes de productos farmacéuticos en cuerpos de aguas. Por lo tanto se plantea el planteamiento del problema de la siguiente manera: La presencia persistente de contaminantes emergentes de origen farmacéutico en aguas residuales tratadas representa un desafío significativo para la salud pública y el medio ambiente. Los métodos convencionales de tratamiento de aguas residuales han demostrado ser insuficientes para eliminar completamente estos compuestos, lo que resulta en su continua liberación al ecosistema acuático. Esto plantea riesgos potenciales para la flora y fauna, así como para la salud humana a través de la exposición crónica. En este contexto, surge la necesidad de desarrollar una tecnología que pueda abordar ambos problemas de manera eficiente y sostenible. La fotocatálisis, utilizando materiales avanzados como TiO2 modificado con plata (Ag) y grafeno, activados por luz solar, se presenta como una posible solución. Sin embargo, es crucial determinar la eficacia de estos fotocatalizadores tanto en la degradación de contaminantes farmacéuticos como en la producción simultánea de hidrógeno. El desafío radica en sintetizar y optimizar estos fotocatalizadores para que puedan: Degradar eficientemente una amplia gama de contaminantes farmacéuticos en aguas residuales tratadas. Producir hidrógeno como subproducto valioso del proceso fotocatalítico. Operar de manera eficiente bajo luz solar, minimizando los requerimientos energéticos externos. Demostrar su viabilidad y eficacia en condiciones reales mediante pruebas en un reactor a escala piloto.



METODOLOGÍA

Síntesis y caracterización de fotocatalizadores   Síntesis de fotocatalizador TiO2/Ag   Para el desarrollo experimental del foto catalizador de TiO2/Ag se desarrolla un proceso de DOE (diseño de experimentos) para reconocer las mejores condiciones del fotocatalizador en función de la degradación de los diferentes fármacos, para esto se inicia con un método de coprecipitación y sehará conforme a la metodología descrita:     Diseño experimental con disolución por medio de equipo de ultrasonido en un tiempo de 2:00:00 1. Se disuelven 18.75 g de urea en 100 mL de agua des ionizada. 2. Se agrega 3.08g de TiO2 y 0.04 g de Ag a la solución de agua destilada con urea 3. Se procede a ultrasonificar por medio de equipo de ultrasonido con un parámetro de una frecuencia de 40 KHz y un tiempo de Se filtra y se lava la muestra con agua destilada hasta que el pH del lavado alcance un pH neutro. Se coloca a secar en el horno a una temperatura de 70 °C por aproximadamente 4 horas continuas. Se calcina en mufla a 550 °C por aproximadamente 4 horas Una vez secado se tritura por medio de mortero. 6.3.1 Síntesis de fotocatalizador TiO2/Grafeno Para el desarrollo experimental del foto catalizador de TiO2/Grafeno se desarrolla un proceso de DOE (diseño de experimentos) para reconocer las mejores condiciones del fotocatalizador en función de la degradación de los diferentes fármacos, para esto se inicia con un método de coprecipitación y sehará conforme a la metodología descrita: 6.3.2.1 Diseño experimental con disolución por medio de equipo de ultrasonido en un tiempo de 2:00:00 1. Se dispersa 0.5 g de grafeno en 75 mL de tetrahidrofurano en un matraz de fondo redondo de 100 mL . 2. Se agrega 0.2 g de nanopartículas de TiO2 y Se procede a ultrasonificar por medio de equipo de ultrasonido con un parámetro de una frecuencia de 40 KHz y un tiempo de 1 hora y media 3.  Se filtra y se lava la muestra con tetrahidrofurano hasta que el pH del lavado alcance un pH neutro. 4. Se coloca a secar en el horno a una temperatura de 100 °C por aproximadamente 4 horas continuas. 5. Una vez secado se tritura por medio de mortero.   Por último se procede a comprobar la capacidad fotocatalítica de los fotocatalizadores obtenidos bajo luz solar y se comprueba la eficiencia de degradación por medio de UV-VIS, cromatografía en placa fina y por medio de pruebas de DQO,DBO y COT.


CONCLUSIONES

Entre los resultados obtenidos se obtuvo una comprobancia de degradación por medio de pruebas COT por métodos volumetricos, este logró representar una reducción de aproximadamente un 4% de materia orgánica, este mismo se comprobó por medio de absorbancia en UV-VIS a un rango de absorbancia de 464.2 nm (referencia de absorbancia para el ibuprofeno). Por otra parte se determinaron las muestras por medio de cromatografía en placa fina con el fin de reconocer proceso de degradación para los fármacos con espera de ser corroboradas las dos anteriores pruebas. Por último, se espera comprobar la eficacia de degradación bajo métodos solares gracias a la modificación de los fotocatalizadores y se espera establecer cuál método del diseño experimental logra aportar la mejor eficiencia al fotocatalizador.
Calles Sánchez Diana Carolina, Universidad de Sonora
Asesor: Dr. Erick Eduardo Guzmán Quezada, Universidad Autónoma de Guadalajara

DESARROLLO DE INTERFACES HUMANO COMPUTADORA Y WEARABLES


DESARROLLO DE INTERFACES HUMANO COMPUTADORA Y WEARABLES

Calles Sánchez Diana Carolina, Universidad de Sonora. Dueñas Alvarez Karen, Universidad de Sonora. Asesor: Dr. Erick Eduardo Guzmán Quezada, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Un accidente cerebrovascular (ACV), conocido también como derrame cerebral, se produce cuando el flujo sanguíneo hacia una parte del cerebro se interrumpe o se reduce significativamente, lo que impide que el tejido cerebral reciba oxígeno y nutrientes esenciales, pudiendo llevar a la muerte celular en cuestión de minutos. Las consecuencias de un ACV pueden ser severas y duraderas, incluyendo parálisis (hemiplejía) o debilidad (hemiparesia), que afectan la movilidad y las actividades diarias del paciente. La rehabilitación post-ACV es crucial para recuperar el movimiento, el habla y las habilidades necesarias para la vida diaria, mejorando así la calidad de vida y la independencia del paciente. Entre las terapias más comunes se encuentran la fisioterapia y la Estimulación Eléctrica Funcional (FES).  Este estudio propone utilizar una terapia basada en la neuroplasticidad con el apoyo de un electroencefalograma (EEG) y un exoesqueleto. La neurorehabilitación basada en la neuroplasticidad explota la capacidad del cerebro para reorganizarse y formar nuevas conexiones neuronales, lo cual puede ser más efectivo para la recuperación motora. Las interfaces cerebro-computadora (BCI) permiten la comunicación directa entre el cerebro y una computadora, interpretando la actividad eléctrica cerebral y traduciéndola en comandos para controlar dispositivos. En este proyecto, las BCI se aplican a la rehabilitación motora de pacientes con parálisis en las extremidades superiores causadas por un ACV. Los pacientes entrenan con una BCI realizando movimientos o simulando mentalmente dichos movimientos, facilitados por un exoesqueleto.



METODOLOGÍA

Participantes: Se reclutaron 40 voluntarios sanos y sin experiencia previa en BCI, con edades entre 18 y 29 años, para participar en el estudio en el Laboratorio de Dispositivos Médicos de la Universidad Autónoma de Guadalajara. Todos los participantes firmaron un consentimiento informado. EEG: Se utilizó un gorro EEG inalámbrico de 32 canales (FLEX 2 Saline) de EMOTIV con 34 electrodos para registrar la actividad cerebral. Los electrodos se colocaron según el sistema internacional 10/20. Los datos se procesaron mediante la interfaz de programación Cortex de Emotiv, usando software para sincronizar los electrodos y verificar la detección de señales. EMG: Se emplearon señales de electromiografía (EMG) para corroborar el inicio de los Potenciales Corticales Relacionados con el Movimiento (MRCP). El sistema EMG, diseñado por el laboratorio, incluía amplificación y filtrado según estándares de Arduino UNO. Protocolo de Registro: Los registros se realizaron en un entorno controlado para minimizar interferencias. Los participantes, después de prepararse adecuadamente, realizaron movimientos de cerrar la mano siguiendo una interfaz en pantalla desarrollada en Python. El experimento duró entre 45 y 50 minutos, con 5 series de 10 movimientos. Procesamiento de Datos: Los datos de EEG y EMG se guardaron en archivos Excel y se filtraron para minimizar el ruido. Se aplicaron filtros CAR y antilaplacianos, y se utilizó un filtro pasa bandas Butterworth de 0.1 a 1 Hz. Se extrajeron características de los datos de EEG en Python usando 9 electrodos, y los datos fueron organizados para análisis con inteligencia artificial (IA). Los modelos de IA evaluados incluyeron Support Vector Machine (SVM), Naive Bayes (NB), Decision Trees (DT), k-nearest neighbors (KNN), y Random Forest (RF). Se realizó una cross-validation para determinar el modelo más preciso.


CONCLUSIONES

Las interfaces cerebro-computadora (BCI) ofrecen numerosas aplicaciones, entre las cuales destaca su capacidad para mejorar la calidad de vida de personas que, debido a un accidente cerebrovascular, han perdido la movilidad. El uso de BCI en la rehabilitación motora permite a estos pacientes recuperar la movilidad de manera más rápida y mejorar su independencia. Estas interfaces permiten controlar dispositivos externos como un exoesqueleto, detectando y codificando la actividad cerebral cuando el usuario intenta realizar un movimiento.  Durante la realización de los registros, se planteó una hipótesis sobre si la fatiga tras múltiples repeticiones del movimiento podría afectar la precisión de la inteligencia artificial. Para investigar esto, se analizaron los 50 trials de 5 sujetos en dos grupos, los primeros 25 y los últimos 25, posteriormente se procesaron los datos según el método mencionado anteriormente y obtuvimos el acurracy utilizando dos inteligencias artificiales, con el fin de identificar posibles diferencias indicativas de fatiga. Dicha investigación será enviada al Congreso Nacional de Ingeniería Biomédica de la SOMIB.
Caloca Hernández Miryam Lizette, Universidad de Guadalajara
Asesor: Dr. Gilberto Osorio Gómez, Universidad EAFIT

LIFE CYCLE ASSESSMENT OF A SOLAR BRICK


LIFE CYCLE ASSESSMENT OF A SOLAR BRICK

Caloca Hernández Miryam Lizette, Universidad de Guadalajara. Salceda Cervantes Cynthia Lizette, Universidad de Guadalajara. Asesor: Dr. Gilberto Osorio Gómez, Universidad EAFIT



PLANTEAMIENTO DEL PROBLEMA

La universidad de EAFIT se encuentra desarrollando un ladrillo fotovoltaico el cual se orienta verticalmente en muros y fachadas de edificaciones que no soportan cargas estructurales. Para dicho producto se presenta un Análisis de Ciclo de Vida que se enfocó en analizar los elementos principales que conforman el ladrillo fotovoltaico, analizando su impacto ambiental en conjunto, y considerando su propósito como producto sostenible, con la meta de justificar su proceso de manufactura, y viabilidad de uso a gran escala, en un entorno real para de esta forma tener en cuenta consideraciones a la hora de realizar la manufactura de sus componentes como por ejemplo la producción de su cubierta mediante impresión en PLA o por medio de estrusión en PVC.



METODOLOGÍA

Para el Análisis de Ciclo de Vida se utilizaron las metodologías de LCA ReCiPe Midpoint y ReCiPe Endpoint con apoyo del Software OpenLCA y bases de datos de acceso libre. Se tomaron en consideración las 4 fases que un LCA requiere, desde la deficinión del alcance y objetivos del sistema (ladrillo solar), la realización y análisis de su inventario pertinente, su evaluación de impacto ambiental y la interpretación de resultados.


CONCLUSIONES

Mediante el estudio realizado y teniendo en cuenta las restricciones y límites del sistema especificadas en el trabajo, se determinó, ante la comparativa y para cada una de las tres categorías de impacto ambiental (tanto en la metodología Midpoint como Endpoint), que la manufactura de la cubierta genera menor impacto ambiental si se realiza en extrusión de PVC que mediante impresión 3D en PLA. Basado en los resultados cuantificables considerando un solo ladrillo solar y específicamente hablando de la metodología Midpoint, se conoce que para la extrusión de PVC se tiene un impacto respecto al cambio climático de 16.26 kg CO₂ eq contra 56.923 kg CO₂ eq para la impresión 3D en PLA. Asimismo, hay una comparativa de 0.026 kg PM₁₀ eq contra 0.067 kg PM₁₀ eq respectivamente para la categoría de formación de material particulado, y una diferencia de 0.001 kg 1,4-DB eq entre la impresión en PLA y la extrusión en PVC. Para el caso de la metodología Endpoint, se conocen los cambios porcentuales para cada una de las categorías. La categoría de cambio climático presenta un mayor impacto, con un 246.15% de la impresión en PLA respecto a la manufactura con PVC, así como un 61.11% más perjudicial en la categoría de formación de material particulado y un 16.67% mayor en la categoría de ecotoxicidad terrestre. Cabe destacar que, aunque se demostró mayor material particulado en la impresión 3D, se sabe que dichas partículas suelen no ser nocivas para la salud debido a su composición característica de un biomaterial. Asimismo, mediante los resultados obtenidos, se concluye que es necesario acceder a bases de datos especializadas en cada proceso de manufactura y extracción de materia prima para realizar un Análisis de Ciclo de Vida más completo y exacto.
Calva Santiago Brandon, Universidad Politécnica de Tecámac
Asesor: Mtra. Ana Angelica Sánchez Sanchez Villegas, Universidad Politécnica de Tecámac

SCHOLAR ODYSSEY


SCHOLAR ODYSSEY

Angeles Gonzalez Irving Alejandro, Universidad Politécnica de Tecámac. Calva Santiago Brandon, Universidad Politécnica de Tecámac. Choreño Cuevas Angel Issac, Universidad Politécnica de Tecámac. Asesor: Mtra. Ana Angelica Sánchez Sanchez Villegas, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

La enseñanza de redes informáticas en entornos educativos enfrenta múltiples desafíos que dificultan el proceso de aprendizaje efectivo. Entre estos desafíos se encuentran la falta de recursos interactivos que faciliten la comprensión de conceptos complejos, la dificultad para mantener el interés y la motivación de los estudiantes, y la necesidad de adaptar los contenidos educativos a diferentes niveles de conocimiento y estilos de aprendizaje. Los métodos tradicionales de enseñanza a menudo no logran involucrar a los estudiantes de manera efectiva, lo que resulta en una retención de conocimientos insuficiente y en una comprensión superficial de los temas tratados.



METODOLOGÍA

La investigación se llevó a cabo mediante un enfoque mixto, combinando análisis cualitativo y cuantitativo en donde se realizaron investigaciones sobre el uso de software educativo enfocadas a la programación, lo cual  integrara una implementación del desarrollo de habilidades,  para permitir al alumno y al docente aprender de una manera continua y eficiente, mediante actividades lúdicas, didácticas, lo cual permitirá obtener resultados positivos en el uso de estas estrategias de enseñanza-aprendizaje, permitiendo a ambas partes el planteamiento de problemáticas, un razonamiento analógico que les permita solucionar problemas, por medio del uso de juegos.  Para el desarrollo de Scholar Odyssey, se adoptó un modelo iterativo, que permite una constante evaluación y mejora del software educativo. Este modelo se divide en las siguientes fases: 1.Análisis de necesidades: •Recolección de datos: Se realizaron encuestas y entrevistas con estudiantes de la universidad politécnica de Tecámac que están adscritos a la carrera de ingeniería en software para identificar las principales dificultades y necesidades en el proceso de enseñanza-aprendizaje. Se recogieron datos cualitativos y cuantitativos para entender mejor los desafíos específicos que enfrentan. •Definición de requerimientos: Basado en los datos recolectados, se definieron los requerimientos funcionales y no funcionales del software, especificando las características que debía incluir para abordar los problemas identificados Requerimientos Funcionales RF1.Registro de nuevos usuarios (estudiantes y profesores). RF2.Inicio de sesión y autenticación segura. RF3.Presentación de contenidos teóricos sobre redes informáticas, organizados por niveles de dificultad (básico, intermedio, avanzado). RF.4Actividades interactivas y ejercicios prácticos para aplicar los conocimientos adquiridos. RF5.Creación de cuestionarios y evaluaciones con diferentes tipos de preguntas (selección múltiple, verdadero/falso.). RF6.Evaluación automática de las respuestas. RF7.Registro y visualización del progreso y desempeño de los estudiantes. Requerimientos No Funcionales RNF1.La aplicación debe ser capaz de manejar múltiples usuarios simultáneamente sin degradación significativa del rendimiento. RNF2.Tiempo de respuesta de la interfaz de usuario debe ser inferior a 2 segundos. RNF3.El sistema debe ser capaz de escalar para soportar un aumento en la cantidad de usuarios y datos sin necesidad de rediseño significativo. RNF4.La arquitectura debe permitir la fácil adición de nuevos módulos y funcionalidades. RNF5.Los datos de los usuarios deben estar protegidos mediante mecanismos de seguridad hash. RNF6.Implementación de autenticación y autorización seguras para el acceso a los datos y funcionalidades. RNF7.La interfaz de usuario debe ser intuitiva y fácil de usar. RNF8.Diseño responsivo que asegure el correcto funcionamiento en diferentes dispositivos (móviles, tabletas, computadoras). 2.Diseño: •Arquitectura del sistema: Se diseñó la arquitectura general del sistema, definiendo los componentes principales y su interacción. Esto incluyó la selección de tecnologías como Flutter para el desarrollo de la interfaz de usuario y Firebase para la gestión de datos. Diseño de interfaz de usuario: Se desarrollaron diseños de alta fidelidad de la interfaz de usuario, asegurando que fueran intuitivos y accesibles. Se consideraron principios de diseño centrado en el usuario para mejorar la experiencia de uso. Desarrollo: Desarrollo de módulos básicos: Se inició el desarrollo de los módulos básicos de la aplicación, incluyendo las funcionalidades esenciales para el aprendizaje de redes informáticas. Esto incluyó la creación de actividades interactivas y cuestionarios. Pruebas unitarias: Se realizaron pruebas unitarias de cada componente desarrollado para asegurar su correcto funcionamiento. Estas pruebas ayudaron a identificar y corregir errores tempranamente en el proceso de desarrollo.


CONCLUSIONES

Durante el periodo de verano del programa delfín, podemos decir que se ha logrado adquirir conocimientos sobre la forma de enseñanza-aprendizaje a través del software educativo, el cual se tomó en base las estrategias de aprendizajes y metodologías a través de actividades lúdicas que permitirán el desarrollo cognitivo y eficaz lo que permitirá a los estudiantes aprender de manera autónoma para desarrollar conocimientos y habilidades en necesidad de  sus asignaturas. En base a las encuestas realizadas a estudiantes de la ingeniería en software con el fin de recolectar datos sobre sus percepciones y experiencias con el software educativo con las cuales se recopilo lo siguiente: * Se encontró que el 42% de los estudiantes utilizan su dispositivo móvil con más frecuencia para estudiar. * Además de acuerdo con la opinión de los estudiantes consideran que la materia que más se puede ver beneficiada con una aplicación educativa es "Redes" * Con los datos obtenidos mediante las encuestas se decide desarrollar una aplicación móvil que permita el estudio de temas relacionados con el área de diseño de redes, implementando el modelo de desarrollo de software iterativo permitiendo dar paso a mejoras continuas, para proporcionar un mayor porcentaje de satisfacción y eficacia ante el aprendizaje que brinda la aplicación.
Calvo Velazquez Francisco Javier, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Dr. Lina Maria Chica Osorio, Universidad de Medellín

MUCíLAGO DE NOPAL COMO ADITIVO EN PASTAS DE CEMENTO


MUCíLAGO DE NOPAL COMO ADITIVO EN PASTAS DE CEMENTO

Apolonio Estrada Daniela, Universidad Tecnológica de Zinacantepec. Calvo Velazquez Francisco Javier, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Dr. Lina Maria Chica Osorio, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

Actualmente, la industria de la construcción enfrenta desafíos relacionados con la sostenibilidad y la durabilidad de los materiales. En este contexto, el uso de aditivos naturales se ha convertido en una estrategia innovadora para mejorar las propiedades de las pastas de cemento, siendo el mucílago de nopal uno de los aditivos emergentes. Estudios recientes (Pacheco-Torgal et al. 2014; Álvarez-Bernal, et. al 2018; Gallegos-Villela et al. 2021; Flores-Alamo et al. 2020) han demostrado que el mucílago de nopal puede mejorar significativamente la trabajabilidad, resistencia a compresión y durabilidad de las pastas de cemento, además de reducir la permeabilidad. En este estudio se presentan los resultados experimentales de la adición de mucílago de nopal a pastas de cemento convencionales  



METODOLOGÍA

Se evaluaron diferentes técnicas mecánicas para la extracción del mucílago, y el producto fue caracterizado químicamente empleando FTIR. Luego, a partir de una pasta estándar de cemento con fluidez y consistencia normal se adicionó mucílago de nopal al 1% wt para evaluar su efecto en términos de tiempo de fraguado y la resistencia a compresión en diferentes edades.


CONCLUSIONES

La incorporación del mucílago de nopal en pastas de cemento no solo ofrece mejoras técnicas, sino que también promueve prácticas de construcción más ecológicas. Esta innovación representa un paso significativo hacia la creación de materiales de construcción más duraderos y sostenibles, alineándose con los objetivos globales de reducción de emisiones y conservación de recursos naturales.
Camacho Chiñas Hannia Sheccid, Universidad Veracruzana
Asesor: Mg. Pablo Andrés Cubides Guerrero, Universidad Católica de Colombia

TRATAMIENTOS DEL AGUA


TRATAMIENTOS DEL AGUA

Camacho Chiñas Hannia Sheccid, Universidad Veracruzana. Hernández Gracia Reyna Esmeralda, Universidad Veracruzana. Asesor: Mg. Pablo Andrés Cubides Guerrero, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

En medio de una crisis mundial del agua, la capital colombiana, Bogotá, está implementando racionamientos de agua cada diez días debido a la sequía que afecta a los embalses que abastecen de agua a la ciudad y a sus municipios aledaños. Esta medida, aunque necesaria para conservar el recurso, ha generado dificultades en la vida diaria de los ciudadanos, especialmente en zonas como Chapinero y Teusaquillo. Por otro lado, en México, la escasez de agua no solo impacta a la población, sino que también limita actividades económicas como la agricultura, la ganadería y la industria, además de tener consecuencias negativas en el medio ambiente. La composición de las aguas residuales domésticas comprende entre un 55% y un 75% de aguas grises. Esto significa que una gran parte del agua que se utiliza en los hogares se desaprovecha. Por lo anterior, es importante buscar soluciones innovadoras y sostenibles para la reutilización y aprovechamiento de las aguas grises. Esto puede ser una estrategia prometedora para conservar recursos hídricos y mitigar el impacto de la escasez de agua. En este estudio, se propone la implementación de un humedal basado en un sistema natural para tratar y reutilizar el agua proveniente de lavadoras, con el fin de evaluar la eficacia del humedal en la reducción de contaminantes y su vialidad para reutilizarse en diversos fines domésticos, como llenar el inodoro, lavar patios y trapeadores, y regar plantas. Este enfoque no solo busca contribuir a la sostenibilidad ambiental de la ciudad, sino también ofrecer una solución práctica y eficiente para enfrentar la crisis hídrica actual.



METODOLOGÍA

Se empleó un humedal artificial modular, proporcionado por la Universidad Católica, diseñado para el tratamiento de aguas residuales. Este sistema constaba de seis etapas secuenciales, cada una con características específicas: PRIMERA ETAPA: Compuesta por un lecho de arena y grava de diferentes tamaños (1 pulgada, mayor a pulgada y 1.75 pulgadas), colonizado por lirios acuáticos, esta etapa se encargó de la retención de partículas de mayor tamaño y la eliminación de nutrientes a través de procesos biológicos. SEGUNDA ETAPA: Sedimentador, tiene un espacio donde se deposita el agua jabonosa a través de un tubo pvc al aire libre, además, esta etapa se divide en dos, en la primera división se aprecian antracita, gravilla mona y piedras de río grandes, luego se encuentra el separador para atrapar partículas o basura que se haya colado, del otro lado del separador pasa el agua a la siguiente etapa. TERCERA ETAPA: Caracterizada por la presencia de piedras de río de tamaño medio (1.25 y 1.5 pulgadas) y la planta Sansevieria trifasciata, esta etapa contribuyó a la eliminación de nutrientes y contaminantes orgánicos a través de procesos biológicos. CUARTA ETAPA:Está dividido en 3 partes, la primera es la entrada en donde se observan 4 tubos pvc agujereados, para la segunda sub etapa, esta sección incluía un lecho de grava y arena, colonizado por papiro enano y bambú, y un lecho de piedras de río de gran tamaño (1 pulgada y 1.75 pulgadas). Estas sub-etapas promovieron la remoción de nutrientes y la estabilización de la materia orgánica; en la tercera división es la salida de las capas, y aquí también se encuentran 4 tubos pvc agujereados. QUINTA ETAPA: Similar a la primera etapa, esta sección finalizó el proceso de tratamiento, reteniendo las últimas partículas en suspensión y proporcionando un acabado estético al sistema. Contiene arena, piedras grandes y medianas (de una pulgada, mayores a una pulgada y ¾ de pulgada) y en la parte superior se aprecian los lirios. SEXTA ETAPA: Cuenta con una capa de piedras de río, aquí es el almacenamiento del agua ya tratada. Se realizaron las siguientes pruebas con nuestra agua problema: 1. TEST DE JARRAS A CONCENTRACIÓN 0.1 DE LOS REACTIVOS. 2. TEST DE JARRAS A CONCENTRACIÓN 0.5 DE LOS REACTIVOS. 3. TEST DE JARRAS PARA ENCONTRAR DOSIS ÓPTIMA DE POLICLORURO DE ALUMINIO. 4. TRATAMIENTO SIN COAGULANTES Y DIRECTO AL HUMEDAL. 5. TEST DE JARRAS A CONCENTRACIÓN 0.5 + HUMEDAL  


CONCLUSIONES

Respecto a los resultados obtenidos de las pruebas de jarras se obtuvo que el Policloruro de aluminio es el coagulante que mejor actuó ante nuestra agua problema. En la segunda prueba de jarras se ocupó una dosis de coagulante del 0.5 lo que nos dio una reducción de turbidez del 80% y una remoción de color del 86%. Por lo anterior, se buscó la dosis optima de este coagulante, siendo una dosis de 0.8 la que mejor resultados tuvo. El humedal por sí solo actúo de manera extraordinaria contra nuestra agua problema, dando resultados de reducción de turbidez del 99.23% y remoción de color de 98.49%. Lo anterior, fue resultado de dejar el agua circular en el humedal 4 días, se llevó el monitoreo diario del humedal y según los resultados desde el primer día el humedal mejoraba la calidad del agua. Cabe destacar que después del sexto y séptimo día hay un desmejoramiento en la calidad del agua por lo que es importante utilizar el agua a partir del cuarto y quinto día. El éxito del humedal está en la recirculación constante del agua por las diferentes etapas del humedal, y las plantas que lo conforman. Al realizar coagulación como pretratamiento para posteriormente verterlo al humedal da una mejora en la calidad del agua más rápido que el humedal por sí solo, al segundo día ya se tenía resultados de reducción de turbidez de 99.81% y remoción de color de 100.08%, aunque al mejorar más rápidamente la calidad del agua la desmejora de esta también se acelera, en este caso fue al cuarto y quinto día. Si bien el sistema que mejor tuvo resultados fue el Test de Jarras con Humedal, el uso por sí solo del humedal tiene excelentes resultados, los resultados no varían en gran medida de un sistema al otro por lo que se puede hacer uso solamente del humedal, y de esta manera se economiza y se convierte en una manera sustentable de tratar el agua de lavadora, pues no se están usando elementos químicos, sino que todo el proceso de tratamiento es natural, lo que presenta un menor impacto ambiental.  
Camacho Piña Susana Eloísa, Universidad de Sonora
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

DESARROLLO Y CARACTERIZACIóN DE MATERIALES COMPUESTOS DE PLA, ALMIDóN Y ACEITE (NUEZ Y SEMILLA DE CALABAZA) PARA APLICACIONES EN LA INDUSTRIA DE LA CONSTRUCCIóN.


DESARROLLO Y CARACTERIZACIóN DE MATERIALES COMPUESTOS DE PLA, ALMIDóN Y ACEITE (NUEZ Y SEMILLA DE CALABAZA) PARA APLICACIONES EN LA INDUSTRIA DE LA CONSTRUCCIóN.

Camacho Piña Susana Eloísa, Universidad de Sonora. Kantun Poot Jazmin Isabel, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La industria de la construcción está en una búsqueda constante de materiales innovadores que sean sostenibles, económicos y con buenas propiedades mecánicas y térmicas. Los materiales compuestos permiten ajustar sus propiedades para diversas aplicaciones, y los biopolímeros, como el ácido poliláctico (PLA), son de interés por su biodegradabilidad y menor impacto ambiental. Sin embargo, el PLA tiene limitaciones como fragilidad y baja resistencia al impacto. Se investiga mejorar estas características combinándolo con otros biopolímeros y aditivos naturales, como el almidón y aceites (de nuez y semilla de calabaza), para mejorar su flexibilidad y propiedades térmicas. La efectividad de estos materiales compuestos depende de la correcta proporción y dispersión de los componentes; es necesario desarrollar y caracterizar estos nuevos materiales para determinar su viabilidad y sus posibles aplicaciones en la industria.



METODOLOGÍA

Primero, se obtuvieron semillas de calabaza y nueces caducas, no aptas para el consumo ni la venta en la industria alimentaria. Utilizando una prensa de aceite de tornillo, se procedió a extraer el aceite de las semillas. La máquina se precalentó y, tras unos minutos, se introdujeron pequeñas cantidades de semillas. La prensa separaba el residuo por un conducto y el aceite por otro. Se utilizaron 351.5427 g de semillas de calabaza y 618.2539 g de nueces, obteniendo 200 ml de aceite de semilla de calabaza y 360 ml de aceite de nuez. Los aceites extraídos se almacenaron en frascos de vidrio y se dejaron reposar durante 4 días para permitir la decantación y la separación de impurezas. Después del reposo, los aceites se filtraron manualmente utilizando filtros de café, resultando en aproximadamente 140 ml de aceite de semilla de calabaza y 250 ml de aceite de nuez. Con los aceites obtenidos, se prepararon mezclas con las siguientes proporciones: 78% PLA, 15% de almidón y 7% de aceite de calabaza, repitiendo la misma proporción con el aceite de nuez. Utilizando una báscula, se midieron las cantidades precisas de cada componente. Tanto el PLA como el almidón se colocaron en un horno de secado a 70°C para eliminar la humedad y evitar la formación de burbujas en el proceso posterior. Una vez secos, los componentes se mezclaron en un molino de café, debido a las pequeñas cantidades involucradas. Esto evitó la pérdida significativa de material que podría ocurrir en una licuadora o mezcladora de mayor tamaño. El molino se utilizó en su máxima potencia para obtener una mezcla más homogénea. Para procesar la mezcla en forma de filamentos, se utilizó una máquina extrusora de plástico. La máquina se precalentó y, una vez alcanzada la temperatura requerida, que fue desde los 100°C hasta los 160°C a una velocidad de 120 rpm se introduce el polvo de manera constante y controlando la salida del filamento para evitar una disminución en el diámetro de la extrusión. Una vez obtenidos los filamentos, se trituraron manualmente y luego se pasaron por una licuadora para obtener trozos más pequeños (pellets). Posteriormente, se utilizó una prensa térmica hidráulica para formar las placas de PLA, almidón y aceite. La prensa se calentó a una temperatura de 160°C. En una base cuadrada de acero endurecido, se colocó una lámina de teflón y un molde con dimensiones de 12x12 cm, en el cual se depositaron los trozos de la mezcla triturada. Se añadió otra lámina de teflón encima y se cubrió con otra base de acero endurecido. El conjunto se situó entre los bloques de la prensa, que se cerró aplicando una presión inicial de 90 kgf/cm² durante 5 minutos para calentar el material. Posteriormente, se aumentó la presión a 210 kgf/cm² durante 7 minutos adicionales. Finalmente, se abrió la prensa y se dejó enfriar a 40°C antes de desmoldar las placas. Después de formar las placas, se procedió a cortarlas con una cortadora láser para lograr mayor precisión. Sin embargo, fue necesario esperar al menos 24 horas antes de realizar este paso para que el material se curara completamente y alcanzara su resistencia y estabilidad máximas. Las placas se cortan en formas específicas según las pruebas a las que se someterán. En este caso, se consideró realizar pruebas de tensión, por lo que las placas se cortaron en la forma de una probeta de tensión. De cada placa, se obtuvieron 6 probetas. Para realizar las pruebas de tensión, se utilizó una máquina de pruebas universales Instron. Las probetas se colocaron una a una en la máquina, de manera vertical y sujetas por sus extremos. En el sistema computarizado de la máquina se introdujeron los valores promedio del espesor y ancho de cada una de las probetas, además de la longitud previamente medida con un micrómetro digital. También se configuró la fuerza y velocidad de aplicación de la tensión, que en este caso fue de 1 kN a una velocidad de 1 mm/min.


CONCLUSIONES

El objetivo de esta investigación fue evaluar las propiedades potenciales de un material compuesto a partir de PLA, almidón y aceites de nuez y calabaza, con vistas a su aplicación en la industria de la construcción, específicamente en la fabricación de paneles constructivos. Durante el periodo de estancia de verano Delfin, se adquirió un conocimiento tanto teórico como práctico sobre la fabricación y caracterización de materiales compuestos. Se lograron crear muestras del material en cuestión, y se llevaron a cabo pruebas de tensión utilizando una máquina de pruebas universales Instron. No obstante, aunque los resultados obtenidos proporcionan una visión preliminar sobre las propiedades mecánicas del material, no son suficientes para concluir su viabilidad como recubrimiento o capa estructural en paneles de construcción. Las pruebas realizadas han revelado aspectos importantes, pero es necesario llevar a cabo pruebas adicionales, como ensayos de deformación y de impacto, para obtener una evaluación completa de su resistencia, durabilidad y comportamiento bajo diferentes condiciones de carga.
Campos Blas Jhovana, Instituto Tecnológico de Morelia
Asesor: Dr. Enrique Martínez Franco, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

ANáLISIS MICROESTRUCTURAL DE UN MATERIAL COMPUESTO BASE NI REFORZADO CON AL2O3, MEDIANTE DEPOSICIóN LMD A DIFERENTES PORCENTAJES DE AL2O3, PARA EL SECTOR AEROESPACIAL Y AERONáUTICO.


ANáLISIS MICROESTRUCTURAL DE UN MATERIAL COMPUESTO BASE NI REFORZADO CON AL2O3, MEDIANTE DEPOSICIóN LMD A DIFERENTES PORCENTAJES DE AL2O3, PARA EL SECTOR AEROESPACIAL Y AERONáUTICO.

Campos Blas Jhovana, Instituto Tecnológico de Morelia. Asesor: Dr. Enrique Martínez Franco, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En el sector aeroespacial y aeronáutico, la demanda de materiales con propiedades mecánicas superiores, alta resistencia a la corrosión, alta resistencia al desgaste y estabilidad térmica es crítica. Los materiales compuestos base níquel (Ni) reforzados con Alumina (Al₂O₃) han mostrado un gran potencial en satisfacer estas necesidades. La técnica de deposición por láser (Laser Metal Deposition, LMD) se utiliza para fabricar estos compuestos, ya que permite un control preciso sobre la composición. Sin embargo, existe una falta de comprensión sobre cómo varían las propiedades mecánicas del material compuesto al modificar los porcentajes de Al₂O₃ durante el proceso de deposición. Es fundamental comprender estos efectos para optimizar el rendimiento del material en aplicaciones aeroespaciales y aeronáuticas.



METODOLOGÍA

Se eligieron 12 muestras, las cuales tenían diferente porcentaje de composición y diferentes números de capas como recubrimiento. El recubrimiento y/o depósito se realizó mediante el proceso LMD. Al tener este número de piezas seleccionadas, se procedió a realizar cortes en sección transversal y longitudinal, tomando en cuenta también la parte superior, es decir, la parte del recubrimiento. Con esto, se obtuvieron tres secciones de cada muestra para analizar. Los cortes se llevaron a cabo en un equipo de cortadora METACUT 302, utilizando un refrigerante para evitar el sobrecalentamiento de las piezas durante el corte debido a la fricción generada. Una vez cortadas las piezas, se procedió a montarlas en baquelita con ayuda del equipo OPAL X-press. El montaje de las piezas facilita su manejo, simplificando el trabajo manual. El proceso de montaje de cada pieza duró 7 minutos, tiempo necesario para fundir la baquelita y compactar todo el material. Con las piezas montadas en la baquelita, se inició el desbaste utilizando lijas de diferentes granulometrías (180, 240, 320, 600, 1200 y 2500). El tiempo de desbaste fue relativo, ya que algunas muestras requirieron más tiempo que otras. El desbaste se realizó tanto manualmente como de forma semi-manual, utilizando el equipo SAPHIR 250 A2-ECO. Cuando las piezas estuvieron en un 80% de su acabado final, se llevaron a una pulidora Struers LaboSystem. En esta etapa se utilizó un paño fino, pasta de diamante, alcohol y una velocidad relativa de 350 rpm, durante aproximadamente 40 minutos por pieza. Esto permitió obtener un acabado espejo sin rayas ni defectos en la muestra. Posteriormente, las piezas se atacaron con un reactivo llamado Kalling al 2%, durante 1 minuto y 15 segundos. Al terminar, se limpiaron con agua y alcohol, y se secaron con aire comprimido para evitar un ataque prolongado del reactivo. Una vez listas para ser observadas y analizadas a escalas profundas, las muestras se llevaron a un microscopio electrónico de barrido (SEM) equipado con EDS. En esta etapa se observaron las microestructuras del material y su composición química. Se examinó la distribución de las partículas de alúmina (Al₂O₃) y se determinó cuánto del porcentaje de Al₂O₃ añadido a las muestras se mantuvo y cómo se distribuyó. Finalmente, se realizaron pruebas de microdureza (con 15 indentaciones por muestra) en el equipo Anton Paar RST3, con el fin de comparar las durezas obtenidas con la composición del material.


CONCLUSIONES

Toda la parte de la caracterización del material, desde su corte, nos llevo al análisis microestructural, por lo cual fue fundamental realizar un buen trabajo desde el inicio. El análisis microestructural de los materiales compuestos base Ni reforzados con Al₂O₃ mediante deposición LMD reveló que el porcentaje de Al₂O₃ tiene un impacto significativo en la microestructura y propiedades mecánicas del material.  Estos hallazgos son esenciales para el desarrollo y optimización de materiales compuestos avanzados para aplicaciones críticas en la industria aeroespacial y aeronáutica, donde se requieren materiales con alta resistencia, durabilidad y estabilidad térmica.
Campos Diaz Luis Esteban, Instituto Tecnológico de Culiacán
Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara

CONTROL AUTOMáTICO DE UN SISTEMA ELECTROMECáNICO, CON ORIENTACIóN A DISEñO MECáNICO Y FABRICACIóN FDM


CONTROL AUTOMáTICO DE UN SISTEMA ELECTROMECáNICO, CON ORIENTACIóN A DISEñO MECáNICO Y FABRICACIóN FDM

Campos Diaz Luis Esteban, Instituto Tecnológico de Culiacán. Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El campo, presenta una gran importancia para la subsistencia humana, ya que este genera una gran parte de la producción de alimento. Este posee problemas con plagas que acaban con hectáreas de cosecha, de manera parcial o total. Actualmente, se utilizan soluciones químicas (herbicidas, insecticidas, etc.) para controlarlas. Sin embargo, tales productos poseen efectos secundarios, tanto en el suelo como en el consumidor final poniendo en riesgo la salud. Por otro lado, existen alternativas que,  usan elementos biológicos, es decir, organismos para el control de plagas. El biocontrol es un agente biológico depredador del organismo plaga evitando así los efectos indeseables de los compuestos químicos. Sin embargo, la aplicación de dichos controles biológicos se realiza habitualmente de manera manual, lo que no es eficiente, razón por la cual resulta necesario un medio optimo que permita una liberación eficiente. En el proyecto, se diseñó un liberador de biocontrol, el cual mantiene en un estado de hibernación al biocontrol a baja temperatura para su almacenamiento, hasta que llega el momento de liberarlo sobre un área infestada, es aquí donde se eleva la temperatura dentro del liberador para sacarlo del estado de hibernación y posterior su liberación.



METODOLOGÍA

El laboratorio posee dos impresoras 3D como medio de fabricación; una Prusa MK2S y una Creality CR-10 S5. Dichas impresoras son esenciales para la manufactura de los diseños CAD del proyecto. Inicialmente se realiza una inspección visual de los equipos, para determinar su estado y posibles problemas mecánicos visibles. Además, se realizan pruebas físicas con los equipos, para detectar fallas de cualquier tipo (eléctricas, software o mecánicas). A partir de esto se determina si es que requieren mantenimiento solo preventivo o reajuste y reconstrucción. En dado caso, que se presenten problemas mecánicos, puede resultar necesario ordenar repuestos para reemplazar las partes necesarias. Posteriormente, se determina si es que los equipos requieren o se benefician del cambio (o actualización) de su sistema operativo (firmware). Si es que resulta optimo, se procede a configurar dicho sistema, para que su configuración sea compatible con las impresoras 3D presentes. En adición, se reemplazan los mecanismos de control, por alternativas que presentan mejores características, esto se presenta mayormente en los sistemas de control de temperatura y extrusión. Posterior al cambio de sistema, es necesario nuevamente calibrar diversos sistemas afectados por variables físicas inherentes a cada impresora 3D, en esencia aplicar compensaciones, para obtener la mejor calidad a la hora de imprimir piezas. Una vez que los equipos se encuentran preparados, se procede a proveer asesorías sobre condiciones optimas de su uso, además del manejo y almacenamiento del material que utilizan (filamento). También se imparten lecturas sobre el uso y configuración del software que convierte los modelos de diseño CAD en instrucciones compatibles con los equipos de impresión, además de optimización de variables que afectan su comportamiento durante la impresión. Además, se proporcionan lecciones de técnicas de diseño en CAD enfocadas hacia manufactura 3D por medio de Modelado por Deposición de Filamento o FDM (impresión 3D por filamento). Para optimizar los diseños CAD, en base a los equipos presentes. En cuanto al diseño del prototipo del liberador de biocontrol, es necesario dar una inspección tanto a los diseños CAD ya presentes (si es que se tienen) como a o los prototipos físicos ya fabricados. A continuación de esto, se realiza una investigación sobre las características que ha de presentar el prototipo para su funcionamiento optimo en el campo y que este cumpla con las necesidades de los usuarios objetivo. A esto le procede el diseño en CAD del prototipo, con sus respectivas revisiones. Cuando los modelos CAD cumplan con las características necesarias, se procede a la fabricación física (impresión) de los mismos. Una vez finalizado esto, se da una inspección exhaustiva de las propiedades de las piezas físicas, buscando características indeseables generadas durante su fabricación, es de ahí que se proveen revisiones a los modelos o mantenimiento a los equipos de impresión. Finalmente, se realizan pruebas en un entorno controlado en el laboratorio, en caso de que estas sean satisfactorias, se procede a realizar pruebas de campo. Se analizan los resultados de las pruebas, en búsqueda de errores o posibles mejoras aplicables a los modelos CAD, en dado caso, se realizan revisiones a dichos modelos y nuevamente se realizan los procesos de fabricación y testeo de las piezas.


CONCLUSIONES

Se actualizaron y configuraron los sistemas operativos de los equipos de impresión. Ambos equipos presentaron problemas en sus sistemas de extrusión, de los cuales, fueron reemplazadas sus piezas, en específico, la Prusa MK2S requirió reensamble completo de su sistema de extrusión. La Creality CR-10 S5 poseyó problemas en su cama de impresión, ya que esta no resulto sencilla de recalibrar, además que su temperatura difería en 20°C de su valor real. En cuanto a diseño, se rediseñó casi completamente (aproximadamente en 90%) el liberador de biocontrol, ya que su diseño original presentaba características no óptimas para su fabricación, además de presentar irregularidades en cuanto a la selección de los sistemas mecánicos internos (sistema de mezclado, enfriamiento y liberación). Además, se optimizo el diseño con enfoque en facilidad de manejo y reposición de piezas (obtención de repuestos) por parte del usuario (granjeros o personas pertenecientes al campo). Durante la estancia se adquirieron conocimientos teóricos sobre; el uso de biocontroles para el control de plagas; sistemas de liberación masiva; programación de sistemas de control PID en base a datos arbitrarios; diseños de agitadores para diversos medios o sustancias (en base a su densidad); diseño de productos para usuarios pertenecientes a zonas rurales aledañas al campo. Se espera que el liberador de biocontrol entre a fase de pruebas de campo en el futuro cercano.
Campos Gutiérrez Sarahí, Instituto Tecnológico de Puebla
Asesor: Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla

CONTROL INTELIGENTE DE RIEGO PARA AGRICULTURA PROTEGIDA


CONTROL INTELIGENTE DE RIEGO PARA AGRICULTURA PROTEGIDA

Campos Gutiérrez Sarahí, Instituto Tecnológico de Puebla. Asesor: Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El agua es uno de los recursos indispensables para el planeta, pues gracias a ella podemos producir alimentos. Por ello es importante hacer uso del agua de manera responsable. El consumo del agua en México, al igual que en la mayor parte del mundo, se divide en uso personal, de industria, y de agricultura. A nivel mundial, la industria utiliza 22%, contra 8% del consumo personal, y 70% de la agricultura, según datos de la ONU (2018). La agricultura y ganadería son los sectores que más agua utilizan y los que más se desperdicia. Según la Conagua (2018), 57% del total utilizado se desperdicia principalmente por infraestructuras de riego ineficiente que se encuentra en mal estado, es obsoleta o tiene fugas. La superficie irrigada es de 6.3 millones de hectáreas. Las pérdidas por infiltración y evaporación son de más del 60% del agua que se almacena para uso agrícola. Según la Secretaría de Agricultura y Desarrollo Rural (2023), el riego tecnificado agrícola es una opción para un uso más preciso, ya que permite proporcionar la cantidad de agua necesaria en el momento y lugar adecuado. Además, la tecnificación de riego aporta también otros beneficios como: incremento en la producción, uso del agua en el lugar correcto, ahorro de recursos, mantener la estructura del suelo, prevenir la erosión y ayuda a reducir la cantidad de agua utilizada. A lo largo del tiempo se han desarrollado sistemas de control de riego inteligente, sin embargo, la principal problemática de estos sistemas es que la precisión del sistema depende de la calidad de los componentes, lo que hace que la instalación sea cara.



METODOLOGÍA

Para este proyecto se utilizaron materiales reciclados y componentes electrónicos de bajo costo. Para el prototipo se utilizó una botella de plástico, una mini bomba de agua, una tarjeta de programación y un sensor de humedad de bajo costo. Ya que el sensor utilizado daba las lecturas con muy poca precisión, se llevó a cabo la calibración en laboratorio con ayuda de un sensor más preciso. Una vez que el sensor fue calibrado, se implementó un prototipo y se comenzaron las pruebas y mediciones El sistema se controló a través de una tarjeta de desarrollo (Arduino). Se programó la lectura de humedad del suelo y el algoritmo de control de humedad con base en la humedad necesaria, el tiempo de activación de la bomba y el tiempo de reacción del sensor, para ajustar los parámetros de riego de manera automática. El sensor medirá la humedad de manera continua, por lo que la bomba se activará siempre que el suelo lo necesite y así continuará el ciclo.


CONCLUSIONES

Durante esta investigación se logró adquirir conocimientos teóricos sobre el comportamiento del agua a través de diferentes tipos de suelo y se pusieron en práctica para crear un prototipo que aprovechará esta información y que ayudará a programar un control de riego inteligente. Se espera que el prototipo sea de ayuda reduciendo el consumo de agua al usarla de manera eficiente en diferentes tipos de suelo y cultivos, particularmente en agricultura protegida.
Campos Mejía Jorge Eduardo, Instituto Politécnico Nacional
Asesor: Dr. Erick Axel Padilla García, Universidad Politécnica de Atlacomulco

DISEñO DE DISPOSITIVO ELECTROMECáNICO DE EXTRACCIóN DE AGUAMIEL: ENFOQUE MULTIDISCIPLINARIO PARA ATENDER NECESIDADES AGRO PRODUCTIVAS


DISEñO DE DISPOSITIVO ELECTROMECáNICO DE EXTRACCIóN DE AGUAMIEL: ENFOQUE MULTIDISCIPLINARIO PARA ATENDER NECESIDADES AGRO PRODUCTIVAS

Campos Mejía Jorge Eduardo, Instituto Politécnico Nacional. Asesor: Dr. Erick Axel Padilla García, Universidad Politécnica de Atlacomulco



PLANTEAMIENTO DEL PROBLEMA

En México, al igual que en muchas otras naciones, la agricultura está predominantemente constituida por explotaciones a pequeña escala. Sin embargo, la mayoría de las innovaciones y desarrollos tecnológicos a nivel mundial están diseñados para satisfacer las necesidades de grandes corporaciones, dejando a menudo fuera del panorama a las medianas y pequeñas empresas agrícolas. Este desajuste genera una serie de desafíos significativos para el sector primario. El sector enfrenta problemas como el estancamiento tecnológico, donde la adopción de nuevas tecnologías es lenta o inexistente, lo que impide a los agricultores pequeños y medianos mejorar su productividad y eficiencia. Además, la población dedicada a la agricultura está envejeciendo, y hay un bajo reemplazo generacional, lo que significa que menos jóvenes están interesados en continuar con la tradición agrícola familiar. Esto no solo pone en riesgo la continuidad de la producción, sino también la preservación de conocimientos y prácticas agrícolas ancestrales. Asimismo, se observa una pérdida de genotipos y formas de producción tradicionales, lo que reduce la diversidad biológica y cultural en el sector agrícola. Las condiciones de comercialización también son desfavorables para los pequeños y medianos productores, quienes a menudo enfrentan dificultades para acceder a mercados más amplios y obtener precios justos por sus productos. Finalmente, la falta de capacidades para adaptarse a las nuevas demandas del mercado impide a estos agricultores competir eficazmente y aprovechar nuevas oportunidades de negocio.



METODOLOGÍA

Este avance tecnológico se desarrolló siguiendo un enfoque secuencial. En primer lugar, se identificaron las necesidades agroproductivas en un contexto de usabilidad, es decir, se consideraron cómo los usuarios finales interactuarían con el sistema y qué requerimientos específicos tenían. Una vez que estas necesidades fueron claramente definidas, se procedió de manera paralela con el diseño de las diversas áreas de ingeniería que conforman el sistema físico. Esto incluyó el diseño mecánico, eléctrico y electrónico, asegurándose de que cada componente fuera compatible y pudiera integrarse sin problemas en la etapa final. Una vez completados estos diseños individuales, se integraron en un sistema unificado. Para garantizar que esta integración fuera efectiva, se utilizaron herramientas computacionales y de programación que permitieron simular y ajustar el funcionamiento del sistema completo. Esto incluyó pruebas y ajustes en entornos virtuales como Proteus antes de pasar a la implementación física. Esta metodología, basada en el proceso de diseño del Dr. Axel Padilla, es una estrategia comúnmente utilizada en la integración de sistemas mecatrónicos. Este enfoque garantiza que cada componente del sistema sea desarrollado con un alto grado de precisión y que la integración final sea lo más eficiente y funcional posible. Al seguir este proceso, se logra un desarrollo tecnológico robusto y bien coordinado, capaz de satisfacer las complejas demandas de las aplicaciones agroproductivas modernas.


CONCLUSIONES

Durante la estancia de verano, se logró reforzar tanto los conocimientos teóricos como prácticos en el diseño de sistemas mecatrónicos. Aunque se avanzó en la fabricación de un prototipo funcional, no se pudo completar la fabricación final del mismo. Sin embargo, las simulaciones y pruebas piloto del prototipo arrojaron buenos resultados, y se espera que, con algunas mejoras menores, se pueda disponer de un prototipo funcional en un futuro cercano.
Campos Policarpo Larrith Jahel, Universidad Tecnológica de Tecamachalco
Asesor: Mtra. Constantina Gómez Garcia, Universidad Tecnológica de Huejotzingo

MEJORA DE PROCESOS Y PRODUCTO UTILIZANDO EL CICLO DMAIC DE SIX SIGMA


MEJORA DE PROCESOS Y PRODUCTO UTILIZANDO EL CICLO DMAIC DE SIX SIGMA

Campos Policarpo Larrith Jahel, Universidad Tecnológica de Tecamachalco. Asesor: Mtra. Constantina Gómez Garcia, Universidad Tecnológica de Huejotzingo



PLANTEAMIENTO DEL PROBLEMA

• Declaración del problema Se presenta un estudio del prototipo original del proceso BISON, con el objetivo de identificar y mejorar los elementos críticos de calidad (CTQ, por sus siglas en inglés) que afectan su desempeño. Los CTQ seleccionados son: tiempo de ensamble, peso, humedad y rediseño de piezas. • Objetivo del proyecto El objetivo principal es obtener modelos matemáticos para cada uno de los CTQ's, con el fin de alcanzar niveles competitivos en el mercado. • Metas 1. Tiempo de ensamble: Reducir el tiempo de ensamble del prototipo original de 67.74 minutos a una meta especificada. 2. Peso: Ajustar el peso del prototipo para que sea competitivo. 3. Humedad: Controlar la humedad del material utilizado. 4. Rediseño de piezas: Mejorar el diseño de las piezas para optimizar el ensamblaje y el rendimiento.



METODOLOGÍA

METODOLOGÍA La metodología utilizada en el documento es DMAIC, que es una herramienta estructurada de mejora de procesos. DMAIC es un acrónimo que representa las cinco fases de esta metodología: Definir, Medir, Analizar, Mejorar, y Controlar. A continuación, se detallan estas fases según el contenido del documento: Metodología DMAIC 1. Definir (Define)  Proyecto seleccionado: Proceso de mejora del prototipo BISON. o Líder del proyecto: Mtra. Constantina Gómez Garcia Larrith Jahel Campos Policarpo. Institución: Universidad Tecnológica de Huejotzingo. CTQ’s seleccionados: Tiempo de ensamble, peso, humedad, rediseño de piezas Objetivo: Obtener modelos matemáticos para mejorar los CTQ's a niveles competitivos. 2. Medir (Measure) Mapa del proceso: Elaborado. Definición de CTS’s y CTQ’s: Realizada. Instrumentos de medición: Seleccionados y calibrados. Plan de recolección de datos: Establecido para cada CTQ. Datos recolectados: ▪ Tiempos de ensamble del prototipo original. ▪ Peso del prototipo original. ▪ Datos de humedad del material (descargados de BD CONAGUA). ▪ Plantilla con dimensiones del prototipo original. 3. Analizar (Analyze) Estudios de estadística descriptiva: Realizados para cada CTQ. o Descripción de problemas prácticos del proceso: Identificados. Diagramas de Ishikawa: Construidos para relacionar las variables del proceso (x’s) con cada CTQ. Estudios de correlación y regresión: Realizados para analizar la relación entre las variables y los CTQ. Estudios ANOVA: Realizados para identificar las variiables significativas que afectan a cada CTQ. 4. Mejorar (Improve) Selección de variables (x’s): Identificadas las que afectan a cada CTQ utilizando el valor P. Diseño de Experimentos Factorial Fraccionado 2k-1: Realizado con 16 corridas (Decodificado). Modelo Matemático Reducido y Decodificado: Desarrollado. Soluciones: Formuladas tanto matemáticas como prácticas. Estandarización: De las soluciones prácticas implementadas. 5. Controlar (Control) Estandarización de la solución práctica: Implementada para asegurar la sostenibilidad de las mejoras. Celebración: Felicitaciones al equipo de trabajo por el éxito del proyecto.


CONCLUSIONES

CONCLUSIONES Durante el desarrollo del proyecto DMAIC para la mejora del prototipo BISON, se han alcanzado importantes avances en la identificación y análisis de los factores críticos para la calidad (CTQ's). Estos logros demuestran un enfoque meticuloso y sistemático en la mejora del prototipo BISON, que no solo apunta a cumplir con los estándares de calidad competitivos, sino también a superar las expectativas del mercado. La estandarización de las soluciones prácticas y la celebración de los logros del equipo subrayan el compromiso con la mejora continua y la excelencia operativa.
Campos Sanchez Jaqueline Monserrat, Instituto Tecnológico de Morelia
Asesor: Dr. Gerardo Antonio Rosas Trejo, Universidad Michoacana de San Nicolás de Hidalgo

SÍNTESIS DE NANOESTRUCTURAS DE ÓXIDO DE HIERRO MEDIANTE MICROONDAS Y SU USO EN LA REMOCIÓN DE METALES PESADOS


SÍNTESIS DE NANOESTRUCTURAS DE ÓXIDO DE HIERRO MEDIANTE MICROONDAS Y SU USO EN LA REMOCIÓN DE METALES PESADOS

Campos Sanchez Jaqueline Monserrat, Instituto Tecnológico de Morelia. Asesor: Dr. Gerardo Antonio Rosas Trejo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La investigación y aplicaciones de la química asistida por microondas (MW) representan un enfoque emergente de la química verde, basado en la manipulación de la materia a nivel atómico y molecular. El calentamiento por microondas se considera una forma más eficiente de controlar el calentamiento en muchos procesos, requiriendo menos energía que los métodos convencionales.



METODOLOGÍA

Se realizaron diferentes síntesis de óxido de hierro utilizando microondas, explorando la influencia de la concentración de FeCl₃ y la adición de puntos cuánticos. Inicialmente, se prepararon soluciones de FeCl₃ a concentraciones de 20 mM, 15 mM, 10 mM, 5 mM y 1 mM, combinadas con monoetilenglicol, hidróxido de sodio y oleilamina. Estas soluciones se sometieron a ciclos de calentamiento en microondas durante 6 minutos, seguidos de centrifugado y recuperación del precipitado. Posteriormente, se sintetizaron puntos cuánticos mediante un proceso hidrotermal utilizando polvo de Tamarix gallica.


CONCLUSIONES

Los resultados que se obtuvieron fueron a una mayor concentración de precursores en la solución proporciona más material para el crecimiento de las partículas, resultando en estructuras más grandes. La espectroscopía UV-Vis de las muestras sintetizadas a concentraciones de 10 mM, 5 mM y 1 mM mostró la presencia de plasmones. EDS (Espectroscopía de dispersión de energía) En las muestras de 10 mM, se detectaron C, O y Fe. En las de 15 mM, además de C, O y Fe, se observó Cl, posiblemente debido a restos de FeCl₃ no reaccionado. En las muestras de 20 mM, además de C, O y Fe.
Canche Monje Jose Rafael, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Mg. Andrea Fernanda Burbano Bustos, Corporación Universitaria del Caribe

PERCEPCIóN REMOTA PARA ESTUDIAR CAMBIOS EN LAS CIéNAGAS O ZONAS DE HUMEDALES.


PERCEPCIóN REMOTA PARA ESTUDIAR CAMBIOS EN LAS CIéNAGAS O ZONAS DE HUMEDALES.

Canche Monje Jose Rafael, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Mg. Andrea Fernanda Burbano Bustos, Corporación Universitaria del Caribe



PLANTEAMIENTO DEL PROBLEMA

El objetivo del estudio, consiste en realizar una revisión bibliométrica sobre la temática percepción remota para estudiar cambios en las ciénagas o zonas de humedales.  Para ello se utilizan bases de datos internacionales. Entre los principales resultados están la identificación de autores, cooperaciones, entidades patrocinadoras, países con mayor número de publicaciones, entre otros. Con ello definir futuras líneas de investigación.



METODOLOGÍA

Metodología:  Fase 1 Contextualización Indagar en las bases de datos Scopus, PubMed e IEEE con la finalidad de obtener resultados congruentes a las siguientes palabras clave: Humedales con teledetección, Humedales con herramientas,  Inteligencia artificial,  Imágenes satelitales y entre otros. Se eligieron la base de datos Scopus y Pubmed por su amplio reconocimiento y alcance. Fase 2 Búsqueda de información Se emplean operadores lógicos con diferentes permutaciones para lograr un cribado específico en los resultados; es decir, al realizar la búsqueda de la siguiente forma wetland AND areas OR swamps, AND PUBYEAR > 2018 AND PUBYEAR < 2025 donde usan varios operadores booleanos como lo es AND y el  OR para obtener relaciones, también hay que considerar los operadores de comparación tales como > y < que son los autores de restringir la búsqueda hacia un rango específico de años.  La búsqueda se realiza a nivel internacional condicionada sólo a artículos de instituciones u organizaciones científicas y luego sólo con origen en los países del continente Americano. Así mismo, se estableció un rango de tiempo de tiempo de cinco años comprendidos entre el 2019 al 2024 para la búsqueda, esto con el fin de delimitar y considerar sólo la información más reciente hasta el momento. Fase 3 Obtención y tratamiento de resultados Con las ecuaciones de búsqueda especificadas en la fase 2, se  recopila información en las tres bases de datos.  La información obtenida en Scopus fue exportada para llevarla al software bibliometrix, en el cual  se usa como insumo para la obtención de gráficas, imágenes, nubes de palabras, mapas y clusters; los cuales facilitan la interpretación de los resultados para su correspondiente análisis de acuerdo al objetivo propuesto. Entre los resultados de las ecuaciones de búsqueda destacan artículos científicos y secciones de libros. Las palabras clave que se utilizaron para la selección del material analizado fueron: percepción remota, ciénagas,  zonas de humedales, IA mientras que las variables e indicadores de estudio fueron: Cantidad de artículos por año. Autoría: calculado sobre el número de autores totales, sin tener en cuenta la posible repetición de autores en distintos trabajos. Distribución geográfica de procedencia de los artículos. Número de veces que ha sido citado un artículo. Índice de participación de las instituciones nacionales e internacionales. Fase 4 Análisis de resultados La visualización gráfica de los resultados, facilita su análisis y permite observar la cantidad de autores que han investigado sobre el tema en el periodo especificado, identificar las palabras con más frecuencia en los documentos publicados, saber cuales son los países que se han preocupado en la investigación de estos fenómenos naturales, saber cuales son las fuentes de divulgación científica que han contribuido los últimos cinco años y determinar el número de publicaciones de cada uno, entre otros aspectos.


CONCLUSIONES

De varias búsquedas realizadas con  las bases de datos (Scopus, Pubmed e IEEE) los resultados obtenidos son representativos. El desarrollo de esta revisión, permitió al autor conocer la  potencialidad  la hora de trabajar grandes cantidades de información que tiene el uso herramientas como Bibliometrix y Vozwiewer; ayudando en el análisis de datos cuantitativos con sus representaciones gráficas. Entre los resultados de la revisión, se obtuvo un total de 8.617 documentos a nivel mundial y 647 documentos en América en la ventana de tiempo entre los años 2018 al 2024 y los años con mayor número de publicaciones usando las palabras clave Imágenes satelitales, Zonas costeras, calidad del agua; están comprendidos en el período entre el año 2020 y el 2021 En los años 2020 y 2023 se destacó por números de publicaciones en la revista de biología tropical, mientras que en los años 2022 y 2024 se destaca la revista Water Switzerland. Las áreas en las cuales la búsqueda realizada indica que hay mayor número de publicaciones son: agricultura y ambiente.  Considerando la importancias de los humedales, los países con mayor producción sobre ciénagas o humedales son United States, México, Argentina, Colombia, Chile y Brasil.
Candelero Juarez Jesús Adrian, Instituto Tecnológico Superior de Las Choapas
Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato

ANáLISIS Y VALIDACIóN DE DESEMPEñO MECáNICO DE LA CONFIABILIDAD DE UNA LíNEA DE TRANSMISIóN MEDIANTE PRUEBAS DE SIMULACIóN CON SOFTWARE ANSYS


ANáLISIS Y VALIDACIóN DE DESEMPEñO MECáNICO DE LA CONFIABILIDAD DE UNA LíNEA DE TRANSMISIóN MEDIANTE PRUEBAS DE SIMULACIóN CON SOFTWARE ANSYS

Candelero Juarez Jesús Adrian, Instituto Tecnológico Superior de Las Choapas. González Casango Eliud, Instituto Tecnológico Superior de Las Choapas. Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Los herrajes de una línea de transmisión están expuestos a diferentes condiciones ambientales, como humedad, cambios extremos de temperatura y esfuerzos mecánicos constantes. Al paso del tiempo estos factores provocan el deterioro y la corrosión de los materiales, lo que trae como consecuencia a una deficiencia del rendimiento mecánico y la fiabilidad de las líneas de transmisión. El objetivo del análisis es que tan confiable puede ser el herraje en una línea de transmisión a base de pruebas mecánicas, como analizar los principales causantes de corrosión y deterioro en los diferentes tipos de materiales del herraje (acero galvanizado, aluminio).



METODOLOGÍA

1. Definición de los objetivos de la prueba: determinar los requerimientos de desempeño (carga máxima, durabilidad, resistencia a la corrosión). 2. Selección de muestras: Seleccionar una muestra aleatoria de un conjunto de herrajes. 3. Inspección visual y dimensional: Realizar una inspección visual para encontrar defectos como grietas deformaciones, corrosión. 4. Pruebas de carga estática: Ejecutar prueba de carga máxima hasta que ocurra la falla. Hacer prueba de resistencia a la tensión y aplicar carga hasta el punto de ruptura. Realizar prueba deresistencia a la compresión, similar a la prueba de tensión. 5. Pruebas de carga dinámica: Desarrollar la prueba de fatiga donde se someta al herraje a ciclos de carga. Hacer prueba de impacto donde se evalúa la resistencia a golpes y vibraciones. 6. Pruebas ambientales: Se ejecutará la prueba de corrosión donde el herraje será expuesto a niebla, salinidad, humedad. La prueba de temperatura someterá al herraje a temperaturas extremas para analizar su comportamiento. 7. Registro y análisis de datos: Registrar los datos obtenidos durante las pruebas, después analizar los resultados para decidir si los herrajes son aptos de acuerdo a las especificaciones. 8. Informe de resultados: Realizar un informe detallado que contenga metodología, resultados, y conclusiones 9. Revisión: Examinar los resultados con expertos para comprobar las conclusiones.


CONCLUSIONES

Los herrajes probados cumplieron con los requisitos mínimos de resistencia a la tensión, el herraje de anclaje de grillete mostro la mayor tensión. Estos resultados indican que los herrajes de acero tienen una alta resistencia para soportar cargas extremas, lo que las hace eficientes para ´puntos críticos en la infraestructura de transmisión. Los herrajes de acero las fallas fueron ocasionadas a la fractura de alta tensión. Para aplicaciones que necesiten alta resistencia, se recomienda herrajes de acero o aleaciones con diferentes propiedades mecánicas. Los herrajes de aluminio pueden ser utilizados en aplicaciones donde se necesite menos carga mecánica y mayor flexibilidad, con esto también se podrían implementar anticorrosivos en los herrajes de acero para mejorar significativamente su durabilidad, especialmente en ambientes corrosivos, como son zonas costeras.
Cano Monjaraz Ashley Yusseni, Universidad Autónoma Indígena de México
Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú

DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA


DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA

Cano Monjaraz Ashley Yusseni, Universidad Autónoma Indígena de México. Cardenas Lopez Omar, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

En el marco de crecimiento de población y aumento en la demanda de productos y recursos en el que nos encontramos, será necesario llevar a cabo una transformación de los sistemas de organización industriales actualmente obsoletos. Estos modelos han alcanzado, o están a punto de alcanzar, sus límites de eficiencia y productividad. Será necesario un nuevo sistema organizativo empresarial que otorgue nuevas posibilidades para continuar el proceso de mejora necesario. Es aquí donde aparece el concepto de economía circular, el cual promueve un cambio de los modelos lineales tradicionales basados en "hacer, usar, tirar", hacia una economía sostenible y responsable, basada en el máximo aprovechamiento de todos los recursos disponibles, incluso una vez alcanzado el fin de su ciclo de vida inicial. Este concepto ve claramente potenciado gracias a su aplicación conjunta con las tecnologías provistas por la Industria 4.0, las cuales se sirven de la utilización masiva e intensiva de las redes de internet, sensores, e inteligencia artificial, para producir la optimización de la eficiencia energética, confiabilidad y disponibilidad de productos y servicios a través de distintas industrias. La confluencia de estos dos factores nos permitirá enfrentarnos de manera efectiva a algunos de los mayores problemas que tiene el ser humano en la actualidad, como son el aumento estimado de la población para los próximos años y su relación directa con el cambio climático.  



METODOLOGÍA

Se realiza la consulta bibliográfica buscando identificar cuáles son los retos percibidos por diferentes autores en economía, en la implementación de las tecnologías de la industria 4.0, estableciendo una tabla con los retos y sus descripciones, para hacer comparaciones en el contexto colombiano, identificando las debilidades y barreras que actualmente afectan el país de colombia - Cartagena. De esta manera, se toma información reciente, teniendo en cuenta dos encuestas realizadas en los dos últimos años, la Encuesta Nacional Logística desarrollada por el Departamento Nacional de Planeación en 2018 y la Encuesta Nacional TIC de 2017 en Colombia. Basándose en las debilidades y barreras, en los resultados y los insumos se analizan los datos obtenidos mediante un esquema metodológico de revisión de información.  


CONCLUSIONES

Las pymes necesitan la industria 4.0, pero el primer paso que deben de tener en cuenta es el de recoger la información de sus fábricas, para luego analizarlas por cada proceso que desarrollen, es por esto que la monitorización es elemental para la evolución digital de las fábricas. Si bien es cierto, se resalta el interés por parte de las organizaciones por transformar sus procesos y aprovechar las nuevas herramientas digitales para incrementar su competitividad en el mercado, es posible evidenciar que debido a la aceleración de la implementación de la llamada industria 4.0 algunas organizaciones en especial las Pymes aún carecen del conocimiento y la capacidad para asumir los retos que esta nueva realidad representa. Existen diferentes metodologías que sugieren buenas prácticas y resaltan elementos a considerar si se quiere migrar a la digitalidad dentro de un contexto organizacional, no obstante, no se evidencia una metodología o modelo específico adaptado a las necesidades de las Pymes, los modelos muestran herramientas y áreas en las cuales centrarse durante el proceso, no obstante, resultan ser muy genéricas y en ocasiones desconectadas del entorno real de las Pymes, no existe un consenso ni una ruta clara hacia la particularidad de cada organización delegando casi que la responsabilidad en el tipo de liderazgo con que se cuente y los recursos disponibles. Conforme a los anteriores hallazgos se ha considerado oportuno continuar con la siguiente fase de la investigación, la cual pretende a través de una caracterización de un grupo focal de Pymes, determinar el potencial de transformación digital de sus procesos teniendo en cuenta sus condiciones y el contexto en el cual desarrollan su actividad económica, con el fin de ofrecer desde la academia y en compañía del sector productivo acompañamiento y soluciones efectivas que contribuyan al aprovechamiento de dicho potencial.    
Cano Victoria Carina, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Ing. José Miguel Tellez Zepeda, Universidad Tecnológica de Tecamachalco

OPTIMIZACIóN DEL SISTEMA DE ENFRIAMIENTO PARA LA DESTILACIóN DE MEZCAL DE AGAVE MAPISAGA: DISEñO DE INGENIERíA PARA EFICIENCIA Y RENDIMIENTO


OPTIMIZACIóN DEL SISTEMA DE ENFRIAMIENTO PARA LA DESTILACIóN DE MEZCAL DE AGAVE MAPISAGA: DISEñO DE INGENIERíA PARA EFICIENCIA Y RENDIMIENTO

Cano Victoria Carina, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Ing. José Miguel Tellez Zepeda, Universidad Tecnológica de Tecamachalco



PLANTEAMIENTO DEL PROBLEMA

Un aspecto importante del proceso de destilación de mezcal en Rancho La Lagunilla es el sistema de enfriamiento del agua. Para mantener la temperatura adecuada durante la destilación, un requisito fundamental para asegurar la calidad del mezcal, este sistema es punto clave. El agua que se usa en el proceso, se calienta rápidamente, lo que retrasa la producción y afecta directamente  la calidad del mezcal. El hallazgo en esta etapa de enfriamiento provoca riesgos financieros, así como la calidad y la producción del producto final. El mal manejo de energía y agua en el proceso de destilación no solo incrementa los costos de operación, sino que también provoca graves preocupaciones ambientales. El aumento rápido de la temperatura del agua utilizada en el sistema de enfriamiento provoca afectaciones directas a los recursos naturales.Es necesario abordar estas deficiencias para maximizar la eficacia del sistema de enfriamiento, garantizar la calidad y la consistencia del mezcal elaborado y disminuir tanto los costos como el impacto ambiental. Para asegurar la rentabilidad y la sostenibilidad de la producción de mezcal en Rancho La Lagunilla, es esencial desarrollar e implementar soluciones que permitan mantener la temperatura del agua en niveles ideales durante el proceso de destilación.



METODOLOGÍA

Mediante un software CAD, se elabora un diseño de ingeniería de un prototipo mecánico para atender la necesidad en la etapa de enfriamiento en el proceso de destilación de mezcal en Rancho La Lagunilla. Con el objetivo de mejorar la eficiencia del enfriamiento y el control de la temperatura, este diseño incluye una instrucción de trabajo que modifica el proceso. Se establecen requisitos técnicos y se desarrolla ayudas visuales de un sistema de enfriamiento por efecto cascada, especialmente creado para el proceso de destilación de alcohol. El propósito del prototipo de enfriamiento en cascada es enfriar el agua que se calienta durante la destilación. En una serie de niveles (etapas), el agua caliente transmite su calor al agua más fría que rodea, enfriándose gradualmente. En un ciclo continuo, se reincorpora al proceso de destilación el agua que ya ha enfriado. El agua se moverá a través de los diversos niveles del sistema con ayuda de una bomba eléctrica sumergible que mantiene una temperatura estable. Para preservar la calidad y evitar daños, se priorizará la confiabilidad del prototipo durante el proceso de desarrollo del diseño. El diseño será válido tanto para una o varias estaciones. Se garantizará que el sistema funcione de manera continua y sin interrupciones, con eficacia para mantener una temperatura adecuada y con eficiencia energética. Un análisis de costos permite garantizar la viabilidad económica del sistema. Representando la idea inicial, se elaboro un boceto a mano alzada. Luego, se elabora el prototipo del sistema de enfriamiento mediante el uso de software especializado en diseño y simulación, como AutoCAD. En el proceso de destilación en Rancho La Lagunilla, este método asegurará que el sistema sea efectivo y funcional.


CONCLUSIONES

La importancia de este prototipo se justifica por los hallazgos del estudio y por el diseño de ingeniería propuesto para el sistema de enfriamiento efectivo durante la destilación de mezcal. Para asegurar la mejor calidad del mezcal producido, es fundamental utilizar un sistema de enfriamiento util y controlado. Al disminuir el tiempo necesario para realizar la destilación, este sistema también considera reducir los peligros relacionados con el manejo de agua caliente, lo que aumenta la seguridad de los colaboradores. Al reducir el impacto ambiental y limitar el consumo total de agua, se espera que esta propuesta tenga un efecto positivo en la sostenibilidad de la operación para generar valor agregado. El sistema de enfriamiento por efecto cascada, para la destilación de mezcal, no solo mejora la calidad y la eficacia del producto final, sino que también permite prácticas más seguras y sostenibles. Beneficiar a la operación en términos de calidad y costos, e impulsar así a Rancho La Lagunilla como una organización en responsabilidad ambiental.
Cantú Dueñas José Antonio, Instituto Tecnológico de Nuevo Laredo
Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave

PLANEACIóN FINANCIERA COMO ESTRATEGIA DE GESTIóN E INNOVACIóN DE PROCESOS EN UNA MICROEMPRESA COMERCIAL DE GUASAVE, SINALOA.


PLANEACIóN FINANCIERA COMO ESTRATEGIA DE GESTIóN E INNOVACIóN DE PROCESOS EN UNA MICROEMPRESA COMERCIAL DE GUASAVE, SINALOA.

Arellano Hinojosa Fidel Ernesto, Instituto Tecnológico de Ciudad Juárez. Cantú Dueñas José Antonio, Instituto Tecnológico de Nuevo Laredo. Cervantes Dominguez Fernando Ivan, Instituto Tecnológico de Ciudad Juárez. Huerta Uribe Brittania, Instituto Tecnológico de Ciudad Juárez. Machuca Bedoya Alejandro, Universidad de Investigación y Desarrollo. Martinez Segovia Karen Paola, Instituto Tecnológico de Ciudad Juárez. Sierra Barrios José Vicente, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Vazquez Marquez Erika, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

La gestión e innovación de procesos son esenciales para que las microempresas comerciales puedan mantenerse competitivas y eficientes en el mercado actual. Sin embargo, muchas de estas microempresas enfrentan desafíos significativos debido a la falta de una planeación financiera adecuada. En el municipio de Guasave, las microempresas comerciales representan una parte sustancial de la economía local, pero a menudo carecen de las herramientas y estrategias necesarias para gestionar eficazmente sus recursos financieros y operativos. La ausencia de una planeación financiera robusta puede resultar en una gestión ineficiente de los procesos internos, llevando a problemas como la falta de control de inventarios, registros financieros inadecuados y decisiones financieras erróneas. Estos problemas no solo afectan la operatividad diaria de las empresas, sino que también limitan su capacidad para crecer y adaptarse a las cambiantes condiciones del mercado. El Instituto Nacional de Estadística y Geografía (INEGI, 2018) reporta que una gran mayoría de las microempresas en México, incluyendo aquellas en Guasave, no llevan registros contables formales y enfrentan complicaciones administrativas que obstaculizan su crecimiento. Esta situación subraya la necesidad de implementar estrategias de planeación financiera que apoyen la gestión e innovación de procesos en estas empresas. Por lo tanto, la problemática central de esta investigación se plantea de la siguiente manera: ¿Cómo influye la implementación de una planeación financiera adecuada en la gestión e innovación de procesos en una microempresa comercial en el municipio de Guasave?



METODOLOGÍA

Esta investigación adopta un enfoque mixto y descriptivo exploratorio mediante un estudio de caso para evaluar la eficiencia del proceso de gestión e innovación de procesos apoyado por la planeación financiera en una microempresa comercial. La investigación mixta, descrita por Johnson et al. (2006) como una combinación de enfoques cuantitativos y cualitativos, y definida por Sampieri, Fernández y Baptista (2014) como una metodología multimétodo, permite una comprensión integral del fenómeno estudiado. Stake (1984) define el estudio de caso como un análisis riguroso orientado a obtener relaciones generales del caso observado. La metodología descriptiva, según Caballero (2014), se enfoca en desarrollar definiciones y conceptos básicos, mientras que Cea (2010) resalta que los estudios exploratorios identifican variables relevantes para futuras investigaciones. Para la recolección de datos, se utilizaron técnicas cualitativas como entrevistas semiestructuradas y observación participante. Mendicoa (2003) describe la entrevista semiestructurada como una herramienta cualitativa que facilita la comprensión de las perspectivas de los informantes. Lahire (2008) y Spradley (1980) sostienen que la observación participante permite un estudio profundo de situaciones sociales específicas.


CONCLUSIONES

Un proceso de gestión e innovación de procesos deficiente puede llevar a decisiones erróneas, dificultades financieras y pérdida de oportunidades de crecimiento. La implementación de herramientas tecnológicas, como software para control de flujo de efectivo e inventarios, es fundamental para mejorar la eficiencia y precisión en la gestión. La elaboración de estados financieros es crucial para la toma de decisiones y planificación futura. La falta de financiamiento externo puede limitar la capacidad de expansión y respuesta a situaciones imprevistas. Se recomienda a la empresa implementar un punto de venta para mejorar el control de ingresos y salidas, realizar inventarios físicos semestrales y registrar adecuadamente todos los egresos. Además, se sugiere elaborar informes financieros proforma para planificar operaciones futuras. Esta investigación se realizó durante mi estancia de investigación científica, y ha sido una experiencia invaluable para mi formación profesional. Participar en este proyecto me ha permitido aplicar conocimientos teóricos a un contexto real, desarrollando habilidades prácticas en la recolección y análisis de datos, así como en la elaboración de estrategias de mejora para microempresas. Esta experiencia ha reforzado mi comprensión sobre la importancia de la planeación financiera en la gestión e innovación de procesos y su impacto en la competitividad y sostenibilidad de las empresas. Futuras investigaciones deben explorar la planificación financiera en MiPymes más organizadas y evaluar la utilidad de las estrategias propuestas en este trabajo. Además, es fundamental seguir investigando para identificar y desarrollar nuevas herramientas y metodologías que puedan apoyar aún más a las microempresas en su camino hacia una gestión más eficiente y efectiva.
Caraveo Guerrero Victor Yahir, Universidad Autónoma de Baja California Sur
Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur

JUEGO SERIO COMO APOYO PARA NIñOS CON DISLEXIA, Y PROBLEMAS DE LECTO-ESCRITURA.


JUEGO SERIO COMO APOYO PARA NIñOS CON DISLEXIA, Y PROBLEMAS DE LECTO-ESCRITURA.

Caraveo Guerrero Victor Yahir, Universidad Autónoma de Baja California Sur. Carballo Canales Carlos Adrian, Universidad Autónoma de Baja California Sur. García Rangel Laura Alejandra, Universidad Tecnológica de Nayarit. Hirales Núñez José Eduardo, Universidad Autónoma de Baja California Sur. López Quiroz Mariana Jocelyn, Universidad de Guadalajara. Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur



PLANTEAMIENTO DEL PROBLEMA

En México, de acuerdo a estudios realizados en 2021 por parte de la Universidad Nacional Autónoma de México, la dislexia afecta al menos a un 7% de la población. La dislexia entorpece el aprendizaje y se manifiesta principalmente con un cambio de orden en las letras y los números, dificultando la lecto-escritura. Dicha condición es comúnmente detectada en niños durante su etapa escolar; sin embargo, muchas veces puede ser catalogado con desinterés, falta de concentración y desatención. La principal problemática que se buscaba abordar con el desarrollo de este proyecto era mejorar los recursos de ayuda para los niños con dislexia, proporcionando un sistema para dispositivos móviles moderno de juegos serios, que motive al usuario a mejorar sus habilidades neurocognitivas mientras se divierte jugando. Los escasos recursos con sistemas accesibles y que usaran elementos de gamificación para apoyar a niños con alteraciones del aprendizaje, dislexia o problemas de lecto-escritura dentro de nuestro país fueron la principal fuente de inspiración que impulsó al desarrollo de Edulexia.



METODOLOGÍA

Para empezar a planificar el cómo se diseñará el sistema se utilizó una metodología de investigación mixta, con el cual se diseñó un diagrama de actividades que fue importante para llevar a los primeros pasos de desarrollo del sistema. La primera actividad a realizar fue recolectar información con ayuda de nuestros usuarios objetivo, en el equipo de trabajo se utilizó los recursos que fueron proporcionados por parte de un convenio firmado por parte de la Universidad Autónoma Aguascalientes (UAA) y el centro del desarrollo infantil (CENDI). La técnica de recolección de información utilizada fue encuestas, las cuales se hicieron con 25 alumnos del CENDI de edades de entre 6 a 8 años. La técnica de desarrollo de software utilizada para crear el primer prototipo de bajo nivel fue la metodología MPIu+a creada por Toni Granollers i Saltiveri, profesor de la Universidad de Lleida. La metodología creada por Saltiveri tiene como meta principal poner al usuario en el centro del desarrollo, por eso mismo la información recabada de nuestros usuarios fue de suma importancia para la creación de cada uno de los requerimientos del sistema. Se buscaba diseñar un sistema sencillo, accesible, operacional e intuitivo, para que nuestros usuarios se sintieran cómodos al utilizarlo. Un punto importante que debe justificarse es la forma en que fueron creados los videojuegos del sistema. Los juegos fueron creados de manera que se pudieran estimular las habilidades neurocognitivas del usuario, Para la creación de los juegos fue utilizado como base el enfoque Orton-Gillingham, el cual es un sistema de intervención multisensorial para la ayuda en la dislexia, y mejorar la enseñanza de la lectoescritura. Para incentivar al usuario a seguir usando el sistema se diseñaron retos y recompensas, elementos que fueron elegidos tomando en consideración la popularidad que se obtuvo con las encuestas. Para poder hacer las primeras pruebas del prototipo de bajo nivel del sistema se utilizó un método de descubrimiento en conjunto, mejor conocido como Co-Discovery. En esta prueba los usuarios tenían que resolver diversas tareas fusionando sus habilidades y conocimientos. Estas pruebas nos ayudaron a notar el grado de usabilidad con el que contaba nuestro sistema en esa parte del desarrollo. Los resultados de las pruebas realizadas por nuestros usuarios objetivo presentaron comentarios positivos, además de mostrarnos que el primer prototipo del sistema era claro, y usable. Se confirmó que continuar con el desarrollo del software final era una decisión completamente acertada. Para la creación de la versión final del software se tomó en cuenta la información recabada con anterioridad de las pruebas hechas a los usuarios. Se utilizó la idea base del prototipo de baja fidelidad, que sumada a la elección de temática, diseños y tipos de juegos favoritos de los usuarios hicieron posible la creación de la versión funcional beta. Esta primera versión final fue creada con el motor gráfico Unity, incorporando un plugin de desarrollo 2d, además de utilizar el lenguaje de programación C#. Por último se realizaron pruebas para medir el grado de aceptación del sistema final con nuestros usuarios. Al igual que en otras ocasiones se optó por utilizar el método de pruebas Co-Discovery. Se utilizaron dos niños de la localidad de La Paz B.C.S con edades de entre 6 a 8 años. Los resultados obtenidos mostraron él como el uso del sistema puede llegar a impactar en los usuarios. Como se esperaba, se logró atrapar a los usuarios con sus atractivos apartado visual, además de incentivarlo a seguir jugando gracias a los recursos de gamificación que se utilizaron.


CONCLUSIONES

A lo largo del tiempo de estancia del verano científico se lograron cumplir con los objetivos en la planeación del proyecto, se desarrollaron nuevos conocimientos y competencias para todo el equipo de trabajo. Consideramos que es importante mencionar que fue una tarea sencilla desarrollar el sistema, pero sin duda fue una experiencia enriquecedora para nuestra experiencia profesional. Aunque se ha demostrado que el sistema cumple con los objetivos que se plantearon en un inicio aún existen tareas por realizar para que se considere algo más que una fase beta. El sistema de juego serio para ayudar a niños con dislexia y problemas de lecto-escritura Edulexia es un recurso viable y cumple con las características necesarias de un sistema completamente enfocado en niños.
Carballo Canales Carlos Adrian, Universidad Autónoma de Baja California Sur
Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur

JUEGO SERIO COMO APOYO PARA NIñOS CON DISLEXIA, Y PROBLEMAS DE LECTO-ESCRITURA.


JUEGO SERIO COMO APOYO PARA NIñOS CON DISLEXIA, Y PROBLEMAS DE LECTO-ESCRITURA.

Caraveo Guerrero Victor Yahir, Universidad Autónoma de Baja California Sur. Carballo Canales Carlos Adrian, Universidad Autónoma de Baja California Sur. García Rangel Laura Alejandra, Universidad Tecnológica de Nayarit. Hirales Núñez José Eduardo, Universidad Autónoma de Baja California Sur. López Quiroz Mariana Jocelyn, Universidad de Guadalajara. Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur



PLANTEAMIENTO DEL PROBLEMA

En México, de acuerdo a estudios realizados en 2021 por parte de la Universidad Nacional Autónoma de México, la dislexia afecta al menos a un 7% de la población. La dislexia entorpece el aprendizaje y se manifiesta principalmente con un cambio de orden en las letras y los números, dificultando la lecto-escritura. Dicha condición es comúnmente detectada en niños durante su etapa escolar; sin embargo, muchas veces puede ser catalogado con desinterés, falta de concentración y desatención. La principal problemática que se buscaba abordar con el desarrollo de este proyecto era mejorar los recursos de ayuda para los niños con dislexia, proporcionando un sistema para dispositivos móviles moderno de juegos serios, que motive al usuario a mejorar sus habilidades neurocognitivas mientras se divierte jugando. Los escasos recursos con sistemas accesibles y que usaran elementos de gamificación para apoyar a niños con alteraciones del aprendizaje, dislexia o problemas de lecto-escritura dentro de nuestro país fueron la principal fuente de inspiración que impulsó al desarrollo de Edulexia.



METODOLOGÍA

Para empezar a planificar el cómo se diseñará el sistema se utilizó una metodología de investigación mixta, con el cual se diseñó un diagrama de actividades que fue importante para llevar a los primeros pasos de desarrollo del sistema. La primera actividad a realizar fue recolectar información con ayuda de nuestros usuarios objetivo, en el equipo de trabajo se utilizó los recursos que fueron proporcionados por parte de un convenio firmado por parte de la Universidad Autónoma Aguascalientes (UAA) y el centro del desarrollo infantil (CENDI). La técnica de recolección de información utilizada fue encuestas, las cuales se hicieron con 25 alumnos del CENDI de edades de entre 6 a 8 años. La técnica de desarrollo de software utilizada para crear el primer prototipo de bajo nivel fue la metodología MPIu+a creada por Toni Granollers i Saltiveri, profesor de la Universidad de Lleida. La metodología creada por Saltiveri tiene como meta principal poner al usuario en el centro del desarrollo, por eso mismo la información recabada de nuestros usuarios fue de suma importancia para la creación de cada uno de los requerimientos del sistema. Se buscaba diseñar un sistema sencillo, accesible, operacional e intuitivo, para que nuestros usuarios se sintieran cómodos al utilizarlo. Un punto importante que debe justificarse es la forma en que fueron creados los videojuegos del sistema. Los juegos fueron creados de manera que se pudieran estimular las habilidades neurocognitivas del usuario, Para la creación de los juegos fue utilizado como base el enfoque Orton-Gillingham, el cual es un sistema de intervención multisensorial para la ayuda en la dislexia, y mejorar la enseñanza de la lectoescritura. Para incentivar al usuario a seguir usando el sistema se diseñaron retos y recompensas, elementos que fueron elegidos tomando en consideración la popularidad que se obtuvo con las encuestas. Para poder hacer las primeras pruebas del prototipo de bajo nivel del sistema se utilizó un método de descubrimiento en conjunto, mejor conocido como Co-Discovery. En esta prueba los usuarios tenían que resolver diversas tareas fusionando sus habilidades y conocimientos. Estas pruebas nos ayudaron a notar el grado de usabilidad con el que contaba nuestro sistema en esa parte del desarrollo. Los resultados de las pruebas realizadas por nuestros usuarios objetivo presentaron comentarios positivos, además de mostrarnos que el primer prototipo del sistema era claro, y usable. Se confirmó que continuar con el desarrollo del software final era una decisión completamente acertada. Para la creación de la versión final del software se tomó en cuenta la información recabada con anterioridad de las pruebas hechas a los usuarios. Se utilizó la idea base del prototipo de baja fidelidad, que sumada a la elección de temática, diseños y tipos de juegos favoritos de los usuarios hicieron posible la creación de la versión funcional beta. Esta primera versión final fue creada con el motor gráfico Unity, incorporando un plugin de desarrollo 2d, además de utilizar el lenguaje de programación C#. Por último se realizaron pruebas para medir el grado de aceptación del sistema final con nuestros usuarios. Al igual que en otras ocasiones se optó por utilizar el método de pruebas Co-Discovery. Se utilizaron dos niños de la localidad de La Paz B.C.S con edades de entre 6 a 8 años. Los resultados obtenidos mostraron él como el uso del sistema puede llegar a impactar en los usuarios. Como se esperaba, se logró atrapar a los usuarios con sus atractivos apartado visual, además de incentivarlo a seguir jugando gracias a los recursos de gamificación que se utilizaron.


CONCLUSIONES

A lo largo del tiempo de estancia del verano científico se lograron cumplir con los objetivos en la planeación del proyecto, se desarrollaron nuevos conocimientos y competencias para todo el equipo de trabajo. Consideramos que es importante mencionar que fue una tarea sencilla desarrollar el sistema, pero sin duda fue una experiencia enriquecedora para nuestra experiencia profesional. Aunque se ha demostrado que el sistema cumple con los objetivos que se plantearon en un inicio aún existen tareas por realizar para que se considere algo más que una fase beta. El sistema de juego serio para ayudar a niños con dislexia y problemas de lecto-escritura Edulexia es un recurso viable y cumple con las características necesarias de un sistema completamente enfocado en niños.
Carballo Zapién Miguel Angel, Universidad de Guadalajara
Asesor: Dra. Ma. del Rocio Maciel Arellano, Universidad de Guadalajara

SMART CITIES - INTERNATIONAL CONFERENCE DIGRA 2024, UNDER THE THEME “PLAYGROUNDS”


SMART CITIES - INTERNATIONAL CONFERENCE DIGRA 2024, UNDER THE THEME “PLAYGROUNDS”

Carballo Zapién Miguel Angel, Universidad de Guadalajara. Sánchez Alarcón Cinthia Elizabeth, Universidad Tecnológica de Nayarit. Valencia Zavala Irving Miguel, Universidad Tecnológica de Nayarit. Asesor: Dra. Ma. del Rocio Maciel Arellano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El proyecto "Smart Cities - International Conference DiGRA 2024, under the theme ‘Playgrounds’", presentado en la conferencia DiGRA 2024, se centró en explorar el potencial del metaverso en la educación a través de la gamificación. Utilizando la plataforma Roblox, se recrearon experiencias basadas en la conferencia, demostrando cómo los entornos virtuales pueden enriquecer el aprendizaje.  



METODOLOGÍA

Semana 1: Organización y Planificación El equipo definió objetivos, investigó proyectos similares y tecnologías aplicables, y desarrolló un diagrama de Gantt con tareas y cronogramas. También se identificaron recursos necesarios y se estableció un plan de comunicación. Semana 2: Desarrollo de Conceptos y Prototipos Iniciales Se generaron y seleccionaron conceptos para la integración de videojuegos en sistemas de movilidad. Se desarrollaron prototipos iniciales utilizando herramientas como Unity y Unreal Engine, los cuales fueron probados y ajustados según el feedback recibido. Semana 3: Desarrollo e Integración El equipo desarrolló e integró funcionalidades del videojuego en sistemas de movilidad existentes, asegurando la cohesión y resolviendo problemas de integración. Se documentó el progreso y los desarrollos realizados. Semana 4: Pruebas Finales y Presentación Se realizaron pruebas de usuario, se implementaron mejoras basadas en el feedback, y se preparó una presentación final del proyecto, incluyendo una demostración del videojuego y resultados de las pruebas. Semana 5: Optimización y Refinamiento Se optimizó el proyecto basado en el feedback de las pruebas. Se mejoraron funcionalidades, se garantizó la estabilidad del sistema y se añadieron funcionalidades adicionales. La documentación fue actualizada y se realizó una revisión interna. Semana 6: Preparación para el Lanzamiento Se definió la estrategia de lanzamiento, se realizaron pruebas beta y se ajustaron según el feedback. Se prepararon materiales de comunicación y se realizó un ensayo general del lanzamiento. Semana 7: Lanzamiento y Seguimiento Post-Lanzamiento El proyecto fue lanzado y monitoreado en tiempo real. Se estableció un canal de soporte para usuarios y se recogió feedback para identificar áreas de mejora. Se definió un plan de mantenimiento y mejora continua del proyecto.    


CONCLUSIONES

El proyecto ha mostrado que la gamificación en entornos virtuales mejora la motivación y el compromiso de los estudiantes. Las fases de pruebas, optimización y refinamiento aseguraron la funcionalidad y estabilidad del sistema, permitiendo una transición suave al uso real. Este proyecto establece una base sólida para futuras investigaciones y desarrollos en el campo de la educación gamificada, aportando valiosas lecciones y prácticas aplicables en otros contextos educativos y tecnológicos.  
Cardel Palacios Xiromi Anahi, Instituto Politécnico Nacional
Asesor: Mtra. Inés Hernández Rodríguez, Universidad de Guadalajara

INTERNET DE LAS COSAS


INTERNET DE LAS COSAS

Cardel Palacios Xiromi Anahi, Instituto Politécnico Nacional. Asesor: Mtra. Inés Hernández Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la era digital actual, el Internet de las Cosas (IoT, por sus siglas en inglés) ha emergido como una tecnología transformadora con aplicaciones que van más allá de la automatización del hogar o la industria. Uno de los campos donde el IoT promete revolucionar significativamente es en la educación. Esta tecnología ofrece la oportunidad de crear entornos de aprendizaje interactivos y personalizados que pueden beneficiar tanto a estudiantes como a educadores. A pesar de estos desafíos, el potencial del IoT para transformar la educación es innegable. A medida que la tecnología continúa avanzando, es crucial que los sistemas educativos y los diseñadores de tecnología trabajen juntos para desarrollar soluciones que sean seguras, efectivas y accesibles para todos los estudiantes y educadores.



METODOLOGÍA

Con un punto de vista cualitativo, ya que se busco implementar una entrevista a cierta población en la preparatoria regional de Tlajomulco; así mismo como un formulario Un área particularmente emocionante del IoT en la educación es su potencial para el desarrollo de herramientas educativas interactivas, como videojuegos diseñados específicamente como apoyo para el aprendizaje. Imaginemos un videojuego educativo que no solo entretenga, sino que también enseñe conceptos complejos de matemáticas, ciencias o historia de una manera envolvente y memorable. Estos juegos podrían adaptarse al ritmo de aprendizaje de cada estudiante, ofreciendo ejercicios y desafíos personalizados que refuercen los conocimientos adquiridos en el aula. Para los profesores, el IoT también puede ser una herramienta invaluable. Imagine poder acceder a análisis detallados sobre cómo cada estudiante interactúa con el contenido del curso. Los datos recopilados por dispositivos conectados podrían ayudar a identificar áreas donde los estudiantes necesitan más apoyo, permitiendo a los educadores ajustar sus métodos de enseñanza de manera más precisa y efectiva. Sin embargo, el camino hacia la implementación completa del IoT en la educación no está exento de desafíos. La seguridad de los datos y la privacidad de los estudiantes son preocupaciones importantes que deben abordarse cuidadosamente. Además, la infraestructura tecnológica necesaria para admitir el IoT en las escuelas puede ser costosa y requiere una planificación estratégica a largo plazo.


CONCLUSIONES

En conclusión, el Internet de las Cosas representa una poderosa herramienta para mejorar la educación al ofrecer entornos de aprendizaje más dinámicos y adaptativos. Desde la creación de videojuegos educativos hasta la optimización de las condiciones de aprendizaje en el aula, el IoT tiene el potencial de revolucionar la forma en que enseñamos y aprendemos en todos los niveles académicos. Con el tiempo y la colaboración adecuada, podemos esperar ver un futuro donde el IoT no solo apoye, sino que también enriquezca la experiencia educativa de estudiantes y profesores en todo el mundo.
Cardenas Lopez Omar, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú

DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA


DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA

Cano Monjaraz Ashley Yusseni, Universidad Autónoma Indígena de México. Cardenas Lopez Omar, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

En el marco de crecimiento de población y aumento en la demanda de productos y recursos en el que nos encontramos, será necesario llevar a cabo una transformación de los sistemas de organización industriales actualmente obsoletos. Estos modelos han alcanzado, o están a punto de alcanzar, sus límites de eficiencia y productividad. Será necesario un nuevo sistema organizativo empresarial que otorgue nuevas posibilidades para continuar el proceso de mejora necesario. Es aquí donde aparece el concepto de economía circular, el cual promueve un cambio de los modelos lineales tradicionales basados en "hacer, usar, tirar", hacia una economía sostenible y responsable, basada en el máximo aprovechamiento de todos los recursos disponibles, incluso una vez alcanzado el fin de su ciclo de vida inicial. Este concepto ve claramente potenciado gracias a su aplicación conjunta con las tecnologías provistas por la Industria 4.0, las cuales se sirven de la utilización masiva e intensiva de las redes de internet, sensores, e inteligencia artificial, para producir la optimización de la eficiencia energética, confiabilidad y disponibilidad de productos y servicios a través de distintas industrias. La confluencia de estos dos factores nos permitirá enfrentarnos de manera efectiva a algunos de los mayores problemas que tiene el ser humano en la actualidad, como son el aumento estimado de la población para los próximos años y su relación directa con el cambio climático.  



METODOLOGÍA

Se realiza la consulta bibliográfica buscando identificar cuáles son los retos percibidos por diferentes autores en economía, en la implementación de las tecnologías de la industria 4.0, estableciendo una tabla con los retos y sus descripciones, para hacer comparaciones en el contexto colombiano, identificando las debilidades y barreras que actualmente afectan el país de colombia - Cartagena. De esta manera, se toma información reciente, teniendo en cuenta dos encuestas realizadas en los dos últimos años, la Encuesta Nacional Logística desarrollada por el Departamento Nacional de Planeación en 2018 y la Encuesta Nacional TIC de 2017 en Colombia. Basándose en las debilidades y barreras, en los resultados y los insumos se analizan los datos obtenidos mediante un esquema metodológico de revisión de información.  


CONCLUSIONES

Las pymes necesitan la industria 4.0, pero el primer paso que deben de tener en cuenta es el de recoger la información de sus fábricas, para luego analizarlas por cada proceso que desarrollen, es por esto que la monitorización es elemental para la evolución digital de las fábricas. Si bien es cierto, se resalta el interés por parte de las organizaciones por transformar sus procesos y aprovechar las nuevas herramientas digitales para incrementar su competitividad en el mercado, es posible evidenciar que debido a la aceleración de la implementación de la llamada industria 4.0 algunas organizaciones en especial las Pymes aún carecen del conocimiento y la capacidad para asumir los retos que esta nueva realidad representa. Existen diferentes metodologías que sugieren buenas prácticas y resaltan elementos a considerar si se quiere migrar a la digitalidad dentro de un contexto organizacional, no obstante, no se evidencia una metodología o modelo específico adaptado a las necesidades de las Pymes, los modelos muestran herramientas y áreas en las cuales centrarse durante el proceso, no obstante, resultan ser muy genéricas y en ocasiones desconectadas del entorno real de las Pymes, no existe un consenso ni una ruta clara hacia la particularidad de cada organización delegando casi que la responsabilidad en el tipo de liderazgo con que se cuente y los recursos disponibles. Conforme a los anteriores hallazgos se ha considerado oportuno continuar con la siguiente fase de la investigación, la cual pretende a través de una caracterización de un grupo focal de Pymes, determinar el potencial de transformación digital de sus procesos teniendo en cuenta sus condiciones y el contexto en el cual desarrollan su actividad económica, con el fin de ofrecer desde la academia y en compañía del sector productivo acompañamiento y soluciones efectivas que contribuyan al aprovechamiento de dicho potencial.    
Cárdenas Montelongo Jesús Esteban, Instituto Tecnológico de Culiacán
Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)

SIMULACIóN DEL CONTROL DE POSICIóN DE UN VEHíCULO AéREO NO TRIPULADO CUADRIMOTOR


SIMULACIóN DEL CONTROL DE POSICIóN DE UN VEHíCULO AéREO NO TRIPULADO CUADRIMOTOR

Cárdenas Montelongo Jesús Esteban, Instituto Tecnológico de Culiacán. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La demanda de los vehículos aéreos no tripulados (VANT) ha estado en aumento a lo largo de los últimos años, siendo utilizado para múltiples aplicaciones, como monitoreo de desastres naturales, protección de territorios, inspección de plantas nucleares o vigilancia en zonas urbanas.   Sin importar el tipo de aplicación al que se le quiera dar a un VANT, este dispositivo debe ser capaz de realizar una serie de maniobras de emergencia al momento de presentarse una situación adversa que ponga en peligro la infraestructura del dron, por lo que es necesario establecer una ley de control que permita al VANT regularse en el espacio de forma autónoma y poder realizar un aterrizaje en caso de ser necesario.



METODOLOGÍA

Para la simulación del VANT se comenzó con el modelado del sistema el cuál representa al dron en estado estacionario. Consta de un conjunto de 6 ecuaciones diferenciales, en las que se tienen como entrada las velocidades angulares de los motores y como salida las coordenadas de posición y orientación. Gracias a las velocidades podemos obtener la fuerza y los torques que manejan al dron, siendo las verdaderas entradas del sistema, todo esto con el fin de no depender del valor de estas velocidades angulares como las entradas gracias al número de actuadores. Una vez obtenido el modelo dinámico del dron, establecemos ahora una ley de control para regular la altura a la que se encuentra el VANT, para el cual se decide utilizar un controlador PD para obtener una respuesta rápida y libre de la acumulación de errores que provee la parte integradora. Ya con el modelo dinámico y el controlador para la altura procedemos a adicionar el control para las orientaciones que puede manejar el VANT. De igual forma se utilizó un controlador PD para la respuesta rápida ante las señales de entrada, siendo importante el tiempo que responde o que se estabiliza la señal del sistema en pitch y roll, ya que son específicamente importantes para el movimiento que maneja el dron en los ejes X y Y respectivamente. El último paso para desarrollar es el establecimiento de una ley de control que regule la posición que debe tener el VANT al momento de estar en el aire. Para ello, se realiza un cambio en las ecuaciones utilizadas para roll y pitch, haciendo un cálculo que permita traducir de una posición en el sistema traslacional a una orientación en el sistema rotacional del dron.


CONCLUSIONES

En el transcurso de la estancia de verano se logró adquirir conocimientos en cuanto a un dron se refiere, la manera en la cual se construye el modelo dinámico de este sistema por medio de distintos modelos matemáticos, como los proporcionados por Euler-Newton o modelos más exactos como los que están basados en Euler-Lagrange. No obstante, este tipo de trabajo se vuelve extenso debido al correcto establecimiento de las leyes de control de altura, orientación y posición para poder llevar a cabo un seguimiento de trayectorias.
Cardenas Torres Alexis Ivan, Instituto Tecnológico de Jiquilpan
Asesor: Mtra. Edna Gabriela Ceja Silva, Instituto Tecnológico Superior de Los Reyes

FACTORES DE INFLUENCIA EN LA TECNOLOGÍA 5.0 DE LA AUTOMATIZACIÓN EN LA OPERACIÓN EN LOS CENTROS DE DISTRIBUCIÓN.


FACTORES DE INFLUENCIA EN LA TECNOLOGÍA 5.0 DE LA AUTOMATIZACIÓN EN LA OPERACIÓN EN LOS CENTROS DE DISTRIBUCIÓN.

Cardenas Torres Alexis Ivan, Instituto Tecnológico de Jiquilpan. Flores Cervantes Joceline Inés, Instituto Tecnológico Superior de Los Reyes. Perez Cervantes Alicia Esther, Fundación Universitaria Tecnológico Comfenalco. Asesor: Mtra. Edna Gabriela Ceja Silva, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

Un centro de distribución es una instalación, edificio o construcción de tipo logístico cuya función principal es la de almacenar, recibir y enviar diferentes mercancías. Es un espacio que cumple el papel de intermediario dentro de toda la cadena de suministro, puesto que puede almacenar los paquetes en el momento en el que entran hasta que son expedidos hacia el lugar de destino, bien sea a otro almacén, mayoristas, minoristas, fábricas o destinatarios particulares. Estos centros pueden contar con uno o con varios almacenes en función de los productos que estén destinados a guardar temporalmente y sus necesidades. Los cambios sociales y económicos globales seguirán teniendo un impacto significativo en la industria. La implementación de la tecnología en el centro de distribución conducirá a cambios, desde la realineación de los empleados hasta la gestión, el análisis, la seguridad y el procesamiento de datos. La importancia de la industria 4.0 en los centros de distribución reside en la transformación de los procesos para una cuestión digital, esto conlleva a una necesidad de mantenerse relevantes y con valor entre la competencia. Lo que ofrece exactamente la industria inteligente a los procesos y productos de logística es que reúne un grupo de tecnologías como la ciberseguridad, cloud computing (Computación en la nube), internet de las cosas (IoT), realidad aumentada, gemelos digitales, impresión 3D y otras. En general, la Industria 4.0 y la digitalización conducirán a procesos de producción más flexibles y eficientes. Esto permitirá producir simultáneamente productos personalizados y en masa, generando innovación y contribuyendo a mejorar la competitividad de la industria. La industria 5.0 pretende potenciar la transformación del sector industrial en espacios inteligentes basados en Internet of Things y en computación cognitiva. Se trata de poner la inteligencia artificial al servicio de las personas, uniendo a máquinas y humanos. Considerando las características que traerá consigo la industria 4.0 y la potencialización de los espacios que trae la industria 5.0 se pretende buscar cuales son los factores influencia de ambas industrias en la automatización de operaciones de los centros de distribución.  



METODOLOGÍA

Para esta investigación se implica la búsqueda, recopilación, evaluación y síntesis de información existente sobre el tema de industria 4.0, industria 5.0 y centros de distribución. Se aplica la metodología de revisión de literatura siguiendo un proceso sistemático y estructurado de información existente. Se siguen los siguientes pasos: Definición del tema y objetivos. Se determina qué se espera lograr con la revisión de literatura, así como identificar los objetivos más importantes. Búsqueda de fuentes: Para esta investigación se utilizaron bases de datos académicas, bibliotecas, motores de búsqueda y revistas especializadas, los tópicos y temas de investigación se repartieron por semanas con cada uno de los colaboradores. Selección de fuentes: Se evalúa la relevancia y la calidad de las fuentes encontradas, se procede a seleccionar aquellas que sean más pertinentes y confiables. Análisis crítico: Se lee y se analiza críticamente las fuentes seleccionadas, identificando los puntos clave, teorías, métodos y pensamientos que tengan que ver con la industria 4.0 y 5.0. Organización de la información: Se clasifica y organiza la información recopilada de manera lógica y coherente para cada uno de los participantes y su colaboración en los factores clave de esta investigación. Síntesis y redacción: Se sintetiza la información y se escribe la revisión, destacando las principales contribuciones, se realizan debates y orientaciones en la literatura existente. Este proceso nos ayudó a situar la investigación en el contexto del conocimiento existente y a identificar áreas que requieren más estudio.


CONCLUSIONES

La Industria 5.0 es un nuevo modelo de producción en el que el foco está puesto en la interacción entre humanos y máquinas. Esto constituye la construcción de avances realizados desde la Primera Revolución Industrial, los cuales han resultado en procesos más eficientes. La búsqueda por modelos de negocio que utilizan menos recursos para lograr mejores beneficios ha visto su mayor perfeccionamiento hasta la fábrica 5.0, debido a que el trabajo de mano de obra y máquina colabora para tomar decisiones que resultan en mejores términos económicos para una empresa. Con este análisis en la estancia de verano se logró validar todos los factores de influencia relacionados con la industria 5.0 en la automatización de operaciones en los centros de distribución para conocer algunos antecedentes e influencias sobre el tema y además adquirir conocimientos teóricos, ya que consideramos algunos trabajos ya realizados en este campo y que tienen que ver con los que tienen una estructura definida, y otros muy poco investigados. Al encontrar los factores de influencia encontramos los beneficios que brinda la industria 4.0 y la 5.0 en los centros de distribución y que las acciones de automatización tienen que ver directamente con los beneficios como lo son: • Creación de nuevos modelos económicos. • Integración de operaciones en tiempo real. • Reducción de costos • Ahorro de energía • Sostenibilidad. • Reducción de errores • Aumento de la productividad • Mejora de la eficiencia  
Cardona Arango Laura Camila, Universidad del Quindío
Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso

DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE


DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE

Cardona Arango Laura Camila, Universidad del Quindío. Mendoza Pérez Esther Valeria, Instituto Politécnico Nacional. Pinzón Giraldo Gabriela, Universidad del Quindío. Romero Alcantara Regina, Instituto Politécnico Nacional. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

La rápida urbanización y el aumento poblacional en México han intensificado el uso de recursos naturales y la producción de residuos, agravando los problemas ambientales. San Felipe del Progreso, con características rurales y semiurbanas, enfrenta desafíos específicos en sostenibilidad. Las casas tradicionales en la región dependen de energías no renovables y carecen de sistemas eficaces para la gestión del agua y los residuos, contribuyendo a emisiones de CO₂ y contaminación ambiental. La sobreexplotación de acuíferos y la gestión inadecuada de residuos sólidos son problemas críticos. La construcción de viviendas ecológicas autosustentables en San Felipe del Progreso puede abordar estos problemas a través de soluciones sostenibles. La adopción de energías renovables, como paneles solares, y sistemas de riego para huertos, así como el diseño bioclimático y el uso de materiales sostenibles, mejoran la eficiencia energética y reducen la dependencia de fuentes de energía no renovables. La recolección de agua de lluvia y la reutilización de aguas grises optimizan el uso del agua, mientras que los sistemas de compostaje y reciclaje disminuyen la generación de residuos.  Este enfoque no solo mejora la calidad de vida en la región, sino que también puede servir como modelo replicable para otras comunidades en México, alineándose con los objetivos de desarrollo sostenible de la Agenda 2030 de la ONU.



METODOLOGÍA

Para desarrollar una casa ecológica autosustentable en San Felipe del Progreso en siete semanas, se siguió una metodología estructurada con herramientas tecnológicas y visitas académicas. El docente investigador proporcionó un cronograma detallado de tareas y objetivos semanales, y se utilizó la plataforma Classroom para gestionar recursos y facilitar la comunicación. Se brindaron asesorías diarias y se proporcionó literatura adicional para enriquecer el aprendizaje. Se realizaron tres visitas académicas clave: a una casa ecológica en San Juan Coajomulco, a la ecoaldea "Los Carrizos" en San Miguel de Allende, y al Instituto Mexicano de la Tecnología del Agua en Jiutepec. Para recopilar datos climáticos, gráficos y planos, se usaron diversas plataformas como Weather Spark, Climate Consultant, AutoCAD, inventor de Autodesk y PvSyst. En las que se hicieron estudios y simulaciones que aseguraban el correcto diseño y permitieron analizar diversos procesos para mejorarlos y anticipar soluciones enfocadas a la optimización de los mismos. Se encuestó a los estudiantes del Tecnológico de Estudios Superiores de San Felipe del Progreso para obtener información sobre las necesidades de la comunidad. Con estos datos, se diseñó y construyó la casa, optimizando la orientación para maximizar la luz solar y la eficiencia energética, e implementando un sistema de climatización pasiva. Se realizaron evaluaciones periódicas y se ajustó el diseño según la retroalimentación del asesor. Las condiciones climáticas y otros factores ambientales fueron esenciales para adaptar la vivienda al entorno local. Las encuestas a la comunidad proporcionaron datos valiosos que guiaron el diseño para responder efectivamente a las necesidades locales.


CONCLUSIONES

La casa en San Felipe del Progreso fue diseñada para maximizar la captación de luz solar y mejorar la eficiencia energética, considerando la trayectoria del sol a lo largo del año. Se implementó un sistema de climatización pasiva con aislamiento adecuado, ventilación cruzada y materiales térmicamente eficientes, reduciendo la necesidad de calefacción y refrigeración artificiales. Se integraron diversas estrategias de diseño pasivo, como la optimización de la orientación y el uso de materiales de construcción eficientes. Se realizó un levantamiento exhaustivo de cargas eléctricas y servicios necesarios para dimensionar adecuadamente los sistemas energéticos y de recursos. Se diseñó e implementó un sistema de generación de energía renovable basado en paneles solares, permitiendo la autosuficiencia energética y la interconexión con la red de la Comisión Federal de Electricidad (CFE). También se instaló un sistema de iluminación eficiente con tecnología LED y un solario e invernadero para la producción de alimentos y confort térmico. Se seleccionaron materiales de construcción ecológicos para un excelente aislamiento térmico y acústico. Los baños secos reducen el consumo de agua y facilitan el reciclaje de nutrientes. Un calentador solar suministra agua caliente, mejorando la autosuficiencia energética. Se construyeron cisternas subterráneas para la recolección y almacenamiento de agua de lluvia, y se implementó un sistema completo de recolección y tratamiento de aguas pluviales para diversos usos, mejorando la sostenibilidad hídrica. El sistema de tratamiento de aguas grises diseñado permite su reutilización en el riego de áreas verdes y otros usos no potables, contribuyendo a la eficiencia y sostenibilidad del agua. De esta manera buscamos trasformar la forma en la que las viviendas son edificadas. Promover el conocimiento y hacerlo accesible a todo aquel involucrado. Las viviendas sustentables representan una solución integral a las nuevas necesidades consecuentes de la crisis climática. Nuestro proyecto proporciona las bases teóricas para la aplicación práctica en diseño y construcción de una casa ecológica autosustentable, con estas es posible cambiar los criterios utilizados actualmente en la toma de decisiones de edificaciones; este proyecto representa una propuesta ambiciosa para un futuro sostenible, sustentable y accesible, fácilmente replicable en todo el mundo.
Cardona Arbeláez Sergio Andrés, Fundación Universitaria Católica del Norte
Asesor: M.C. Wilberth Molina Pérez, Universidad Fidélitas

EXPLORACIóN Y DESARROLLO DE APLICACIONES MóVILES DE LOW CODE EN FLUTTER FLOW Y FIREBASE


EXPLORACIóN Y DESARROLLO DE APLICACIONES MóVILES DE LOW CODE EN FLUTTER FLOW Y FIREBASE

Cardona Arbeláez Sergio Andrés, Fundación Universitaria Católica del Norte. Asesor: M.C. Wilberth Molina Pérez, Universidad Fidélitas



PLANTEAMIENTO DEL PROBLEMA

El presente trabajo se desarrolló en el marco de la estancia del Programa Interinstitucional para el Fortalecimiento de la Investigación y el Posgrado del Pacífico (Programa Delfín), en el periodo comprendido del 17 de junio al 2 de agosto de 2024. Se implementaron 2 aplicaciones habilitadas con herramientas de low code específicamente en Flutter Flow y Firebase, las cuales permiten crear aplicaciones de manera ágil y sencilla con una interfaz de usuario gráfica atractiva e intuitiva, facilitando la labor de los desarrolladores sin necesidad de hacer uso de grandes líneas de código como en el desarrollo tradicional.



METODOLOGÍA

Se implementaron dos plataformas en Flutter Flow denominadas Plataforma Club Experiencias y Reflexiones, y Plataforma Club Amigos Peludos con la asesoría del investigador M.C. Wilberth Molina Pérez de la Universidad Fidélitas de Costa Rica. Extrapolación de métodos y conocimientos previos en otras herramientas de low y no code tales como App Sheet y Android Studio.


CONCLUSIONES

A través de las plataformas de Flutter Flow y Firebase, se puede diseñar y desarrollar importantes e innovadoras aplicaciones de manera ágil y sencilla sin costo en la versión free de la herramienta, facilitando la labor de los desarrolladores sin necesidad de hacer uso de grandes líneas de código como en el desarrollo tradicional. Las aplicaciones desarrolladas en Flutter Flow presentan interfaz de usuario atractiva e intuitiva, lo que permite maximizar la experiencia de los usuarios.
Cardona Duque Santiago, Universidad Nacional Abierta y a Distancia
Asesor: Dra. Marcia Leticia Martínez Larios, Universidad de Guadalajara

INCORPORACIóN DE LAS TECNOLOGíAS DE LA INFORMACIóN Y LA COMUNICACIóN EN LOS PROCESOS EDUCATIVOS DE NIVEL SUPERIOR.


INCORPORACIóN DE LAS TECNOLOGíAS DE LA INFORMACIóN Y LA COMUNICACIóN EN LOS PROCESOS EDUCATIVOS DE NIVEL SUPERIOR.

Cardona Duque Santiago, Universidad Nacional Abierta y a Distancia. Asesor: Dra. Marcia Leticia Martínez Larios, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La educación superior tiene que poner cara a diversos desafíos relacionados con la adaptación a los constantes avances tecnológicos, y de esta manera a métodos educativos más accesibles y efectivos para los diversos sectores poblacionales, que se alinean con las TIC y su creciente desarrollo a lo largo de los años. La incorporación de las Tecnologías de la Información y la Comunicación (TIC) en los distintos procesos educativos, se muestra como posible solución eficaz que permite mejorar el aprendizaje significativo, y de esta manera responder a las necesidades de los estudiantes contemporáneos, aquellos que cuentan con acceso a recursos y medios digitales de información. Pese a lo anterior, la integración oportuna de estas tecnologías en la educación superior no se encuentra libre de problemas y dificultades asociadas. La implementación de las TIC en la educación superior implica una transformación en todas sus esferas, que permita la implementación de herramientas y entornos digitales, esto a su vez involucra aparte de la adquisición de tecnología, un desarrollo de estrategias educativas innovadoras, personal capacitado en las "Esferas de intervención de las Competencias Digitales" y la creación de un entorno de aprendizaje digital que fomente la participación activa de la comunidad y la construcción de un pensamiento crítico.



METODOLOGÍA

Para la implementación de las Tecnologías de la Información y la Comunicación (TIC) en los procesos educativos de nivel superior, se plantea una estrategia basada en cuatro fases:  1. Se lleva a cabo una búsqueda bibliográfica exhaustiva, de investigaciones académicas, artículos y publicaciones de revistas relacionadas con las tendencias, prácticas, las esferas de competencias digitales, y estrategias para fortalecer el aprendizaje por medio de las TIC. 2. Búsqueda de instituciones educativas que ofrezcan capacitaciones, cursos o diplomados especializados en competencias digitales. Este esfuerzo tiene como objetivo alinear las formaciones disponibles con el eje central de la investigación. Además, se evaluarán las asignaturas ofrecidas en la institución del becario DELFÍN para asegurar que respondan adecuadamente a las necesidades identificadas en el estudio. 3. Identificación de posibles estrategias para potenciar el aprendizaje de los estudiantes en educación superior. Entre las opciones consideradas, se destacan los Sistemas Tutores Inteligentes (STI) como una alternativa eficiente. Estos sistemas abordan diversas dimensiones de las competencias digitales y, de acuerdo con investigaciones previas, han demostrado ser efectivos en la mejora del aprendizaje. 4. Dar respuesta a la problemática relacionada con la importancia del conocimiento, en coherencia con el objetivo central de la investigación. Este enfoque busca proporcionar una comprensión más profunda y pertinente respecto a la relevancia del conocimiento en el contexto educativo.


CONCLUSIONES

La incorporación de las Tecnologías de la Información y la Comunicación (TIC) en la educación superior es esencial para mejorar el aprendizaje significativo y responder a las necesidades de los estudiantes digitales. Pese a ello, esta integración requiere una transformación tecnológica, que incluye la adopción de herramientas digitales, el desarrollo de estrategias educativas innovadoras y la capacitación del personal en competencias digitales. La identificación y evaluación de estrategias como los Sistemas Tutores Inteligentes (STI) señalan la importancia de adoptar tecnologías que han demostrado ser eficaces en la mejora del aprendizaje. Estos enfoques innovadores pueden fortalecer el proceso educativo, promoviendo una participación activa y el desarrollo del pensamiento crítico en estudiantes. La resolución de la problemática relacionada con el conocimiento, en relación con el objetivo central de la investigación, nos brinda una comprensión más profunda sobre cómo las TIC pueden transformar la educación superior y contribuir al avance continuo en el contexto digital.
Cardoso Magaña Jesús Eduardo, Instituto Tecnológico Superior de Puruándiro
Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara

SISTEMA DE MANUFACTURA DE CELDAS SOLARES MEDIANTE EL DEPóSITO SECUENCIAL DE PELíCULAS DELGADAS


SISTEMA DE MANUFACTURA DE CELDAS SOLARES MEDIANTE EL DEPóSITO SECUENCIAL DE PELíCULAS DELGADAS

Cardoso Magaña Jesús Eduardo, Instituto Tecnológico Superior de Puruándiro. Hernández Mora Juan Carlos, Benemérita Universidad Autónoma de Puebla. López Fonseca Carlos Alberto, Instituto Tecnológico Superior de Puruándiro. Torres Mendoza Annel Paola, Instituto Politécnico Nacional. Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La creciente demanda de energía en el mundo, así como la necesidad de reducir la contaminación que generan las fuentes de energía no renovables, han llevado a la búsqueda y desarrollo de nuevos métodos y tecnologías más eficientes y sostenibles. En este contexto, las celdas solares de silicio se destacan como una de las opciones más prometedoras debido a su abundancia, su potencial de conversión energética y su tiempo de vida. Sin embargo, la fabricación de estas celdas solares tradicionales presenta desafíos significativos, como el alto costo de producción y la complejidad de los procesos involucrados. El método de "Depósito por Inmersión Sucesiva de Reactantes Químicos" (SILAR, por sus siglas en inglés), se presenta como una alternativa viable para la fabricación de celdas solares. No obstante, enfrenta desafíos técnicos que limitan su aplicación a gran escala debido al control del grosor y la composición de las películas. En este contexto, la presente investigación se ha centrado en el desarrollo y optimización de un sistema de manufactura de celdas solares basado en el método SILAR.



METODOLOGÍA

Para el desarrollo de un sistema de manufactura centrado en automatizar el método SILAR, se ha considerado una metodología estructurada. El proceso comenzó con la revisión de documentación científica para identificar los avances más recientes; a continuación, se identificaron los requisitos y especificaciones para replicar el sistema SILAR en un sistema de manufactura. Con esta base, se diseñó la arquitectura de un sistema de manufactura, desarrollando prototipos de los componentes clave, como la unidad de inmersión, el control de temperatura, el de agitación magnética y el control de dos grados de libertad; uno para la selección de una solución entre 4 posibles y el otro para la inmersión del sustrato en la secuencia y tiempos necesarios. El desarrollo e integración del sistema se implementó en el software SolidWorks 2022, en el que, adicionalmente, se llevó a cabo la reconstrucción digital de un mecanismo ya existente que se pretendía usar en el sistema de manufactura; también se realizaron diseños propios de los mecanismos necesarios para cada uno de los sistemas descritos anteriormente, asegurando las tolerancias adecuadas para integración del sistema y asegurar la funcionalidad. Finalmente, se ensamblaron virtualmente y mecánicamente los componentes para verificar el ajuste y la interacción cinemática. De igual manera, se desarrolló un sistema de control para gestionar la temperatura de hasta 4 soluciones salinas. Esto con la integración de microcontroladores y sensores, además de un control PID para tener un buen control sobre este parámetro. Asimismo, se implementó un sistema agitador magnético con control de RPM para cada una de las soluciones químicas.


CONCLUSIONES

A través de la presente investigación hemos logrado ensamblar y acoplar los mecanismos de un sistema de manufactura basado en el método SILAR para la producción de celdas solares multicapas. Con esto se ofrece una solución alternativa prometedora para los desafíos actuales en la industria fotovoltaica. El logro del proyecto se ha dado integrando de manera efectiva el diseño de los mecanismos, así como de la instrumentación necesaria. Durante esta estancia de investigación, se alcanzó un avance notable en la optimización de la parte mecánica del sistema, con una integración precisa de los componentes que permitió verificar su función, así como en las funciones de control: de selección, inmersión, temperatura y agitación.
Carlos Patricio Isaac Emmanuel, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE PROTOTIPOS: HORNO DE VITROFUSIóN, EXPRIMIDOR DE PIñAS Y EXTRUSOR DE FILAMENTO


DESARROLLO DE PROTOTIPOS: HORNO DE VITROFUSIóN, EXPRIMIDOR DE PIñAS Y EXTRUSOR DE FILAMENTO

Carlos Patricio Isaac Emmanuel, Universidad Autónoma de Ciudad Juárez. Chab Contreras Diana Elizabeth, Universidad Autónoma de Yucatán. Espinoza Franco Sofia, Universidad Autónoma de Ciudad Juárez. Haro Bustamante Ana Laura, Universidad de Guadalajara. Leon Cancino Jesus Eduardo, Instituto Tecnológico de Tuxtla Gutiérrez. Martinez Cerino Paola Yosabeth, Instituto Tecnológico de Pachuca. Rodríguez Hernández Evelyn, Universidad de Guadalajara. Suriano Natarén Amairany, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La innovación tecnológica en el desarrollo de dispositivos industriales es fundamental para mejorar la eficiencia y calidad de los procesos productivos. Sin embargo, en muchas industrias, la adopción de tecnologías avanzadas se ve limitada por la falta de herramientas adecuadas que respondan a necesidades específicas de producción. En particular, se observa una carencia de soluciones efectivas en el ámbito de la vitrofusión, el procesamiento de frutas (como la extracción de jugo de piñas), y la fabricación de filamentos para impresión 3D. Cada prototipo presenta desafíos específicos en términos de diseño, integración de componentes electrónicos y optimización de funcionalidad. Este trabajo se centra en la cotización de materiales, diseño detallado, pruebas de componentes, programación y armado, con el objetivo de producir prototipos eficientes y funcionales



METODOLOGÍA

El desarrollo del primer prototipo de un horno de vitrofusión incluyó el diseño de una estructura con apertura en el plano (X, Z). La cápsula metálica, sin considerar la altura de las patas y tomando en cuenta la tapa superior e inferior, tiene dimensiones de 140 cm x 90 cm x 60 cm, y permite un rango de temperatura operativa de 80°C a 1300°C. Definieron las especificaciones técnicas, se elaboraron los planos correspondientes en el software SolidWorks. Con estos planos y especificaciones técnicas, se procedió a la cotización y adquisición de los materiales necesarios. Con los materiales, se realizaron pruebas exhaustivas de los componentes electrónicos para asegurar su funcionalidad y compatibilidad con el diseño del horno, estos componentes fueron integrados en la estructura del horno. Finalmente, se procedió al ensamblaje de la estructura del horno, utilizando principalmente soldadura y herramientas de medición, corte y esmeril. El segundo prototipo desarrollado es un exprimidor de piñas, el cual genera jugo por presión mecánica entre la base y un mazo fijado al techo de su soporte del exprimidor. La estructura esta diseñada para acomodar diversos tamaños de fruta. El proceso de desarrollo comenzó con el diseño del exprimidor en el software SolidWorks, donde se elaboró un esquema detallado del dispositivo, incluyendo todas las partes mecánicas y su ensamblaje. Este diseño permitió definir claramente las especificaciones y requerimientos técnicos. Una vez completado el diseño con los materiales disponibles, se realizaron pruebas para asegurar la operatividad, a diferencia de sistemas automatizados, este prototipo utiliza una manivela que permite a una persona ejercer la fuerza necesaria para operar el gato hidráulico. Finalmente, se armó la estructura del exprimidor utilizando técnicas de ensamblaje como soldadura y herramientas de precisión. El desarrollo del tercer prototipo, un extrusor de filamento, consiste en un motor que impulsa un husillo conectado a una tolva que transporta los restos del material de las impresoras 3D como PLA hacia un tubo caliente para fusionar los restos y por medio de una boquilla obtener filamento de un diámetro específico. El prototipo se diseñó en SolidWorks, los componentes que necesitamos fueron integrados en el diseño, seguido por el armado de su estructura y ensamblando todas las piezas, por último, se llevaron a cabo pruebas generales para verificar el correcto funcionamiento.


CONCLUSIONES

Se logró diseñar y desarrollar tres prototipos, enfrentando y superando diversos desafíos técnicos como la identificación de los materiales adecuados para cada prototipo, técnicas de soldadura, corte, desbaste y golpe, así como la implementación de los componentes electrónicos para el horno y el extrusor de filamento. Los resultados obtenidos indican que el prototipo del horno de vitrofusión cuenta con una estructura más grande a comparación de los hornos caseros, el sistema de aislamiento es funcional e innovador y el circuito electrónico es eficiente al controlar la temperatura. Asimismo, el exprimidor de piñas cuenta con una estructura que funciona manualmente y el extrusor de filamento fue adaptado para el uso y manejo del laboratorio. Los tres prototipos cuentan con potencial para mejoras futuras, una vez completados y refinados, estos dispositivos contribuyan significativamente a sus respectivas áreas de aplicación y abran la puerta a futuras investigaciones.
Carmona Valencia Mariana Lizbet, Universidad Politécnica de Atlautla
Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana

REVISIóN Y ANáLISIS DE REGISTROS SíSMICOS EN EL ESTADO DE GUERRERO PARA MEJORAR LA SEGURIDAD DE LAS ESTRUCTURAS Y LA POBLACIóN EN GENERAL.


REVISIóN Y ANáLISIS DE REGISTROS SíSMICOS EN EL ESTADO DE GUERRERO PARA MEJORAR LA SEGURIDAD DE LAS ESTRUCTURAS Y LA POBLACIóN EN GENERAL.

Carmona Valencia Mariana Lizbet, Universidad Politécnica de Atlautla. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

PLANTEAMIENTO DEL PROBLEMA Guerrero es un estado costero en el suroeste de México, situado en una zona de alta actividad sísmica debido a la interacción entre las placas tectónicas de Cocos donde subduce bajo la placa Norteamericana. Esta subducción es una de las principales causas de la actividad sísmica en la región. Los riesgos asociados con los sismos en Guerrero, México, son significativos debido a su ubicación en una zona de alta actividad sísmica y tienen un alto impacto en las infraestructuras, el sector ambiental y pone en riesgo la vida de su población.



METODOLOGÍA

El presente proyecto tiene como objetivo revisar y analizar los registros sísmicos en el estado de Guerrero con el fin de evaluar el riesgo sísmico, analizar el impacto de eventos sísmicos recientes, y desarrollar estrategias de mitigación. Para la recolección de datos en el Estado de Guerrero se extrae los datos sísmicos de La Red Acelerográfica del Instituto de Ingeniería de la UNAM (RAII-UNAM) es una red de monitoreo sismológico que proporciona información crítica sobre la actividad sísmica en México. La red mide y registra las aceleraciones del suelo durante eventos sísmicos. Estos registros proporcionan datos sobre cómo se mueve el suelo en respuesta a un terremoto, además incluye valores de aceleración máxima, aceleración espectral y otras métricas relacionadas con la intensidad del movimiento sísmico. Se comienza determinando la zona de estudio y determinar las estaciones a analizar y obtener la información relevante de cada una de estas como la ubicación, tipo de terreno, la cantidad de registros que tiene cada estación y la institución a cargo de dicha estación para posteriormente con base en esta información realizar el primer filtro; lo importante es ubicar y verificar que las estaciones se encuentren en operación           Con la información obtenida se procede a realizar un filtro de PGA (aceleración máxima del suelo) por sus siglas en inglés, donde los valores iniciales de aceleración sean mayores o igual 10 cm/s2, se descarga un archivo de Excel para el análisis de datos, resaltando que deben de contener información básica como la fecha del sismo, hora del sismo, ubicación. la magnitud, institución, entidad, clave estación, nombre estación, Aceleración máx. (cm/s**2), calidad y archivo , estos datos nos  permiten una comprensión completa de los eventos sísmicos, ayudan a evaluar el riesgo sísmico, y facilitan la toma de decisiones para la preparación y respuesta ante desastres. Una vez seleccionados las estaciones se lleva a cabo una comparación y se destaca el sismo con el registro de mayor valor máximo de PGA: Estación ACAC-Acapulco centro cultural en donde existe un suelo arena-limo-arenoso que en comparación con estaciones en suelos rocosos suelen ser de mayor PGA Se analizó con un evento sísmico que impacto fuerte al estado de Guerrero que tiene por fecha el 19 de septiembre de 2017 , con ayuda de las tablas anteriores se procede a revisar y analizar las estaciones y sus registros sísmicos, la información recolectada de las estaciones y sus respectivos registros obteniendo sus datos acerca del tipo de suelos-   El análisis y lectura de los registros sísmicos se llevó a cabo en el software Seismograms_analyzer_e_App,la cual es  una herramienta desarrollada para el análisis y la visualización de datos sísmicos. Su propósito principal es facilitar la interpretación y evaluación de los registros de sismos mediante una variedad de funciones especializadas. Con ayuda de las tablas anteriores donde analizamos las estaciones de la ciudad y los eventos sísmicos, se realiza un resumen tipo tabla (tabla 3) de la información recolectada de las estaciones y sus respectivos registros obteniendo lo siguiente: De las estaciones se eligieron el valor de PGA que registró el sismo, entre otros, llegamos al valor de factor de amplificación con respecto al tipo de terreno roca, para completar esta parte de la tabla es necesario tener una estación que haya registrado el sismo y que su terreno sea roca (en este caso la estación con ese tipo de terreno es ACP2). Con la información presentada en la tabla observamos que el factor de amplificación es casi el doble para la estación ACAZ (suelo limo-arcilloso), mientras que la estación POZU (suelo granite) presenta un factor similar al de ACP2 (roca), esto es debido a que tipo de terreno se presentará con mayor flexibilidad y por ende registra los valores más altos de PGA. 


CONCLUSIONES

Durante la estancia de verano en se lograron cumplir los objetivos establecidos al inicio del período fortaleciendo conocimientos en el manejo de software para la correcta lectura y análisis de registros sísmicos asimismo como los deferentes efectos que pueden provocar dependiendiendo del tipo de suelo. Dicho análisis es fundamental para promover, y fortalecer los sistemas de recolección y monitoreos de análisis y registros sísmicos del estado de Guerrero. Además, se pretende exponer la importancia que cobran las estaciones sismológicas, para la prevención y la implementación de planes de acción que reduzcan grandemente los riesgos a los que se encuentran expuestas las zonas altamente sísmicas de México. Es por ello que se destaca que el análisis sísmico es fundamental para mejorar la seguridad, reducir riesgos y promover la resiliencia en áreas propensas a terremotos. Su aplicación abarca desde el diseño y la construcción de infraestructuras hasta la preparación para emergencias y la educación comunitaria, desempeñando un papel crucial en la protección de vidas y bienes y en la gestión de riesgos sísmicos
Carpio Martinez Hector Ricardo, Universidad de Guadalajara
Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara

ANáLISIS Y SELECCIóN DE LAS DIMENSIONES DEL MéTODO SERV PERF APLICADAS PARA OBTENER RETROALIMENTACIóN DE LOS SERVICIOS PROPORCIONADOS POR LA EMPRESA REPARACIONES DE ELECTRODOMéSTICOS TAPIA


ANáLISIS Y SELECCIóN DE LAS DIMENSIONES DEL MéTODO SERV PERF APLICADAS PARA OBTENER RETROALIMENTACIóN DE LOS SERVICIOS PROPORCIONADOS POR LA EMPRESA REPARACIONES DE ELECTRODOMéSTICOS TAPIA

Carpio Martinez Hector Ricardo, Universidad de Guadalajara. Tapia Salas David Uriel, Universidad de Guadalajara. Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

 El negocio denominado Reparaciones de electrodomésticos Tapia,  requiere para mejorar sus servicios a domicilio desde el inicio del 2024, identificar una forma o método para conocer la percepción de los clientes respecto a dos factores importantes: precio y calidad. Los servicios son  realizados por los técnicos de la empresa principal y un ayudante que son los encargados de realizar todas las actividades ante el cliente, el dueño del establecimiento requiere apoyo  para tener información de evaluación respecto a las actividades realizadas por sus empleados para mejorar la calidad y precios  de los  servicios  ofrecidos y realizados.   La falta de retroalimentación de los clientes ante los servicios proporcionados por la empresa, crea duda sobre cómo ellos perciben el servicio ofrecido, sin conocimientos claro de la satisfacción del cliente y las actividades que necesitan mejoras, el negocio enfrenta riesgo de perder oportunidades de crecimiento, por la falta de organización de las actividades requeridas, para ofrecer servicios de calidad a precios razonables que cumplan con las expectativas y percepciones que requieren los clientes para considerar a la empresa  para futuros servicios . Cuáles son las dimensiones del método SER PERF aplicadas para obtener una retroalimentación de los servicios proporcionados por la empresa Reparaciones de Electrodomésticos Tapia? ¿Cuáles son los principales puntos que evalúan los clientes al considerar entre el precio del servicio y la calidad del servicio ofrecido?



METODOLOGÍA

Para este trabajo se selecciona la mitología de investigación Holística que permite ubicar las diversas propuestas en un esquema coherente y aplicable a cualquier área del conocimiento (Carhuncho-Mendoza , 2019). Los siguientes pasos para realizar la investigación con éxito: primero aplicar los diez objetivos de la investigación, segundo  identificar los diez  tipos de investigación, tercero  entender los niveles de profundidad del conocimiento,  cuarto realizar la espiral holística y quinto aplicar el ciclo holístico para la investigación en particular. Etapa 1: Entendimiento de los diez objetivos de la metodología que son: explorar, describir, analizar, comparar explicar, predecir, proponer intervenir, confirmar y evaluar. Utilizando los conocimientos de la administración de la calidad, formulación y evaluación de proyectos, industria y optimización y estudio de trabajo. Etapa 2: Identificar diez los tipos de investigación: exploratoria, descriptiva, analítica, comparativa, explicativa, predictiva, proyectiva, interactiva, confirmatoria y evaluativa Etapa 3: Entender los niveles de conocimiento: perceptual, aprehensivo, comprensivo e integrativo. Etapa  4: Diseñar la espiral holística de la investigación indicando los siguientes puntos: perceptual (describir y explorar), aprensivo (comparar y analizar), comprensivo (proponer, predecir y explicar) e integrativo (modificar, confirmar y evaluar). Etapa 5: Aplicar el ciclo holístico formado por: explorar, describir, analizar, comparar, explicar, predecir, proyectar, interactuar, confirmar y evaluar.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos, para la realización de proyectos de investigación desde una idea, estructurar el planteamiento del problema, título, objetivos generales y particulares, justificación, hipótesis y diseño de la metodóloga de investigación para este trabajo es la metodología holística y principalmente como esto se puede aplicar a un tema de interés personal, académico y profesional.  
Carranza Raygoza Carlos Andrés, Universidad de Guadalajara
Asesor: Post-doc Carlos Ramón Vidal Tovar, Universidad de Santander

VALORACIóN DEL IMPACTO DE LA PARTICIPACIóN DE LAS EMPRESAS ASOCIATIVAS RURALES EN PROYECTOS PRODUCTIVOS


VALORACIóN DEL IMPACTO DE LA PARTICIPACIóN DE LAS EMPRESAS ASOCIATIVAS RURALES EN PROYECTOS PRODUCTIVOS

Carranza Raygoza Carlos Andrés, Universidad de Guadalajara. Asesor: Post-doc Carlos Ramón Vidal Tovar, Universidad de Santander



PLANTEAMIENTO DEL PROBLEMA

Luego de afrontar una crisis en la segunda mitad de los años noventa, la cual coincidió con el aumento de la pobreza a nivel nacional, en Colombia se inició un proceso de recuperación desde el año 2003. La pobreza rural está vinculada al sector de la economía informal y al sector agropecuario, también informal en su mayoría. Es ahí donde, para combatir la pobreza, van naciendo proyectos que buscan aumentar la capacidad de la población rural para que generen sus propios ingresos a través de empresas competitivas, y así combatir el desempleo y que los ingresos y calidad de vida de las familias más pobres aumenten. También se busca que estas microempresas rurales puedan competir en mercados dinámicos con calidad y volumen mediante esquemas organizativos. Una de las problemáticas que presenta este tema es que no hay suficiente esquematización de la información disponible sobre el impacto que la participación en proyectos productivo tiene para las empresas asociativas rurales, así que este es un esfuerzo para que haya una evaluación de cómo les beneficia a estas asociaciones en su economía el participar en proyectos productivos.



METODOLOGÍA

Para desarrollar este trabajo se tomó como fundamento lo propuesto por autores como Hernández y Otros (2010); Hurtado de Barrera (2010); Bavaresco (2009) y Vieytes (2004), en lo relacionado con investigaciones con instrumentos cualitativos, para lo cual se adaptó una entrevista de Ross (2012) y Reyes y otros (2018) y se aplicó una entrevista semi estructurada de trece preguntas abiertas a ocho representantes legales de empresas asociativas rurales con experiencia en la participación en proyectos de fortalecimiento de capacidades productivas y sociales en el Departamento del Cesar, Colombia. La entrevista fue compartida vía WhatsApp con los representantes legales de las empresas rurales que aceptaron colaborar con la información solicitada. Posteriormente, ellos respondieron en formatos de textos, imágenes, mensajes de voz o mensajes directos. Para cada pregunta se construyó un documento Word con la organización de categorías conceptúales comunes, significativas y diferenciales, luego se organizó un informe cualitativo estructurado a partir de la información suministrada por los participantes. Además, se la revisión de diferentes fuentes de información obtenida en libros, documentos digitales, revistas científicas e institucionales, leyes y decretos sobre la empresa asociativa rural o la empresa campesina en Colombia. La investigación se realizó en el primer semestre del año 2023, en Valledupar - Cesar, Colombia. 


CONCLUSIONES

Durante la estancia de verano pude aprender sobre la importancia de las empresas asociativas rurales para la economía de estas mismas comunidades, además del motor económico que representan, y que mientras mayor sea el desarrollo empresarial agropecuario,  más irán aumentando los beneficios en términos de producción, calidad de vida, seguridad alimentaria, fuente de empleo y mejora de la economía local en general de las familias asociadas. Es vital apoyar a las empresas que representan la base económica de las comunidades rurales, al participar en proyectos productivos estas mencionaron que fue una experiencia gratificante y manifestaron mayores niveles de bienestar, un enriquecimiento de conocimientos y más prosperidad económica y social. El emprendimiento en zonas rurales puede llegar a tener el potencial de ser un mecanismo promotor de desarrollo rural.
Carreño Pinzon Jhon Sebastian, Universidad de Santander
Asesor: Dra. Sara Alexandra Restrepo Valencia, Universidad Autónoma de Manizales

CONTEXTO DEL HIDRóGENO RENOVABLE EN COLOMBIA


CONTEXTO DEL HIDRóGENO RENOVABLE EN COLOMBIA

Carreño Pinzon Jhon Sebastian, Universidad de Santander. Ricardo Villanueva Juan Sebastian, Universidad Nacional Abierta y a Distancia. Asesor: Dra. Sara Alexandra Restrepo Valencia, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema  El hidrógeno es el elemento más abundante del universo y tiene un gran potencial como fuente de energía limpia y renovable. Con la urgencia de encontrar alternativas a los combustibles fósiles, el hidrógeno ha surgido como una opción viable debido a su alta densidad energética y la ausencia de emisiones contaminantes al utilizarse en celdas de combustible. Actualmente, el medio ambiente está gravemente afectado por las emisiones de CO₂, que contribuyen al cambio climático, siendo responsable del 73% de las emisiones globales de gases de efecto invernadero. Por ello, la investigación en nuevas fuentes de energía, como el hidrógeno, se ha intensificado. El hidrógeno se clasifica por colores, conocidos como el "arcoíris del hidrógeno", según sus métodos de producción y el impacto ambiental. Los colores incluyen: - H2 Morado (Violeta, rosa, rojo): Producido mediante electricidad de centrales nucleares y electrólisis. - H2 Amarillo: Generado por electrólisis usando energía hidroeléctrica. - H2 Gris: Producido a partir del reformado de metano con vapor, generando subproductos como CO₂. - H2 Turquesa: Producido por pirólisis del metano, generando carbono sólido en lugar de CO₂. - H2 Marrón y Negro: Generado a partir de carbón lignito y bituminoso, emitiendo altas cantidades de CO₂. - H2 Azul: Producido a partir de combustibles fósiles con captura y almacenamiento de carbono (CCUS). - H2 Blanco: Hidrógeno natural encontrado en la corteza terrestre y otros lugares.  



METODOLOGÍA

 Metodología Para comenzar, es fundamental introducirnos en el contexto y proporcionar una definición exhaustiva del hidrógeno. Además, abordamos el concepto del "arcoíris del hidrógeno" y detallamos las características específicas asociadas a cada uno de los colores que lo componen. En primer lugar, como ya hablamos anteriormente el hidrógeno es el elemento químico más abundante en el universo, representado por el símbolo H y con un número atómico de 1. Su ubicuidad y versatilidad lo convierten en un componente esencial para diversas aplicaciones científicas e industriales. Sin embargo, su papel en la transición energética ha sido particularmente destacado en los últimos años. Con base en lo anterior, procedimos a llevar a cabo un análisis exhaustivo de las diversas aplicaciones en las cuales el hidrógeno es utilizado. Este análisis fue fundamental para comprender la amplitud y profundidad de los usos actuales del hidrógeno en diferentes sectores. Se evaluaron tanto las aplicaciones industriales como las emergentes, considerando factores como eficiencia, sostenibilidad y viabilidad económica. Este enfoque nos permitió identificar las áreas clave en las que el hidrógeno desempeña un papel crucial y cómo su uso puede evolucionar en el futuro. Posteriormente, procedimos a llevar a cabo una búsqueda exhaustiva utilizando la herramienta Scopus con el fin de realizar una revisión bibliográfica detallada relacionada con artículos que tratan sobre el hidrógeno y su potencial. A continuación, implementamos una serie de filtros específicos con el objetivo de analizar de manera meticulosa los temas abordados en la revisión bibliográfica y la información obtenida. Este enfoque nos permitió asegurar la relevancia y calidad de las fuentes seleccionadas, garantizando una base sólida y fundamentada para nuestro estudio. Los datos que arrojó la base de datos, tales como título, autores, procedencia de autores, citaciones, referencias y resumen fueron analizados en el software VOSviewer para hacer análisis de coocurrencias.


CONCLUSIONES

Conclusiones En conclusión, se encontró la importancia de realizar estudios de investigación en torno al hidrógeno como vector energético. Estos resultados se enmarcan en el contexto de la transición energética global, un proceso de transformación que busca mitigar el impacto ambiental y garantizar la sostenibilidad a largo plazo de los sistemas energéticos mundiales. La evidencia proporcionada por esta investigación subraya la creciente atención que la comunidad científica ha dedicado al hidrógeno como una alternativa prometedora dentro del panorama energético emergente. Este enfoque se alinea con los objetivos de descarbonización y la búsqueda de fuentes de energía más limpias y eficientes, que son fundamentales para abordar los desafíos climáticos contemporáneos. Los datos obtenidos reflejan una tendencia clara hacia la intensificación de los esfuerzos investigativos en este campo, lo cual es congruente con las metas establecidas en acuerdos internacionales y políticas nacionales orientadas a la mitigación del cambio climático y la promoción de energías renovables. En síntesis, los resultados obtenidos no solo contribuyen al corpus de conocimiento científico sobre el hidrógeno, sino que también ponen de manifiesto la interrelación entre la investigación académica y los apremiantes desafíos energéticos y ambientales que enfrenta la sociedad contemporánea. Este estudio sienta las bases para futuras investigaciones y subraya la necesidad de continuar explorando el potencial del hidrógeno como componente clave en la transición hacia un futuro energético más sostenible y resiliente.
Carreon Nieto Wendy Liliana, Instituto Tecnológico de Morelia
Asesor: Dra. Ana Beatriz Martinez Valencia, Universidad Michoacana de San Nicolás de Hidalgo

SíNTESIS DE HIDROXIAPATITA A PARTIR DE BAGAZO DE AGAVE CUPREATA


SíNTESIS DE HIDROXIAPATITA A PARTIR DE BAGAZO DE AGAVE CUPREATA

Carreon Nieto Wendy Liliana, Instituto Tecnológico de Morelia. Asesor: Dra. Ana Beatriz Martinez Valencia, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Dada la limitada información sobre la producción de óxido de calcio a partir de bagazo de agave, se realizó un análisis utilizando agave cupreata. Este estudio innovó al incorporar la destilación del bagazo antes de la calcinación para eliminar aceites naturales y minerales, mejorando así la eficiencia del proceso. Se exploró el uso de un microondas para la calcinación en lugar de los hornos tradicionales. Mientras que los métodos convencionales tomaban hasta 48 horas y generaban una mayor contaminación ambiental, el uso del microondas redujo el tiempo de calcinación a solo 90 minutos, mejorando la eficiencia del proceso y disminuyendo la huella ambiental. Además, el microondas permitió un control más preciso de la temperatura, asegurando la calidad y consistencia del óxido de calcio producido. Este método no solo optimiza tiempo y recursos, sino que también puede abrir nuevas oportunidades para la producción industrial de óxido de calcio a partir de fuentes vegetales, contribuyendo a la sostenibilidad. En los últimos años, la hidroxiapatita cerámica ha demostrado ser un reemplazo seguro para huesos autógenos, siendo el componente inorgánico principal de huesos y dientes, representando entre el 60 y el 70% del esqueleto humano calcificado y el 90% de la matriz ósea inorgánica. El agave cupreata se presenta como una fuente innovadora para la síntesis de hidroxiapatita, combinando conocimiento tradicional y aplicaciones biomédicas modernas. Este agave contiene minerales como calcio y fósforo, fundamentales para la formación de hidroxiapatita. La planta puede ser recolectada tras 10 a 15 años de crecimiento, utilizando las hojas y el corazón del agave (piña) para extraer los compuestos necesarios.



METODOLOGÍA

Preparación del Material: Lavado del Agave: Se lavaron dos recipientes de 1 litro de bagazo de agave cupreata, primero con agua corriente (siete veces) y luego con agua destilada (cuatro veces) utilizando un tamiz de malla número 50 para minimizar la pérdida de finos. Secado del Bagazo: El bagazo lavado se secó en un horno a 70°C durante 48 horas, removiéndolo a las 24 horas para asegurar un secado uniforme. Tamizado del Bagazo: El bagazo seco se tamizó con mallas de diferentes números (300 a 120). El material que pasó por la malla número 120 se utilizó para la calcinación. Destilación: Se destiló el bagazo con una solución de benceno-etanol (2:1) en un Soxhlet a 270°C durante 2 horas para eliminar aceites y minerales. Este paso es crucial para asegurar la pureza del material y mejorar la eficiencia de la calcinación. Calcinación: Proceso en Microondas: El agave destilado se calcinó en varias etapas en un microondas especializado: 15 minutos a 720°C 20 minutos a 830°C 25 minutos a 940°C 30 minutos a 980°C El microondas permitió una calcinación rápida y controlada, reduciendo el tiempo de 48 horas (en hornos convencionales) a 90 minutos y disminuyendo la contaminación ambiental. Obtención del Óxido de Calcio: La calcinación del agave resultó en la descomposición del material orgánico y la formación de óxidos minerales, principalmente óxido de calcio (CaO). Síntesis de Hidroxiapatita: Preparación de Soluciones: Se prepararon soluciones de ácido fosfórico (H₃PO₄) e hidróxido de sodio (NaOH) a 0.1 M. Reacción: 0.1 gramos de CaO se mezclaron con H₃PO₄ en un proceso controlado. Se añadieron 10 ml de ácido fosfórico a una solución de CaO en 17.4 ml de agua destilada. Para ajustar el pH al rango óptimo (8-9), se añadieron 18 gotas de NaOH, logrando un pH de 8.5. Este control es esencial para obtener hidroxiapatita de alta pureza. Importancia del Control: El control preciso del pH y la concentración de los reactivos es crucial para la formación adecuada de hidroxiapatita.


CONCLUSIONES

En este estudio se logró obtener óxido de calcio de manera eficiente a partir del bagazo del agave cupreata, implementando un proceso optimizado que abordó problemas cruciales como la contaminación ambiental y el ahorro de tiempo y energía. La reutilización de los desechos de agave ofrece una solución sostenible. La calcinación mediante horno de microondas demostró ser superior a los métodos tradicionales, permitiendo una calcinación más rápida y con menores emisiones contaminantes. La destilación previa del bagazo con una solución de benceno-etanol resultó efectiva para purificar el material, eliminando impurezas que podrían interferir con la calcinación y la calidad del óxido de calcio. En conclusión, el enfoque adoptado muestra una mejora significativa en eficiencia, ahorro energético y reducción de contaminación, estableciendo una base sólida para la producción de hidroxiapatita de alta pureza a partir de bagazo de agave cupreata.
Carrillo Castro Cynthia Edith, Universidad Autónoma de Zacatecas
Asesor: Dr. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia

CIENCIA DE DATOS APLICADA A TRAVéS DE ALGORITMOS DE APRENDIZAJE SUPERVISADO Y VECINOS MáS CERCANOS PARA BASE DE DATOS MéDICA


CIENCIA DE DATOS APLICADA A TRAVéS DE ALGORITMOS DE APRENDIZAJE SUPERVISADO Y VECINOS MáS CERCANOS PARA BASE DE DATOS MéDICA

Carrillo Castro Cynthia Edith, Universidad Autónoma de Zacatecas. Asesor: Dr. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La ciencia de datos es un campo que permite extraer y analizar patrones relevantes mediante el uso de estadística, inteligencia artificial y procesamiento de lenguaje natural (PLN). Estas técnicas son esenciales para resolver problemas y tomar decisiones en diversas áreas. Las Máquinas de Vectores de Soporte (SVM, por sus siglas en inglés) son algoritmos de aprendizaje automático supervisado, es decir, algoritmos que aprenden a etiquetar, clasificar y predecir a partir de datos ya existentes. De manera similar, el algoritmo kNN (k-Vecinos Más Cercanos) se basa en la agrupación de datos similares y, al igual que SVM, es un algoritmo de aprendizaje automático supervisado utilizado para clasificación y predicción. Actualmente, la diabetes es la tercera causa de muerte en México. Para encontrar coincidencias y patrones que puedan mejorar el manejo de esta enfermedad, se ha recopilado una base de datos médica que incluye información sobre peso, glucosa, edad, entre otros factores. Este estudio analizará estos datos utilizando los algoritmos de SVM y kNN para identificar patrones y potencialmente mejorar la intervención en el campo médico.



METODOLOGÍA

Limpieza y procesamiento de datos Se utilizó una base de datos médicas proporcionada por el asesorla cual contiene mas de un millón de registros. Para la cual se realizó un diccionario de datos, el cual contiene información como la descripción de las tablas, descripción de las columnas, máximos, mínimos, moda, mediana, moda, entre otras referencias para el correcto análisis del mismo. La base de datos incluye datos relevantes que indican el estado de salud de los pacientes, para el preprocesamiento de datos, se eliminaron registros incompletos y se manejaron valores faltantes. De un total de aproximadamente 400 columnas, se seleccionaron solo las más relevantes para el análisis, asegurando la calidad de los datos para los siguientes pasos. Support Vector Machine Como se mencionó anteriormente, las Máquinas de Vectores de Soporte son algoritmos que ayudan a etiquetar datos ya existentes, por lo que haciendo uso de librerias de python como sqlite3 para interactuar con base de datos sqlite, Pandas para el análisis de datos, matplotlib para visualización de gráficos y sklearn para el aprendizaje automático. Se realizó un algoritmo el cual reduce, entrena, predice y visualiza datos como la glucosa y el peso. Se aplicó el análisis de Componentes Principales (PCA), para reducir la complejidad del modelo y mejorar su rendimiento ya que nos encontranamos con limitaciones del dispositivo. El modelo SVM se entrenó utilizando un conjunto de datos de entrenamiento. Se seleccionó un kernel adecuado (como el kernel lineal o radial) para optimizar el rendimiento. También, se realizaron predicciones en un conjunto de prueba y se evaluó el rendimiento del modelo mediante métricas. Por ultimo, los resultados de analisis, se visualizaron utilizando gráficos. En este caso, se utilizaron los datos de peso y glucosa, y de esta relación, se puede observar coincidencias de los pacientes que son diabéticos. k-Vecinos Más Cercanos Para el preprocesamiento de datos se etiquetan 2 objetos, $"x"$  el cual contiene las columnas de la tabla, y $"y"$ el cual indica si el paciente es diabético. Por otro lado, para que nuestro modelo knn pueda procesar los datos, es necesario convertir las variables x en indicadores binarios. Ya que nuestro algoritmo es sensible al tamaño de datos que se maneja, se normaliza. Posteriormente se dividen los datos para prueba y entrenamiento para que después seleccionar un nuevo grupo de datos de vecinos más cercanos. Para la predicción, el algoritmo se entrena para la clasificación y selección.  Por ultimo se agrega una visualización de los datos requeridos. 


CONCLUSIONES

A lo largo de la estancia se logró adquirir conocimientos de análisis de datos, además de instruirse en los distintos tipos de algoritmos de aprendizaje automático y como implementar soluciones en problemas de la vida cotidiana, en este caso el campo biomédico, coincidencias para el tratamiento de la diabetes. Se encontraron coincidencias entre la glucosas y el peso de un paciente diabético, y otros posibles diagnosticos que pueda padecer y se espera lograr encontrar otras coincidencias. 
Carrillo Gutierréz Armando Baruc, Universidad Tecnológica de Nayarit
Asesor: Mtro. Héctor Alejandro Galvez López, Universidad de Guadalajara

IOT 4 ALL DASHBOARD


IOT 4 ALL DASHBOARD

Cahuich Cruz Wilberth Antony, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Carrillo Gutierréz Armando Baruc, Universidad Tecnológica de Nayarit. Asesor: Mtro. Héctor Alejandro Galvez López, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad  (2024) nos encontramos ya en la cuarta revolución industrial la cual  ha traído muchos beneficios a la sociedad. Con ella, tuvimos la llegada del Internet de las cosas(IOT), la cual nos ha proporcionado grandes beneficios tecnológicos como pueden ser la recolección masiva de datos y los sistemas automatizados, entre otros.  Sin embargo, una problemática que se presenta en la recolección masiva de datos es que los datos que se recolectan de estos sensores pueden demasiados por lo tanto al tener un cúmulo tan grande de datos se corre el riesgo de obviar lo verdaderamente  importante que es: el análisis e interpretación de los datos Otra problemática es poder enviar los datos para que puedan ser analizados y visualizados. Tener algunos de estos servicios que nos permitan tener conectividad entre nuestros sensores y los servidores puede ser una inversión  costosa, no sólo en términos de servicio, si no en los componentes electrónicos necesarios.  



METODOLOGÍA

Para poder realizar la aplicación, fue necesario entender a fondo el tema y la problemática que se pretendía abordar. Por ello, investigamos diversos artículos científicos, los cuales nos ayudaron a tener una mayor perspectiva del problema y, de esta manera, generar una solución adecuada. Una vez concluida la fase de investigación, comenzamos a crear wireframes y prototipos para la aplicación. Para esta tarea, utilizamos programas como Figma y Miro, que nos permitieron diseñar y visualizar las interfaces de usuario de forma eficiente. La aplicación desarrollada lleva por nombre ClusterHub. Tras la fase de diseño, empezamos con las pruebas de comunicación utilizando el protocolo de MQTT (Message Queuing Telemetry Transport). Para ello, nos apoyamos con el programa Mosquitto, el cual nos facilitó la comprensión de los protocolos de comunicación entre los sensores y otros sistemas. Estas pruebas fueron esenciales para asegurar la correcta transmisión de datos entre los dispositivos y la aplicación. Posteriormente, iniciamos la programación de la aplicación. Para el desarrollo del front-end, utilizamos el framework de React Native, lo que nos permitió crear una interfaz de usuario atractiva y funcional. Por otro lado, para el desarrollo del back-end, empleamos Python, un lenguaje de programación robusto y versátil, adecuado para manejar la lógica de negocio y la comunicación con el servidor. Para el almacenamiento de los datos, optamos por utilizar MySQL como sistema gestor de base de datos, debido a su fiabilidad y capacidad para manejar grandes volúmenes de información de manera eficiente. En resumen, el desarrollo de ClusterHub involucró una cuidadosa investigación inicial, el diseño detallado de wireframes y prototipos, pruebas exhaustivas de comunicación utilizando MQTT y Mosquitto, y la implementación final utilizando tecnologías como React Native para el front-end, Python para el back-end y MySQL para la gestión de la base de datos.  


CONCLUSIONES

Durante esta estancia de verano adquirimos diversos conocimientos de diversos temas, desde el protocolo de comunicación en los sensores hasta mejorar la habilidad de la programación, investigación, redacción, así como el entendimiento acerca de la recolección de datos de los sensores IoT y de igual manera aprendimos sobre el impacto tecnológico que nos ofrece la cuarta revolución industrial. La gran ventaja que nos proporciona el análisis de datos y machine learning.
Carrillo Vaca Edgar Brandom, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Adrian Núñez Vieyra, Instituto Tecnológico de Morelia

DETECCIóN FíSICA DE AMENAZAS USANDO REDES DE VIDEOVIGILANCIA VECINALES Y VíDEO ANáLISIS


DETECCIóN FíSICA DE AMENAZAS USANDO REDES DE VIDEOVIGILANCIA VECINALES Y VíDEO ANáLISIS

Baca Cruz Alexis, Instituto Tecnológico Superior de Ciudad Hidalgo. Carrillo Vaca Edgar Brandom, Instituto Tecnológico Superior de Ciudad Hidalgo. Mora Sandoval Juan David, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Adrian Núñez Vieyra, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

Los Sistemas de Videovigilancia, se están convirtiendo en un importante aliado para resolver o esclarecer diferentes problemas de seguridad tales como, accidentes de tránsito, 2 disturbios en la vía pública, destrozos y robos en propiedad privada, etc. Sin embargo, la mayoría de estos sistemas terminan convirtiéndose en gigantescas bases de datos que suelen ser analizadas manualmente después de ocurrido un delito. En diversas empresas, asi como en espacios públicos, son parte esencial la supervisión de la afluencia peatonal y la detección de posibles actos inusuales esto, surge a una necesidad mayor, fuera de los horarios laborales, como lo es en altas horas de la noche. Sin embargo, la falta de sistemas tecnológicos y la fata de sistemas automatizados para dicha supervisión han traído consigo, la falta de recursos suficientes para poder llevar a cabo investigaciones de seguridad. La problemática principal en la detección de amenazas radica en la ausencia de sistemas automatizados que incorporen diversos parámetros estandarizados para la detección, es por ello, que en el verano de la investigación, nos enfocamos en el desarrollo de un sistema basado en visión por computadora que utiliza modelos avanzados de detección y seguimiento para contar personas, registrar actividades y generar estadísticos con ayuda de la inteligencia artificial, ya que este enfoque tiene como objetivo optimizar la seguridad y la gestión de recursos en distintos periodos del día, tanto en horarios laborales como no laborales.



METODOLOGÍA

1. Configuración del Sistema: Hardware: Utilización de cámaras de seguridad compatibles con RTSP. Software: Implementación de un entorno de desarrollo basado en Python, utilizando bibliotecas como OpenCV, NumPy, y el modelo YOLOv8 para detectar personas. Base de Datos: Configuración de una base de datos MySQL para almacenar registros de detección de personas y actividades.   2. Detección y Seguimiento de Personas: Modelado: Implementación del modelo YOLOv8 para la detección de personas en los flujos de video en tiempo real. Seguimiento: Uso del algoritmo SORT para el seguimiento de las personas detectadas, asignando identificadores únicos a cada individuo.   3. Almacenamiento y Gestión de Datos: Registro de Actividades: Almacenamiento de los registros de detección en la base de datos MySQL, incluyendo la identificación de la persona, la actividad y la marca de tiempo. Limpieza de Datos: Funcionalidad para limpiar la tabla de datos de personas cuando sea necesario.   4. Generación de Estadísticas: Cálculo de Promedios: Desarrollo de consultas SQL para calcular la afluencia peatonal promedio en distintos horarios del día y días de la semana tanto laborales como no laborales. Visualización: Creación de una interfaz visual utilizando OpenCV para mostrar las estadísticas generadas.   5. Pruebas y Validación: Pruebas en Entorno Controlado: Implementación y ajuste del sistema en un entorno distinto (Raspberry pi 3, Raspberry pi 4, Raspberry pi 5, jetson Nano, por mencionar algunos entornos) para validar la precisión y eficiencia del sistema. Ajustes y Mejoras: Iteraciones basadas en los resultados de las pruebas para mejorar la detección, seguimiento y generación de estadísticas.


CONCLUSIONES

Al utilizar tecnología avanzada de visión por computadora y algoritmos de seguimiento, la implementación al sistema automatizado de supervisión y control de cámaras, nos permite una mejora significativa en la seguridad y gestión operativa de espacios públicos y privados, ya que el sistema proporciona un monitoreo continuo y preciso de la afluencia peatonal, tanto en horarios laborales como no laborales. Esto gracias a los estadísticos que se generan, ya que nos ofrecen una visión detallada de los patrones de comportamiento, facilitando la toma de decisiones ante esta implementación de seguridad.   EL enfoque no solo se centra en optimizar la eficiencia operativa, sino que fortalece tambien, la seguridad, proporcionando asi, una solución practica para el monitoreo, análisis y control de las actividades peatonales.
Carvajal Alvarez Maria Fernanda, Universidad Tecnológica de Nayarit
Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz

PERFILAMIENTO DE PREFERENCIAS EN áREAS STEAM MEDIANTE INTERACCIONES EN REALIDAD VIRTUAL USANDO EYE TRACKING


PERFILAMIENTO DE PREFERENCIAS EN áREAS STEAM MEDIANTE INTERACCIONES EN REALIDAD VIRTUAL USANDO EYE TRACKING

Carvajal Alvarez Maria Fernanda, Universidad Tecnológica de Nayarit. Flores Tejeda Brayam, Universidad Tecnológica de Tecamachalco. Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

A través de los años se han conocido tanto a hombres como a mujeres los cuales fueron pilares para la creación de inventos, investigaciones y aportaciones en lo que hoy en día se conoce como el área STEAM, pero a pesar de que se ha reconocido a ambos géneros como parte de esta metodología, en realidad son más los hombres los cuales son nombrados, al contrario de las mujeres que son en comparación pocas las cuales logran sobresalir en estas materias. Esto es debido a diversas barreras las cuales hacen que las mujeres adquieran cierto temor al estereotipo que fue creado alrededor de estas disciplinas haciendo aún más difícil la elección educativa, sumándole la falta de recopilación de datos, los cuales ayudarían a allanar un camino en el que las mujeres tengan un mejor acceso tanto a la información, como a la detección temprana de las capacidades que se pueden desarrollar cuando te enfocas en dicha metodología. Gracias a esto se analizó la necesidad de la implementación de una interfaz la cual ayude a recopilar los datos necesarios para lograr llevar a cabo acciones de cambio las cuales faciliten la elección de carrera.



METODOLOGÍA

Usando el software Unity se creó un proyecto en 3D el cual permite la implementación de realidad inmersiva para con esto crear un entorno virtual que recopile a través de gafas VR la interacción usuario-plataforma. Dentro del entorno virtual se construyeron diversas salas las cuales ayudaran al usuario a familiarizarse con la metodología STEAM, dónde cada sala representa y explica una disciplina diferente como lo son: STEAM, Ciencia, Tecnología, Ingeniería, Artes y Matemáticas. En cada espacio dedicado a las disciplinas se usaron diversos objetos representativos de cada materia, los cuales son interactuables para que el usuario mejore su experiencia y conocimientos acerca de las disciplinas mostradas. A su vez se ingresaron al software las paqueterías necesarias para lograr la interacción del entorno virtual con las gafas Pico Neo 3, con esto los usuarios entraron al juego con la experiencia de la realidad inmersiva e interactuaron con todos los recursos dentro del entorno Por último, se adicionaron los complementos necesarios para que a través de las gafas de realidad virtual se pueda detectar el movimiento ocular con el fin de realizar el almacenamiento de datos sobre las preferencias de áreas STEAM.


CONCLUSIONES

Durante la estancia del verano y el tiempo dedicado al proyecto se logró obtener conocimientos de los elementos representativos de la metodología STEAM, así como el desarrollo de un escenario de realidad virtual que incorpora esos elementos de las disciplinas en conjunto con la posibilidad para que el usuario experimente diversas interacciones dentro del entorno las cuales permitirán identificar por medio de eye tracking las preferencias de mujeres hacia estas áreas.
Casalegno Nuñez Erika Yulisa, Instituto Tecnológico Superior de Los Ríos
Asesor: M.C. Fernando May Esquivel, Instituto Tecnológico Superior de Los Ríos

PRODUCCIóN DE BRIQUETAS DE CARBóN ELABORADAS CON RESIDUOS DE PALMA DE ACEITE DE LA REGIóN DE LOS RíOS


PRODUCCIóN DE BRIQUETAS DE CARBóN ELABORADAS CON RESIDUOS DE PALMA DE ACEITE DE LA REGIóN DE LOS RíOS

Casalegno Nuñez Erika Yulisa, Instituto Tecnológico Superior de Los Ríos. García Martínez Raúl, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Fernando May Esquivel, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema Actualmente se ha presenciado un incremento excesivo de los precios del gas doméstico que ha dejado a muchas familias vulnerables y negocios sin acceso a fuentes de calor asequibles. Esta situación ha incrementado la demanda de leña y carbón, lo que a su vez ha contribuido a la tala ilegal y la deforestación. En Tabasco, la agroindustria de extracción del aceite de palma en el sureste de México procesa aproximadamente 1.8 millones de toneladas de fruta fresca anualmente, generando hasta un 37% de residuos con alto potencial energético. Estos residuos pueden ser utilizados para producir briquetas, un combustible alternativo sostenible. Sin embargo, el proceso de producción de briquetas a partir de estos residuos necesita ser optimizado para mejorar su eficiencia y calidad.  



METODOLOGÍA

Para elaborar nuestras briquetas de carbón seguimos los siguientes pasos: Obtención de la materia prima: Como primer paso se hizo una visita a la Agroindustria Oleica de la Región de los Ríos, la cual es una empresa que se dedica a la obtención de aceite crudo. El propósito de venir a este lugar fue que aquí se proporcionara la materia prima, específicamente fibra de la palma de aceite y otra materia llamada raquis. Preparación de la materia prima: Se colocó al sol la materia para así restarle su contenido de humedad y con ello sea más sencillo la carbonización. Carbonización: La materia prima (fibra y raquis) se introdujo en un tambo de aluminio, el cual se tuvo que ajustar para así poder hacer el proceso de carbonización. Después se le prendió fuego a la materia y cuando haya empezado a tonarse negra la materia se procedió a privarla de poco oxígeno, manteniéndola y  después de dos horas el fuego se apagó completamente y la temperatura fue disminuyendo. Molienda: Una vez carbonizada la materia se procede a molerla. En nuestro caso se usó un cilindro de concreto para poderla triturar mejor Mezcla: Se mezcla la materia carbonizada con un aglutinante, en este caso se usó melaza Compactación: Una vez obtenida la mezcla la metemos en un molde, nosotros usamos un cilindro y con la ayuda de una prensa hidráulica la compactamos. Secado: Una vez obtenidas las briquetas procedemos a secarlas para así bajar su contenido de humedad Una vez que se habían hecho una buena cantidad de briquetas se procedió a hacerle 3 pruebas: Prueba de ignición, prueba de combustión y prueba de ebullición del agua   Prueba de Ignición La prueba de ignición es para determinar el tiempo necesario para que la briqueta alcance el grado total de encendido A continuación, se describe el proceso que se hizo Se colectaron muestras de dimensiones similares Se graduó la longitud de la muestra (en cm) Se colocó la muestra (peso) de prueba en una posición segura y estable sobre un tripie con malla Para encender la muestra se utilizó un mechero de alcohol, se puso directo a la muestra durante un minuto Después del minuto se procedió a tomar el tiempo y se fue anotando cuando haya llegado al 50%, 75% y 100% de su encendido. Encendido al 50%: Se refiere al tiempo alcanzado cuando la muestra presenta un encendido del 50% de su longitud. Encendido total: Se refiere al tiempo alcanzado cuando la muestra presenta un encendido del 100% de su longitud.   Prueba de combustión Se refiere a la cantidad de la masa de la muestra que se consume durante la combustión por unidad de tiempo A continuación, se describe el proceso que se hizo: Colectar muestras de dimensiones similares Obtener los pesos constantes de las muestras Obtener los pesos constantes de los capsulas de porcelana Colocar la muestra en los capsulas de porcelana y encender la muestra Registrar los pesos de la muestra cada 2 o 5 minutos hasta que ya no se registre variación en el peso   Prueba de ebullición del agua Utilizada para evaluar la eficiencia térmica y la calidad de las briquetas de biocarbón o cualquier otro combustible sólido. Para realizar esta prueba se usaron dos métodos, en el primero se utilizaron tres calorímetros y en el segundo se uso un vaso de precipitados para calentar agua A continuación, se describe el proceso que se hizo: Encender al menos 12 briquetas para poder repetir el experimento. Obtener los pesos constantes de las briquetas encendidas. Llenar el recipiente pequeño del calorímetro con 150 ml de agua. Colocar dentro del recipiente grande una briqueta encendida. Cerrar el calorímetro y empezar a anotar la temperatura inicial. Capturar la temperatura cada 5 min hasta que se mantenga constante. Para el segundo método se siguió el siguiente procedimiento: Montar una parrilla. Encender al menos 12 briquetas. Obtener los pesos constantes de las briquetas encendidas. Llenar un vaso de precipitados con 1 L de agua. Colocar el vaso sobre la parrilla y empezar a cronometrar el tiempo. Anotar la temperatura inicial. Capturar la temperatura cada 5 min hasta que se mantenga constante.


CONCLUSIONES

  Conclusión Dado el análisis que se le hizo a las briquetas y los resultados obtenidos podemos concluir que el valor agregado a este desecho de la palma de aceite es viable e innovador, además, podría tener un gran alcance comercial ya que la producción de estas briquetas no es costosa, iniciando desde la obtención de la materia prima que prácticamente es regalada y no solo eso, sino que se da en gran abundancia en el estado de Tabasco y sus alrededores. Otra cosa importante que considerar es que de todas las pruebas que se les hicieron a las briquetas se compararon con el carbón vegetal y resulto que tiene el mismo potencial calorífico o hasta mayor, lo cual hace que la briqueta sea una gran competencia en el marcado del carbón, sin embargo, es importante recordar que el proceso para hacer la briqueta viene desde la reutilización de residuos que producimos y eso es lo que se necesita en la actualidad considerando todas las toneladas de basura que generamos por año.  
Castañeda Díaz Roberto Josué, Universidad Veracruzana
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

EVALUACIÓN DE LAS MELAZAS DE CAÑA DE AZÚCAR COMO ADITIVO RETARDANTE DE FRAGUADO PARA CONCRETOS


EVALUACIÓN DE LAS MELAZAS DE CAÑA DE AZÚCAR COMO ADITIVO RETARDANTE DE FRAGUADO PARA CONCRETOS

Castañeda Díaz Roberto Josué, Universidad Veracruzana. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El concreto es esencial en la construcción urbana moderna, especialmente en áreas con crecimiento poblacional e infraestructura como Veracruz, donde el clima cálido presenta desafíos. Las altas temperaturas pueden acelerar el fraguado del concreto, comprometiendo su calidad y durabilidad, además de aumentar los costos por la necesidad de aditivos aceleradores de fraguado. Este efecto es exacerbado por la isla de calor urbano, causada por la disminución de vegetación y el aumento de superficies impermeables, elevando las temperaturas locales y afectando tanto la calidad de vida como los procesos de construcción. En este contexto, se buscan soluciones que mitiguen los efectos del clima cálido sobre el fraguado del concreto. Una alternativa es el uso de aditivos retardantes de fraguado, como la melaza de caña de azúcar, un subproducto agrícola disponible localmente. Este aditivo podría prolongar el tiempo de fraguado del concreto, permitiendo una manipulación y colocación más efectivas incluso en condiciones climáticas adversas. La investigación se centrará en evaluar la eficacia de la melaza de caña de azúcar como aditivo retardante de fraguado. Además, se analizarán las propiedades mecánicas y durabilidad del concreto tratado con melaza, proponiendo una solución viable y sostenible para las condiciones específicas de Veracruz. Es crucial desarrollar materiales y métodos de construcción resilientes y adaptables a las condiciones climáticas cambiantes.



METODOLOGÍA

La adición de melaza de caña de azúcar como aditivo retardante permite extender el tiempo de trabajabilidad del concreto, útil en climas cálidos y proyectos de gran envergadura. Estudios indican que la melaza mejora la manejabilidad del concreto, reduce la necesidad de agua adicional y mejora la cohesión del concreto fresco. Según Kassa (2020), "la sacarosa presente en el azúcar interfiere con el proceso de hidratación del cemento al adsorberse en las superficies de las partículas de cemento, inhibiendo la formación temprana de compuestos de hidratación y extendiendo el tiempo de trabajabilidad del concreto". En cuanto a las propiedades mecánicas, la inclusión de melaza generalmente contribuye a una mayor resistencia a la compresión y durabilidad del concreto, aunque la dosificación óptima varía, situándose comúnmente entre el 0.5% y el 1% del peso del cemento. Además, la melaza puede actuar como plastificante, mejorando la trabajabilidad sin comprometer la resistencia final del concreto. Se prepararon 20 cilindros de 10x20 cm aplicando el 1% de aditivo a la masa total del cemento y otros 20 testigos de las mismas dimensiones. La mezcla consistió en: Cemento: 12.19 kg Arena: 28.17 kg Grava: 36.61 kg Agua: 9.46 L Se añadió el 1% de aditivo (melaza de caña de azúcar) basado en la masa total del cemento. Durante el colado, se observaron cambios significativos: la mezcla con aditivo mostró segregación del agua y la grava, con un asentamiento de 6.8 cm, indicando una consistencia moderada pero con problemas de cohesión. En contraste, la mezcla sin aditivo mostró un asentamiento de 5.5 cm sin problemas de segregación ni exceso de agua, indicando una buena cohesión interna. Tras 20 horas del colado, se observó que los cilindros con aditivo no habían completado el fraguado y eran frágiles, con desprendimiento de pequeñas piezas al ser manipulados. Esto sugiere que el porcentaje óptimo de aditivo debería variar entre 0.5% y 0.8%, pero el 1% podría ser adecuado en el ambiente de Veracruz.


CONCLUSIONES

A pesar de las limitaciones de tiempo para completar todas las pruebas, los resultados preliminares indican que la melaza de caña de azúcar puede actuar como un aditivo retardante de fraguado para el concreto. La mezcla con aditivo mostró un fraguado más prolongado pero con problemas de segregación en Morelia. En condiciones cálidas como Veracruz, se sugiere ajustar la proporción de aditivo a 0.5%-0.8% para evitar la segregación y mejorar la cohesión del concreto. Es crucial realizar más estudios en Veracruz para confirmar la efectividad del aditivo y ajustar la dosificación, ofreciendo una solución eficaz para prolongar el tiempo de trabajabilidad del concreto, facilitando su manipulación y colocación. Con un enfoque adecuado, el uso de melaza de caña de azúcar podría representar una alternativa sostenible y económica para la industria de la construcción en climas cálidos.
Castañeda Loya Kenia, Universidad Autónoma de Tamaulipas
Asesor: Dr. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas

FACTORES CLAVE DE MEDICIóN EN LA INDUSTRIA


FACTORES CLAVE DE MEDICIóN EN LA INDUSTRIA

Castañeda Loya Kenia, Universidad Autónoma de Tamaulipas. Asesor: Dr. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Los factores de medición clave pierden importantes oportunidades para mejorar la eficiencia y la calidad en los procesos industriales, debido a puede llevar a generar in impacto de ineficiencia operativa, costos elevados, perdida de oportunidades de mejoras y insatisfacción del cliente, lo que lleva a una serie de problemas significativos: Tiempos de Producción: La ausencia de datos precisos sobre tiempos de producción pueden resultar una falta de visibilidad sobre la eficiencia del proceso. Sin esta información es difícil identificar cuellos de botella. Consumo de Energía: No medir el consumo de energía impide la identificación de ineficiencias energéticas, lo que puede llevar a altos costos operativos y un impacto negativo en la sostentabilidad. Consumo de Materia Prima: Sin medir el uso de materia prima, es complicado detectar perdidas o desperdicios, lo que afecta los costos y la rentabilidad. Satisfacción del cliente: La falta de medición de la satisfacción del cliente limita la capacidad de identificar áreas para mejorar la calidad de producto o servicio y puede afectar la lealtad del cliente.



METODOLOGÍA

Se identifican las áreas donde la falta de medición esta afectando el rendimiento, como los tiempos de producción, consumo de energía, consumo de materia prima y satisfacción del cliente. Se dan a conocer las consecuencias que llega a causar el mal manejo de la falta de medición, el no tener personal a cargado que lo maneje, o no tener una organización en tu área de trabajo, la pérdida de tiempo y el mal manejo de material que pasa a ser scrap. La empresa debe considerar los costos la producción perdida en el proceso, viendo así la manera de aumentar la calidad del producto, hará que la compañía tenga un mejor manejo de sus procesos en producción para que así el cliente este satisfecho, manteniendo la seguridad del trabajador, analizando los datos para identificar tendencias, patrones y anomalías.


CONCLUSIONES

Los factores de medición clave en gestión de procesos y calidad se centran en medir el desempeño, la eficiencia, la efectividad y la satisfacción del cliente. Sin embargo, se debe destacar que la selección de los factores de medición clave dependerá del objetivo específico de la medición y del tipo de proceso. Por lo que, en general estos factores de medición clave proporcionan una base sólida para evaluar y mejorar.
Castaño Vanegas Sofia Milagros, Universidad Autónoma de Occidente
Asesor: Post-doc Mario Fernando Jimenez Hernandez, Universidad del Rosario

PROTOTIPO Y DISEñO DE SISTEMA MECáNICO DE MEDICIóN PRECISA DE FUERZA EN SENSOR FSR PARA APLICACIóN EN CAMINADOR INTELIGENTE


PROTOTIPO Y DISEñO DE SISTEMA MECáNICO DE MEDICIóN PRECISA DE FUERZA EN SENSOR FSR PARA APLICACIóN EN CAMINADOR INTELIGENTE

Castaño Vanegas Sofia Milagros, Universidad Autónoma de Occidente. Asesor: Post-doc Mario Fernando Jimenez Hernandez, Universidad del Rosario



PLANTEAMIENTO DEL PROBLEMA

Dentro del proyecto de caminador inteligente, se tiene un componente de instrumentación basada en sensores de fuerza resistiva (FSR) y celdas de carga, propuesto como una solución innovadora para identificar el patrón e intención de marcha del usuario con el apoyo de algoritmos de aprendizaje automático. Este sistema pretende capturar las fuerzas ejercidas y las direcciones de giro a través de la presión aplicada sobre las manijas del caminador. Específicamente, los sensores FSR son utilizados para diferenciar la intención de giro (dirección) del usuario, bajo la premisa de que la presión asimétrica sobre las manijas indica un giro hacia la derecha o la izquierda, mientras que una presión simétrica sugiere una marcha recta. No obstante, la implementación actual enfrenta varios desafíos que afectan su precisión y fiabilidad. Las mediciones iniciales del sensor FSR comienzan correctamente en cero, pero una vez que se detecta el primer contacto, el sensor no regresa a su valor inicial, lo que introduce un error significativo en la interpretación de los datos. El diseño del soporte del sensor presenta una fricción considerable con el tubo del caminador, complicando la detección precisa de la presión ejercida. Esta fricción es mayormente generada por las malformaciones presentes en el tubo, que impiden un contacto uniforme y fiable. El mecanismo de resorte utilizado para mantener la tensión en el sensor necesita una mejor integración con el tubo del caminador. Actualmente, el resorte puede moverse o arquearse durante su uso, y no siempre vuelve a su posición inicial, lo que compromete la constancia de la fuerza aplicada y la precisión de las mediciones. Estos problemas no solo afectan la exactitud de las lecturas de presión y direccionalidad, sino que también limitan la capacidad del sistema para identificar de manera consistente y confiable al usuario del caminador. Resolver estos desafíos es crucial para avanzar en el desarrollo del caminador inteligente y asegurar que pueda adaptarse y responder adecuadamente a las intenciones del usuario.



METODOLOGÍA

De acuerdo con el problema planteado, se establecen requerimientos esenciales para mejorar la identificación de la marcha y la intención de giro de un caminador inteligente mediante FSR. El diseño debe permitir una fuerza inicial ajustable en el FSR sin presión, identificar un rango de fuerzas por debajo y por encima de la fuerza de inicio (sin valores negativos), reducir la fricción entre el diseño y el tubo del caminador, permitir una transmisión de fuerza del usuario con el menor ruido posible, y contar con un sistema de fuerza restauradora/elástica entre el FSR y el tubo. El desarrollo del proyecto empleará un sensor FSR redondo, una placa Arduino y un prototipo impreso en 3D, utilizando software especializado como el IDE Arduino para programación, Fusion 360 para diseño CAD y Superslicer para la preparación de modelos de impresión 3D. La metodología se dividirá en fases: en la primera, se seleccionará el sensor FSR adecuado, evaluando su forma, rango de medición, calibración y área de contacto; también se tomarán mediciones de los componentes principales. En la segunda fase, se diseñará el sistema de integración entre el tubo y el sensor, creando bocetos del sistema mecánico de transmisión de fuerza elástica y del soporte. La tercera fase incluirá simulaciones y emulaciones para comprobar la transmisión de fuerza y verificar el movimiento del sistema. La cuarta fase se centrará en la implementación y pruebas de prototipos impresos en 3D, calibrando diferentes tensiones iniciales y observando la respuesta del sensor. Finalmente, en la quinta fase, se realizarán correcciones al diseño CAD del prototipo más eficiente, imprimiéndolo en 3D y llevando a cabo pruebas finales para validar la eficacia del diseño en la precisión de las mediciones.


CONCLUSIONES

Teniendo en cuenta la metodología y las actividades planteadas se logró el diseño de distintos modelos CAD que proponían distintas formas de funcionamiento, en estos fue posible visualizar la emulación del comportamiento y poder implementar medidas para poder llegar a un prototipo de tamaño real. También, se logró seleccionar un modelo para fabricación y pruebas con funcionamiento inspirado en un sistema básico de amortiguador, este contiene una manija inferior para compensar las deformidades del tuvo, un pin de rotación para asegurar tensiones mayores y menores, así como un ajuste integrando componentes comerciales para su fácil reemplazo. Por otra parte, se cuenta con prototipos en impresión 3D de material PLA de las diferentes versiones que permitieron la validación de funcionamiento y tolerancias de medidas. De igual manera, se logró obtener un prototipo de tamaño real que se ensambló e integró al caminador para validar la precisión de las medidas del sensor FSR. Finalmente, haciendo uso de Arduino, se validó la precisión de las mediciones realizando pruebas básicas de movimiento en el caminador con marcha hacia adelante y giros en ambas direcciones con diferentes formas de agarre. De estas pruebas, considerando la diferencia entre la tensión inicial y la tensión luego de los movimientos, para el manubrio izquierdo se obtuvo un error del 3% mientras que para el manubrio derecho se obtuvo un error del 4.7 %. Así pues, finalizado el proceso se concluye que, el diseño y prototipo realizados presenta una mejora significativa en la precisión de medida de fuerza con el sensor FSR. Asimismo, el prototipo realizado presenta oportunidades de mejora en la forma de ensamblaje de sus diferentes componentes. Por último, como pasos siguientes se encuentra el uso del nuevo sistema en el algoritmo de detección de intención de marcha.
Castelán Jiménez Denhali, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California

ANáLISIS MECáNICO DE LA CUBIERTA-NARIZ DE MATERIAL COMPUESTO DE UN AVIóN LIGERO.


ANáLISIS MECáNICO DE LA CUBIERTA-NARIZ DE MATERIAL COMPUESTO DE UN AVIóN LIGERO.

Castelán Jiménez Denhali, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

En la industria aeronáutica, la mejora continua del rendimiento y la eficiencia de las aeronaves es fundamental, un componente principal de estas aeronaves es la cubierta-nariz, un buen diseño cuya integridad estructural y peso afectan significativamente las características de vuelo, consumo de combustible y principios aerodinámicos asegura que el flujo de aire se mantenga laminar alrededor del fuselaje, minimizando la resistencia inducida al avance del avión y también contribuyendo al centro de presión a lo largo del fuselaje, lo que afecta la estabilidad longitudinal del avión, por esta razón la elección de materiales para la cubierta-nariz es importante, ya que deben ser lo suficientemente ligeros para no afectar negativamente la relación peso/potencia, pero lo suficientemente fuertes para resistir las fuerzas aerodinámicas.  Al día de hoy, el impulso tecnológico del sector de la aviación para reducir la carga aerodinámica del fuselaje de las nuevas aeronaves, junto con la necesidad de mejorar la eficiencia en el uso del combustible durante el vuelo, ha suscitado el interés de la fibra de carbono en aviación como solución alternativa al uso actual del aluminio. La fibra de carbono, está compuesta por hilos de carbono extremadamente finos, tejidos juntos para formar un material sólido, resistente y ofrece una relación peso-resistencia excepcional, lo que la convierte en la elección ideal para aligerar la estructura de las aeronaves. En comparación con el aluminio, la fibra de carbono es hasta cinco veces más ligera, lo que permite reducir significativamente el peso total de la aeronave.  En este presente trabajo se realizará un análisis mecánico de la cubierta-nariz de un material compuesto de un avión ligero para esto se tomó como referencia un avión Cessna 172 para la construcción del diseño de la cubierta-nariz (cono) a escala, se realizó el diseño correspondiente y simulaciones de análisis mecánico por medio del Software SolidWorks, en las simulaciones también se incluyen análisis con diferentes metales utilizados en la fabricación de estos conos de aviones ligeros para obtener diferentes comportamientos, y propiedades mecánicas según el metal y/o material, en el caso del material compuesto se utilizó fibra de carbono.



METODOLOGÍA

Primero se recabo información de artículos de investigación de trabajos previos de análisis mecánicos de conos o morros de aviones ligeros y la aplicación de materiales compuestos en la aviación y aeronáutica. Después se investigaron las fuerzas que efectúan en la cubierta-nariz, esta fuerza generada se conoce como fuerza de empuje. Posteriormente se diseñó a escala la cubierta-nariz (morro) con base a un modelo de Cessna 172, las medidas reales de la nariz son de radio de base 13.93 cm y una altura de 45.7 cm y 10 mm de grosor, según las dimensiones reales del avión que se está considerando que es el Cessna 172. La geometría del cono se realizó en SolidWorks.   Las simulaciones mecánicas se realizaron con los materiales ASTM A36, Aluminio AA380 y fibra de carbono pre-impregnada.  El parámetro de comparación fue el factor de seguridad de 1.1, a partir de ahí se buscó determinar la fuerza máxima, la deformación máxima y la relación de peso para cada material. Los resultados experimentales mostraron que en cuestión de fuerza el acero ASTM A36 y la fibra de carbono soportan fuerzas superiores al aluminio AA380-F y, el aluminio AA380-F soporta una fuerza menor, lo que indica una menor resistencia estructural. Para la deformación máxima la fibra de carbono presenta una deformación significativamente mayor que el aluminio 2024-T23, lo que sugiere una mayor flexibilidad, pero menor rigidez comparada con el acero y el aluminio. Por otra parte, el acero ASTM A36 tiene la menor deformación, indicando una alta rigidez. Por otro lado, en peso el acero ASTM A36 es considerablemente más pesado que los otros materiales, lo que es una desventaja importante en aplicaciones aeronáuticas donde el peso es crítico y en este diseño es un punto principal y en tanto el aluminio AA380-F como la fibra de carbono tienen pesos similares y mucho menor comparados con el acero.


CONCLUSIONES

Analizando los resultados y comparaciones se muestra que, aunque el acero ASTM A36 tiene la menor deformación y alta resistencia, su peso es una desventaja significativa para aplicaciones aeronáuticas. El aluminio AA380-F, aunque ligero, no soporta fuerzas tan altas como los otros materiales. La fibra de carbono, pese a su mayor deformación, presenta una combinación atractiva de bajo peso y alta resistencia, lo que la hace ideal para la cubierta-nariz de aviones ligeros, optimizando la eficiencia aerodinámica y reduciendo el consumo de combustible. Basado en los resultados y considerando la importancia de la aerodinámica, el material más adecuado para la cubierta-nariz es la fibra de carbono. Su baja densidad contribuye a una mayor eficiencia aerodinámica y menor resistencia al avance, mientras que su alta resistencia permite soportar las fuerzas aerodinámicas aplicadas.
Castellón Gutiérrez Magda Verónica, Universidad Nacional Autónoma de Nicaragua, Managua
Asesor: Dra. Magally Martinez Reyes, Universidad Autónoma del Estado de México

TESTEO Y DESARROLLO DE SOFTWARE EDUCATIVO


TESTEO Y DESARROLLO DE SOFTWARE EDUCATIVO

Castellón Gutiérrez Magda Verónica, Universidad Nacional Autónoma de Nicaragua, Managua. Olivas Matrinez Juan Daniel, Universidad Nacional Autónoma de Nicaragua, Managua. Asesor: Dra. Magally Martinez Reyes, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

El proceso de evaluación de plataformas educativas es una actividad primordial para la formación del futuro profesionista relacionado con el área de cómputo, ya que más allá de una cuestión técnica, forma parte de un área de desarrollo en la investigación relacionada con mediciones de experiencias de usuario. Por ello este proyecto plantea testear dos plataformas educativas, es decir, identificar los factores que influyen en el correcto aprendizaje para las personas.  Se pretende mejorar la educación en diversos temas utilizando como base el pensamiento computacional, trabajando en formas interactivas de aprendizaje dejando un poco de lado los métodos de enseñanza presenciales y tradicionales premiando sobre todas las cosas el autoaprendizaje del estudiante a partir del material de estudio dado. 



METODOLOGÍA

Estas plataformas educativas, como su nombre indica, están diseñadas para educar sobre diversos temas y formas en los que se puede hacer uso del pensamiento computacional y el uso de algoritmos. Para poder seguir con el buen desarrollo de estas plataformas, se hizo uso de una métrica estandarizada sobre medición de experiencias de usuario, se verificó la usabilidad de ambas plataformas, se hicieron sugerencias de mejora y ahora se espera realizar las sugerencias dadas. Tomando en cuenta y detallando un poco más el proceso de lo anteriormente mencionado los testers de dicha aplicación se dan a la tarea de brindar retroalimentación a los desarrolladores a partir de su propia experiencia utilizando la plataforma y analizandola en profundidad, esta información es recopilada por medio de informes en los cuales se señalan los problemas que se llegaron a presentar a la hora de realizar dichas pruebas. En estos mismos reportes también los testers desde su perspectiva como usuario dan recomendaciones sobre cómo se podrían mitigar los problemas encontrados.  Las principales observaciones o fallas que debían encontrar los encargados del testeo estaban principalmente relacionadas con la información contenida en  los temas que ofrece la plataforma, se debían encontrar errores ortográficos, de coherencia o cohesión, bugs y también dar algunas cuantas ideas sobre pequeños posibles cambios o sugerencias con las que se puede llegar a facilitar el aprendizaje de los estudiantes, como por ejemplo formularios, videos o texto en formato de audio. En tanto a la segunda plataforma, los participantes fueron dados a la tarea de rellenar información faltante en su base de datos, corregir datos erróneos o con formato incorrecto y de reportar la información que no pudo ser encontrada para rellenar, además de eso también se encargaron del desarrollo de algunas interfaces en las que se mostraba la información, todo este trabajo de desarrollo fue realizado utilizando Wordpress y sin llegar a manipular el backend de la aplicación.


CONCLUSIONES

El proceso de evaluación de la plataforma E4C&CT dio como resultado final que es una herramienta bastante viable y muy efectiva para el aprendizaje de manera virtual y si las recomendaciones dadas por los testers llegan a ser implementadas por los desarrolladores de una buena manera puede convertirse en una propuesta mucho más sólida y eficiente de lo que ya es a día de hoy, es una aplicación bastante bien encaminada que fomenta el aprendizaje autodidacta de los usuarios dejándolos avanzar y resolver los problemas por su propia cuenta y ritmo dando simplemente las herramientas necesarias para comprenderlo. En la segunda plataforma Eical, no se obtienen resultados inmediatos debido a que su finalización no está prevista hasta el mes de septiembre pero se espera que al finalizar esta pueda ser utilizada de manera satisfactoria por los interesados. En conclusión, las actividades desarrolladas mediante esta estancia y el objetivo principal de la investigación que viene siendo el testeo y la evaluación de la viabilidad de la plataforma E4C&CT además del apoyo en el desarrollo de Eical fueron realizadas  con éxito dando a los desarrolladores la información necesaria de sus puntos débiles para mejorarlos a futuro optimizando aún más la calidad del aprendizaje en la mencionada primeramente y en Eical brindando apoyo en el proceso de diseño y alimentación de datos.
Castilleja Mendoza Guillermo, Instituto Tecnológico de Matamoros
Asesor: Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas

DISEñO FACTUTURADO BASADO EN SIMULACION


DISEñO FACTUTURADO BASADO EN SIMULACION

Castilleja Mendoza Guillermo, Instituto Tecnológico de Matamoros. Asesor: Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Este se proyecto se enfocara  en calcular la demanda  de mi negocio para calcular y sustentar el requerimiento en lapso de 5 dias. Para ello nos apoyaremos en un programa otorgado por la investigadora el cual nos ayudara a facilitar la visualizacion de entrada y salida de materia Se tomaran tiempos debidos en cada hora de trabajo con los parametros y medidas que se requieren para calcular el pedido de material en este caso seria el aluminio.  



METODOLOGÍA

Primeramente se utilizo la herramienta de Gemba, para ver posibles problemas en el area donde se esta trabajando o puntos debiles que pudiera tener, al realizar esta inspeccion en el area obtuvimos los siguientes puntos de vista que no se habian tomado en cuenta. - Material en stock -Falta de material    Estos fueron los dos puntos principales  a tratar y tener una alternativa para poder mejorarlos para asi tener menos perdida de dinero, asi mismo ir creciendo la empresa. Como paso numero hize una simulacion en el programa Arena para asi tener un control de cuantos anillos me iban a pedir con una desviacion exponecial de 2 pedidos por hora de Lunes a Viernes.   Realizaremos acciones necesarias como llevar un control del material que se compra y de las demandas para asi aplicar el Just in time,solo haciendo los pedidos en el momento para el cliente asi no creando una sobreproduccion.  


CONCLUSIONES

Se logro capturar la mejora de ingresos en un lapso semanal, ya que se obtuvo mayor ganancia y reducir los costes potencialmente, aplicando mejoras como jit, estadisticas y por su puesto simulando en este programa que nos ayuda y falicita, este programa se me hizo muy interesante, es muy practico y eficaz.
Castillo Gallegos Jesús Alfonso, Universidad Politécnica de Victoria
Asesor: Mg. Alexandra Soraya Beltrán Castro, Universidad de Investigación y Desarrollo

FUNDAMENTOS DEL DESARROLLO DE SOFTWARE: DIFERENCIACIóN DE MODELOS Y METODOLOGíAS, USO DE DIAGRAMAS UML Y HABILIDADES BLANDAS ESENCIALES.


FUNDAMENTOS DEL DESARROLLO DE SOFTWARE: DIFERENCIACIóN DE MODELOS Y METODOLOGíAS, USO DE DIAGRAMAS UML Y HABILIDADES BLANDAS ESENCIALES.

Castillo Gallegos Jesús Alfonso, Universidad Politécnica de Victoria. Asesor: Mg. Alexandra Soraya Beltrán Castro, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de software es una actividad compleja que requiere el uso de diversas herramientas y metodologías para asegurar la calidad y eficiencia de los proyectos. Sin embargo, la elección adecuada de estas herramientas y metodologías puede variar significativamente dependiendo del tipo de proyecto y del contexto en el que se desarrolla. La falta de un análisis sistemático que compare la efectividad de diferentes enfoques en distintos escenarios puede llevar a decisiones subóptimas que afectan negativamente el rendimiento y los resultados de los proyectos de software. Adicionalmente, la subestimación de la importancia del uso de diagramas UML y el desarrollo de habilidades blandas puede contribuir a la falta de comunicación y cohesión dentro de los equipos de desarrollo, afectando la calidad y el éxito del proyecto.



METODOLOGÍA

Encuestas Se diseñó y distribuyó una encuesta a desarrolladores de software, gerentes de proyectos y otros profesionales del sector. La encuesta recogió datos sobre las herramientas y metodologías utilizadas en diferentes tipos de proyectos (web, móvil), así como las percepciones de los encuestados sobre la efectividad y la adecuación de estas herramientas en diversos contextos. Se incluyeron preguntas sobre la frecuencia de uso, satisfacción con las herramientas y desafíos encontrados. Además, se indagó sobre el uso de diagramas UML y la percepción sobre la importancia de habilidades blandas como la comunicación y la colaboración en el equipo. Análisis de Proyectos Anteriores El objetivo de este análisis fue identificar patrones comunes en la selección de metodologías de trabajo, modelos de desarrollo, uso de diagramas UML y el manejo de habilidades blandas en proyectos de grado enfocados en el desarrollo de software móvil y web. Se evaluó cómo estas prácticas afectan los resultados de los proyectos y qué lecciones se pueden extraer para mejorar futuros proyectos. Clasificación de Datos Los proyectos recopilados se clasificaron en función de varios criterios: Tipo de Proyecto: Móvil o web. Metodología de Trabajo: Ágil, cascada, híbrida, etc. Modelos de Desarrollo: Modelo en espiral, prototipado, incremental, entre otros. Uso de Diagramas UML: Casos de uso, diagramas de clases, diagramas de secuencia, etc. Habilidades Blandas: Evaluación de la comunicación, colaboración y gestión del tiempo en el equipo. Análisis de Patrones Comunes Metodologías de Trabajo Se identificaron las metodologías de trabajo más comúnmente empleadas en los proyectos de grado. Se analizaron sus ventajas y desventajas observadas en el contexto de cada tipo de proyecto (móvil y web). También se examinó cómo la elección de la metodología afecta el proceso de desarrollo y el resultado final del proyecto. Modelos de Desarrollo Se evaluaron los modelos de desarrollo utilizados en los proyectos. Se analizaron los patrones de uso de modelos específicos y se investigaron las razones detrás de su elección. Uso de Diagramas UML Se examinó la frecuencia y el tipo de diagramas UML utilizados en los proyectos. Se analizó cómo el uso de estos diagramas contribuye a la planificación, diseño y comunicación del proyecto. Además, se investigó si el uso de ciertos diagramas está asociado con una mayor calidad del software y una mejor gestión de requisitos. Habilidades Blandas Se evaluaron las habilidades blandas dentro de los equipos de desarrollo, destacando la importancia de la comunicación efectiva, la colaboración y la gestión del tiempo. Se analizaron cómo estas habilidades impactan la cohesión y eficiencia del equipo y, en última instancia, la calidad del software desarrollado.


CONCLUSIONES

Se anticipa que el estudio proporcionará una comprensión más profunda de la efectividad de diversas herramientas y metodologías en distintos contextos de desarrollo de software. Entre las conclusiones esperadas, se incluyen: Evaluación de Herramientas y Metodologías: Los resultados del estudio podrán destacar cuáles herramientas y metodologías son más efectivas para proyectos específicos, como desarrollo web frente a desarrollo móvil. Se espera identificar cuáles prácticas tienen un impacto positivo en la calidad del software y la eficiencia del equipo. Mejores Prácticas y Recomendaciones: Se elaborarán recomendaciones basadas en las mejores prácticas identificadas durante el análisis de casos de estudio y las entrevistas. Estas recomendaciones ayudarán a los desarrolladores y gerentes de proyectos a seleccionar las herramientas y metodologías más adecuadas para sus necesidades, optimizando el proceso de desarrollo. Lecciones Aprendidas: El estudio ofrecerá una visión de las lecciones aprendidas de proyectos exitosos y fallidos, proporcionando un marco para evitar errores comunes y mejorar los procesos de desarrollo de software. Importancia de Diagramas UML: Se resaltará cómo el uso estratégico de diagramas UML puede mejorar significativamente la planificación, diseño y comunicación dentro de los proyectos, contribuyendo a una mejor gestión de requisitos y una mayor calidad del software. Fortalecimiento de Habilidades Blandas: Se subrayará la necesidad de un enfoque integral en el desarrollo de habilidades blandas para mejorar la cohesión y eficacia de los equipos de desarrollo, lo que a su vez impacta positivamente en los resultados de los proyectos.
Castillo López Alejandra Guadalupe, Instituto Tecnológico de Morelia
Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú

DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA.


DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA.

Castillo López Alejandra Guadalupe, Instituto Tecnológico de Morelia. Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

La presente revolución industrial conocida como industria 4.0 ha llevado a que la economía global transite una nueva fase que se caracteriza por la digitalización y la conectividad. Las empresas de tamaño mediano y pequeño se han visto obligadas a buscar formas para innovar y sobresalir y así ganar una mayor visibilidad y reconocimiento entre sus clientes.  Según datos de la Asociación Nacional de Industriales para el año 2019 la gran mayoría de los empresarios en Colombia conocían las tecnologías emergentes, pero no hacían uso de estas (ANDI, 2019). (Informe de la Encuesta Transformación Digital) La Industria 4.0 promete transformar los sistemas de manufactura mediante la integración de tecnologías avanzadas como la inteligencia artificial y el internet de las cosas. Para las pequeñas y medianas empresas en Cartagena, esta transición es crucial para mejorar la eficiencia y mantenerse competitivas.  En Colombia de cada 100 empresas que se crean solo 78 superan el primer año, 61 logran superar los tres primeros años, y tan solo 42 superan los cinco primeros años, esto evidencia que realmente no hay dificultades a la hora de crear estas empresas, sino que lo más difícil es mantenerlas en el tiempo. El mayor desafío actual para las pymes en Colombia es lograr competitividad, y una herramienta clave para lograrlo es el uso de la tecnología 4.0, la cual permitirá que las empresas sean capaces de innovar, mantenerse eficientes y poder competir en el mercado. En particular, la implementación de nuevas tecnologías puede hacer que los procesos en las industrias manufactureras sean aún más eficientes y confiables  



METODOLOGÍA

El método para llevar a cabo la investigación se desarrolló en cuatro etapas, (I) Búsqueda de información, (II) Contexto nacional en Manufactura, (III) Diagnóstico del contexto Local en Manufactura y (IV) Análisis y Conclusiones. A continuación, se detallan: (I) Búsqueda de información: La primera etapa consistió en la búsqueda de información, donde se realizó una revisión exhaustiva de la literatura existente relacionada con la industria 4.0 en las Pymes. Esta fase implicó la recopilación de artículos científicos, libros, informes y otras fuentes académicas relevantes que proporcionaron la información necesaria. El objetivo principal de esta etapa fue establecer una base teórica que sustentara el estudio. (II) Contexto nacional en Manufactura: Esta se centró en el diagnóstico del contexto nacional, que implicó un análisis detallado, en primera instancia sobre la estructura empresarial en Colombia, así como el aporte económico de las pymes a la economía nacional y los problemas, amenazas y debilidades que están enfrentan y cómo ello afecta a su favorable desarrollo económico. (III) Diagnóstico del contexto Local en Manufactura: La tercera etapa se enfocó en el diagnóstico del contexto local, donde se realizó un análisis específico de información sobre las pymes en Cartagena, incluyendo datos específicos a nivel local, donde se consultó información sobre la industria manufacturera en esta ciudad, así como la estructura empresarial, incluyendo también los antecedentes, desafíos, oportunidades, problemas, amenazas y debilidades. (IV) Análisis y Conclusiones: Finalmente, en la cuarta etapa se realizó el análisis y conclusiones, donde se integraron los hallazgos obtenidos en las etapas anteriores y se realizaron las interpretaciones. En esta fase, se compararon los datos nacionales y locales, además, se formularon conclusiones basadas en la información recopilada. Este análisis final permitió sintetizar la información del tema investigado.  


CONCLUSIONES

Sin duda alguna, la industria 4.0 representa una gran oportunidad para transformar las pymes en Cartagena, pues la adopción de estas tecnologías les permitiría mejorar significativame1{nte factores como la eficiencia, calidad y flexibilidad en los procesos productivos, lo que a su vez podría aumentar la competitividad de las pymes y con ello la economía local y nacional, fortaleciendo así su productividad, reduciendo costos y mejorando la calidad de sus productos. Sin embargo, esta investigación también nos permitió darnos cuenta de la brecha tan considerable que existe en la adopción de estas tecnologías, especialmente tomando en cuenta que las pymes son un sector que a menudo carece de los recursos y conocimientos necesarios para implementar soluciones avanzadas. Es por ello por lo que consideramos que, para superar estos desafíos es esencial una colaboración estrecha entre el gobierno, el sector privado y las instituciones educativas. Las iniciativas de capacitación y formación continua, la creación de incentivos financieros para la inversión en tecnología, y el desarrollo de estrategias de gobernanza adecuadas son pasos críticos que pueden ayudar a cerrar la brecha tecnológica. Además, el fortalecimiento de la infraestructura digital y la mejora en la ciberseguridad son fundamentales para proteger las operaciones y datos empresariales, lo que a su vez ayudaría a crear confianza en los empresarios y romper con los pensamientos de rechazo sobre el uso de esas tecnologías en sus empresas a causa de no verlo como una opción factible o una tendencia.  Por otro lado, consideramos que, para mejorar su competitividad y sostenibilidad, las pymes deben implementar estrategias que optimicen sus procesos productivos y minimicen su impacto ambiental. La adopción de una logística interna adecuada, acompañada de una gestión financiera eficiente y una planificación ambiental estratégica, contribuiría significativamente a mejorar el desempeño del papel en términos de competitividad.  
Castillo Palacios Karely Sarahi, Instituto Tecnológico de Ciudad Guzmán
Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América

FACTORES ASOCIADOS AL DESCONOCIMIENTO EN LA INTELIGENCIA ARTIFICIAL POR PARTE DE LOS DOCENTES


FACTORES ASOCIADOS AL DESCONOCIMIENTO EN LA INTELIGENCIA ARTIFICIAL POR PARTE DE LOS DOCENTES

Castillo Palacios Karely Sarahi, Instituto Tecnológico de Ciudad Guzmán. Sotelo Ayala Esmeralda, Instituto Tecnológico de Ciudad Guzmán. Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

En el presente estudio de una universidad situada en México se plantea una investigación para conocer más sobre la experiencia y el interés que se tiene en la Inteligencia Artificial (IA) en los docentes, basándose en el método de enseñanza que pueda llegar a ser difícil de implementar en un entorno educativo tradicional en el que se encuentra. La Inteligencia artificial (IA) ha tenido un avance rápido que transforma incluso la educación. Sin embargo, la comprensión como la Capacitación de docentes enfrenta varios obstáculos, por lo que se deberá observar los principales factores que intervienen entre los docentes.   



METODOLOGÍA

Se realizó una entrevista de manera virtual a los docentes en una universidad situada en México, observando y analizando los principales factores que influyen en el desconocimiento de herramientas para el uso de la Inteligencia Artificial y su integración en la enseñanza.    


CONCLUSIONES

Con los resultados obtenidos, se logró identificar las principales barreras, que son: Falta de capacitacion, Resistencia al cambio, y  Desconocmiento de la herrmienta  Con esto, se podrá realizar una evaluación de las concecuencias de estas barreras en la calidad de la enseñanza y la formación de los estudiantes y proponer estrategias o soluciones para mejorar las capacitaciones de los docentes.
Castillo Rojas Carlos Antonio, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Alejandro Garza Galicia, Universidad del Valle de Atemajac

ANALISIS DEL POTENCIAL DE LA CONCENTRACIóN SOLAR


ANALISIS DEL POTENCIAL DE LA CONCENTRACIóN SOLAR

Bernal Pérez Luis Ángel, Instituto Politécnico Nacional. Castillo Rojas Carlos Antonio, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Guerrero Niño Felipe Eugenio, Universidad Politécnica de Altamira. Jiménez Romero Aída Yolanda, Universidad de Guadalajara. Lara Amado Jesus Modesto, Tecnológico de Estudios Superiores de Valle de Bravo. Suarez Garcia Fernando Yered, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Alejandro Garza Galicia, Universidad del Valle de Atemajac



PLANTEAMIENTO DEL PROBLEMA

El cambio climático y la crisis energética representan dos de los desafíos más urgentes y complejos de nuestra era. Las emisiones de gases de efecto invernadero (GEI), resultantes principalmente de la quema de combustibles fósiles, han contribuido significativamente al calentamiento global, causando efectos adversos en el medio ambiente, como el aumento del nivel del mar, eventos meteorológicos extremos y la pérdida de biodiversidad. En el contexto de México y muchos otros países en desarrollo, la dependencia de fuentes de energía no renovables no solo agrava estos problemas ambientales, sino que también limita el acceso a energía limpia y accesible para la población. México, en particular, enfrenta una situación crítica debido a su creciente demanda de energía, la cual no puede ser satisfecha de manera sostenible con las tecnologías y recursos actuales. Esto ha generado un aumento en las emisiones de GEI, colocando al país en una posición donde debe equilibrar la necesidad de desarrollo económico con la protección del medio ambiente. A nivel global, la transición hacia energías renovables es vista como una solución clave para mitigar el cambio climático. Sin embargo, esta transición enfrenta múltiples desafíos técnicos, económicos y sociales, especialmente en países con infraestructuras limitadas y diversas condiciones climáticas.



METODOLOGÍA

El presente proyecto de investigación se centró en la evaluación de diversas tecnologías de generación de energía con el objetivo de desarrollar un software de apoyo a la toma de decisiones. Este software busca integrar consideraciones económicas, sociales, medioambientales y culturales para optimizar la generación y uso de energía en México. Se llevaron a cabo pruebas experimentales utilizando los siguientes equipos: Concentrador solar tipo CCP Estufa solar Estufa de gas Estufa eléctrica Panel solar fotovoltaico Motor Stirling Durante un periodo de siete semanas, se recolectaron datos experimentales utilizando una serie de sensores especializados, tales como anemómetros para medir la velocidad del viento, termopares para monitorear temperaturas, multímetros para registrar parámetros eléctricos y sensores de radiación para evaluar la intensidad de la radiación solar. Toda la información recopilada fue almacenada en una base de datos centralizada, diseñada para facilitar el análisis y la interpretación de los datos. Asimismo, se elaboró un software en Python que implementa conexiones a las bases de datos donde registramos las mediciones por cada tecnología implementada, factores para la toma de decisiones, variables de eficiencia y finalmente, un árbol de decisión que toma las siguientes consideraciones: Factores económicos: En donde toma en consideración el costo de implementación, operación y mantenimiento de las tecnologías evaluadas. Factores sociales: Considerando la accesibilidad de las tecnologías y su impacto en la calidad de vida de las comunidades. Factores medioambientales: Buscando la reducción de emisiones de GEI, protección a la salud humana y conservación de recursos naturales. Factores culturales: Buscando en un futuro que la escalabilidad del proyecto generé una aceptación y adaptación de las tecnologías en contextos culturales específicos.


CONCLUSIONES

Las pruebas experimentales arrojaron los siguientes resultados de eficiencia para cada tecnología evaluada: Concentrador solar tipo CCP: Eficiencia máxima de 31% Estufa de gas: Eficiencia de 63% Estufa solar: Eficiencia de 19% Estufa eléctrica: Eficiencia de 57% Estos datos proporcionan una base sólida para el desarrollo del software, que busca ofrecer recomendaciones sobre la mejor combinación de tecnologías para diferentes escenarios y condiciones locales. La implementación de colectores solares y otras tecnologías de energía renovable presenta desafíos significativos debido a la geometría solar y las condiciones climáticas adversas. Factores como la variabilidad en la intensidad de la radiación solar, la disponibilidad de recursos naturales y la infraestructura existente limitan la eficiencia y la viabilidad de estas tecnologías en ciertas regiones. Sin embargo, este proyecto ha demostrado que es posible avanzar hacia una transición energética sostenible mediante el uso de herramientas de decisión integrales y bien informadas, que consideran una amplia gama de factores y que priorizan la sostenibilidad medioambiental y el bienestar social. Este enfoque holístico es crucial para asegurar que la transición energética no solo sea técnicamente viable, sino también equitativa y respetuosa con los ecosistemas locales y las comunidades.
Castro Castro Liz, Universidad de Sonora
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

ANáLISIS DE LA DISTRIBUCIóN DE GENERACIóN DE ENERGíA MEDIANTE LA CONCENTRACIóN DE LUZ SOLAR CON ESPEJOS.


ANáLISIS DE LA DISTRIBUCIóN DE GENERACIóN DE ENERGíA MEDIANTE LA CONCENTRACIóN DE LUZ SOLAR CON ESPEJOS.

Castro Castro Liz, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Al concentrar la luz solar en un solo punto, la densidad de energía aumenta significativamente, lo que eleva la temperatura en ese punto. En lugar de dispersarse sobre una gran área, la energía se enfoca en un área pequeña, maximizando su uso para generar calor o electricidad. Los espejos parabólicos tienen una forma que permite que todos los rayos paralelos de luz que inciden en el espejo se reflejen y converjan en un único punto focal. Esto maximiza la cantidad de energía concentrada en un área pequeña.



METODOLOGÍA

El armado del perfil del espejo fue hecho con la información obtenida en investigaciones previas de la Plataforma Solar. La parabola fue hecha ajustando la distancia, desde el perfil hacia la base recta que sostenia el espejo, en puntos específicos logrando que el espejo no se rompiera y creara la forma deseada. El espejo fue acomodado respetando una distancia de 4 metros para lograr un punto focal sobre una superficie de color sólido. El siguiente paso fue fotografiar este reflejo. Las fotografías pueden ser analizadas obteniendo la sensibilidad del sensor de la cámara de fotos a la hora de captar la luz. Se trata de una escala que determina el grado de sensibilidad del sensor de una cámara de fotos digital respecto a la luz que se proyecta sobre el sensor. Por medio del uso de mathlab las imagenes fueron limpiadas y analizadas teniendo una base de referencia de medidas establecida en la superficie donde fue reflejado el sol.


CONCLUSIONES

Al transformar la escala obtenida a la real, se observó que la energía se mantenía constante. Sin embargo, la concentración en cada punto varió debido al cambio en el área, lo que resultó en una alteración proporcional en la densidad solar, es decir, la energía por unidad de área. Durante el verano de investigación, se adquirieron valiosos conocimientos teóricos a través de la práctica en experimentos solares. Estos estudios se enfocaron en aprovechar la energía del sol para aplicaciones industriales y otros usos diversos. Este trabajo fue crucial al demostrar, a través de imágenes, la distribución e intensidad alcanzada por el reflejo de la luz solar. Esto permitió comprender mejor los fenómenos analizados en otros proyectos.
Castro Herrera Gustavo Angel, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

ANáLISIS DE COSTOS PARA EL DESARROLLO DE UNA CAMPAñA PUBLICITARIA PARA POTENCIALIZAR LAS VENTAS EN UNA EMPRESA DE COSMéTICOS ARTESANALES


ANáLISIS DE COSTOS PARA EL DESARROLLO DE UNA CAMPAñA PUBLICITARIA PARA POTENCIALIZAR LAS VENTAS EN UNA EMPRESA DE COSMéTICOS ARTESANALES

Castro Herrera Gustavo Angel, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

La falta de una conocer el costo de llevar a cabo una campaña publicitaria nos ocasiona problemas financieros, ya que para implementar una campaña publicitaria se debe hacer una proyección de ventas para conocer lo que se debe vender para tener una buena retribución económica para la empresa. La empresa al no contar con ventas por ser un emprendimiento tiene la necesidad de diseñar e implementar una campaña que impulse las ventas y logre mantener la marca ante el cliente potencial.



METODOLOGÍA

Se analizó la proyección de ventas que se hizo para el primer delfín del año 2023, la cual nos permite visualizar lo que se debe vender para cubrir los gastos operativos de la empresa. Se analizó el estudio de mercado de María Esmeralda Cortés Sereno de la carrera de Ingeniería en Administración del Instituto Tecnológico de Tacámbaro en el año del 2024, realizado en la región de Tacámbaro para conocer cuáles son realmente las necesidades en cuanto a la utilización de jabones cosméticos artesanales para hombres y mujeres. Partiendo de lo anterior, se diseñó una estrategia de marketing para la campaña publicitaria, a partir del ciclo de vida. Además, se analizó la matriz BCG participación de mercado-crecimiento del mercado, la tabla de perfil competitivo y la matriz de perfil competitivo, la matriz de precio-calidad, se obtuvieron estrategias de comercialización y un método de fijación de precios. Para la segunda estrategia de marketing, se ha desarrollado a profundidad la estrategia de penetración ambiciosa, realizando acciones como identificar el manual de identidad, definir los códigos de comunicación y definir los medios de comunicación que utilizará la empresa. Además, la estrategia de comercialización, que está basada en la B2B y el marketing integrado. Para cerrar con la campaña publicitaria, se diseñan los canales de distribución con los que podrá contar la empresa y poder realizar un presupuesto para poder plasmar una segunda proyección de ventas para que los indicadores financieros muestren la rentabilidad de la empresa.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre el diseño de una campaña publicitaria. En esta estancia se han definido estrategias óptimas para la realización de una campaña para que la marca sea aceptada de una forma positiva ante el mercado, esperando que el costo de implementarla se muestre positivo en los indicadores de rentabilidad de la empresa, ya que, al ser un extenso trabajo, los resultados de rentabilidad se desconocen aún. Aunque a partir de la investigación, se puede decir que se cumplieron los objetivos plasmados con excelentes resultados, ya que se permitió tomar decisiones asertivas en base a la realización de la proyección primera, se determinaron los canales de comunicación más adecuados y se plasmaron estrategias de marketing y publicidad.
Castro López Angel Gustavo, Instituto Tecnológico Superior de Irapuato
Asesor: Dra. Miroslava Cano Lara, Instituto Tecnológico Superior de Irapuato

ESTUDIO DE POSTURA EN CICLISMO MEDIANTE VISIóN COMPUTACIONAL


ESTUDIO DE POSTURA EN CICLISMO MEDIANTE VISIóN COMPUTACIONAL

Castro López Angel Gustavo, Instituto Tecnológico Superior de Irapuato. Gutierrez Lopez Jose Alberto, Universidad de Guadalajara. Llamas Ramírez Marco Eduardo, Universidad de Guadalajara. Negrete Cárdenas Jorge, Universidad de Guadalajara. Asesor: Dra. Miroslava Cano Lara, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Estudios previos del rendimiento físico en ciclistas deportistas de alto rendimiento evalúan la postura del atleta mientras realiza el movimiento en la bicicleta, a su vez, multiples estudios abordan la evaluación de la actividad muscular y cardiaca del ciclista en búsqueda de optimizar el rendimiento del ciclista. Sin embargo, tras la incursion de tecnologías de vision computacional es posible analizar la postura en tiempo real extrayendo el mapeo de los puntos claves del cuerpo obteniéndose la inclinación y ángulos de ataque a lo largo de las etapas de reposo, ciclo normal y ciclo de ataque.



METODOLOGÍA

Se seleccionó a uno de los integrantes como ciclista sujeto al estudio, empleando el entorno de Python 3 se diseñaron 2 programas mediante los cuales se tomaría un video de entrada para extraer la malla corporal proporcionada por la librería MediaPipe, los nodos extraídos son tomados para el calculo de los ángulos de flexion en rodillas, espalda y brazos para su exportación en un formato CSV. a su vez, se analizó la actividad EMG, ECG, EEG empleando la diadema Emotiv Epoc + en el programa Emotiv. Se formó una base de datos de 30 videos en los cuales el ciclista ejecuta las 3 posturas en periodos de 10 segundos en tomas de 30 segundos, se analizaron los datos obtenidos entre los entre los diferentes momentos identificándose las relaciones entre la postura del ciclista y la actividad fisiológica y biomecánica.


CONCLUSIONES

En conclusión, este estudio reveló que la postura del ciclista cambia significativamente en relación con la fase de pedaleo y la velocidad. Se observó un aumento en el ritmo cardíaco y la contracción muscular a medida que el ciclista aumentaba su velocidad, lo que sugiere una mayor demanda fisiológica. Además, se encontró que los ángulos de las articulaciones siguen secuencias similares, aunque con pequeñas variaciones, lo que indica una patrón de movimiento consistente. La tendencia del ciclista a encorvarse más a medida que aumenta la velocidad sugiere una adaptación para reducir la resistencia aerodinámica. Los hallazgos en el EEG sugieren un aumento de la actividad eléctrica en los lóbulos frontal y occipital, probablemente relacionado con la función motora y la coordinación del movimiento. Estos resultados proporcionan una comprensión más profunda de las adaptaciones fisiológicas y biomecánicas que ocurren durante el ciclismo y pueden ser útiles para optimizar el rendimiento y prevenir lesiones.
Castro Palacio Mariana, Universidad Cooperativa de Colombia
Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios

SISTEMA DE TELEMETRíA Y VISUALIZACIóN EN TIEMPO REAL DE TEMPERATURA Y HUMEDAD, PARA INVERNADERO HIDROPóNICO AUTOMATIZADO.


SISTEMA DE TELEMETRíA Y VISUALIZACIóN EN TIEMPO REAL DE TEMPERATURA Y HUMEDAD, PARA INVERNADERO HIDROPóNICO AUTOMATIZADO.

Castro Palacio Mariana, Universidad Cooperativa de Colombia. Jaimes Carmona Santiago, Universidad Cooperativa de Colombia. Sanchez Logreira Juandiego, Universidad Cooperativa de Colombia. Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

  En la vereda Tigrera, ubicada en Santa Marta, D.T.C.H, se ha identificado la necesidad de optimizar el control y monitoreo de las variables climáticas dentro de un invernadero hidropónico. Este tipo de cultivo requiere condiciones específicas de temperatura y humedad para maximizar la eficiencia y productividad. Sin embargo, la falta de un sistema automatizado y preciso para monitorear estas variables puede resultar en fluctuaciones que afectan negativamente la producción. Actualmente, el monitoreo manual es ineficiente y propenso a errores, lo que puede llevar a la pérdida de cultivos y recursos. El proyecto "Sistema de Telemetría y Visualización en Tiempo Real de Temperatura y Humedad para Invernadero Hidropónico Automatizado" tiene como objetivo diseñar e implementar un sistema que permita medir y registrar variables críticas como temperatura y humedad en tiempo real. Este sistema busca proporcionar una plataforma accesible a través de dispositivos web y móviles, que no solo mejore la eficiencia y productividad del invernadero, sino que también establezca un modelo replicable adaptable a otras instalaciones. Además, se busca promover prácticas agrícolas más sostenibles y tecnológicamente avanzadas en la región, marcando un avance significativo en la modernización de la agricultura en Santa Marta, D.T.C.H, con potencial para ser un referente en sistemas hidropónicos automatizados a nivel nacional.



METODOLOGÍA

  El proyecto se enfoca en la implementación de un sistema de monitoreo y control que permita la visualización en tiempo real de las variables climáticas dentro de un invernadero hidropónico. Utilizando tecnología avanzada como microcontroladores ESP32 y sensores DHT22, el sistema buscará optimizar las condiciones de cultivo mediante el monitoreo constante y la emisión de alertas automáticas. Diseño del Sistema Selección de Hardware: Elección del microcontrolador ESP32 por su versatilidad y capacidad de conectividad. Se selecciona el sensor DHT22 para la medición de temperatura y humedad. Conexión del Hardware: Conexión física del sensor DHT22 al ESP32, siguiendo una guía detallada que incluye la configuración de los pines y las conexiones eléctricas necesarias. Configuración del Software Programación del ESP32: Desarrollo del código fuente utilizando Arduino IDE para la lectura de datos del sensor DHT22 y la transmisión de estos datos a la plataforma de visualización. Integración con Grafana: Configuración de Grafana para la visualización en tiempo real de los datos recolectados. Creación de dashboards personalizados y configuración de alertas basadas en umbrales predefinidos. Implementación del Sistema de Alertas Configuración de Umbrales: Definición de umbrales críticos para temperatura y humedad. Configuración de alertas en Grafana para notificar a los usuarios cuando los valores excedan estos umbrales. Notificaciones Automáticas: Integración de notificaciones automáticas a través de múltiples canales como correo electrónico y mensajes de texto. Pruebas y Optimización Pruebas de Funcionamiento: Realización de pruebas para verificar el funcionamiento correcto del sistema en condiciones normales de operación. Ajustes y Calibraciones: Ajuste y calibración del sensor DHT22 para asegurar la precisión de las mediciones.


CONCLUSIONES

  La implementación del sistema ha permitido un monitoreo preciso y en tiempo real de las variables climáticas del invernadero. Los datos obtenidos han sido visualizados de manera efectiva a través de la plataforma Grafana, permitiendo la creación de dashboards personalizados que muestran la temperatura y humedad de forma clara y accesible. El sistema de alertas ha demostrado ser eficaz, enviando notificaciones automáticas cuando las variables exceden los umbrales predefinidos, lo que ha permitido una respuesta rápida a las condiciones desfavorables. El sistema ha mostrado una notable mejora en la eficiencia del monitoreo del invernadero hidropónico, reduciendo la dependencia del monitoreo manual y minimizando los errores humanos. La capacidad de recibir alertas en tiempo real ha permitido a los administradores del invernadero tomar decisiones informadas y oportunas, asegurando condiciones óptimas para el crecimiento de los cultivos. Además, la integración de una plataforma accesible a través de dispositivos web y móviles ha facilitado el acceso y la gestión del sistema desde cualquier lugar. El proyecto ha logrado su objetivo de diseñar e implementar un sistema de telemetría y visualización en tiempo real para un invernadero hidropónico automatizado. La combinación del ESP32 y el sensor DHT22, junto con la plataforma Grafana, ha proporcionado una solución eficiente y escalable para el monitoreo de variables críticas como la temperatura y la humedad. La automatización del sistema de alertas ha mejorado significativamente la capacidad de respuesta ante condiciones adversas, contribuyendo a la sostenibilidad y productividad del invernadero. Este proyecto no solo ha marcado un avance en la modernización de la agricultura en Santa Marta, D.T.C.H, sino que también ha establecido un modelo replicable que puede ser adaptado a otras instalaciones hidropónicas. Se recomienda continuar con el desarrollo de este sistema, explorando la integración de nuevos sensores y tecnologías para expandir su capacidad de monitoreo y control.  
Castro Sánchez Marlenne, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Maria Morin Castillo, Benemérita Universidad Autónoma de Puebla

ALTERACIONES NEUROLóGICAS EN ADULTOS CON SíNDROME DE EPILEPSIA: ANáLISIS DE CARACTERíSTICAS DE LAS SEñALES EEG


ALTERACIONES NEUROLóGICAS EN ADULTOS CON SíNDROME DE EPILEPSIA: ANáLISIS DE CARACTERíSTICAS DE LAS SEñALES EEG

Castro Sánchez Marlenne, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Maria Morin Castillo, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La epilepsia es un trastorno cerebral crónico que se manifiesta principalmente a través de convulsiones, las cuales pueden variar según la edad y la persona. Las convulsiones son episodios de actividad eléctrica anormal en el cerebro que pueden afectar la atención, el comportamiento y los movimientos corporales, aumentando el riesgo de lesiones y muerte. El diagnóstico de epilepsia se realiza mediante estudios como el electroencefalograma (EEG), que ayuda a estimar la probabilidad de futuras convulsiones y a identificar el tipo de convulsión y su posible relación con un síndrome específico. La identificación de alteraciones en la actividad eléctrica cerebral mediante EEG es crucial para el diagnóstico de epilepsia. Utilizar algoritmos de aprendizaje automático para clasificar patrones en los EEG permite determinar si una persona tiene epilepsia focal o no.



METODOLOGÍA

Se utilizaron dos conjuntos de datos (A y E) de la base de datos pública de la Universidad de Bonn, que contiene cinco conjuntos etiquetados como A, B, C, D y E. Cada conjunto incluye 100 segmentos de EEG de 23.6 segundos y 4097 muestras por canal, seleccionados tras una inspección visual para eliminar artefactos. El conjunto A incluye registros de EEG de cinco sujetos sanos con los ojos abiertos, mientras que el conjunto E contiene actividad ictal del hipocampo de cinco pacientes epilépticos. La frecuencia de muestreo de la base de datos es de 173.61 Hz, y se aplicó un filtro de banda de 0.53 Hz a 40 Hz. La ejecución de diferentes funciones se lleva a cabo utilizando el software matemático Matlab. Se realizó un análisis inicial del set A y E de la base de datos, donde se consideraron las características estadísticas Media, Mediana, Moda, Desviación estándar, Mínimo, Máximo, Asimetría y Kurtosis. Se realiza la extracción de características estadística que se caracteriza por ser una técnica en el dominio del tiempo, son frecuentemente utilizadas cuando la amplitud una señal EEG es empleada en el análisis. Se desarrolló un modelo utilizando características obtenidas como entrada para un clasificador de aprendizaje automático, evaluando su precisión con la aplicación de Classification Learner de Matlab. Se empleó el clasificador SVM (Support Vector Machine), cuyo objetivo es separar dos clases de datos de manera óptima. SVM realiza un mapeo no lineal para transformar los datos a una dimensión superior y encontrar un hiperplano de separación óptimo. Utiliza una función de kernel, que asigna los datos a un espacio donde son linealmente separables, siendo el kernel lineal el más simple. Utilizando la validación cruzada k-fold se evalúa la eficiencia de los algoritmos de clasificación del modelo creado mediante una división en k pliegues disjuntos de igual tamaño. Al final, se promedian las precisiones de los (k) pliegues para evaluar la eficiencia del clasificador, considerando como valores razonables de (k) cinco o diez iteraciones. RESULTADOS DE SIMULACIÓN Para el algoritmo, la base de datos se transforma en un arreglo de celdas de vectores de fila para ajustarse al clasificador propuesto. Dadas las condiciones de los datos, se agrupan y etiquetan de manera que el conjunto A se considera como normal y el conjunto E se designa como registros ictales. Utilizando el algoritmo, se extraen las características de los conjuntos de datos (A y E) y se guardan en la variable data = [statf label], una matriz de 4600x9. Donde: statf es la matriz que contiene todas estas características estadísticas de A y E de 4600x8. Label es una matriz compuesta de unos y ceros de 4600x1. Se desarrolló un modelo utilizando un clasificador SVM lineal con (k = 10) para clasificar datos, logrando una precisión del 99.7%. Los resultados se representan en una gráfica de dispersión, donde las predicciones incorrectas están marcadas con x y las correctas con o. Los pacientes sanos se muestran como 1 y los pacientes con epilepsia como 0. Para comprobar el rendimiento por clase, se utiliza la gráfica de matriz de confusión, con el fin de entender el rendimiento del clasificador entrenado en cada clase específica, indicando las áreas donde el clasificador no ha tenido un buen desempeño, se obtuvieron que, de 2300 observaciones de pacientes con epilepsia, 2297 fueron clasificadas correctamente y 3 incorrectamente. Para los pacientes sanos, de 2300 observaciones, 2289 fueron correctas y 11 incorrectas. Las tasas de verdaderos positivos (TPR) y falsos negativos (FNR) indican el rendimiento por clase, donde la TPR es la proporción de observaciones correctamente clasificadas por clase verdadera, mientras que la FNR es la proporción de observaciones incorrectamente clasificadas por clase verdadera, en los resultados obtenidos se tiene que el 99.9% de las observaciones de la clase 0 y el 99.5% de la clase 1 fueron clasificadas correctamente.


CONCLUSIONES

La técnica utilizada para extraer características del EEG fue efectiva, considerando dos clases específicas de datos. En el futuro, sería útil explorar esta y otras técnicas con diferentes casos experimentales para mejorar la clasificación. En este proyecto, se usaron los conjuntos de datos A y E, clasificándolos como normales e ictales. Se podrían considerar otros conjuntos de datos, como AB, CD y E, para clasificaciones más detalladas como Normal, Interictal e Ictal, lo que podría mejorar el modelo de clasificación y la eficiencia del algoritmo de codificación. El método de aprendizaje automático con el clasificador SVM lineal es ideal para clasificaciones binarias. Los resultados mostraron una alta precisión: más del 99.9% de los casos epilépticos fueron correctamente clasificados y menos del 0.5% de los casos normales fueron clasificados erróneamente. Para futuros estudios, se podrían considerar otros tipos de aprendizaje automático para optimizar el modelo y mejorar las predicciones con diferentes conjuntos de datos.
Castro Silva Harry David Castro Silva, Fundación Universitaria del Área Andina
Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios

ANáLISIS COMPARATIVO DE MODELOS DE MACHINE LEARNING PARA LA PREDICCIóN DE RENDIMIENTOS DE CACAO EN ANTIOQUIA, COLOMBIA UTILIZANDO PYTHON


ANáLISIS COMPARATIVO DE MODELOS DE MACHINE LEARNING PARA LA PREDICCIóN DE RENDIMIENTOS DE CACAO EN ANTIOQUIA, COLOMBIA UTILIZANDO PYTHON

Castro Silva Harry David Castro Silva, Fundación Universitaria del Área Andina. Gonzalez Castro Jefferson Alexander, Fundación Universitaria del Área Andina. Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

En Colombia, el cacao, conocido por su alta calidad, solo representa el 1.06% de la producción mundial con 62,158 toneladas. En el departamento de Antioquia, que contribuye con aproximadamente el 9.5% de la producción nacional, la productividad es baja comparada con otros departamentos, lo que lleva a una inestabilidad económica y reduce la competitividad global del cacao colombiano. Los bajos ingresos de los agricultores impiden la inversión en tecnologías y prácticas agrícolas mejoradas, necesarias para aumentar la producción y mejorar la calidad del cacao. El cambio climático exacerba estos problemas, provocando fluctuaciones extremas en las condiciones meteorológicas y aumentando la incidencia de plagas y enfermedades. Muchos árboles de cacao en Colombia son viejos y tienen una genética inadecuada para maximizar la producción y la resistencia a enfermedades.  Además, en regiones como Antioquia, los altos niveles de cadmio en el suelo afectan la calidad del cacao y dificultan su exportación a mercados con regulaciones estrictas. La falta de sombra adecuada y la baja densidad de árboles en las plantaciones también contribuyen a la baja productividad.  Estas problemáticas dificultan la previsión precisa de la producción de cacao y la gestión adecuada de las variables que afectan el cultivo, lo que lleva a decisiones subóptimas en la gestión de recursos y la planificación de la cosecha. La falta de herramientas y técnicas avanzadas para la gestión de recursos y la planificación agrícola impide la adaptación a condiciones climáticas variables y la optimización de la producción agrícola, contribuyendo a la baja productividad y sostenibilidad del sector del cacao en Colombia. Frente a estos desafíos, surge la pregunta de cuál es el modelo de machine learning más adecuado para predecir los rendimientos de la producción de cacao en el departamento de Antioquia, Colombia, considerando los desafíos climáticos y agronómicos actuales. Implementar un modelo de machine learning basado en datos históricos de producción de cacao y variables ambientales podría optimizar recursos y mejorar la previsión de la producción, permitiendo a los productores planificar mejor y adaptarse proactivamente a las fluctuaciones del mercado. Desarrollar predicciones precisas es crucial para la estabilidad económica y la sostenibilidad del sector agrícola. 



METODOLOGÍA

La metodología propuesta se basa en el desarrollo del modelo mediante etapas como el preprocesamiento de datos, el análisis de datos, la ingeniería de características, el proceso de entrenamiento y la evaluación posterior.  Se decidió utilizar datos abiertos proporcionados por diversas entidades públicas y privadas, seleccionando especialmente datos del Ministerio de Agricultura y Desarrollo Rural por su fiabilidad y pertinencia. Las variables incluidas abarcan desde identificadores geográficos hasta datos específicos de producción agrícola. Además, se recopilaron datos ambientales, incluyendo precipitaciones, humedad y temperatura, a través de agencias gubernamentales, para analizar su impacto en la producción de cacao en el departamento de Antioquia durante el período de 2007 a 2018. También se incluyeron datos geográficos de longitud y latitud.  El análisis de datos permitió extraer información valiosa y patrones relevantes utilizados para desarrollar los modelos de Machine Learning. Se evidenció la evolución de la producción de cacao en Antioquia desde 2007 hasta 2018, observando una tendencia con pequeñas variaciones. Se generó un diagrama de correlación para entender mejor las relaciones entre variables, identificando que la producción de cacao y el área cosechada eran las variables más correlacionadas. Esto facilitó el análisis de su comportamiento en el entorno geográfico de Antioquia.  Este proceso de ingeniería de características se enfocó en la creación, transformación y selección de variables que optimizan el rendimiento del modelo predictivo. Se transformaron los datos categóricos a valores numéricos mediante técnicas como One Hot Encoding, permitiendo que los modelos de aprendizaje automático procesen correctamente los datos no numéricos y mejoren la precisión de las predicciones.  Por otra parte, se dividió el conjunto de datos en un conjunto de entrenamiento y otro de validación para entrenar los modelos y evaluar su rendimiento. Se empleó la técnica de validación cruzada para garantizar que el rendimiento de los modelos fuera robusto y confiable. Esto permitió seleccionar el modelo que mejor predice valores no vistos previamente.


CONCLUSIONES

El análisis realizado para la predicción de la producción de cacao en el departamento de Antioquia ha proporcionado una visión integral del desempeño de diferentes modelos de Machine Learning. Los resultados muestran que el modelo de bosque aleatorio ofrece el mejor desempeño en términos de precisión, con un error de 41.72, superando al modelo de árboles de decisión y al de regresión lineal. Este hallazgo destaca la capacidad del bosque aleatorio para manejar la complejidad y las interacciones entre las variables de manera más efectiva que los otros modelos evaluados.  Asimismo, se ha observado que las regiones con mayor productividad están correlacionadas con las áreas agrícolas más extensas, según los datos analizados. Esta relación sugiere que la expansión de las áreas agrícolas puede tener un impacto positivo en los niveles de productividad. Sin embargo, es fundamental considerar que el tamaño limitado del conjunto de datos podría haber influido en los resultados. Por lo tanto, se recomienda ampliar el conjunto de datos y mejorar su calidad para obtener predicciones más precisas y representativas.  Adicionalmente, se sugiere incorporar variables como a integración de prácticas agrícolas específicas, características del suelo y variables socioeconómicas, esto podría contribuir a un mejor desempeño de los algoritmos.
Cástulo Hernández Monserrat, Instituto Tecnológico de Zitácuaro
Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América

FACTORES ASOCIADOS AL BAJO PORCENTAJE DE RECICLAJE TEXTIL EN MEXICO


FACTORES ASOCIADOS AL BAJO PORCENTAJE DE RECICLAJE TEXTIL EN MEXICO

Arriaga Sarabia Gisela, Tecnológico de Estudios Superiores de Valle de Bravo. Avila Argueta Naomi Michelle, Instituto Tecnológico de Zitácuaro. Cástulo Hernández Monserrat, Instituto Tecnológico de Zitácuaro. Delgado Reséndiz Arantxa, Instituto Tecnológico de Zitácuaro. Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Un estudio de Greenpeace señala que en México se generan alrededor de 1.1 millones de toneladas de residuos textiles al año, en la dimensión ambiental, sin embargo, hay que destacar, según la Secretaría de Medio Ambiente y Recursos Naturales, que tan solo en la Ciudad de México se desechan 3 mil 700 millones de toneladas de residuos textiles al año y tan sólo se recicla el uno por ciento. Aunque en los tianguis mexicanos sí se comercializa con ropa de reúso, parte del problema del tianguis es que lo que no se reutiliza termina en la basura (Martínez Equihua, 2023 Greentology) contribuyendo a la contaminación del suelo y del agua. Como consecuencia, se observa una baja participación en prácticas de reciclaje textil debido a los paradigmas del "Fast fashion", impuesto por las tendencias de los consumidores, lo que contribuye a impactos negativos en el medio ambiente, como la liberación de sustancias químicas tóxicas durante la descomposición de los textiles y un aumento en las emisiones de gases de efecto invernadero debido a la producción continua de nuevos materiales. También se generan problemas económicos, ya que los materiales textiles reciclables, que podrían ser reintegrados en la economía circular, se desperdician.  



METODOLOGÍA

Se utilizaron herramientas como la encuesta para analizar los resultados refelados en esta misma.  La encuesta se aplico a habitantes de los diversos Estados de la Republica Mexicana, con el fin de conocer su perspectiva con el tema de reciclaje textil.  Tipo de encuesta: Cuantitativa, con preguntas abiertas y cerradas. Seccion 1: Datos demograficos Seccion 2: Conocimiento sobre reciclaje textil Seccion 3: Comportamiento actual Seccion 4: Barerras percibidas Con estos resultados se pretende hacer un estudio y observacion del panorama que tiene la sociedad acerca de este tema; para asi poder fomentar la educacion del reciclaje textil. 


CONCLUSIONES

Durante la estancia de verano, se logro adquirir los conocimientos teoricos del reciclaje en la industria indumentaria, y ponerlos en practica con el objetivo de conocer la perspectiva de los usuarios encuestados sobre este tema.  A pesar de que aun no se encuentran terminados los analisis, se puede concluir que, esta investigacion  nos muestra que la mayoría de las personas encuestadas tienen cierto grado de familiarización con el concepto de reciclaje textil, aunque un porcentaje significativo indicó tener poca o ninguna familiaridad con este tema. Es importante seguir promoviendo la conciencia sobre el reciclaje textil para fomentar prácticas sostenibles en la sociedad. Los resultados de la encuesta indican que la falta de información es el principal obstáculo para el reciclaje textil en México, seguido por la ubicación de puntos de recolección y la falta de incentivos. Para mejorar el porcentaje de reciclaje textil, se deben implementar estrategias educativas efectivas, aumentar la accesibilidad de los puntos de recolección y establecer incentivos que motiven a la población a participar.  
Catalan Corona Alexis Adrian, Instituto Politécnico Nacional
Asesor: Dr. Carlos Arturo Hernández Gracidas, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE ALGORITMOS BASADOS EN APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE CONSUMO ENERGéTICO.


DESARROLLO DE ALGORITMOS BASADOS EN APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE CONSUMO ENERGéTICO.

Catalan Corona Alexis Adrian, Instituto Politécnico Nacional. Lázaro Dzib Armando, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Merced Reyes Alejandro Camilo, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Carlos Arturo Hernández Gracidas, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La energía eléctrica se ha convertido en uno de los recursos más fundamentales y básicos en todas las actividades que satisfacen las necesidades humanas. Independientemente de los factores que afectan el consumo a lo largo del tiempo, como el clima, la densidad poblacional y la posición geográfica, este puede variar según la temporada del año. Esto conlleva a un estudio minucioso de su comportamiento para establecer criterios que permitan aproximar la predicción del consumo a los valores reales. Los comportamientos de consumo de energía eléctrica pueden ser variados para diversos conjuntos de datos con los que se pretende evaluar. Durante el verano de investigación, se estudia el comportamiento del consumo eléctrico empleando diversos modelos que cumplen la función de realizar pronósticos durante un lapso de tiempo, logrando una aproximación a los datos reales de los registros.



METODOLOGÍA

Para llevar a cabo el estudio del consumo energético, se emplea un conjunto de datos que contiene información sobre la fecha y la hora, así como el consumo de energía eléctrica en megawatts (MW), de los siguientes estados: Illinois, Indiana, Kentucky, Maryland, Michigan, New Jersey, North Carolina, Ohio, Pennsylvania, Tennessee, Virginia, West Virginia y el Distrito de Columbia de Estados Unidos. Estos datos fueron registrados durante un periodo aproximado de entre 7 y 10 años para cada respectivo estado. La experimentación se desarrolla en el entorno de trabajo de Jupyter Notebook, empleando el lenguaje de programación Python. A través de este entorno, se comienza con la división de datos en entrenamiento y prueba, lo que hace posible trabajar con dos modelos distintos: el Modelo Autorregresivo de Media Móvil (ARIMA, por sus siglas en inglés) y Redes Neuronales Recurrentes (RNN) que estiman los valores del consumo de energía en un periodo determinado. Una vez realizado el proceso anterior, se entrenan los modelos utilizando parámetros ajustados previamente mediante una serie de pruebas, para predecir con los datos los valores estimados, empleando el rango de tiempo que contemplan los datos de prueba y evaluar la precisión con la que los modelos pueden explicar el comportamiento del consumo energético, a través de las siguientes métricas: el error cuadrático medio y el coeficiente de determinación.


CONCLUSIONES

Durante la estancia de investigación se logró la adquisición de disciplinas y conocimientos requeridos para el desarrollo del proyecto, aplicables en diversas ramas del área informática cuando se trabaja con datos. Los resultados obtenidos de ambos modelos muestran una eficacia para pronosticar el consumo energético en un periodo de tiempo determinado, por lo que el hecho de trabajar con estos modelos puede contribuir a futuras investigaciones.
Cázares Godínez Diego, Instituto Tecnológico Superior de Uruapan
Asesor: Mg. Juan Manuel Romero Montes, Corporación Universitaria del Caribe

ANáLISIS BIBLIOMéTRICO DE LA LOGíSTICA DE PRODUCTOS PERECEDEROS EN LA CADENA DE SUMINISTRO: UNA REVISIóN DE LA LITERATURA.


ANáLISIS BIBLIOMéTRICO DE LA LOGíSTICA DE PRODUCTOS PERECEDEROS EN LA CADENA DE SUMINISTRO: UNA REVISIóN DE LA LITERATURA.

Cázares Godínez Diego, Instituto Tecnológico Superior de Uruapan. Asesor: Mg. Juan Manuel Romero Montes, Corporación Universitaria del Caribe



PLANTEAMIENTO DEL PROBLEMA

La logística de productos perecederos enfrenta desafíos significativos que impactan tanto la eficiencia operativa como la sostenibilidad del sistema alimentario. A medida que la demanda de productos frescos y de alta calidad aumenta, las empresas se ven obligadas a optimizar sus procesos logísticos para minimizar el desperdicio y reducir costos. Sin embargo, la gestión de la cadena de suministro de estos productos es compleja debido a factores como la variabilidad en la demanda, las condiciones ambientales cambiantes y la necesidad de cumplir con estrictas normativas de calidad y seguridad alimentaria.   A pesar de los avances en tecnologías de información y técnicas de optimización, muchas empresas aún dependen de métodos tradicionales que no son suficientes para abordar la creciente complejidad del mercado. Esto resulta en ineficiencias, como el exceso de inventario, la falta de sincronización en la distribución y la incapacidad para responder rápidamente a cambios en la demanda. Además, la falta de investigación sistemática en el área de la logística de productos perecederos limita la identificación de mejores prácticas y la implementación de innovaciones que podrían mejorar la eficiencia y sostenibilidad del sistema.   Por lo tanto, es crucial realizar un análisis exhaustivo de la literatura existente y aplicar enfoques innovadores, como la bibliometría y los algoritmos metaheurísticos, para identificar lagunas en el conocimiento actual y proponer soluciones efectivas.



METODOLOGÍA

La metodología para este estudio se estructura en varias etapas, cada una diseñada para abordar el problema planteado y alcanzar los objetivos establecidos. A continuación, se describen las fases de la investigación:   1.Revisión Bibliográfica: Se realizó una revisión exhaustiva de la literatura existente sobre logística de productos perecederos, centrándose en estudios que utilicen técnicas de optimización, algoritmos genéticos y aprendizaje automático. Se utilizaron bases de datos académicas como Scopus, Web of Science y Google Scholar para recopilar artículos relevantes publicados en los últimos años.   2. Análisis Bibliométrico: Se usaron herramientas bibliométricas para medir la calidad y el impacto de las investigaciones revisadas. Esto incluye el análisis de citas, co-citación y redes de colaboración entre autores. Se identificaron las tendencias de investigación, áreas de interés emergentes y lagunas en la literatura que requieren mayor atención.   3. Desarrollo teórico: A partir de la revisión y el análisis bibliométrico, se desarrolló un marco que sintetiza los hallazgos clave y las mejores prácticas en la logística de productos perecederos. Este marco incluye la identificación de variables críticas que afectan la eficiencia y sostenibilidad en la cadena de suministro.   4. Análisis de Resultados y Conclusiones: Se realizó un análisis comparativo de los resultados obtenidos, evaluando el impacto de las técnicas de optimización en la logística de productos perecederos. Finalmente, se elaboraron conclusiones y recomendaciones para futuras investigaciones y prácticas en la gestión de la cadena de suministro agroalimentaria.   Esta metodología permitió abordar los desafíos en la logística de productos perecederos, contribuyendo a la mejora de la eficiencia y sostenibilidad en el sector.  


CONCLUSIONES

Dentro de este verano de investigación se ha aprendido que la logística de productos perecederos presenta desafíos complejos que requieren enfoques innovadores y sistemáticos para su gestión eficiente. La revisión bibliográfica y el análisis bibliométrico han permitido identificar las tendencias actuales en la investigación, así como las lagunas existentes que necesitan ser abordadas.   Bajo la estancia de verano se logró adquirir conocimientos teóricos de los problemas que se abordan dentro de la logística de productos perecederos y así mismo, se encontraron soluciones en casos reales para estos problemas. También se aprendió a buscar información en bases de datos de Close Access lo cual será de gran ayuda para investigaciones futuras.
Cazarez Dueñas Gabriel, Universidad de Guadalajara
Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara

SOLUCIÓN DE PROBLEMAS DE LA INGENIERÍA QUÍMICA CON EL APOYO DEL LENGUAJE DE PROGRAMACIÓN PYTHON


SOLUCIÓN DE PROBLEMAS DE LA INGENIERÍA QUÍMICA CON EL APOYO DEL LENGUAJE DE PROGRAMACIÓN PYTHON

Cazarez Dueñas Gabriel, Universidad de Guadalajara. Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La ingeniería química es una disciplina que se encarga de la transformación de materias primas en productos finales de valor añadido, mediante procesos químicos y físicos. Esta disciplina abarca una amplia gama de problemas complejos que van desde la termodinámica y la transferencia de calor hasta la cinética química y la simulación de procesos. La resolución eficaz de estos problemas es fundamental para la optimización de procesos industriales, la reducción de costos, y la mejora de la eficiencia y la sostenibilidad de las operaciones.   Tradicionalmente, los ingenieros químicos han utilizado herramientas y métodos analíticos y numéricos para resolver estos problemas. Sin embargo, con el avance de la tecnología, el uso de lenguajes de programación se ha vuelto cada vez más prominente. Python, en particular, ha emergido como una herramienta poderosa y versátil debido a su simplicidad, capacidad de manejo de datos, y la amplia disponibilidad de bibliotecas especializadas para la ingeniería química.



METODOLOGÍA

  Se diseñaron diferentes algoritmos para resolver ecuaciones de estado y encontrar propiedades como presión, temperatura, volumen, energía interna, entalpía y entropía, además, en cada uno de estos algoritmos se implementó el uso de bibliotecas cientificas tales como Numpy, Scipy y CoolProp para facilitar el calculo y obtener algunas de las propiedades necesarias para iniciar los calculos, tales como temperatura y presión critica. 


CONCLUSIONES

El desarrollo de soluciones computacionales para problemas de ingeniería química, apoyado en el lenguaje de programación Python, ha demostrado ser una estrategia altamente efectiva y eficiente.    Además, los programas desarrollados no solo permiten realizar cálculos complejos de manera precisa y rápida, sino que también ofrecen una interfaz amigable para los usuarios, facilitando su adopción y uso en entornos industriales y académicos. La utilización de bibliotecas científicas y de ingeniería en Python ha permitido optimizar los algoritmos, garantizando resultados fiables y consistentes.
Ceballos Brito Nicolás, Universidad Católica de Pereira
Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle

ANáLISIS DE ALGORITMOS DE MACHINE LEARNING PARA EL MANTENIMIENTO PREDICTIVO EN ENTORNOS INDUSTRIALES


ANáLISIS DE ALGORITMOS DE MACHINE LEARNING PARA EL MANTENIMIENTO PREDICTIVO EN ENTORNOS INDUSTRIALES

Ceballos Brito Nicolás, Universidad Católica de Pereira. Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

  Planteamiento del Problema En la industria moderna, la eficiencia y fiabilidad de las máquinas son esenciales para mantener la competitividad y reducir costos operativos. Prever fallos en los equipos es un desafío crucial que permite planificar adecuadamente el mantenimiento y evitar costosos tiempos de inactividad. Los algoritmos de Machine Learning en sistemas de mantenimiento predictivo (PdM) han surgido como una solución prometedora, ya que analizan datos históricos y en tiempo real para identificar patrones y anomalías que predicen fallos futuros. Esta investigación se centra en la revisión y validación de algoritmos de Machine Learning no supervisados, supervisados y de redes neuronales en el ámbito del PdM. A pesar de la literatura y aplicaciones prácticas existentes, la selección del algoritmo adecuado para un entorno industrial específico sigue siendo compleja y crucial. El estudio busca optimizar el proceso de mantenimiento mediante una validación empírica de estos algoritmos con datos reales obtenidos a través de sensores especializados, contribuyendo tanto al conocimiento académico como a las prácticas industriales.



METODOLOGÍA

Metodología La metodología de este estudio se estructuró en varias etapas clave: 1. Recolección de Datos Los datos utilizados en esta investigación fueron obtenidos mediante unos sensores de recopilación de datos de vibración y otros parámetros relevantes que indican el estado de las máquinas. Los datos fueron registrados en un archivo CSV, lo que facilitó su manejo y análisis posterior. 2. Preprocesamiento de Datos Una vez recolectados los datos, se procedió a su preprocesamiento utilizando el programa Weka. El preprocesamiento incluyó la limpieza de datos, el manejo de valores faltantes, la normalización y la selección de características más relevantes para el análisis. 3. Selección y Aplicación de Algoritmos Se seleccionaron diversos algoritmos de Machine Learning para su evaluación en el contexto de PdM. Estos algoritmos se dividieron en tres categorías principales: Algoritmos No Supervisados: K-Means: Utilizado para agrupar datos en clusters y detectar patrones anómalos. DBSCAN: Empleado para identificar densidades de datos y anomalías. Isolation Forest: Implementado para detectar outliers mediante la construcción de árboles de aislamiento. CBLOF: Utilizado para identificar outliers en datos de alta dimensionalidad. Algoritmos Supervisados: Máquinas de Soporte Vectorial (SVM): Para la clasificación y regresión de fallos en equipos. Árboles de Decisión: Para la creación de modelos de predicción basados en características de los datos. Redes Neuronales: Para modelar relaciones complejas entre variables de entrada y salida. Redes Neuronales: Perceptrón Multicapa (MLP): Para la clasificación y predicción en sistemas no lineales. Redes Neuronales Recurrentes (RNN): Para analizar datos secuenciales y series temporales. Redes Neuronales Convolucionales (CNN): Para el reconocimiento de patrones en datos de alta dimensionalidad. 4. Validación y Evaluación de Algoritmos Los algoritmos seleccionados fueron implementados y evaluados utilizando el conjunto de datos preprocesados. Se emplearon técnicas de validación cruzada y métricas de rendimiento como la precisión, el recall, la F1-score y el área bajo la curva ROC para comparar la efectividad de los algoritmos. Además, se realizaron análisis de sensibilidad para evaluar la robustez de los modelos ante variaciones en los datos. 5. Análisis de Resultados y Conclusiones Los resultados obtenidos de las evaluaciones fueron analizados en detalle para identificar los algoritmos que ofrecieron el mejor rendimiento en términos de predicción de fallos y detección de anomalías. Se discutieron las ventajas y desventajas de cada enfoque, así como sus aplicaciones prácticas en diferentes contextos industriales. Finalmente, se proporcionaron recomendaciones para la implementación de los algoritmos más efectivos en sistemas de PdM reales.


CONCLUSIONES

Conclusiones Durante el desarrollo de esta investigación, se adquirieron conocimientos teóricos y conceptuales sobre la implementación de algoritmos de Machine Learning en sistemas de mantenimiento predictivo, evidenciando una mejora significativa en la detección temprana de fallos y la planificación eficiente del mantenimiento. El procesamiento y preprocesamiento del dataset a través del software Weka posibilitó el tratamiento adecuado de los datos y la aplicación de diversos algoritmos de Machine Learning. Se realizó una red neuronal que mostró buenos resultados. Las pruebas con Weka evidenciaron que trabajar con datos etiquetados y supervisados es mucho más eficaz que tratar datos sin etiquetar. Las redes neuronales, al ser entrenadas con datos etiquetados, pueden identificar patrones y anomalías de manera más precisa, optimizando el mantenimiento predictivo, aunque requieren bastante tiempo de entrenamiento para ser una buena alternativa. En un marco práctico, la implementación de estos algoritmos en entornos industriales sería sumamente interesante. La capacidad de detectar fallos potenciales antes de que ocurran no solo mejora la eficiencia operativa, sino que también reduce costos y tiempos de inactividad inesperados. Esta investigación destaca la importancia de seleccionar el algoritmo adecuado para cada problema específico, ya que la elección correcta puede marcar una gran diferencia en la precisión y efectividad del sistema de mantenimiento predictivo.
Celaya Alvarez Diego, Universidad Autónoma de Occidente
Asesor: Dr. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente

PROYECTO ROBóTICA APLICADA


PROYECTO ROBóTICA APLICADA

Celaya Alvarez Diego, Universidad Autónoma de Occidente. Asesor: Dr. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Para este Verano Científico se realizo un proyecto donde combinamos la programación, la robótica, la educación y el reciclado, así nació el proyecto robótica aplicada. Se uso material reciclado para la elaboración de los proyectos. Por otro lado, se dejo preparada la aplicación de los proyectos a niveles educativos diferentes a través de secuencias didácticas que se desarrollaron, esto para fomentar la robótica entre los jóvenes y al mismo tiempo se adquieren conocimientos de otras materias. Estamos seguros que la investigación cumple un rol muy importante en el desarrollo de proyectos profesionales, por lo que se necesita que los jóvenes empiecen a generar proyectos desde edades tempranas. 



METODOLOGÍA

En el proyecto de robótica aplicada fue posible aprender a reciclar, armar robots y aplicarlos al área educativa. A lo largo de la duración del verano científico se logró satisfactoriamente el desarrollo de varios proyectos, se trabajo en equipo para conocer y compartir conocimientos. Dentro de los proyectos se hizo una Prótesis de mano como herramienta en la robótica educativa, en el cual se habla de cómo este robot, elaborado con materiales reciclados puede ayudarnos en la enseñanza de una materia escolar de nivel medio superior como lo puede ser la de Anatomía, y logrando la obtención de conocimientos por parte del alumno, tanto de esta materia como de robótica. Como segundo proyecto se elaboró una simulación en TinkerCad a raíz de un taller de la misma plataforma que se nos brindó por parte de nuestros asesores. Este proyecto fue libre y se presentó en clase de igual manera que el resto de los proyectos. El tercer proyecto consistió en el Control de giro de motores, utilizando los materiales que pudimos conseguir en casa, reciclados y de fácil acceso económico; el cuarto proyecto, fue consecuente a este, ya que se basó en la aplicación de este robot dentro de la robótica educativa mediante la creación formal de una secuencia didáctica que pudiera ser fácilmente aplicada.


CONCLUSIONES

Como resultado de este proyecto, se logró la creación de distintos robots a partir de material reciclado, la documentación de estos y secuencias didácticas que permiten o faciliten el desarrollo de estos robots dentro de la robótica educativa a distintos niveles escolares. Se tuvo como contexto el de la robótica educativa y los pasos para su correcta aplicación dentro de la educación, los cuales son: Diseñar, Construir, Programar, Probar y Documentar; así como también el cuidado al medio ambiente, y la investigación. Fue muy significativo este verano ya que pudimos ver que la robótica y la programación tienen un sentido más que solo hacer un robot o un programa.
Centeno Marin Kevin Edgar, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mg. Cielo Ester Marriaga Gonzalez, Universidad del Sinú

ANáLISIS DE LA ADOPCIóN DE LA BLOCKCHAIN EN LABORATORIOS UNIVERSITARIOS: MEJORA DE LA CALIDAD DE AGUA Y BROMATOLOGíA EN LA CADENA DE SUMINISTRO ALIMENTARIO Y SU IMPACTO EN LOS OBJETIVOS DE DESARROLLO SOSTENIBLES


ANáLISIS DE LA ADOPCIóN DE LA BLOCKCHAIN EN LABORATORIOS UNIVERSITARIOS: MEJORA DE LA CALIDAD DE AGUA Y BROMATOLOGíA EN LA CADENA DE SUMINISTRO ALIMENTARIO Y SU IMPACTO EN LOS OBJETIVOS DE DESARROLLO SOSTENIBLES

Centeno Marin Kevin Edgar, Instituto Tecnológico Superior de Ciudad Hidalgo. Loeza Calderón Raúl, Instituto Tecnológico de Morelia. López González Arahat Missael, Instituto Tecnológico Superior de Irapuato. Morales Mendoza Alejandra Meritxell, Instituto Tecnológico Superior de Ciudad Hidalgo. Nuñez López Gerardo, Instituto Tecnológico Superior de Irapuato. Ochoa Garcia Keila Lucia, Instituto Tecnológico de Piedras Negras. Vasquez Reyes Adanary Susel, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Cielo Ester Marriaga Gonzalez, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

En un mundo cada vez más globalizado y conectado, los consumidores demandan transparencia y seguridad en los procesos relacionados con la calidad de los productos alimenticios y del agua. En este contexto, los laboratorios que realizan análisis de estas muestras juegan un papel crucial, ya que sus procesos de recepción, análisis, y generación de resultados deben garantizar precisión, eficiencia y seguridad de la información. Sin embargo, en instituciones como la Universidad del Sinú Seccional - Cartagena, los procesos no están automatizados, lo que genera complejidades y desafíos significativos. Ante estas necesidades, se propone desarrollar un Aplicativo Web que funcionará como una plataforma digital soportada en la tecnología disruptiva Blockchain, asegurando la integridad de los datos sin alteraciones no consensuadas. El proyecto busca optimizar los procesos de los laboratorios de Bromatología y Calidad de Agua de la Universidad del Sinú Seccional Cartagena mediante un aplicativo web que utilice Blockchain para asegurar la calidad y trazabilidad de la información. Esto no solo mejorará la eficiencia operativa, sino que también contribuirá a los Objetivos de Desarrollo Sostenible (ODS), los cuales son los siguientes: Objetivo 2 (Hambre Cero): Gracias a los mejores sistemas de calidad mejorados mediante el aplicativo de la tecnología Blockchain se busca combatir ante esta problemática desde su causa raíz. Objetivo 3 (Salud y Bienestar): Al brindar nuevos sistemas mediante la implementación de la tecnología Blockchain, la calidad de los productos alimenticios incrementará, disminuyendo así los problemas relacionados a la salud. Objetivo 6 (Agua Limpia y Saneamiento): Al trabajar estrechamente con el Laboratorio de Bromatología y Calidad Ambiental, es la forma en que se combatirá a los distintos aspectos de vulnerabilidad con relación al agua y el saneamiento mediante la implementación de la tecnología Blockchain. Objetivo 7 (Energía Asequible y No Contaminante): Al hacer uso de la tecnología Blockchain se precisa en mejorar el uso sostenible de la energía sin generar desperdicios o contaminantes para el medio ambiente. Objetivo 9 (Industria, Innovación e Infraestructura): La tecnología Blockchain es una tecnología emergente, que propone nuevas ideas para hacer su uso en distintos ámbitos, creando así mejoras para distintos sectores de la sociedad. Objetivo 11 (Ciudades y Comunidades Sostenibles): La implementación de la tecnología Blockchain y en conjunto con nuevas tecnologías, servirá de partida para la transformación de las Ciudades en Ciudades Sostenibles.



METODOLOGÍA

Para el proceso de elaboración de este proyecto de investigación se determinaron 4 etapas en las cuales se desarrollarán distintas actividades con el fin de cumplir los objetivos y los resultados esperados. Las etapas son las siguientes: I. Revisión documental del estado de uso de tecnologías 4.0 (BlockChain) en laboratorios a nivel global: El punto consta de las siguientes fases: Como primera fase se estableció y delimitó el objetivo propuesto; en la segunda se delimitaron las bases de filtros para la selección de la información relevante para el artículo; en la tercera fase se definieron los descriptores de búsqueda como Google Académico, Scielo, entre otros; en la cuarta fase se delimitó el uso de gestores bibliográficos como Rayyan y Mendeley; finalmente se llevó a cabo la extracción de datos de interés para la elaboración del artículo. Las conclusiones obtenidas abordan la aplicación de la tecnología en diferentes países y su impacto en la trazabilidad de la cadena de suministro. II. Diseño de base de datos de hoja de vida de equipos (aplicativo para base de datos): Para la creación de una base de datos de las hojas de vida de los equipos, es esencial iniciar con una discusión detallada donde se definirán los requisitos específicos que deben cumplirse, asegurando que todos los aspectos y necesidades del proyecto sean considerados y abordados adecuadamente. Siguiente a esto, se procederá a la elaboración del diseño del esquema de la base de datos. Finalizado el diseño, se implementará la base de datos y se realizarán pruebas exhaustivas para verificar su correcto funcionamiento, incluyendo la inserción, actualización, eliminación y recuperación de datos III. Elaboración de procedimiento de almacenamiento de reactivos de acuerdo con SGA (Sistema Globalmente Armonizado): Es necesario realizar una revisión de las normativas del SGA para identificar las pautas de clasificación, etiquetado y manejo seguro de sustancias químicas. Basado en esta revisión, se debe llevar a cabo un control de inventario que clasifique los reactivos almacenados de acuerdo con el SGA, incluyendo secciones que contengan información sobre el uso y manejo seguro de estos reactivos. IV. Diseño de procedimientos, formatos e instructivos de trabajo bajo la norma 17025: Es necesario hacer una revisión con respecto de los requisitos específicos de la norma ISO/IEC 17025, que cubre la competencia técnica, la validez de los resultados y la gestión del laboratorio. Consecuentemente se debe determinar los procesos clave en el laboratorio que deben documentarse, como la realización de pruebas, calibración, mantenimiento de equipos y gestión de calidad.


CONCLUSIONES

Durante la estancia de verano se logró implementar dos nuevas herramientas para el control de inventario y la creación y manejo de las hojas de vida de los equipos para el Laboratorio de Bromatología y Calidad Ambiental, lo cual acredita a dichos laboratorios bajo la normativa 17025, beneficiando de esta forma con una mejora en la seguridad para el manejo de los reactivos dentro del inventario, así como también un control actualizable en tiempo real de los reactivos y de los equipos de los Laboratorios. De igual forma, se logró adquirir un amplio conocimiento gracias a las ponencias y capacitaciones que se llevaron a cabo durante este periodo, con lo cual se logra identificar la importancia y los usos que se le puede dar a la tecnología Blockchain, no solamente en las cadenas de suministro alimentarias, sino que hasta en un enfoque global, como lo es en las criptomonedas.
Cerano Salgado Jessica Stephania, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Ena Athenea Aguilar Reyes, Universidad Michoacana de San Nicolás de Hidalgo

SíNTESIS Y CARACTERIZACIóN DE ANDAMIOS DE BIOVIDRIO CEL2 PARA LA REGENERACIóN óSEA


SíNTESIS Y CARACTERIZACIóN DE ANDAMIOS DE BIOVIDRIO CEL2 PARA LA REGENERACIóN óSEA

Cerano Salgado Jessica Stephania, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Ena Athenea Aguilar Reyes, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, los defectos óseos representan uno de los casos de mayor impacto en la salud debido a la frecuencia con que éstos ocurren a causa de traumatismos, fracturas, enfermedades congénitas o degenerativas, que ha promovido el desarrollo de materiales para uso biomédico como los andamios con el fin de desarrollar sustitutos que restablezcan, mantengan o mejoren la función de los tejidos dañados. Entre los materiales disponibles para su fabricación se encuentra el biovidrio CEL2 por sus características de biocompatibilidad y bioactividad, además, fue diseñado para controlar las variaciones de pH por lixiviación de iones al entrar en contacto con fluidos fisiológicos. Entre los requisitos que tienen que cumplir los andamios está el tamaño de poro en el rango de 100-500 μm para llevar a cabo la vascularización adecuada y el flujo de nutrientes que favorecerán la osteogénesis, la adhesión y proliferación celular. Entre los métodos de fabricación de andamios se encuentra la colada en gel inorgánica, un método que implica la obtención de una estructura porosa a través de la polimerización de monómeros orgánicos, en la que los polvos de biovidrio se exponen a una solución alcalina para obtener el cuerpo en verde, que se somete a secado y sinterizado para obtener una estructura porosa y resistente.



METODOLOGÍA

Materiales iniciales De acuerdo con la composición de CEL2, 45SiO2-3P2O5-26CaO-7MgO-15Na2O-4K2O en % mol, se realizaron los cálculos estequiométricos para preparar 100 g de biovidrio partiendo de polvos de los óxidos metálicos (Sigma-Aldrich), con excepción del Na y el K, que se partió de carbonatos. Preparación del biovidrio El biovidrio se preparó por el método de fusión y temple, fundiendo la mezcla de los polvos de óxidos y carbonatos en cantidades estequiométricas en un crisol de sílice fundida a 1350 °C durante 90 min en un horno CARBOLITE HTF 17/10. Se utilizó una velocidad de calentamiento de 10 °C/min con una meseta de 90 min a la temperatura de 950 °C para desgasificar. El vidrio fundido se vació en agua para obtener una frita, que posteriormente se pulverizó 2 veces en un molino de discos vibratorio RETSCH RS 200 por 1 min a 1200 rpm, para obtener un tamaño de partícula menor a 63 μm. Preparación de los andamios Para fabricar los andamios de CEL2 se usó el método de colada en gel inorgánica, que consistió en mezclar el polvo de biovidrio con una solución 1 M NaOH al 60% en peso durante 3 h a 500 rpm para la activación alcalina y la gelificación parcial, después se añadió 4% de Triton X-100 y se agitó vigorosamente durante 8 min, posteriormente las mezclas se vaciaron en moldes de plástico. Las mezclas en los moldes se dejaron secar en un horno de secado al vacío THERMO SCIENTIFIC Lindberg Blue M por 24 h a 40 ºC, y después en una mufla a 120 °C durante 180 min. Las espumas en verde sin molde se sinterizaron en una mufla THERMO SCIENTIFIC Thermolyne, a 850 °C y 900 ºC durante 3 h.   Caracterización microestructural El porcentaje de porosidad se evaluó usando la siguiente ecuación: %Porosidad= [1-(densidad andamio/ densidad CEL2)] *100 donde la densidad del andamio, , se calculó a partir de la masa y las dimensiones de las muestras sinterizadas y  es la densidad teórica del biovidrio CEL2. Se utilizó la técnica de espectroscopía infrarroja (FTIR TENSOR 27 BRUKER) con la finalidad de identificar los grupos funcionales presentes en el polvo de biovidrio, así como en los andamios tratados térmicamente. El rango de barrido fue de 4000 a 400 cm-1 y la cantidad de muestra requerida fue de 0.003 g (polvo del biovidrio CEL2, y polvo de andamios en verde y sinterizados, respectivamente) con 0.3 g de KBr. Por medio de la técnica de microscopía electrónica de barrido (JEOL SEM JSM 6400) se analizaron la morfología, la distribución del tamaño de partícula del polvo de biovidrio CEL2, así como la microestructura, distribución de tamaño poro y la interconectividad de los andamios sinterizados. Previo al análisis las muestras fueron metalizadas por 20 min en un SPUTTER COATER Edward SI50A.


CONCLUSIONES

Durante este verano de la investigación se fabricaron andamios de biovidrio CEL2 por el método de colada en gel inorgánica para aplicaciones en ingeniería de tejido óseo obteniendo valores de porosidad de 78.8% a 850 ºC y de 74.4% a 900 ºC dentro del rango del hueso trabecular (50-90%). A partir del análisis de FTIR tanto en el polvo de biovidrio como en los andamios en verde y sinterizados se identificaron las bandas características de los grupos funcionales O-H, C-H, enlaces de estiramiento y flexión de los grupos Si-O-Si, además de bandas atribuidas a la formación de fases cristalinas de silicato. Mientras que por SEM se observó una amplia distribución de partículas en el caso del polvo de biovidrio CEL2, y en los andamios sinterizados a 850 °C se observó mayor presencia de poros a diferencia de los tratados a 900 °C. Por lo que se concluye que a mayor temperatura de sinterización, el porcentaje de porosidad disminuye.
Cerdan Gracia Bruno Ronaldo, Instituto Tecnológico de Matamoros
Asesor: Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas

DISEÑO FACTORIAL BASADO EN SIMULACION


DISEÑO FACTORIAL BASADO EN SIMULACION

Cerdan Gracia Bruno Ronaldo, Instituto Tecnológico de Matamoros. Asesor: Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Resumen En el documento que se presentara a continuación, se estará viendo un proyecto enfocado con una línea de producción basándonos en el diseño factorial apoyado con herramientas de la manufactura esbelta como son GEMBA que este nos ayudara a identificar problemas, situaciones, mejoras, etc. en un proceso el cual nos estemos enfocando, seguido de esta misma herramienta nos da paso a poder utilizar un KAIZEN de la misma manera una herramienta de la manufactura esbelta que ayuda a mejorar en cualquier aspecto un proceso ya sea desde tiempos, ergonomía, logística entre otros puntos que influyen a la hora de hablar de una proceso en si, es por ello que nos apoyaremos con un software de simulación (ARENA SIMULATION SOFTWARE) con el objetivo de incrementar la eficiencia de las maquinas trabajadas (OEE) y como resultado obtener un proceso mas eficiente y con mejores resultados.   Introducción En la industria de Parker Matamoros se detectó una problemática en una línea de producción, la cual mediante el uso de herramientas de manufactura esbelta se pudo llegar a una solución, primeramente, utilizando la herramienta GEMBA, primeramente se dio un vistazo por toda la línea de producción para ver los posibles errores o puntos débiles que esta pueda tener, al realizar la inspección Gemba obtuvimos diferentes puntos de vistas los cuales no se había percatado en la línea, los cuales fueron: Tiempo perdido entre operaciones Falta de aprovechamiento de las maquinas Mal ajuste de maquinas   Esos fueron los principales puntos a tratar y a pensar en cómo mejorarlos para fortalecer la línea de producción, ya que con los tiempos medidos y correctos se podría aumentar los niveles de producción y por lo tanto la eficiencia de las maquinas que intervienen en este proceso y su flujo como tal. Una vez realizada la caminata Gemba y observado todos los parámetros que la envuelven ya sea tantos puntos débiles como puntos fuertes del proceso que se pudieran mejorar en el flujo del proceso, pasaremos al siguiente paso, que sería la aplicación de un Kaizen enfocándonos en la línea de producción y sus operaciones a la cual se pueda sacar mayor aprovechamiento.     Realizaremos el ciclo de la actividad Kaizen el cual es: Planear Hacer Checar Actuar Planificaremos principalmente lo que se hará, tomando en cuenta la caminata Gemba con sus puntos a mejorar   Realizaremos acciones necesarias como modificar tiempos, rutas, maquinas con la finalidad de mejorar el proceso y aprovechar al máximo los recursos que tenemos dentro del mismo.   Realizaremos simulaciones ya con las mejoras aplicadas en la línea de producción para ver que resultados podamos obtener dependiendo a los ajustes que se hagan para ver si son favorables o no ante el proceso.   Una vez realizada los pasos anteriores se procederá a ejecutar esta serie de pasos con el objetivo de maximizar la eficacia de los componentes que tenemos dentro de la línea de producción para que podamos ver resultados favorables y factibles Empezaremos desde los inicios del proceso para llegar hasta el final para poder así obtener un mayor control de lo que se esté modificando y mejorando en el proceso.   Se empezara con la toma de tiempos las cuales nos ayudaran a tener una mejor visión del flujo de la línea y tener mayor control sobre producción para poder darnos cuenta en que modificar o en que avanzar según sea el caso correspondido, posteriormente a ello pasaremos con las maquinas del proceso las cuales podemos extraer una mayor eficiencia a cada una para poder así eliminar o disminuir esos tiempos rezagados que se provocan entre operaciones, obteniendo como resultado un flujo continuo de material dando paso una mayor producción y eficiencia del proceso.   Una vez realizado todos estos puntos anteriores pasaremos a la simulación de la línea de producción ya teniendo en cuenta las mejoras o modificaciones hechas en todos las operaciones o componentes que envuelven este proceso para esto nos apoyaremos de un software de simulación el cual será ARENA SIMULATION SOFTWARE el cual nos permitirá recrear la línea de producción antigua contra la nueva para poder así darnos cuenta con números y tiempos en que tanto ayuda o afecta los cambios o mejoras aplicadas en el proceso. Esto nos ayudara a decidir más concretamente las decisiones o cambios aplicados si son realmente asertivos, ya que la simulación es una previa información mas exacta de lo que sucederá en la línea de producción en cuanto a resultados de tiempos, estimaciones, suposiciones, entre otros aspectos que intervienen en ella, inclusive nos ayudara a detectar fallas o mejoras que no se puedan ver tanto en el Gemba tanto como el Kaizen. Se mostrara todo el desarrollo que se tuvo con ambas líneas para ver sus resultados obtenidos y si es factible aplicar o no las mejoras propuestas anteriormente.



METODOLOGÍA

Metodología Se realizaron tomas de tiempo y ajustaron desviaciones y modificaron los tiempos para una mejora continua, utilizando una simulación de 500 horas.  


CONCLUSIONES

  Conclusión Gracias a la toma de tiempos se logró optimizar en el área de trabajo un flujo más continuo, ya que se detectó pérdida de tiempo en el tiempo de proceso de las maquinas aumentando un 2%, este programa me ayudó mucho, desconocía por completo es muy práctico y eficiente, ya que me intereso como tiene cronómetros gráficas y poder realizar simulaciones y tomar parámetros de este mismo.       Referencia: PARKER INDUSTRIAS, MATAMOROS TAMAULIPAS. CERDAN GRACIA BRUNO RONALDO(HPT).    
Cernas Lopez Cesar Gabriel, Universidad Autónoma de Baja California
Asesor: Dr. Edmundo Lopez Apreza, Universidad Autónoma Benito Juárez de Oaxaca

ESTUDIO DE LOS PRIMEROS PRINCIPIOS DE PROPIEDADES FíSICAS DE SEMICONDUCTORES (GAN)


ESTUDIO DE LOS PRIMEROS PRINCIPIOS DE PROPIEDADES FíSICAS DE SEMICONDUCTORES (GAN)

Cernas Lopez Cesar Gabriel, Universidad Autónoma de Baja California. Asesor: Dr. Edmundo Lopez Apreza, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

1. Introducción El nitruro de galio (GaN) en estos años se ha transformado en la base de la electrónica y la optoelectrónica modernas gracias a sus grandes y excepcionales propiedades, como lo es su amplio band gap, su alta conductividad térmica y su gran estabilidad química. Debido a estas propiedades es lo que al GaN un candidato ideal para dispositivos de alta potencia y alta frecuencia, así como para diodos emisores de luz (LED) y diodos láser eficientes. Los cálculos para los primeros principios, están basados en la mecánica cuántica. Mediante la simulación del comportamiento de electrones e iones, estos métodos computacionales proporcionan una valiosa información sobre el comportamiento de los materiales, permitiendo la predicción de sus propiedades y el diseño de nuevos materiales con características a medida. Durante esta investigación pretende emplear técnicas de simulación para determinar las propiedades estructurales, electrónicas del GaN. Mediante estos métodos de simulaciones computacionales, se pretende averiguar la compleja relación entre la disposición atómica del GaN y su estructura de banda electrónica. La modelación computacional se ha convertido en una herramienta indispensable para investigar los materiales a escala atómica, ya que permite comprender su comportamiento y complementar los estudios experimentales. Entre estas técnicas computacionales, la teoría del funcional de la densidad (DFT) ha demostrado ser especialmente eficaz para predecir la estructura electrónica y las propiedades de los materiales. Se utilizo la teoría funcional de la densidad para calcular la constante de red de equilibrio, la presión de transición y la presión aparente, el modulo de bulto, presión derivada del módulo de bulto, estructura de bandas de energía y la densidad de estados total.



METODOLOGÍA

2. Detalles computacionales Los cálculos se realizaron por medio de DFT. Para determinar la constante de red de equilibrio, se realizaron una serie de optimizaciones estructurales para diferentes parámetros de red y de estructuras cristalinas (CsCl, NaCl, zinc-blenda y wurtzita). La energía total del sistema se calculó para cada parámetro de red estructura cristalina, y la constante de red de equilibrio se obtuvo ajustando la curva energía-volumen a la ecuación de estado de Murnaghan [8]. El módulo de bulto y su derivada de presión se extrajeron de los parámetros de ajuste. La energía de transición se determinó realizando optimizaciones estructurales a diferentes volumenes de cada estructura. La presión a la que las energías totales de las dos estructuras son iguales corresponde a la energía de transición. Se calcularon la estructuras de bandas electrónicas y la densidad de estados (DOS) para cada una de las estructuras cristalinas. La estructura de bandas se obtuvo a lo largo de líneas de alta simetría en la zona de Brillouin. La DOS se calculó integrando la densidad electrónica de estados de los orbitales.


CONCLUSIONES

3. Resultados y discusiones 3.1 Propiedades estructurales. Las curvas calculadas de energía versus volumen para las fases de zinc-blenda, CsCl, NaCl y wurtzita del GaN se pudieron visualizar a partir de los datos obtenidos al graficarlos en XMGRACE. De la figura se deduce que la energía de la fase wurtzita y zinc-blenda son las más bajas entre todas las fases. Para examinar la posibilidad de transiciones de fase entre las fases WZ, ZB, NaCl, CsCl, se puede utilizar la energía libre de Gibbs (G = E + PV - TS). Dado que todos nuestros cálculos se realizan a T = 0 K, la energía libre de Gibbs es igual a la entalpía (H = E + PV).  En otro grafico en donde se visualizo las entalpías de las fases WZ, ZB, NaCl, CsCl a distintas presiones. Se muestra la diferencia de entalpías entre las fases. e ese mismo grafico se deduce claramente que la entalpía de la fase WZ y ZB son las más bajas en comparación con las fases CsCl y NaCl. La presión de transición se obtiene a partir del cruce de las curvas de entalpía (H) frente a presión (P). Se obtiene que el GaN se transforma de la fase WZ a ZB, NaCl y CsCl a 0.088, 5.97 y 23.7647 GPa, respectivamente. De los datos obtenidos mediante los calculos para encpntrar el parámetrod de red, los valores que se llegaron a obtener eran muy cercanos al valor experimental presentando un 5% de margen de error, para cada una de las fases trabajadas que son CsCl, NaCl, ZB y WZ, los valores son los siguientes 2.7235, 4.2587, 4.5365 y 3.1874 respectivamente todos estos valores estan dados en Angstroms, estos si los comparamos con los valores hayados en literatura, para el caso de la fase CsCl es valor es de 2.679 Angstroms, para el NaCl de 4.234 Angstroms, ZB de 4.50 Angstros y WZ de 3.189 Angstroms lo cual nos hace notar a simple vista que los calculos realizados fueron hechos de forma satisfactoria. 3.2 Propiedades electrónicas La estructura de bandas para cada una de las estructuras WZ, ZB, NaCl, CsCl del GaN pueden ser visualizadas en las figuras 4, 5, 6, 7 respectivamente. Se puede igual observar claramente en las graficas obtenidas que el GaN en la fase WZ es un semiconductor de band directa de 1.52 eV. Para el caso de la fase ZB es igual a un semiconductor de banda directa de 1.317 eV. Para el caso de la fase NaCl es igual a un semiconductor de banda indirecta de 0.21 eV. Finalmente de la fase CsCl del grafico obtenido a partir de los datos no es un semiconductor. Se realizaron los graficos para visualizar de igual manera la densidad de estados total de cada una de las fases para asi poder concluir de manera exitosa todas las propiedades que se habia propuesto obtener en un inicio. Finalmente durante la estancia de verano se logró adquirir conocimientos teóricos de como obtener por medio de modelación los primeros principios de las propiedades físicas de los semiconductores.
Cervantes Arellano Samantha, Instituto Tecnológico de Morelia
Asesor: Post-doc Jose Luddey Marulanda Arevalo, Universidad Tecnológica de Pereira

CARACTERIZACIÓN DE RECUBRIMIENTOS DUROS APLICADOS POR SOLDADURA SMAW: EVALUACIÓN POR DESGASTE ABRASIVO BAJO NORMA TECNICA ASTM G-65.


CARACTERIZACIÓN DE RECUBRIMIENTOS DUROS APLICADOS POR SOLDADURA SMAW: EVALUACIÓN POR DESGASTE ABRASIVO BAJO NORMA TECNICA ASTM G-65.

Acundo Tellez Xochitl, Universidad Tecnológica de Xicotepec de Juárez. Avila Pérez Esmeralda, Universidad Tecnológica de Xicotepec de Juárez. Cervantes Arellano Samantha, Instituto Tecnológico de Morelia. Lemus Chávez Martín, Instituto Tecnológico de Morelia. Zacarias Rocha Osbaldo, Instituto Tecnológico de Morelia. Asesor: Post-doc Jose Luddey Marulanda Arevalo, Universidad Tecnológica de Pereira



PLANTEAMIENTO DEL PROBLEMA

Los aceros juegan un papel fundamental en la vida útil de las herramentas que son sometidos a distintos trabajos; es por eso que la aplicación de estos recubrimientos es de ayuda importante para mejorar las propiedades mecánicas que requerimos ayudando a alargar su vida util, de esta manera podemos ahorrar capital.



METODOLOGÍA

Se aplicaron 2 tipos de recubrimientos duros Gridur 600 y Gridur 350, además de un electrodo de aporte E 6011 a  placas de acero de bajo carbono para posteriormete a estos recubrimientos y electrodo aplicarles prubeas de dureza Rockwell , aplicar pruebas de de desgaste abrasivo en una máquina que cumple con la Norma Técnica ASTM G-65 y finalmente realizar pruebas de cacterizacion. 


CONCLUSIONES

Con los datos obtenidos apartir de las pruebas podemos concluir que es muy importante saber a que trabajo sera sometidos nuestros aceros, la dureza que buscamos siempre se encontraran apartir de aplicar varias capas de recubrimiento esto es porque en la primera capa siempre encontraremos una mezcla de composicion del acero base con recubrimiento mientras en la tercera capa en su mayoria encontraremos un % de recubrimiento mayor aportando mayores durezas.
Cervantes Dominguez Fernando Ivan, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave

PLANEACIóN FINANCIERA COMO ESTRATEGIA DE GESTIóN E INNOVACIóN DE PROCESOS EN UNA MICROEMPRESA COMERCIAL DE GUASAVE, SINALOA.


PLANEACIóN FINANCIERA COMO ESTRATEGIA DE GESTIóN E INNOVACIóN DE PROCESOS EN UNA MICROEMPRESA COMERCIAL DE GUASAVE, SINALOA.

Arellano Hinojosa Fidel Ernesto, Instituto Tecnológico de Ciudad Juárez. Cantú Dueñas José Antonio, Instituto Tecnológico de Nuevo Laredo. Cervantes Dominguez Fernando Ivan, Instituto Tecnológico de Ciudad Juárez. Huerta Uribe Brittania, Instituto Tecnológico de Ciudad Juárez. Machuca Bedoya Alejandro, Universidad de Investigación y Desarrollo. Martinez Segovia Karen Paola, Instituto Tecnológico de Ciudad Juárez. Sierra Barrios José Vicente, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Vazquez Marquez Erika, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

La gestión e innovación de procesos son esenciales para que las microempresas comerciales puedan mantenerse competitivas y eficientes en el mercado actual. Sin embargo, muchas de estas microempresas enfrentan desafíos significativos debido a la falta de una planeación financiera adecuada. En el municipio de Guasave, las microempresas comerciales representan una parte sustancial de la economía local, pero a menudo carecen de las herramientas y estrategias necesarias para gestionar eficazmente sus recursos financieros y operativos. La ausencia de una planeación financiera robusta puede resultar en una gestión ineficiente de los procesos internos, llevando a problemas como la falta de control de inventarios, registros financieros inadecuados y decisiones financieras erróneas. Estos problemas no solo afectan la operatividad diaria de las empresas, sino que también limitan su capacidad para crecer y adaptarse a las cambiantes condiciones del mercado. El Instituto Nacional de Estadística y Geografía (INEGI, 2018) reporta que una gran mayoría de las microempresas en México, incluyendo aquellas en Guasave, no llevan registros contables formales y enfrentan complicaciones administrativas que obstaculizan su crecimiento. Esta situación subraya la necesidad de implementar estrategias de planeación financiera que apoyen la gestión e innovación de procesos en estas empresas. Por lo tanto, la problemática central de esta investigación se plantea de la siguiente manera: ¿Cómo influye la implementación de una planeación financiera adecuada en la gestión e innovación de procesos en una microempresa comercial en el municipio de Guasave?



METODOLOGÍA

Esta investigación adopta un enfoque mixto y descriptivo exploratorio mediante un estudio de caso para evaluar la eficiencia del proceso de gestión e innovación de procesos apoyado por la planeación financiera en una microempresa comercial. La investigación mixta, descrita por Johnson et al. (2006) como una combinación de enfoques cuantitativos y cualitativos, y definida por Sampieri, Fernández y Baptista (2014) como una metodología multimétodo, permite una comprensión integral del fenómeno estudiado. Stake (1984) define el estudio de caso como un análisis riguroso orientado a obtener relaciones generales del caso observado. La metodología descriptiva, según Caballero (2014), se enfoca en desarrollar definiciones y conceptos básicos, mientras que Cea (2010) resalta que los estudios exploratorios identifican variables relevantes para futuras investigaciones. Para la recolección de datos, se utilizaron técnicas cualitativas como entrevistas semiestructuradas y observación participante. Mendicoa (2003) describe la entrevista semiestructurada como una herramienta cualitativa que facilita la comprensión de las perspectivas de los informantes. Lahire (2008) y Spradley (1980) sostienen que la observación participante permite un estudio profundo de situaciones sociales específicas.


CONCLUSIONES

Un proceso de gestión e innovación de procesos deficiente puede llevar a decisiones erróneas, dificultades financieras y pérdida de oportunidades de crecimiento. La implementación de herramientas tecnológicas, como software para control de flujo de efectivo e inventarios, es fundamental para mejorar la eficiencia y precisión en la gestión. La elaboración de estados financieros es crucial para la toma de decisiones y planificación futura. La falta de financiamiento externo puede limitar la capacidad de expansión y respuesta a situaciones imprevistas. Se recomienda a la empresa implementar un punto de venta para mejorar el control de ingresos y salidas, realizar inventarios físicos semestrales y registrar adecuadamente todos los egresos. Además, se sugiere elaborar informes financieros proforma para planificar operaciones futuras. Esta investigación se realizó durante mi estancia de investigación científica, y ha sido una experiencia invaluable para mi formación profesional. Participar en este proyecto me ha permitido aplicar conocimientos teóricos a un contexto real, desarrollando habilidades prácticas en la recolección y análisis de datos, así como en la elaboración de estrategias de mejora para microempresas. Esta experiencia ha reforzado mi comprensión sobre la importancia de la planeación financiera en la gestión e innovación de procesos y su impacto en la competitividad y sostenibilidad de las empresas. Futuras investigaciones deben explorar la planificación financiera en MiPymes más organizadas y evaluar la utilidad de las estrategias propuestas en este trabajo. Además, es fundamental seguir investigando para identificar y desarrollar nuevas herramientas y metodologías que puedan apoyar aún más a las microempresas en su camino hacia una gestión más eficiente y efectiva.
Cervantes Hernández Danaé, Universidad Autónoma del Estado de México
Asesor: Dr. Víctor Alejandro Suárez Toriello, Universidad Autónoma Metropolitana

EVALUACIóN CATALíTICA DE LA PRODUCCIóN DE 5(HIDROXIMETIL)FURFURAL A PARTIR DE SACAROSA EMPLEANDO ZIRCONIA FOSFATADA.


EVALUACIóN CATALíTICA DE LA PRODUCCIóN DE 5(HIDROXIMETIL)FURFURAL A PARTIR DE SACAROSA EMPLEANDO ZIRCONIA FOSFATADA.

Cervantes Hernández Danaé, Universidad Autónoma del Estado de México. Asesor: Dr. Víctor Alejandro Suárez Toriello, Universidad Autónoma Metropolitana



PLANTEAMIENTO DEL PROBLEMA

La biomasa es el recurso renovable de carbono más abundante en la naturaleza, convirtiéndose en una alternativa crucial y sostenible para la producción industrial de productos químicos y combustibles. Dentro de la biomasa, la lignocelulosa se destaca como un recurso prometedor, este material compuesto por celulosa, hemicelulosa y lignina puede despolimerizarse en monosacáridos que a su vez se transforman en 5-(hidroximetil)furfural (HMF). El HMF es una plataforma química clave debido a su capacidad para producir polímeros y productos farmacéuticos. Sin embargo, ha sido denominado el gigante dormido debido a la falta de un proceso eficiente para su producción. Se ha demostrado que los ácidos de Brosnted/Lewis pueden actuar como catalizadores efectivos para su conversión a partir de glucosa. La acidez de la zirconia puede ser mejorada y estabilizada mediante su funcionalización con iones como SO4²- y PO4³-. Además de que la zirconia es un óxido metálico que presenta propiedades ácidas, básicas, oxidantes y reductoras, destacándose como un catalizador activo en la ruptura de enlaces C-O y C-H.



METODOLOGÍA

La zirconia (ZrO2) se preparó mediante la síntesis de Zr(OH)4 a partir de una solución de ZrOCl2-8H2O y NH4OH. El precipitado se trató a pH 10 y se sometió a digestión térmica a 83°C durante 96 horas. Posteriormente, se filtró, se lavó hasta verificar que no había presencia de cloruro residual y secó a 120 °C. Para la fosfatación, se utilizó una solución de NH4H2PO4 para obtener zirconia fosfatada (ZrO2-PO4; 8 y 16%-peso  PO4). Las muestras se calcinaron a 400°C y 500°C. La caracterización de las ZrO2-PO4 se realizó mediante fisisorción de N2, difracción de rayos X y espectroscopía infrarroja. La evaluación catalítica de ZrO2-PO4 en la reacción de deshidratación/isomerización de glucosa se llevó a cabo en un reactor por lotes a 160 °C y 800 psi de presión. Los reactivos y productos de reacción fueron cuantificados mediante cromatografía líquida (HPLC).


CONCLUSIONES

La biomasa es esencial para la producción sostenible de productos químicos y combustibles. Aunque la producción eficiente de HMF sigue siendo un reto, los ácidos de Brosnted/Lewis se han mostrado ser efectivos como sitios activos. En este contexto, la zirconia se destaca como un catalizador prometedor debido a sus propiedades ácidas, las cuales pueden optimizarse mediante modificaciones iónicas. En particular, se espera que el catalizador (ZrO2-PO4) facilite la conversión activa de la glucosa a HMF en medio acuoso, demostrando así la estabilidad de su estructura y su potencial como catalizador, bajo las condiciones requeridas para este tipo de reacciones.
Cervantes Olmedo Luis Santiago, Universidad de la Guajira
Asesor: Mtro. Horacio Alejandro Ulloa López, Universidad Nacional Autónoma de Nicaragua, Managua

EVALUACIóN DE LA ESTABILIDAD DE LADERA POR CARGAS ESTáTICAS EN EL MIRADOR DE CATARINA.


EVALUACIóN DE LA ESTABILIDAD DE LADERA POR CARGAS ESTáTICAS EN EL MIRADOR DE CATARINA.

Cervantes Olmedo Luis Santiago, Universidad de la Guajira. Asesor: Mtro. Horacio Alejandro Ulloa López, Universidad Nacional Autónoma de Nicaragua, Managua



PLANTEAMIENTO DEL PROBLEMA

El mirador de Catarina, ubicado en el departamento de Masaya, Nicaragua, es un punto turístico de gran atractivo debido a sus impresionantes vistas panorámicas de la Laguna de Apoyo y los alrededores. Sin embargo, esta zona ha venido presentando problemas de inestabilidad de ladera que ponen en riesgo tanto la seguridad de los visitantes como la integridad de las infraestructuras existentes. Esta inestabilidad de ladera en el mirador de Catarina se debe a varios factores geológicos y ambientales. La región está caracterizada por su topografía empinada y suelos volcánicos, que, combinados con una alta pluviosidad y actividad sísmica, contribuyen a la ocurrencia de deslizamientos de tierra. Los antecedentes históricos de la zona indican que ha habido varios eventos de deslizamientos significativos que han causado daños materiales y han afectado el turismo local. Este fenómeno resalta la necesidad urgente de realizar estudios detallados sobre la estabilidad de las laderas para implementar medidas de mitigación efectivas y oportunas.



METODOLOGÍA

Se ha implementado una metodología exhaustiva y estructurada, basada en métodos de investigación descriptivos y analíticos. Los objetivos de esta investigación corresponden en principio a la determinación de las propiedades físico-mecánicas del suelo; seguido analizar la estabilidad de taludes mediante el uso de softwares y por último proponer medidas de mitigación con base en los resultados obtenidos. La metodología desarrollada incluyó varios pasos fundamentales. En primera estancia, se hizo una recopilación de estudios previos relacionados con la estabilidad de taludes en zonas volcánicas y con características similares a las del mirador de Catarina. Esta revisión bibliográfica incluyó investigaciones sobre la geología, climatología y sismicidad de la región. Se tomó como base una monografía de grado realizada por un estudiante de la Universidad Autónoma de Nicaragua, Managua (UNAN - Managua). Este trabajo aborda el estudio de estabilidad de taludes en la zona del mirador de Catarina y su propósito fue contribuir al reordenamiento urbano del área. Esta monografía proporcionó datos valiosos y una perspectiva local sobre los factores de inestabilidad y las soluciones propuestas anteriormente. Para caracterizar la ladera en términos de geotecnia, se realizaron ensayos de penetración estándar (SPT) para obtener datos sobre la resistencia y las propiedades mecánicas del suelo hasta una profundidad de 6.30 metros. Los ensayos SPT permitieron determinar la densidad del suelo y su capacidad de soporte, aspectos necesarios para conocer que tan inestable esta la zona. Se obtuvieron muestras de suelo de sondeos manuales en puntos estratégicos, para su debido análisis de laboratorio, los que proporcionaron información detallada sobre la composición y demás propiedades físico-mecánicas del suelo. También, se hizo uso del equipo de GEOGAUGE MODELO H4140, para conocer el módulo de elasticidad y rigidez del suelo. Durante la toma de los sondeos manuales en varios puntos del mirador, se observaron rastros de socavamiento en las paredes de la zona. De igual manera, se encontraron signos de desprendimiento de material en la base de estas laderas. Esto evidenció los procesos de erosión y el riesgo de ocurran futuros deslizamientos, y estas observaciones in situ fueron esenciales para comprender la situación actual de la ladera y que se corrobora con los datos obtenidos en los ensayos SPT. Con la información obtenida de la caracterización geotécnica y las observaciones de campo, se procedió a realizar análisis de estabilidad de taludes utilizando el software Slide. Este software permitió simular múltiples escenarios de carga, incluyendo lluvias intensas y eventos sísmicos, con el fin de modelar las condiciones actuales de las laderas y predecir su comportamiento bajo diversas circunstancias. Los análisis realizados con Slide dio como resultados valores para el factor de seguridad menor a 1.  Esto indica que la zona de estudio esta propensa a deslizamientos bajo las condiciones naturales en las cuales se trabajó. Además, el programa permitió modelar diferentes escenarios posibles que se puedan presentar asociados a cada situación y determinar las áreas más vulnerables a deslizamientos.


CONCLUSIONES

Durante esta estancia de investigación y los resultados en el estudio en el mirador de Catarina, se identificaron puntos críticos de inestabilidad de ladera que requieren atención. Los análisis realizados con el software Slide revelaron que existen áreas del mirador que presentan factores de seguridad menores a 1 en condiciones naturales con suelos arenosos, limosos y arcillosos con presencia de plasticidad de alta a baja. Además, se encontró Pómez, una roca de origen volcánico, con baja densidad y muy porosa.  Por otro lado, deben considerarse estas condiciones en combinación con escenario de lluvias intensas y sismicidad. Con base en estos resultados, se recomiendan las siguientes acciones: Implementación de Sistemas de Drenaje: Para reducir la infiltración de agua en el suelo y minimizar el riesgo de deslizamientos, es crucial instalar sistemas de drenaje adecuados que canalicen el agua de lluvia lejos de las laderas inestables. Revegetación de Laderas: La plantación de vegetación nativa en las laderas que ayuden a reducir la erosión y a estabilizar el suelo. Las raíces de las plantas proporcionan cohesión adicional al suelo, mejorando su resistencia a deslizamientos. Fortalecimiento de Infraestructuras: Las infraestructuras existentes en el mirador deben ser evaluadas de nuevo y ser reforzadas, pero solamente si es necesario, para soportar posibles movimientos de tierra. Esto incluye la construcción de muros de contención y la mejora de los cimientos. Muros de contención: Los muros de contención son una buena solución de mitigación para los deslizamientos en las laderas, Sin embargo, debido a que el área es muy extensa no es recomendado optar como primera opción esta solución, pero si se pudiera plantear la idea de hacer la construcción de estos muros en zonas específicas.
Cervantes Ortega Dana Keren, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. Dennise Ivonne Gallardo Alvarez, Instituto Tecnológico Superior de Irapuato

OPTIMIZACIóN DE LA VISUALIZACIóN DE DATOS EN POWER BI PARA LA ACREDITACION DE PROGRAMAS ACADéMICOS


OPTIMIZACIóN DE LA VISUALIZACIóN DE DATOS EN POWER BI PARA LA ACREDITACION DE PROGRAMAS ACADéMICOS

Cervantes Ortega Dana Keren, Instituto Tecnológico Superior de Irapuato. Hernández Robles Alma Raquel, Instituto Tecnológico Superior de Irapuato. Rojas Arredondo Gisell Deliani, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. Dennise Ivonne Gallardo Alvarez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Históricamente, la recopilación y presentación de información requerida para los estándares de acreditación en universidades ha dificultado el proceso de acreditación. En la actualidad, las instituciones educativas han comenzado a adoptar tecnologías BI (Business Intelligence) como herramienta de gestión de datos. Esta tecnología es amigable en el uso, tiene capacidad amplia para optimizar y analizar bases de datos, proporcionando a los responsables de la toma de decisiones una visión clara y detallada del desempeño de sus programas académicos. El objetivo principal de esta investigación es desarrollar una herramienta utilizando la tecnología BI como base para el proceso de acreditación de la carrera de Ingeniería en Gestión Empresarial del ITESI (Instituto Tecnológico Superior de Irapuato) y con ello crear una alternativa de cumplimiento de los estándares establecidos para la acreditación en una sola herramienta. 



METODOLOGÍA

Definición del Organismo Acreditador:El primer paso del proyecto consistió en identificar y definir el organismo acreditador en el que se basaría la optimización de la visualización de datos. Para este proyecto, se seleccionó el Comité Interinstitucional para la Evaluación de la Educación Superior (CIEES). Selección del Eje de Evaluación:Dado que el proyecto se realizó en un período limitado, se decidió enfocar la optimización en uno de los ejes de evaluación específicos de CIEES (estudiantes). Esto permitió una profundización adecuada en el análisis y visualización de datos dentro de un área manejable. Selección del Caso de Estudio:Para aplicar la metodología, se seleccionó la carrera de Ingeniería en Gestión Empresarial del ITESI como caso de estudio. Esta elección permitió una aplicación práctica y específica de las herramientas de Business Intelligence en un contexto real. Diseño de la Base de Datos:Con el eje de evaluación y el caso de estudio definidos, se procedió al diseño de una base de datos que pudiera contener toda la información relevante para el proceso de acreditación. Este diseño incluyó la estructuración de una tabla son sus respectivos campos. Población de la Base de Datos:Para evitar la publicación de datos confidenciales, la base de datos fue poblada con datos ficticios. Estos datos ficticios replicaron patrones y características reales de los datos institucionales, permitiendo así una prueba efectiva de las visualizaciones sin comprometer la privacidad. Desarrollo del Tablero en Power BI:Finalmente, se desarrolló un tablero de datos en Power BI. Este tablero fue diseñado para proporcionar una visualización clara y detallada de los datos relevantes al eje de evaluación seleccionado.


CONCLUSIONES

La implementación de la tecnología BI ayuda a observar mejor los datos que se obtienen para el proceso de acreditación de la carrera de Ingeniería en Gestión Empresarial, y con ello tomar mejores decisiones y de manera eficiente.  De acuerdo con los resultados obtenidos del cuestionario que se les aplicó a los alumnos de la carrera de Ingeniería en Gestión Empresarial, se obtuvo información sobre cómo califican los alumnos las instalaciones, su rendimiento académico y las habilidades que han desarrollado durante su formación académica. Esta información ayuda a tomar mejores decisiones en el proceso de acreditación de la carrera para poder mejor la calidad del programa educativo.  El proceso de acreditación de la carrera es fundamental para garantizar que los alumnos reciban una educación de calidad y, brindando confianza a los alumnos, se puede lograr obtener reconocimiento a nivel nacional; ayudando a los alumnos a tener reconocimiento en el mundo laboral. 
Cervantes Rodriguez José de Jesús, Instituto Politécnico Nacional
Asesor: M.C. Gregorio Trinidad García, Benemérita Universidad Autónoma de Puebla

SISTEMA DE MONITOREO EN TIEMPO REAL PARA EL CONTROL DE UNA MANO ROBóTICA INCORPORANDO SENSORES FLEX MEDIANTE ESP32


SISTEMA DE MONITOREO EN TIEMPO REAL PARA EL CONTROL DE UNA MANO ROBóTICA INCORPORANDO SENSORES FLEX MEDIANTE ESP32

Cervantes Rodriguez José de Jesús, Instituto Politécnico Nacional. Loranca Gomez Sofia, Benemérita Universidad Autónoma de Puebla. Padilla Aguirre Maythe Monserrat, Universidad de Guadalajara. Asesor: M.C. Gregorio Trinidad García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En diversos campos como la biomédica y robótica se ha buscado una interacción amigable con el ser humano. Provocando una necesidad creciente por desarrollar sistemas robóticos complejos capaces de replicar movimientos humanos, logrando una interacción eficiente e intuitiva. El principal desafío en la creación de sistemas robóticos es el diseño y la implementación de sistemas de procesamiento de señales. Los robots actuales presentan movimientos toscos, simples y con tiempos de respuesta lentos por lo que se propone diseñar un sistema de control eficiente en tiempo real, garantizando la precisión y efectividad del sistema. 



METODOLOGÍA

La creación de una mano robótica presenta dos desafíos principales: diseñar un software para procesar señales de sensores flexores para a su vez mapear el movimiento de los servomotores, además de diseñar un sistema embebido que garantice movilidad y facilidad de uso. El procesamiento de señales, se desarrolló un software en Arduino IDE usando un filtro de media móvil optimizado con hilos, mejorando la estabilidad de los datos y permitiendo el procesamiento paralelo de múltiples sensores. Diseño y desarrollo de filtro  El objetivo del filtro es mantener constante la señal digital de acuerdo con la posición del sensor flexor. Para esto, la señal analógica de los sensores se convierte a digital para ser utilizada por el ESP32. Luego, un filtro de media móvil procesa continuamente 20 valores de la señal, eliminando fluctuaciones no deseadas, proporcionando datos consistentes. La efectividad del filtro se mide por su capacidad para suavizar señales calculando el promedio de un conjunto de datos dentro de una ventana fija. Este proceso reduce la variabilidad causada por el ruido típico en este tipo de señales, logrando una serie de valores estables y confiables. Una vez validada la eficacia del filtro en el entorno de desarrollo, se encapsuló el código en una librería que facilita la llamada a la función del filtro para cada sensor en el código principal, permitiendo manejar las señales de múltiples sensores de manera independiente pero uniforme, asegurando un tratamiento consistente y eficiente de los datos. Para cada sensor, el filtro aplica el mismo proceso de cálculo de media, asegurando un tratamiento coherente de las señales. Esto permite manejar variaciones y ruido de manera uniforme, proporcionando datos consistentes y comparables, facilitando así la integración en un sistema digital como el ESP32 para su análisis y procesamiento. Optimización con hilos para procesamiento paralelo  Una vez obtenidos los valores filtrados de los sensores flexores, se implementaron hilos para controlar eficientemente el flujo del programa y evitar la saturación del microprocesador. Esto mejoró el tiempo de respuesta, rendimiento y manejo de operaciones críticas. Durante el desarrollo del código, se utilizó FreeRTOS para crear multitareas en el microprocesador de doble núcleo Tensilica Xtensa LX6 en la ESP32. El núcleo 0 maneja tareas básicas como Wi-Fi y Bluetooth, esenciales para la conectividad. Antes de implementar los hilos, el sistema tenía una respuesta lenta y con retardo, impidiendo la precisión y el rendimiento deseados. Para solucionar este problema, se utilizó el núcleo 1 para las tareas del proyecto, separando las tareas críticas de conectividad del procesamiento de señales. Cada sensor flexor fue asociado a una tarea independiente para capturar la señal analógica, y con la función ‘xTaskCreatePinnedToCore’ de FreeRTOS se crearon tareas específicas para los servomotores, asignándolas a un núcleo del microprocesador. A cada tarea se le asignó una pila de memoria de 10,000 bytes, asegurando suficiente espacio para las variables locales y un procesamiento eficiente de los datos. Esta implementación no solo mejoró la organización del procesamiento y optimizó los recursos del microcontrolador, sino que también resolvió problemas de lentitud y retardo, permitiendo gestionar múltiples operaciones en paralelo con un tiempo de respuesta casi instantáneo. Hardware En el desarrollo de un sistema de control de mano robótica, el diseño y la implementación física del hardware son fundamentales en el desarrollo de diversas tecnologías. El sistema de control desarrollado en esta investigación abarca varios conceptos para replicar movimiento mediante procesos como la recolección y el procesamiento de señales analógicas. La primera parte consiste en un guante con sensores flexibles que responden a la deformación, obteniendo una resistencia variable. Para asegurar la lectura de datos, se implementan divisores de voltaje, con una configuración específica para los sensores Flex que permite obtener un voltaje de salida compatible con las entradas analógicas del ESP32. La segunda parte incluye una mano robótica con piezas impresas en 3D controlada por servomotores SG90, que replican los movimientos de los dedos según las acciones realizadas con el guante.


CONCLUSIONES

Los resultados durnate verano mostraron un avance significativo en el filtrado de señales y la optimización de recursos. La técnica de filtrado fue útil para obtener señales estables, mientras que la implementación de hilos mejoró el tiempo de respuesta. Este proyecto tiene un impacto notable en la ingeniería biomédica, estableciendo bases para dispositivos médicos y prótesis donde la precisión es crucial. Además, la metodología puede adaptarse y expandirse a otros sensores industriales, abriendo nuevas oportunidades para el desarrollo tecnológico.
Cessa Mireles Michelle, Instituto Tecnológico de Ciudad Juárez
Asesor: M.C. Ana Lorena Chavez Montelongo, Universidad Tecnológica Paso del Norte

FACTORES DISERGONOMICOS QUE AFECTAN A LA PRODUCTIVIDAD


FACTORES DISERGONOMICOS QUE AFECTAN A LA PRODUCTIVIDAD

Arellano Cerda Carmen Paola, Instituto Tecnológico de Ciudad Juárez. Cessa Mireles Michelle, Instituto Tecnológico de Ciudad Juárez. Asesor: M.C. Ana Lorena Chavez Montelongo, Universidad Tecnológica Paso del Norte



PLANTEAMIENTO DEL PROBLEMA

La importancia de esta investigación es crear conciencia sobre la relación entre la industria maquiladora y los factores disergonómicos que afecta la productividad en cada operación. En la industria, las estaciones ergonómicas no son tan importantes para las empresas, siendo una minoría las que tienen estaciones de trabajo completamente ergonómicas, esto tiene un efecto negativo en los operadores y en su productividad diaria. Los riesgos disergonómicos, como la monotonía, la fatiga, las malas posturas, el esfuerzo excesivo y la sobrecarga física, surgen de las interacciones entre los operarios y contribuyen a un entorno de trabajo perjudicial. Uno de los factores más importantes en la línea de producción es la velocidad del operador en su estación de trabajo, pero este rendimiento se ve afectado por problemas disergonómicos que reducen su rendimiento con el tiempo, estos datos no son importantes al considerar la productividad, pero son los más recurrentes y no identificables inmediatamente. Por esto el operador puede experimentar variaciones en su velocidad por la repetición constante de las mismas tareas. Gradualmente, esto puede resultar en una disminución de su agilidad en la cantidad de veces que hace la misma operación por hora, ya que puede generar traumas acumulativos. En consecuencia, si no se consideramos estas condiciones se verá afectado la salud y el bienestar de los trabajadores, generando costos significativos, dando como resultado números bajos en la productividad en las empresas, así como también el ausentismo laboral, incapacidades y aumento en los gastos médicos.  



METODOLOGÍA

En este proyecto se investigó la relación de los factores disergonómicos de los procesos en la industria maquiladora, donde se conceptualizó y se identificó mediante investigación en artículos científicos, diversas fuentes de información y un curso presentado por la Doc. Eliza Chacón (ergonomista certificado, maestría en salud ocupacional y especialista en medicina del trabajo) que nos ayudó a identificar los riesgos que afectan a las operaciones, enfocándonos en los factores musculoesqueléticos y las enfermedades de trabajo por trauma acumulativo.   Se tomaron diez tiempos de dos estaciones en el lapso de cinco horas continúas trabajadas en una maquiladora de compresores en el área de maquinado, para visualizar el rendimiento del operador poniendo enfoque en los movimientos repetitivos.  La toma de tiempos se dividió por movimientos de la operación y se identificó cuál es la parte del cuerpo más afectada desde el punto de vista disergonómico (mano, brazo, cuello, espalda, pierna). Con los diez tiempos registrados se sacó el tiempo real de movimiento por hora.  A partir de estos datos se creó una gráfica en donde nos muestra cómo se comportaba el tiempo en cada movimiento identificando el rendimiento que se tuvo por cada hora realizada.  La segunda estación a la que se tomaron tiempos es una Estación de soplado donde se maquina la pieza y se sopletea con aire comprimido para limpiar la rebaba.  En esta estación los movimientos que se tomaron en cuenta fueron  1. Sopletear la maquina: Toma la pistola de aire y sopla el interior de la máquina para quitar el agua residual. De acuerdo con los factores de riesgo disergonómico, las partes del cuerpo afectadas son:  Mano, brazo, cuello y pierna. Según la gráfica, el rendimiento del operador se vio afectado en la hora 1 y 3 muy por encima del promedio 10.53 s, siendo 12.23 y 13.11 s.  2. Poner pieza en la maquina: Tomar pieza y colocarla en el interior de la máquina, las partes del cuerpo afectadas son:  Mano, brazo, cuello y pierna. El rendimiento disminuyo en la hora 5 casi el doble de tiempo del promedio 6.04 s a 11.38 s, la segundo más alta fue la hora 3 con 5.55 s  3. Sacar pieza y remojarla: Después de que la maquinado sacar la pieza y remojarla para ayudar a quitar la rebaba, las partes del cuerpo afectadas son:  Brazo, cuello y pierna . La hora 1 y 5 fueron las que tuvieron el tiempo más alto comparando el promedio de 7.99 s contra 9.07 s en la primera hora y 11.05 s en la quinta.  4. Sopletear pieza: Tomar pistola de aire y sopletear el interior de la pieza para quitar el resto de rebaba, las partes del cuerpo afectadas son:  Mano, brazo, cuello y pierna. Comparado con el promedio de 8.17 s las horas 1 y 3 quienes estuvieron arriba del promedio con 15.30 y 9.79 s.  5. Marcar y dejar en la caja: Tomar pieza y con un marcador permanente, hacer una marca en el interior de la pieza y dejar la pieza en el Bin, las partes del cuerpo afectadas son:  Mano, brazo, cuello, espalda y pierna .  El promedio es de 14.28 s y las horas que menor rendimiento hubo fueron la 2.3 y 4 siendo la 4 la más alta con 16.95 s. De acuerdo con el estándar, se deberían sacar 86 piezas por hora, y con los datos obtenidos, la cuarta hora es la única que alcanzó ese estándar, mientras que el menor rendimiento se observó en la primera y tercera hora. 


CONCLUSIONES

Durante esta investigación, se comprendió mejor la relación del operador- máquina, para interpretar los tiempos de cada movimiento que se hicieron por hora, se crearon resultados a través de gráficos, así mismo nos ayudó a interpretar los tiempos y la variación que se vieron afectados por los problemas disergonómico que no se pueden identificar inmediatamente en los movimientos del proceso, dando como resultado que la variación que existe entre cada hora, nos genera una desviación por segundo, creando un esfuerzo haciendo que este sea más lento, hasta el  terminado de su turno (5 hrs) ,  dando como resultado que no se cumplan con el tiempo estándar establecido y así mismo una vez identificado este problema se observó que si no se llega a ese ritmó o a esta velocidad se va a ir viendo afectado la productividad en cada uno de los procesos.  Por esto se recomienda usar aplicaciones de la inteligencia artificial para evaluar riesgos ergonómicos que nos ayudarán a identificar que tanto nos afecta los problemas disergonómicos en un proceso de producción.  
Chab Contreras Diana Elizabeth, Universidad Autónoma de Yucatán
Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE PROTOTIPOS: HORNO DE VITROFUSIóN, EXPRIMIDOR DE PIñAS Y EXTRUSOR DE FILAMENTO


DESARROLLO DE PROTOTIPOS: HORNO DE VITROFUSIóN, EXPRIMIDOR DE PIñAS Y EXTRUSOR DE FILAMENTO

Carlos Patricio Isaac Emmanuel, Universidad Autónoma de Ciudad Juárez. Chab Contreras Diana Elizabeth, Universidad Autónoma de Yucatán. Espinoza Franco Sofia, Universidad Autónoma de Ciudad Juárez. Haro Bustamante Ana Laura, Universidad de Guadalajara. Leon Cancino Jesus Eduardo, Instituto Tecnológico de Tuxtla Gutiérrez. Martinez Cerino Paola Yosabeth, Instituto Tecnológico de Pachuca. Rodríguez Hernández Evelyn, Universidad de Guadalajara. Suriano Natarén Amairany, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La innovación tecnológica en el desarrollo de dispositivos industriales es fundamental para mejorar la eficiencia y calidad de los procesos productivos. Sin embargo, en muchas industrias, la adopción de tecnologías avanzadas se ve limitada por la falta de herramientas adecuadas que respondan a necesidades específicas de producción. En particular, se observa una carencia de soluciones efectivas en el ámbito de la vitrofusión, el procesamiento de frutas (como la extracción de jugo de piñas), y la fabricación de filamentos para impresión 3D. Cada prototipo presenta desafíos específicos en términos de diseño, integración de componentes electrónicos y optimización de funcionalidad. Este trabajo se centra en la cotización de materiales, diseño detallado, pruebas de componentes, programación y armado, con el objetivo de producir prototipos eficientes y funcionales



METODOLOGÍA

El desarrollo del primer prototipo de un horno de vitrofusión incluyó el diseño de una estructura con apertura en el plano (X, Z). La cápsula metálica, sin considerar la altura de las patas y tomando en cuenta la tapa superior e inferior, tiene dimensiones de 140 cm x 90 cm x 60 cm, y permite un rango de temperatura operativa de 80°C a 1300°C. Definieron las especificaciones técnicas, se elaboraron los planos correspondientes en el software SolidWorks. Con estos planos y especificaciones técnicas, se procedió a la cotización y adquisición de los materiales necesarios. Con los materiales, se realizaron pruebas exhaustivas de los componentes electrónicos para asegurar su funcionalidad y compatibilidad con el diseño del horno, estos componentes fueron integrados en la estructura del horno. Finalmente, se procedió al ensamblaje de la estructura del horno, utilizando principalmente soldadura y herramientas de medición, corte y esmeril. El segundo prototipo desarrollado es un exprimidor de piñas, el cual genera jugo por presión mecánica entre la base y un mazo fijado al techo de su soporte del exprimidor. La estructura esta diseñada para acomodar diversos tamaños de fruta. El proceso de desarrollo comenzó con el diseño del exprimidor en el software SolidWorks, donde se elaboró un esquema detallado del dispositivo, incluyendo todas las partes mecánicas y su ensamblaje. Este diseño permitió definir claramente las especificaciones y requerimientos técnicos. Una vez completado el diseño con los materiales disponibles, se realizaron pruebas para asegurar la operatividad, a diferencia de sistemas automatizados, este prototipo utiliza una manivela que permite a una persona ejercer la fuerza necesaria para operar el gato hidráulico. Finalmente, se armó la estructura del exprimidor utilizando técnicas de ensamblaje como soldadura y herramientas de precisión. El desarrollo del tercer prototipo, un extrusor de filamento, consiste en un motor que impulsa un husillo conectado a una tolva que transporta los restos del material de las impresoras 3D como PLA hacia un tubo caliente para fusionar los restos y por medio de una boquilla obtener filamento de un diámetro específico. El prototipo se diseñó en SolidWorks, los componentes que necesitamos fueron integrados en el diseño, seguido por el armado de su estructura y ensamblando todas las piezas, por último, se llevaron a cabo pruebas generales para verificar el correcto funcionamiento.


CONCLUSIONES

Se logró diseñar y desarrollar tres prototipos, enfrentando y superando diversos desafíos técnicos como la identificación de los materiales adecuados para cada prototipo, técnicas de soldadura, corte, desbaste y golpe, así como la implementación de los componentes electrónicos para el horno y el extrusor de filamento. Los resultados obtenidos indican que el prototipo del horno de vitrofusión cuenta con una estructura más grande a comparación de los hornos caseros, el sistema de aislamiento es funcional e innovador y el circuito electrónico es eficiente al controlar la temperatura. Asimismo, el exprimidor de piñas cuenta con una estructura que funciona manualmente y el extrusor de filamento fue adaptado para el uso y manejo del laboratorio. Los tres prototipos cuentan con potencial para mejoras futuras, una vez completados y refinados, estos dispositivos contribuyan significativamente a sus respectivas áreas de aplicación y abran la puerta a futuras investigaciones.
Chaires Utrilla Leonardo Daniel, Instituto Tecnológico de Toluca
Asesor: Dra. Wei Wei, Wichita State University

INVESTIGATING INEXPENSIVE ELECTRODE MATERIALS FOR PEROVSKITE SOLAR CELLS


INVESTIGATING INEXPENSIVE ELECTRODE MATERIALS FOR PEROVSKITE SOLAR CELLS

Chaires Utrilla Leonardo Daniel, Instituto Tecnológico de Toluca. Asesor: Dra. Wei Wei, Wichita State University



PLANTEAMIENTO DEL PROBLEMA

The energy issues and environmental concern have led to intense research activities in renewable energy conversion, such as photovoltaic (PV) to convert solar energy into electricity. Perovskite solar cells (PSCs) based on metal halides are rapidly emerging as the most promising and competing PV technology due to its high record power conversion efficiencies and potentially low production cost. Perovskite solar cells are a rising star in the photovoltaic industry, which achieved an enormous breakthrough in terms of efficiency. Carbon-materials composites, which feature super electrical conductivity, outstanding carrier mobility, remarkable flexibility and superior heat and moisture stability, with their multifunctional properties can play various roles in almost every component in the perovskite solar cell architecture.



METODOLOGÍA

A typical multilayered PSC contains five essential components: a perovskite light absorber layer an electron transport layer (ETL) a hole transport layer (HTL) a transparent electrode and a back electrode The general working principle is when exposed to sunlight, photons are captured and electron-hole pairs are generated in the perovskite layer; then electrons move to the ETL and meanwhile holes Flow towards the HTL, followed by the electrons and holes extracted to the transparent electrode and a back electrode, respectively. Later, the transparent electrode and back electrode are connected to form an external circuit. The whole process is thermodynamically favorable when the valence and conduction band energy levels of the layers are aligned. In a plannar architecture, the ETL is deposite don transparent conducting glass (transparent electrode), which is followed by depositing the perovskite active layer, and then the HTL is deposited on top of the perovskite film and topped by a metal contact. For the mesoporous structure, it refers to the use of a thin and compact titanium oxide  layer as a hole blocking layer and a mesoporous  layer as an electron-extraction scaffold to fill with perovskite materials. The PSCs that contain carbon-materials composites show enhanced performance including higher power conversion efficiency values and long-term stability. In PSCs, the use of carbon-materials composites contributes to one or more of the following aspects: improving conductivity to facilitate charge extraction and transportation great interface contact between layers to enable rapid carrier transport cheaper for large scale production than using platinium, gold & silver


CONCLUSIONES

The focus of my project was to test four different carbon materials for the back electrode layer: Mesoporous carbon - 6.2% efficiency Graphene - 4.8% efficiency Graphite - 2.52% efficiency Activated carbon - 2.44% efficiency To analyze which of these works best as a carbon electrode layer. Mesoporous carbon proved to be the best viable option in perovskite solar cells because its results showed high efficiency and stability during testing. Its porous structure and high specific surface area allow for better adsorption and dispersion of the active perovskite materials, which improves charge transfer and light collection. Using back electrode (carbon-based materials) because they are demonstrated as great candidates to replace metal electrodes due to their low cost, flexibility, good conductivity, and chemical inertess. Their ultimate goal is to make solar cells that are affordable, efficient and stable so that they will be more accessible to the general population.
Chamorro Perez Fionella Rubí, Universidad Autónoma del Estado de México
Asesor: Dr. Ricardo Orozco Cruz, Universidad Veracruzana

EVALUACIóN DE MEDICAMENTOS CADUCADOS INDICADOS EN EL CONTROL DE LA DIABETES (DIOSMINA Y EMPAGLIFLOZINA) COMO POTENCIALES INHIBIDORES DE LA CORROSIóN PARA ACERO X65 EN MEDIO áCIDO (1M HCL).


EVALUACIóN DE MEDICAMENTOS CADUCADOS INDICADOS EN EL CONTROL DE LA DIABETES (DIOSMINA Y EMPAGLIFLOZINA) COMO POTENCIALES INHIBIDORES DE LA CORROSIóN PARA ACERO X65 EN MEDIO áCIDO (1M HCL).

Chamorro Perez Fionella Rubí, Universidad Autónoma del Estado de México. Ibarra Campos Leonardo Iván, Instituto Politécnico Nacional. Asesor: Dr. Ricardo Orozco Cruz, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

Para combatir la corrosión de ductos, tanques y bombas en la industria petrolera, existen muchas alternativas de protección, pero entre ellas la que ofrece una mejor relación costo beneficio son los inhibidores de corrosión (Hart, 2016, Carmona-Hernández et al., 2023) sin embargo, muchos de estos llegan a ser tóxicos, como en el caso de compuestos de arsénico o cromo, o bioacumulables; dichos compuestos pueden llegar a ser nocivos para el ambiente y la salud tras las operaciones de refinación y el consumo de combustibles. Por otro lado, se tiene una problemática pública a causa del manejo inadecuado de medicamentos caducados, los cuales son considerados residuos peligrosos cuyos efectos en la salud social y de la fauna en los lugares en los cuales llegan a solubilizarse son notorios por desbalances hormonales, problemas generalizados de salud y modificación de comportamiento. En este trabajo, dos medicamentos, la Diosmina (C28H32O15) y Empagliflozina (C23H27ClO7) serán sometidos a una extracción, y después, a pruebas electroquímicas para poder verificar y plantear su uso como inhibidores de la corrosión en sistemas de ductos de la industria petrolera, utilizando una solución de HCl 1M, debido a que dicha industria suele trabajar con medios ácidos, en acero X65, el cual es el más utilizado en la construcción de ductos y tuberías.



METODOLOGÍA

1. Los medicamentos Diosmina y Empagliflozina se someterán a un proceso de trituración, serán a partir de su forma en concentrados comerciales (pastillas), y disueltos en 3ml de Dimetilsulfoxido. 2. Preparación de inhibidor: Se preparan soluciones madre de cada medicamento de concentración 0.01 M a partir de la cual se obtendrán las concentraciones de prueba de 10, 50 y 100 ppm mediante dilución en 40 mL de HCl 1M. 3. Preparación de superficie: Los electrodos de trabajo de acero X65, embebidos en resina epoxy de 1 cm² de área electroactiva son desbastados utilizando papel de carburo de silicio (SiC) siguiendo la secuencia granulométrica 320, 400 y 600. Posteriormente son enjuagados con agua destilada y metanol para desengrasar la superficie, finalmente se secan con aire y se llevan directamente a la celda electroquímica. 4. Pruebas electroquímicas en un potensiostato marca Gamry: Se registrará el potencial de circuito abierto (OCP) durante 30 minutos previo a cada prueba para garantizar la estabilidad del sistema, posteriormente se realizarán pruebas de resistencia a la polarización lineal (LPR) en un intervalo de potencial de ±20 mV vs OCP con una velocidad de barrido de 0.167 mV/s, seguidas de curvas de polarización potenciodinámica (PDP) en una ventana de potencial de ±300 mV vs OCP con una velocidad de barrido de 1 mV/s. A partir de los resultados obtenidos con LPR y PDP, se determinará la concentración de inhibidor que ofrece mayor eficiencia. Todas las pruebas de LPR y PDP se realizarán por triplicado, en todos los casos se utiliza un arreglo de tres electrodos teniendo como electrodo de trabajo la pieza de acero API 5L X65 embebida en resina epoxy, como contra electrodo una barra de grafito y como electrodo de  referencia un electrodo saturado de Plata/Cloruro de Plata (Ag/Ag/Cl). 5. Análisis de datos: Se utilizará el software de análisis de datos proporcionado por el fabricante del potenciostato utilizado (Squidstat) , así como MATLAB para la representación y ajuste de datos.


CONCLUSIONES

Después de experimentar con los medicamentos seleccionados se pudieron encontrar los siguientes datos, en cuanto a PDP, la empagliflozina se mantiene la tendencia a aumentar la eficiencia de la misma manera que lo hace la concentración, la menor velocidad de corrosión icorr fue de 3.75x10-5 A/cm2, mucho menor que la icorr del “Blanco” que fue de 4.6x10-4 A/cm2, asimismo de acuerdo a la norma ASTM G102 (2023), se obtiene que la velocidad de corrosión es de 0.435 mm/año para la concentración de 100 ppm que tiene una eficiencia del 92% respecto a la del blanco, es decir el metal está protegido en ese porcentaje. En la diosmina se presentó un comportamiento más estable con 100 ppm y 96% de efectividad, su icorr más baja fue de 2x10-5 lo que es equivalente a 0.232 mm/año que es significativamente más baja que la del blanco y de la empagliflozina como se mencionó con anterioridad, ambos medicamentos cumplen con los estándares de la industria petrolera para considerar un inhibidor de la corrosión como válido, sin embargo, la diosmina es más eficiente como inhibidor que el otro medicamento, esto es posible debido a que es un compuesto antioxidante. Se realizó también un análisis termodinámico para cada compuesto, ajustando las fracciones de área recubierta (calculadas a partir de datos de PDP) a la isoterma de Langmuir. El ajuste reveló que los datos experimentales se ajustan muy bien al modelo de Langmuir con coeficientes de determinación de 0.9989 y 0.9994, para diosmina y empagliflozina respectivamente. Finalmente, se calculó la energía libre de adsorción, encontrándose que para diosmina el mecanismo de adsorción es quimisorción; con una energía de adsorción de -42.72 kJ/mol y una desviación estándar de ±1.38 kJ/mol, mientras que para empagliflozina el mecanismo de adsorción es mixto; con una energía de adsorción de -43.29 kJ/mol y una desviación de ±5.73 kJ/mol. A la luz de los resultados obtenidos, ambos compuestos muestran un efecto inhibidor considerable, siendo la diosmina el compuesto con mayor potencial al superar el 90% de eficiencia en todas las concentraciones estudiadas. Lo anterior es prometedor ya que la norma NRF-005 PEMEX establece un mínimo de eficiencia de 90% a 50 ppm, por lo que la diosmina excede dicha especificación. En cuanto a la empagliflozina, se alcanza un 86% de eficiencia a 50 ppm, por lo que puede considerarse para la formulación de nuevos compuestos ya sea combinándolo con otras sustancias (efecto sinérgico) o bien funcionalizando la molécula con grupos funcionales de mayor afinidad por la superficie metálica. 
Chavarro Castillo Daniela, Universidad Autónoma de Occidente
Asesor: Prfnal. Jean Caratt Ortiz, Universidad de la Costa

ANáLISIS NUMéRICO DE TURBULADORES DE ALETAS BIOINSPIRADOS EN UN INTERCAMBIADOR DE CALOR DE DOBLE TUBO EN FLUJO TURBULENTO EMPLEANDO CFD


ANáLISIS NUMéRICO DE TURBULADORES DE ALETAS BIOINSPIRADOS EN UN INTERCAMBIADOR DE CALOR DE DOBLE TUBO EN FLUJO TURBULENTO EMPLEANDO CFD

Chavarro Castillo Daniela, Universidad Autónoma de Occidente. Asesor: Prfnal. Jean Caratt Ortiz, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

Los intercambiadores de calor son aparatos que facilitan el intercambio de calor entre dos fluidos que se encuentran a temperaturas diferentes y evitan al mismo tiempo que se mezclen entre sí. Estos son utilizados en diferentes industrias como, química, alimentos, lavandería industrial y plantas térmicas que utilizan como proceso la cogeneración. Para mejorar la transferencia de calor y la eficiencia de un intercambiador de doble tubo, se utilizan aletas las cuales mejoran dicha transferencia desde una superficie al exponer un área más grande a la convección y la radiación. Otra forma de mejorar la transferencia de calor es utilizando turbuladores de aletas, que mejoran la transferencia de calor mediante el incremento de la superficie de esta y la destrucción de la capa límite. En el pasado se han realizado estudios de cómo afecta la geometría de las aletas inspiradas en tres animales marinos, teniendo en cuenta, que estas afectan el rendimiento hidráulico. La resistencia hidrodinámica consta de tres componentes principales: resistencia de forma, resistencia de fricción y resistencia de ola. La resistencia de forma surge de las diferencias de presión sobre el cuerpo en movimiento y depende principalmente de la forma del cuerpo.  La mayor problemática que se presentan en los intercambiadores de calor, es que la geometría de la aleta afecta la transferencia de calor y la eficiencia del mismo, por lo cual en este verano se estudió el comportamiento de aletas bio inspiradas en un intercambiador de doble tubo empleando CFD, con el fin de analizar el comportamiento de parámetros como: Transferencia de calor, efectividad, número de Reynolds, Número de Nusselt, entre otros.



METODOLOGÍA

En la primera parte, se muestra las 4 ilustraciones que inspiran el modelado de las aletas. Los animales marinos son: Delfín, tiburón, ballena azul y orca. Por otro lado, se muestra el dominio en el que esta introducido dichas aletas. Las dimensiones del dominio son de 750 mm x 17.5 mm, las aletas estan a 9.5 mm de alto y a 50 mm se encuentra ubicada la primera aleta con el origen. En total son 20 aletas distanciadas a 30 mm entre sí. Para el proceso de elaboración de mallas, donde se debe construir cuatro aletas inspiradas en animales marinos, los cuales son: Aleta de delfín, tiburón, orca y ballena azul, esto con el fin de crear tres superficies en el modelado 2D(dos de fluido y uno tipo sólido). Luego, este dominio se exporta en el formato Parasolid .x_t, para luego ser importado al programa Workbench de Ansys. En cada una de las aletas se definen las condiciones de fronteras en el modelador de diseño tales como: Entrada de velocidad superior e inferior, salida de presiones superior e inferior, las paredes tanto de las aletas como las del fluido frío y caliente. Por consiguiente, se definen los parámetros de la malla tales como: Tres face sizing, uno de la superficie donde ingresa el fluido frío, la superficie de las aletas que se comporta como un sólido y otro donde ingresa el fluido caliente. Por último, se agrega un inflation el cual permite apilar elementos y celdas de una forma única que, a menudo, solo es posible en sus límites. Se puede crear una capa inflada atrapando el gradiente normal cerca de barreras antideslizantes. Para lograr esto, solo se pueden utilizar elementos delgados y una pequeña cantidad de elementos. Una vez realizada la malla se revisará si esta presenta algún error por tamaño u otro, la cual si presenta errores se debe redefinir los parámetros de la malla sino se puede exportar la malla a Fluent. Una vez obtenido las mallas, se  muestra el proceso de simulación de las cuatro aletas, en el cual se inserta el modelo, luego se revisan las condiciones de frontera, como el modelo, la ecuación de la energía, entre otros. Por lo cual, se realizan las interfaces entre las interfaces interna de las aletas con las interfaces del fluido frío y caliente. Luego se selecciona el método de solución SIMPLE, en donde dicho método se utiliza una relación entre las correcciones de velocidad y presión para imponer la conservación de la masa y obtener el campo de presión.  Por consiguiente, se definen los reportes que se desean analizar los cuales son: flujo de calor, caída de presión, razón de la transferencia de calor y la temperatura de salida del fluido. Teniendo en cuenta esto, se definen los monitores tales como los residuales que miden cuánto cambia la solución de una iteración a la siguiente. Cuando los residuos son muy bajos, la solución no cambia mucho con respecto a la iteración anterior, por lo que la solución converge (posiblemente, dependiendo de cómo se juzgue la convergencia para ese paso de tiempo) (ANSYS., 2009). Por consiguiente, se inicia la simulación con el número de iteraciones que converja la solución. Además, se evalúa si la simulación presenta errores en la solución, por lo cual tendría que reiniciar el proceso descrito y si no se grafican los resultados en GRACE (Graphing, Advanced Computation and Exploration of data).


CONCLUSIONES

Durante la estancia de verano, se logró escribir un artículo con el tema descrito anteriormente, esto  permitió adquirir conocimientos en CFD en los modelos turbulentos, método transitorio y estable, volumenes finitos, ecuaciones de Navier-Stokes, entre otros.  Las aletas bio inspiradas tuvieron como resultado lo siguiente: Aleta tipo delfín y tiburón aumentan la transferencia de calor y efectividad debido a que la caída de presión es baja. Las líneas de corriente son finas debido que el flujo estancado es mínimo. Aleta tipo ballena azul, su forma al ser tan pequeña la efectividad es menor con respecto a las aletas ya mencionadas pero aún así aumenta la transferencia de calor, aunque el flujo estancado es mayor frente a las aletas mencionadas. Aleta tipo orca, su forma al ser tan alargada permite mayor paso del flujo y menor estancamiento, sin embargo genera mayor caída de presión.
Chaves Culchac Andrea Julieth, Universidad Antonio Nariño
Asesor: Dra. Marysol García Pérez, Universidad La Salle Bajío

CARACTERIZACIóN DE SEñALES EMG PARA APLICACIONES EN REHABILITACION Y CONTROL DE DISPOSITIVOS


CARACTERIZACIóN DE SEñALES EMG PARA APLICACIONES EN REHABILITACION Y CONTROL DE DISPOSITIVOS

Chaves Culchac Andrea Julieth, Universidad Antonio Nariño. Asesor: Dra. Marysol García Pérez, Universidad La Salle Bajío



PLANTEAMIENTO DEL PROBLEMA

La caracterización precisa de las señales de electromiografía (EMG) de la mano es crucial en diversas aplicaciones médicas y de ingeniería, como el control de prótesis mioeléctricas, la rehabilitación de pacientes con lesiones neuromusculares y el desarrollo de interfaces humano-computadora (HCI). La efectividad de los sistemas de control de prótesis depende de la interpretación correcta de las señales EMG de los músculos residuales del usuario. Sin una adecuada caracterización, resulta difícil desarrollar sistemas de control precisos e intuitivos, limitando la funcionalidad y aceptación de las prótesis. Además, en rehabilitación, una caracterización precisa es esencial para diseñar programas de entrenamiento que ayuden a los pacientes a recuperar la funcionalidad muscular. Este informe aborda esta problemática mediante un análisis de señales EMG durante movimientos de la mano, como abrir y cerrar la mano, flexión y extensión de la muñeca, y pronación y supinación del antebrazo. Estos movimientos son relevantes para actividades diarias y funcionalidad de las extremidades. La caracterización de estas señales permite identificar patrones y amplitudes específicas que pueden mejorar el diseño y control de dispositivos médicos. Sin una caracterización precisa, los dispositivos de asistencia y rehabilitación pueden carecer de eficacia, lo que puede resultar en comandos erróneos en prótesis y limitar la efectividad de programas de tratamiento en rehabilitación. Por lo tanto, este informe se enfoca en caracterizar las señales EMG de la mano usando métodos avanzados de adquisición y procesamiento de datos. Los resultados de este estudio pueden mejorar el diseño de prótesis mioeléctricas y dispositivos de asistencia, contribuyendo al desarrollo de nuevas tecnologías en rehabilitación. La identificación de patrones y amplitudes es un paso crucial para garantizar que los dispositivos sean efectivos y adaptados a las necesidades de los usuarios.



METODOLOGÍA

Adquisición de Datos: La adquisición se realizó en la Universidad La Salle Bajío utilizando un dispositivo EMG creado por estudiantes de ingeniería biomédica. Se colocaron electrodos en el antebrazo y la mano de 30 sujetos, quienes realizaron movimientos estandarizados, como abrir y cerrar la mano, flexión y extensión de la muñeca. Estos movimientos se seleccionaron por su relevancia en actividades diarias. La adquisición se llevó a cabo en condiciones controladas para asegurar la calidad de las señales EMG. Procesamiento de Señales: Se utilizó MATLAB para el procesamiento de las señales EMG. Las etapas incluyeron: Filtrado: Se aplicaron filtros digitales para eliminar ruido, mejorando la relación señal-ruido y facilitando la identificación de patrones significativos. Normalización: Las amplitudes se normalizaron para permitir la comparación entre sujetos y movimientos, asegurando que las diferencias no se debieran a variaciones en las condiciones de adquisición. Análisis de Tiempo-Frecuencia: Se emplearon técnicas para descomponer las señales en componentes temporales y frecuenciales, facilitando la identificación de características distintivas. Análisis Estadístico: Se realizaron análisis estadísticos para evaluar diferencias en amplitud y patrones de las señales EMG entre movimientos y sujetos. Las etapas incluyeron: Análisis Descriptivo: Cálculo de estadísticas descriptivas para resumir características de las señales EMG. Pruebas de Hipótesis: Se llevaron a cabo pruebas como ANOVA y pruebas t para determinar la significancia de las diferencias observadas. Corrección por Múltiples Comparaciones: Se aplicaron correcciones como la de Bonferroni para controlar errores tipo I. Visualización de Resultados: Se presentaron resultados mediante gráficos y tablas para facilitar la interpretación. La combinación de técnicas de adquisición, procesamiento de señales y análisis estadístico permite una caracterización detallada de las señales EMG, proporcionando una base sólida para el desarrollo de aplicaciones en rehabilitación y control de prótesis.


CONCLUSIONES

La caracterización detallada de las señales EMG de la mano resalta la importancia de la amplitud y el patrón de activación muscular en diversos movimientos, con implicaciones significativas en el desarrollo de dispositivos médicos y sistemas de rehabilitación. Los resultados muestran variaciones en amplitud y patrón de activación según el movimiento. Movimientos como cerrar la mano y la flexión de la muñeca presentan altas amplitudes, esenciales para el diseño de algoritmos de control que detecten y respondan a movimientos específicos. La caracterización precisa permite un control más exacto de prótesis mioeléctricas y sistemas de asistencia. Una conclusión importante es la necesidad de mejorar las técnicas de adquisición para reducir el ruido en las señales EMG. Futuros estudios deben centrarse en desarrollar métodos avanzados de filtrado y optimización de la colocación de electrodos. La variabilidad observada entre individuos resalta la importancia de personalizar los sistemas de control, maximizando la eficacia y usabilidad de los dispositivos médicos. La normalización y adaptación de algoritmos a las necesidades de cada persona son esenciales para asegurar que los sistemas sean precisos y responsivos a los movimientos del usuario.
Chávez Bricaire Inés, Universidad Autónoma de Sinaloa
Asesor: Dr. Luis Javier Montoya Jaramillo, Universidad de Medellín

TECNOLOGíAS DE BAJO COSTO PARA LA POTABILIZACIóN DE AGUAS


TECNOLOGíAS DE BAJO COSTO PARA LA POTABILIZACIóN DE AGUAS

Chávez Bricaire Inés, Universidad Autónoma de Sinaloa. Asesor: Dr. Luis Javier Montoya Jaramillo, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

Siempre ha habido dificultad de acceso a agua y sanamiento en el mundo, y la importancia esto ha sido reconocido por organismos internacionales por lo que se tratan de encontrar soluciones para suplir agua para el desarrollo integral Las comunidades rurales deben ser ejemplo del desarrollo de un país, ya que, proveen los recursos básicos necesarios para la subsistencia de la gran mayoría de la población; por ello, estas deben contar con acceso a todos los servicios básicos que garanticen su calidad de vida y auspicien su productividad, pero principalmente el acceso a agua potable como un derecho humano fundamental. La sostenibilidad de los sistemas de tratamiento de agua potable es muy compleja y requiere pensar más allá del ciclo de vida del proyecto, para así desarrollar estrategias como la participación de la comunidad, el desarrollo de sistemas convencionales o no convencionales de bajo costo, alianzas estratégicas, gestión financiera y gestión ambiental.



METODOLOGÍA

Se inicio evaluando la eficiencia del sistema a través del parámetro de turbiedad tomando datos de turbiedad inicial y turbiedad final una vez pasado por el sistema. Se creó una muestra de agua residual sintética usando agua de la llave con caolín en polvo (silicato de aluminio hidratado), a partir de dicha muestra de preparó varias diluciones para poner a prueba el sistema con diferentes concentraciones de contaminante. Se realizó dos ensayos, el primero tomando la muestra turbia recién mezclada y el segundo utilizando únicamente el sobrenadante de la misma. En ambos ensayos se determinó la turbiedad del agua de la llave y la turbiedad inicial y final de la muestra contaminante. Preparación de la muestra contaminante Se adicionó una cantidad en exceso de caolín en un beaker de 1L con agua de la llave para asegurar la saturación de la mezcla, se dejó en reposo para que el caolín se hidratara y se utilizó durante varios días agregando más agua cuando era necesario. Cada vez que se utilizó esta muestra como fuente contaminante, fue previamente mezclada para asegurar que el caolín hidratado estuviera en suspensión, se tomaron muestras de 3.5, 5, 8.5, 15, 16, 25, 30, 36, 45, 55, 60, 66 y 70 ml, cada una fue completada hasta 1L en un cono Imhoff antes de añadirse al sistema de tratamiento contando así con diferentes diluciones contaminantes.   Tratamiento y toma de muestras El tanque de almacenamiento primario fue llenado hasta una marca visual con agua de la llave, se sacó una primera muestra para determinar la turbiedad de esta y luego se añadió la primera dilución contaminante al tanque asegurando una mezcla homogénea. Seguidamente se extrajo una muestra de 150 ml aproximadamente utilizando tres tubos para centrífuga tipo Falcon suficiente para cinco lecturas en el turbidímetro para conocer la turbiedad inicial. Después de poner el sistema en funcionamiento y dejarlo trabajar unos minutos, se tomó otra muestra igual desde la válvula de salida después de la lampara UV para determinar la turbiedad final. Todos los tubos fueron purgados antes de tomar las muestras finales que serán leídas en el turbidímetro y la válvula de salida se dejaba abierta durante unos segundos para evitar la contaminación cruzada entre muestras.   Lectura de la turbiedad Se agitó la muestra de los tubos Falcon y se llenó el vial del turbidímetro replicando una lectura mínima de 5 veces por muestra e incluso más veces cuando era necesario en las lecturas muy atípicas o distantes para garantizar una mayor homogeneidad en los resultados. Este manejo de las muestras y su lectura fue realizado por una sola persona y en el mismo equipo para disminuir las causas de error.


CONCLUSIONES

Según los resultados obtenidos, el sistema de potabilización cumple satisfactoriamente su función al descontaminar el agua, al menos con la turbiedad y el color que le aporta el caolín. Los resultados de turbiedad final siempre fueron proporcionales a los de la turbiedad inicial, es decir, cuanto mayor fue la turbiedad inicial, mayor era la final, esto se pudo observar de mejor manera en el ensayo 1. Sin embargo, se observó una gran disminución en la turbidez final con respecto a la inicial por lo que se intuye que, con el correcto mantenimiento de los filtros y una filtración preliminar adicional, el sistema puede ser más eficiente. Los resultados más satisfactorios de turbiedad final estuvieron por debajo de 2 unidades, este es el límite permisible de turbiedad para el agua de consumo humano según la normativa colombiana, por lo tanto, la eficacia del sistema es más que aceptable. Aunque el sistema ofrece buenos resultados y eficiencia, debe ser evaluado bajo otros parámetros y diversos tipos de contaminante, además de incluir unos pequeños cambios en su estructura como una trampa de lodos en el tanque de almacenamiento inicial o una filtración preliminar adicional, esto dará una clara mejora a los fines del sistema. Cabe aclarar que en algunos casos los resultados no tuvieron un sentido muy lógico, por ejemplo, que la turbiedad final era igual a la inicial o un poco mayor. Esto puede suceder cuando la lectura inicial es muy baja o cerca del límite de lectura y afinidad del equipo; en este orden de ideas, también podría influir la edad del equipo y su última calibración. 
Chavez Gonzalez Rodrigo, Instituto Tecnológico Superior de Tacámbaro
Asesor: Mtra. Nadia Ibeth Gutiérrez Hernández, Instituto Tecnológico Superior de Tacámbaro

SERVICIOS DEL LABCECOM DEL ITST


SERVICIOS DEL LABCECOM DEL ITST

Chavez Gonzalez Rodrigo, Instituto Tecnológico Superior de Tacámbaro. Rodriguez Garcia Amayrani, Instituto Tecnológico Superior de Tacámbaro. Asesor: Mtra. Nadia Ibeth Gutiérrez Hernández, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

En el Instituto Tecnológico Superior de Tacámbaro, el laboratorio LABCECOM es un recurso esencial para el desarrollo académico y la investigación. Sin embargo, la gestión de los servicios y recursos del laboratorio enfrenta varios desafíos críticos que afectan su eficiencia y efectividad. Primero, la gestión de las solicitudes de mantenimiento de equipos es ineficaz. El proceso para generar la solicitud es escrito y tardado ya que primero se le entregara la solicitud al encargado del laboratorio físicamente, esto puede hacer que se extravié la solicitud lo que resulta en retrasos significativos en la atención a los problemas técnicos. E igualmente el control de acceso a los espacios del laboratorio, como el laboratorio multidisciplinario y la sala de consultas, carece de un proceso manual escrito para registrar a los usuarios. La ausencia de un registro preciso de los usuarios y de las horas de utilización limita la capacidad de planificación y supervisión, afectando la organización de prácticas y el uso eficiente de los espacios disponibles. Estos problemas no solo afectan la operatividad diaria del LABCECOM, sino que también impactan negativamente en la experiencia educativa de los estudiantes y en la capacidad de los docentes para realizar su trabajo de manera efectiva. La falta de un sistema de gestión integral y eficiente para el laboratorio es una barrera significativa para el aprovechamiento óptimo de los recursos y para el cumplimiento de los objetivos académicos e institucionales.



METODOLOGÍA

Se elaboro un diagrama de flujo detallado de los procesos actuales para la solicitud de mantenimiento, control de acceso y gestión general del laboratorio, después se identificó los puntos críticos y áreas de mejora en cada proceso. Se realizo entrevistas con los usuarios del laboratorio (personal técnico) para conocer sus necesidades y percepciones sobre los problemas existentes. Continuando con la revisión de registros históricos de solicitudes de mantenimiento y uso de espacios, se analizaron de los equipos y recursos disponibles en el laboratorio. Se establecieron los requisitos funcionales y no funcionales del sistema, considerando las necesidades identificadas en el análisis previo. Se priorizaron los requisitos en función de su impacto en la eficiencia y efectividad del laboratorio. Una vez investigado y determinado los requerimientos del sistema se trabajara en un módulo de autentificación de usuarios, un control de solicitud es de mantenimiento correctivo y preventivo en el cual algún usuario que ya esté registrado pueda generar su solicitud para después el encargado del laboratorio la llevará a cabo, también un módulo para control de acceso a los laboratorios tales como el de consultas y el de laboratorio disciplinario, un módulo para informes estadísticos y finalmente un módulo para llevar un control de impresiones que se realizan en el laboratorio. Una vez identificados los módulos necesarios para el sistema, se procedió a instalar las herramientas requeridas para comenzar el desarrollo. En primer lugar, se seleccionó el IDE (Entorno de Desarrollo Integrado) que se utilizaría para llevar a cabo el proyecto. Se optó por HTML para el maquetado del sistema web, CSS para aplicar estilos y diseño, y PHP junto con JavaScript para el desarrollo del backend. Finalmente, se eligió MySQL para gestionar la base de datos donde se almacenarían todos los datos del sistema web.


CONCLUSIONES

Durante el congreso de verano Delfin, se desarrolló una investigación para el sistema web del laboratorio LABCECOM en el Instituto Tecnológico Superior de Tacámbaro. El sistema abarca la autentificación de usuarios, la generación de solicitudes de mantenimiento correctivo y preventivo, el control de acceso a los laboratorios de cómputo y el control de impresiones. En este verano, se completaron los módulos de autentificación de usuarios y de solicitudes de mantenimiento correctivo y preventivo. La implementación completa de este sistema se espera que ofrezca diversos beneficios significativos. Primero, mejorará la eficiencia operativa del laboratorio mediante la automatización de procesos clave, reduciendo el tiempo y esfuerzo necesarios para gestionar tareas administrativas. Además, fortalecerá la seguridad del laboratorio al controlar el acceso de manera efectiva, asegurando que solo el personal autorizado pueda utilizar las instalaciones y recursos. También se anticipa una mejora en el mantenimiento del equipo, ya que las solicitudes de mantenimiento preventivo y correctivo estarán bien documentadas y gestionadas, minimizando el tiempo de inactividad y prolongando la vida útil del equipo. Finalmente, el control de impresiones contribuirá a una gestión más sostenible y eficiente de los recursos, optimizando el uso de papel y tinta. En conjunto, estos resultados potenciarán la productividad y sostenibilidad del laboratorio LABCECOM, beneficiando tanto a los estudiantes como al personal del instituto.
Chavez Jimenez Gloria, Instituto Tecnológico de Ciudad Guzmán
Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América

ANÁLISIS DEL USO DE IA EN PROCESOS DE AUDITORIA INTERNAS EN NORMA MEXICANA (NMX) DE ADOPCIÓN VOLUNTARIA EN MÉXICO


ANÁLISIS DEL USO DE IA EN PROCESOS DE AUDITORIA INTERNAS EN NORMA MEXICANA (NMX) DE ADOPCIÓN VOLUNTARIA EN MÉXICO

Chavez Jimenez Gloria, Instituto Tecnológico de Ciudad Guzmán. Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial (IA) está revolucionando múltiples sectores, incluyendo las auditorías internas, especialmente bajo la Norma Mexicana NMX-R-025-SCFI-2015, que promueve la igualdad laboral y la no discriminación. Esta norma, creada por la STPS, INMUJERES y CONAPRED, exige a los centros de trabajo implementar prácticas de gestión equitativas. Aunque existen estudios que exploran la IA en auditorías generales, hay una falta de investigaciones específicas sobre su uso en el contexto de esta norma en México. Los métodos tradicionales de auditoría son lentos, costosos y propensos a errores humanos, lo que afecta la precisión y confiabilidad de los resultados. El artículo propone que la IA puede mejorar la eficiencia de las auditorías internas de esta norma al automatizar tareas manuales y ofrecer análisis de datos más rápidos y precisos. Utilizando la técnica de los "5 Porqués" para identificar las causas de los problemas actuales, se explora cómo la IA puede proporcionar soluciones efectivas y sostenibles. Este estudio también se alinea con los Objetivos de Desarrollo Sostenible (ODS) de la Agenda 2030 de la ONU, específicamente con los ODS 5, 10 y 11. Mejorar las auditorías en igualdad laboral y no discriminación promueve entornos laborales inclusivos y sostenibles, contribuyendo al desarrollo inclusivo y equitativo en el contexto laboral mexicano.



METODOLOGÍA

La metodología utilizada en este estudio fue una encuesta dirigida a la persona responsable de la auditoría interna bajo la norma NMX-R-025-SCFI-2015 en la organización. La encuesta se diseñó para recolectar datos sobre la adopción y uso de tecnologías avanzadas, específicamente la inteligencia artificial, en los procesos de auditoría. Se incluyeron preguntas abiertas para obtener respuestas cualitativas.


CONCLUSIONES

 En conclusión, el proceso actual de auditoría interna bajo la norma NMX-R-025-SCFI-2015 es sólido, pero enfrenta desafíos importantes en términos de conocimiento y subjetividad. La inteligencia artificial emerge como una solución prometedora para mejorar la eficiencia y objetividad del proceso, siempre y cuando se implemente de manera responsable y con la capacitación adecuada.  Los datos recopilados permitieron identificar los desafíos actuales. y evaluar la percepción del personal sobre el potencial de la IA para mejorar la eficiencia en las auditorías. Esta metodología proporcionó una visión integral y detallada de las prácticas y opiniones del personal, facilitando el análisis de la implementación de la IA en el contexto específico de la norma de igualdad laboral y no discriminación.
Chávez Martínez Luis Omar, Instituto Tecnológico de Morelia
Asesor: Mg. Harold Enrique Cohen Padilla, Fundación Universitaria Tecnológico Comfenalco

ESTRATEGIAS DE LEAN MANUFACTURING PARA MEJORAR LA EFICIENCIA Y COMPETITIVIDAD EN PYMES DEL SECTOR ALIMENTARIO EN COLOMBIA: UN ANáLISIS DE LAS HERRAMIENTAS 5S Y VSM.


ESTRATEGIAS DE LEAN MANUFACTURING PARA MEJORAR LA EFICIENCIA Y COMPETITIVIDAD EN PYMES DEL SECTOR ALIMENTARIO EN COLOMBIA: UN ANáLISIS DE LAS HERRAMIENTAS 5S Y VSM.

Chávez Martínez Luis Omar, Instituto Tecnológico de Morelia. Asesor: Mg. Harold Enrique Cohen Padilla, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

El sector alimentario en Colombia está compuesto por alrededor de 4500 empresas (98% de ellas micro y pequeñas), es crucial tanto para la seguridad alimentaria del país como para su economía, aportando casi un 3% al PIB y exportando a cerca de 140 países. La diversidad climática de Colombia permite la producción de una amplia gama de productos agrícolas, lo cual estabiliza precios y reduce la dependencia de importaciones. La importancia del sector alimenticio en Colombia radica en su papel crucial en la seguridad alimentaria, garantizando que todos los ciudadanos tengan acceso a alimentos adecuados. Este sector no solo cubre la necesidad esencial de alimentación, sino que también apoya la economía nacional al crear empleos en las zonas rurales. La capacidad de Colombia para cultivar una amplia gama de productos debido a su diversidad de climas ayuda a estabilizar los precios y a minimizar la dependencia de importaciones. Dado el crecimiento anual estimado del 4% en la demanda de productos alimenticios durante los próximos cinco años, es vital que estas empresas estén preparadas para satisfacer dicha demanda y enfrentar la competencia. La adopción de herramientas de Lean Manufacturing, como el Mapeo de la Cadena de Valor (VSM) y las 5S, puede ser clave para mejorar la eficiencia y competitividad de las PYMES en este sector. El VSM permite visualizar y analizar procesos productivos para identificar y eliminar desperdicios, mientras que las 5S optimizan la organización y mantenimiento del lugar de trabajo.  



METODOLOGÍA

La información recopilada para el desarrollo de esta investigación proviene principalmente de dos bases de datos: Google Académico y LA Referencia. Estas bases de datos fueron seleccionadas debido a su acceso abierto, lo que facilita la obtención directa de la información que contienen, así como por la cantidad significativa de artículos relevantes identificados en cada una de ellas. Inicialmente, se tenía previsto utilizar otras bases de datos, como ScienceDirect. Sin embargo, tras una consulta preliminar, se observó que no se encontraban artículos pertinentes a la línea de investigación, por lo que se decidió sustituir esta base de datos por LA Referencia. Posterior a la elección de las bases de datos de donde se recopilaría la información, se establecieron elementos de búsqueda tales como: industria alimenticia en Colombia, 5S en la industria alimentaria en Colombia, lean manufacturing en la industria alimenticia en Colombia,VSM en la industria alimenticia colombiana. Aunado a los elementos ya descritos, también se realizaron búsquedas con los agregados de PYMES para filtrar aún más la información. Para la elección de los artículos que serían empleados para la toma de la información se procedió a leer los títulos de los resultados de la búsqueda a fin de un análisis rápido y verificar se hay cierta familiaridad con la linea de investigación, posterior a la lectura de los títulos de los artículos con las coincidencias deseadas se procedió a leer el abstract de cada uno y verificar si realmente la información seria de utilidad. Finalmente, con los artículos seleccionados se procedió a realizar un análisis de cómo se habían aplicado las herramientas en cada uno de los casos, conclusiones que dieron los autores y resultados a los que se habían llegado.    


CONCLUSIONES

CONCLUSIÓN   Después de analizar los distintos artículos presentados, se puede concluir que la aplicación de herramientas de lean manufacturing trae consigo múltiples beneficios que impactan de manera significativa en la eficiencia y organización de los procesos productivos. Cada herramienta tiene modos de empleo específicos y aporta valor en diferentes áreas, pero según lo abordado, el Value Stream Mapping (VSM) se utiliza principalmente como una herramienta diagnóstica esencial. Este análisis permite visualizar el estado actual del proceso, identificar deficiencias y resaltar áreas de mejora cruciales. El VSM proporciona una visión completa de la cadena de valor, desde el abastecimiento de materias primas hasta el almacenamiento del producto terminado, facilitando la identificación de ineficiencias y cuellos de botella.   Por su parte, la implementación de las 5S (Clasificación, Orden, Limpieza, Estandarización y Disciplina) ha demostrado ser fundamental para mejorar la organización en cada etapa del proceso productivo. La adopción de esta metodología no solo conduce a una mayor eficiencia y reducción de desperdicios, sino que también mejora significativamente la disposición y el aprovechamiento de los espacios de trabajo. Los beneficios incluyen una mejor organización de herramientas y materiales, una reducción en el tiempo de búsqueda de estos, y la creación de un ambiente de trabajo más seguro y limpio. En términos de resultados cuantitativos, se observaron reducciones del takt time del proceso en un 37% y del tiempo de procesamiento en un 48.8%, lo que refleja mejoras sustanciales en la productividad y en la eficiencia del sistema productivo.   Otra observación importante es que, en prácticamente todos los estudios analizados, se aplican múltiples herramientas lean de manera complementaria, dependiendo de las debilidades identificadas en el proceso productivo. Este enfoque holístico permite abordar diversas áreas de mejora simultáneamente, maximizando los beneficios y potenciando la transformación hacia un sistema de producción más eficiente y competitivo.   Un aspecto destacado por M. Hernández es la relevancia de estas herramientas en las pequeñas y medianas empresas (PYMES). Las PYMES, debido a sus características particulares como bajos presupuestos, recursos limitados y márgenes de ganancia reducidos, enfrentan desafíos significativos en términos de competitividad y eficiencia. La implementación de herramientas lean puede ayudar a solventar estos problemas, proporcionando un marco estructurado para la mejora continua y la optimización de recursos. Las herramientas lean permiten a las PYMES aumentar sus factores de productividad, mejorar sus estándares de calidad e innovación, y mantenerse competitivas en un mercado altamente dinámico y exigente.  
Chávez Martínez Marlen, Instituto Tecnológico Superior Purépecha
Asesor: Dra. Natiely Hernández Sebastián, Centro de Investigaciones en Óptica (CONACYT)

FABRICACIÓN Y CARACTERIZACIÓN DE UN ARREGLO DE MICROELECTRODOS FLEXIBLES PARA LA ESTIMULACIÓN ELÉCTRICA DE LA CÓRNEA HUMANA


FABRICACIÓN Y CARACTERIZACIÓN DE UN ARREGLO DE MICROELECTRODOS FLEXIBLES PARA LA ESTIMULACIÓN ELÉCTRICA DE LA CÓRNEA HUMANA

Chávez Martínez Marlen, Instituto Tecnológico Superior Purépecha. Hernández Romero Laisa Monselin, Instituto Tecnológico Superior Purépecha. Lamadrid Avila Fernando, Universidad de Guadalajara. Mondragon Palma Bruno Gael, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dra. Natiely Hernández Sebastián, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La estimulación eléctrica (EE) en los ojos se ha estudiado como un novedoso proceso terapéutico que mejora la percepción visual en pacientes con enfermedades degenerativas de la retina. Es un procedimiento no invasivo en el que se aplica una corriente eléctrica de baja intensidad sobre la superficie de la córnea para activar la retina y las estructuras posteriores y, por lo tanto, ejercer efectos terapéuticos en los pacientes. Bajo esta premisa, en el presente proyecto de investigación se fabricó y caracterizó un arreglo de microelectrodos flexible para la EE selectiva y variable de la córnea humana.



METODOLOGÍA

  1. Consulta bibliográfica. Realizamos la revisión bibliográfica de diversos artículos científicos, así como reportes de investigación, tesis y artículos varios de internet para familiarizarnos con temas relacionados al proyecto. 2. Capacitación del uso del laboratorio y técnicas de fabricación. Durante la estancia de investigación asistimos como oyentes a la materia Tecnología de películas delgadas impartida en el Centro de Investigaciones en Óptica, A.C., con la finalidad de capacitarnos en las diferentes técnicas de fabricación de microelectrónica y conocer los aspectos esenciales del Laboratorio Nacional Conahcyt en Microtecnología y BioMEMS (LaNMiB). 3. Fabricación del arreglo de microelectrodos flexibles. Las etapas de fabricación del arreglo de microelectrodos flexibles son las siguientes: 3.1 Limpieza química húmeda El proceso de limpieza química húmeda permite eliminar la contaminación orgánica de la superficie de los substratos. Los pasos para realizarla consisten en: (i) limpieza ultrasónica en acetona y alcohol para eliminar residuos por contaminación orgánica, (ii) enjuague exhaustivo en agua desionizada, (iii) decapado de oxido nativo en buffer de HF. 3.2 Depósito de poliimida Realizamos el depósito de poliimida (PI) por la técnica de spin coating haciendo tres depósitos consecutivos: un depósito de PI2610 para mejorar la adherencia del substrato y dos depósitos de PI2611 para aportar mayor espesor final al substrato. 3.3 Desgaste de la poliimida Debido a que las películas de PI se caracterizan por tener una superficie lisa libre de defectos, entre cada depósito hicimos un proceso de desgaste en plasma de oxígeno con la finalidad de incrementar el área de adherencia de la superficie de la PI. 3.4 Depósito de Al/Ti El material estructural de los microelectrodos es una bicapa metálica compuesta de aluminio/Titanio (Al/Ti).  Ambos materiales fueron depositados por la técnica de sputtering. El primer depósito que fue de Al con un espesor de 150 nm y enseguida, el depósito de Ti con un espesor de 50 nm. 3.5 Fotolitografía, primer nivel La fotolitografía es el proceso por el cual se transfieren patrones de manera fiel a un material. En el primer nivel de mascarilla nos permitió definir los pads, las pistas y el arreglo de microelectrodos en la bicapa metálica. 3.6 Grabado del metal (Al/Ti) El proceso de grabado de la bicapa metálica de Al /Ti se hizo con la solución Ti-Etch. Para efectuar el proceso de grabado, sumergimos la muestra en la solución durante 35 segundos; luego en agua DI y el secado fue con aire comprimido. 3.8 Depósito de poliimida 2610 de protección Debido a que el prototipo estará en contacto con medio biológico, las estructuras metálicas se recubren con una película delgada de poliimida con propiedades biocompatibles y flexibles, así como alta resistencia química. 3.9 Depósito de Al Depositamos una película de Al de 80 nm de espesor por la técnica de sputtering como material de recubrimiento para el proceso de grabado de la PI 2610. 3.10 Fotolitografía, segundo nivel La fotolitografía del segundo nivel de mascarilla permite definir las ventanas en la parte superior de los pads y microelectrodos, así como, el corno del dispositivo. El proceso realizado se detalla en el apartado 3.5. 3.11 Grabado de Aluminio El proceso de grabado del Al se hizo con la solución comercial Al-Etch. Para el proceso de grabado sumergimos la muestra en solución a 45°C durante 60 segundos. 3.12 Grabado de Poliimida Para crear el contacto eléctrico entre los microelectrodos y el medio biológico, la última capa de PI-2610 se graba de manera selectiva en plasma de oxígeno. 3.13 Forma del dispositivo Si bien, la forma del dispositivo se define en la fotolitografía del segundo nivel de mascarillas, en este proceso se realiza el corte del substrato flexible de PI con un cúter, cuidando de no aplicar demasiada fuerza durante los cortes. 3.14 Decapado de aluminio Se realizó un decapado de aluminio de protección al igual usando el mismo método que en el grabado de aluminio. 3.15 Desprendimiento del dispositivo Finalmente, sumergimos la muestra en agua DI y con pequeños movimientos en los bordes del dispositivo logramos su desprendimiento. El prototipo se libera del soporte mecánico por los pads, luego por las pistas y finalmente por los petalos. 3.16 Caracterización del prototipo El prototipo fabricado se caracterizó a nivel laboratorio para evaluar su comportamiento eléctrico basándose en las curvas I-V de cada pad microelectrodo.


CONCLUSIONES

1. Durante este proyecto elaboramos en total cuatro dispositivos funcionales, de estos, tres se enviarán a la universal Iberoamérica de la ciudad de México para su evaluación in-vivo. El cuarto dispositivo se utilizará para realizar pruebas de conectividad eléctrica con un conector comercial. 2. Los dispositivos obtenidos son mecánicamente flexibles, biocompatibles, de bajo costo, cuentan con excelente integridad estructural y son espacialmente selectivos, características que representa un avance significativo hacia el objetivo de la EE selectiva de la córnea humana. Por lo anterior, se puede concluir que cumplimos los objetivos principales de este proyecto, ya que no solo se fabricó y caracterizo el arreglo de microelectrodos, también, tuvimos la oportunidad de desarrollar una propuesta de diseño para la siguiente etapa del prototipo.
Chávez Reyes Carolina, Instituto Politécnico Nacional
Asesor: Mg. Victor Manuel Garrido Arévalo, Universidad de Pamplona

DISEñO DE UN MóDULO DE ENTRENAMIENTO EN ENERGíA SOLAR FOTOVOLTAICA


DISEñO DE UN MóDULO DE ENTRENAMIENTO EN ENERGíA SOLAR FOTOVOLTAICA

Chávez Reyes Carolina, Instituto Politécnico Nacional. Espinosa Pulido Brando de Jesús, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. García Vázquez Immer, Universidad Autónoma de Guerrero. Asesor: Mg. Victor Manuel Garrido Arévalo, Universidad de Pamplona



PLANTEAMIENTO DEL PROBLEMA

El "Diseño de un módulo de entrenamiento en energía solar fotovoltaica" aborda la problemática de los altos costos de los kits fotovoltaicos, que oscilan entre $2000 USD y $5000 USD, lo cual dificulta a los estudiantes acceder a una formación práctica en energía solar fotovoltaica (FV). A pesar de la abundancia de recursos teóricos, la falta de entrenamiento práctico impide el desarrollo de habilidades necesarias para la instalación y operación de sistemas FV. Para solucionar esta deficiencia, se propone el desarrollo de un módulo de entrenamiento en FV, que permita a los estudiantes aplicar la teoría aprendida en un entorno práctico y reducir los costos asociados a la adquisición de equipos. Este módulo facilitaría que los egresados sean más competitivos en el mercado laboral.



METODOLOGÍA

La metodología por seguir para desarrollar un módulo de entrenamiento en sistemas de energía solar fotovoltaica que facilite la formación práctica de los estudiantes se compuso de cuatro etapas: 1. Evaluación inicial del sitio: Se evaluaron las características específicas del sitio para la correcta ubicación de los paneles solares, considerando las sombras proyectadas por árboles y estructuras circundantes en el techo. Los paneles solares se posicionaron en la ubicación ideal determinada, trasladándolos al área seleccionada sobre el techo del edificio Simón Bolívar de la Universidad de Pamplona. 2. Modelado: Se simularon los ángulos de inclinación y el ángulo azimut requeridos para captar la mayor cantidad de luz solar utilizando el lenguaje de programación Python y la librería PvLib. Se realizaron estudios de caracterización de las celdas solares para recopilar datos estructurales de la red cristalina del silicio monocristalino de los paneles solares propuestos, mediante espectroscopia de dispersión de energía de rayos X. Esto permitió determinar la calidad y eficiencia de los patrones periódicos en la red cristalina. Se proporcionaron ejemplos de indicadores energéticos aplicables en Colombia y se analizó el caso específico del indicador de emisiones de CO₂ equivalente en la central inversora de la Unipamplona. Esto ayudó a estimar las emisiones de gases de efecto invernadero y la energía ahorrada al utilizar energía solar en comparación con la energía eléctrica convencional. 3. Diseño: Se plantearon los ángulos necesarios para el aprovechamiento óptimo de la luz solar en los paneles solares, incluyendo el ángulo azimut y los ángulos de inclinación. Se justificó la importancia de estos ángulos para el diseño del sistema fotovoltaico adecuado para el contexto del edificio Simón Bolívar. 4. ​Verificación: Se llevaron a cabo pruebas de rendimiento del módulo de entrenamiento en condiciones reales de operación para asegurar su correcto funcionamiento y detectar posibles mejoras en su diseño


CONCLUSIONES

Se diseñó un módulo de entrenamiento en energía solar fotovoltaica utilizando el software Python, determinando que los paneles solares deben orientarse hacia el sur-suroeste (ángulo azimut de 190º) y tener un ángulo de inclinación fijo de 12º para optimizar la captación de energía solar en el edificio Simón Bolívar de la Universidad de Pamplona. La verificación de su funcionamiento con estas características arrojó una potencia máxima registrada de 298.98 W a las 12:00 hrs. Este módulo no solo proporciona una herramienta educativa valiosa y accesible para los estudiantes, sino que también sienta las bases para futuros proyectos en la universidad.
Chavez Villaverde Luisa Yareli, Universidad Tecnológica de Tecamachalco
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

ANÁLISIS ESTADISTICO A EL PROCESO DE HULE GRANULADO HEM-20 CON HERRAMIENTAS DE CALIDAD


ANÁLISIS ESTADISTICO A EL PROCESO DE HULE GRANULADO HEM-20 CON HERRAMIENTAS DE CALIDAD

Chavez Villaverde Luisa Yareli, Universidad Tecnológica de Tecamachalco. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

En la producción de Hule HEM-20 en la empresa X uno de los factores clave en el proceso es la viscosidad, que debe ser observada y regulada estrictamente para garantizar la uniformidad y eficacia del material. En nuestro caso, la viscosidad ha mostrado ser constante durante la producción, cumpliendo con las especificaciones técnicas establecidas sin embargo al final del proceso en algunas pacas hay probabilidad de aparición de pringas que en el contexto de los hules naturales se refieren a depósitos o manchas viscosas que aparecen en la superficie del material, generalmente como resultado de diversos procesos de fabricación o manipulación, éstas representan un problema que afecta la apariencia, calidad e incluso las propiedades mecánicas del producto lo cual además de perjudicar la confiabilidad de la empresa, representa pérdidas al ser rechazadas y reprocesadas.



METODOLOGÍA

Enfoque: El enfoque de esta investigación es cuantitativo. Este enfoque permite medir y analizar la relación entre diversas variables del proceso de producción del hule granulado HEM-20 de manera precisa y objetiva. El análisis cuantitativo proporcionará datos concretos que ayudarán a identificar patrones, tendencias y relaciones causales que impactan la calidad del producto final. Diseño: El diseño de la investigación es no experimental, de tipo descriptivo-correlacional. Este diseño se selecciona porque no se manipularán las variables de estudio, sino que se observarán y medirán tal como ocurren en el entorno natural del proceso de producción. El estudio descriptivo permitirá detallar las características del proceso de producción y la calidad del hule granulado HEM-20, mientras que el estudio correlacional analizará la relación entre las variables independientes y la variable dependiente. Alcance: El alcance de la investigación es descriptivo y correlacional. Descriptivo porque se busca documentar y caracterizar el estado actual del proceso de producción y la calidad del hule granulado HEM-20. Correlacional porque se pretende analizar la relación entre diferentes variables del proceso de producción (como la temperatura de procesamiento, el tiempo de mezcla, la cantidad de aditivos y la velocidad de mezcla) y la calidad del producto final. Este análisis permitirá identificar patrones y posibles causas de variabilidad en la calidad del hule granulado.


CONCLUSIONES

Las gráficas de control han demostrado ser herramientas esenciales para monitorear y analizar el proceso de producción. A través de estas gráficas, se ha identificado que las variaciones en el tiempo de curado y en la temperatura del horno están correlacionadas con la aparición de "pringas". Estas manchas, causadas por un curado insuficiente o excesivo y fluctuaciones de temperatura, no solo afectan la apariencia y la calidad del producto, sino que también resultan en costos adicionales debido al reprocesamiento o descarte de los lotes defectuosos. Este reprocesamiento genera demoras y gastos adicionales, impactando negativamente la eficiencia de producción y los plazos de entrega. Además, los defectos recurrentes han contribuido a una rotación de personal significativa, debido al estrés y la frustración asociados con los problemas de producción. Para abordar estos desafíos, se han identificado y propuesto varias mejoras, incluyendo la optimización del tiempo de curado, el control preciso de la temperatura del horno, la capacitación continua del personal, programas de mantenimiento preventivo, y la implementación de análisis de datos y mejoras continuas. También se ha propuesto un plan de retención de personal y programas de apoyo para reducir la rotación de empleados y mejorar el ambiente laboral. Implementando estas mejoras, la empresa X puede reducir significativamente la incidencia de "pringas" en el hule HEM-20, mejorando así la calidad del producto final y aumentando la satisfacción del cliente. Estas acciones también contribuirán a fortalecer la reputación de la empresa en el mercado, mejorar la eficiencia y la rentabilidad del proceso de producción, y crear un entorno de trabajo más estable y satisfactorio para los empleados. En conclusión, mediante el uso eficaz de gráficas de control y la implementación de mejoras en el proceso de curado y operación del horno, junto con estrategias para la gestión y retención de personal, la empresa X está bien posicionada para superar los desafíos actuales y lograr un crecimiento sostenido en la producción de hule HEM-20 de alta calidad.
Chia Rodriguez Pamela Asusena, Instituto Tecnológico Superior de Guanajuato
Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato

OBTENCIóN DE DATOS PARA LA INTERPRETACIóN DE GESTOS CORPORALES USANDO MéTODOS DE RECONOCIMIENTO.


OBTENCIóN DE DATOS PARA LA INTERPRETACIóN DE GESTOS CORPORALES USANDO MéTODOS DE RECONOCIMIENTO.

Chia Rodriguez Pamela Asusena, Instituto Tecnológico Superior de Guanajuato. Lozano Romero Brandon Gabriel, Instituto Tecnológico Superior de Guanajuato. Morales Trujillo Felipe Alberto, Instituto Tecnológico Superior de Guanajuato. Ortega Prieto Anayeli, Instituto Tecnológico Superior de Guanajuato. Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

 Planteamiento Del Problema: La interpretación de emociones humanas a través del lenguaje corporal es un área de creciente interés, ya que tiene un amplio campo para su desarrollo como la atención al cliente, educación, salud mental, interacción humano-computadora, interrogatorios judiciales y más. Sin embargo, el análisis del lenguaje corporal es complejo debido a la variabilidad y sutileza de las expresiones no verbales. Aunque existen sistemas automatizados para el reconocimiento facial, corporal y análisis de voz, estos suelen ser insuficientes para captar la gama completa de emociones expresadas a través del lenguaje corporal, ya que, por lo general, muchos trabajos han sido para la detección de gestos cuando única y exclusivamente se hace la postura exacta para dar la información al detector o programa. Por lo cual, en este trabajo dejamos una vía para que los métodos de reconocimiento sean más amplios para detectar dichas emociones.



METODOLOGÍA

Metodología: Se realizó la investigación de información sobre sistemas para el reconocimiento de posturas y obtener sus coordenadas, lo cual se registró como Estado del Arte. Posteriormente se decidió usar Python ya que este lenguaje, además de su versatilidad en programar, tiene bibliotecas que pueden servir para detectar movimientos y puntos del cuerpo en la cámara, en específico la biblioteca Mediapipe. Mediapipe con Landmarker es una herramienta que ayuda a detectar objetos cuando son vistos en una cámara, la herramienta por lo general proporciona elementos como líneas y puntos cuando detecta un objeto. En este caso, se usó para detectar las coordenadas de los puntos de diferentes personas y poder obtener una base de datos para su posterior uso en la investigación. Se tomaron diversas posturas de 3 estudiantes de diferentes estaturas, sexo y corpulencia con la intención de que exista una variedad en la información ya que en un entorno real no todos los usuarios serán de las mismas características.


CONCLUSIONES

Conclusión: En la implementación de este trabajo durante la estancia de verano, se adquirió un notable crecimiento en cuanto conocimientos sobre el manejo de bibliotecas y algoritmos para usarlos en la práctica con la detección de movimientos, cabe mencionar que estos datos obtenidos servirán como parte del trabajo a futuro de la investigación.
Chihuahua Velarde Lizbeth Guadalupe, Instituto Tecnológico de Ciudad Juárez
Asesor: Mg. Eduardo Ocampo Ferrer, Universidad La Gran Colombia

GESTIóN DEL TRáFICO DE MERCANCíAS EN LAS ZONAS FRONTERIZAS.


GESTIóN DEL TRáFICO DE MERCANCíAS EN LAS ZONAS FRONTERIZAS.

Alarcón Rodríguez Diana Margarita, Instituto Tecnológico de Ciudad Juárez. Chihuahua Velarde Lizbeth Guadalupe, Instituto Tecnológico de Ciudad Juárez. Asesor: Mg. Eduardo Ocampo Ferrer, Universidad La Gran Colombia



PLANTEAMIENTO DEL PROBLEMA

La congestión en las zonas fronterizas es una preocupación creciente debido a la necesidad de exportar mercancías, de un país a otro. Sin embargo, la demanda y la gestión del control de acceso puede presentar desafíos, como la falta de integración entre los sistemas, dificultades en la gestión de usuarios y limitaciones en la escalabilidad. Esto puede resultar en vulnerabilidades potenciales y obstaculizar la eficacia del flujo de automóviles. Por lo tanto, el problema a abordar radica en encontrar posibles mejoras en la eficiencia, la integración y la seguridad de la gestión de mercancías en las zonas fronterizas.



METODOLOGÍA

La frontera entre Ciudad Juárez, Chihuahua, y El Paso, Texas, es uno de los corredores comerciales más importantes entre México y Estados Unidos. La gestión eficiente del tráfico de mercancías en esta zona es fundamental para el desarrollo económico de ambos países y para mantener la fluidez en el comercio transfronterizo. Esta investigación descriptiva fue realizada con el objetivo de describir las prácticas actuales de gestión del tráfico de mercancías en esta frontera, identificar los factores que contribuyen a la congestión, y proponer estrategias y tecnologías para mejorar la eficiencia del tráfico y reducir la congestión. Para llevar a cabo esta investigación, se empleó un enfoque mixto que combinó tanto métodos cualitativos como cuantitativos. Se analizaron datos y tendencias de los últimos cinco años (2019-2024) para proporcionar una visión completa de la situación actual y de cómo ha evolucionado la gestión del tráfico en la región. Como parte del proceso, se llevó a cabo una revisión exhaustiva de la literatura existente. Esta incluyó estudios académicos sobre logística y transporte internacional, así como reportes de organizaciones internacionales. La revisión ayudó a establecer un marco teórico que sirvió de base para el análisis de los datos recopilados. La recopilación de datos fue una parte fundamental de esta investigación. En cuanto a los datos cuantitativos, se recopilaron estadísticas de comercio de fuentes oficiales como el CBP y el SAT. Esto incluyó datos sobre el volumen de mercancías que cruzan la frontera, los tiempos de espera en los cruces, y los costos operativos asociados con el tráfico de mercancías. Se utilizaron datos históricos para identificar tendencias en el tráfico de mercancías y evaluar la efectividad de las prácticas de gestión actuales. Además, se realizaron encuestas estructuradas dirigidas a transportistas y empresas de logística. En el ámbito de los datos cualitativos, se llevaron a cabo entrevistas semiestructuradas con factores clave en la gestión del tráfico de mercancías. Las entrevistas se centraron en obtener información detallada sobre los desafíos, las soluciones implementadas, y las oportunidades para mejorar la gestión del tráfico. En total, se entrevistó a 25 individuos clave, lo que permitió obtener una diversidad de perspectivas. Asimismo, se realizó una observación directa en los principales puentes internacionales de la región, como el Puente Libre y el Puente de las Américas. Esta observación permitió documentar el flujo de tráfico y las operaciones diarias, proporcionando una comprensión empírica de los procesos y desafíos que enfrenta la frontera. También se llevó a cabo un análisis documental exhaustivo de documentos oficiales, regulaciones aduaneras, y políticas actuales, incluyendo la evaluación de iniciativas de modernización de infraestructura y tecnología que se han implementado para mejorar el flujo de tráfico. El análisis de datos incluyó el uso de herramientas estadísticas para analizar los datos cuantitativos y métodos de análisis de contenido para interpretar los datos cualitativos. Los indicadores clave de rendimiento evaluados incluyeron los tiempos de espera promedio, los volúmenes de mercancías procesadas, y la eficiencia operativa en los cruces fronterizos. A través de este análisis, se identificaron los principales factores que contribuyen a la congestión en la frontera, como la insuficiencia de infraestructura y la complejidad de los procedimientos aduaneros. Basándose en los hallazgos, se desarrollaron estrategias específicas para abordar estos desafíos. Las propuestas se centraron en áreas clave como la modernización de la infraestructura, la adopción de tecnología y automatización, la cooperación binacional, y la sostenibilidad. La modernización de la infraestructura incluyó proyectos de ampliación de carriles y la construcción de nuevos puentes internacionales para aumentar la capacidad de cruce. La adopción de tecnología se centró en la implementación de sistemas de gestión de tráfico inteligentes y plataformas de blockchain para mejorar la transparencia y la eficiencia. La cooperación binacional buscó armonizar regulaciones y procedimientos entre México y EE.UU., reduciendo la burocracia y facilitando el flujo de mercancías. Finalmente, se promovieron prácticas logísticas sostenibles para reducir el impacto ambiental del tráfico de mercancías, como el uso de vehículos de transporte más limpios y la incorporación de energías renovables en las operaciones aduaneras.


CONCLUSIONES

Podemos concluir que durante el periodo de investigación se lograron detectar más factores que afectan el cruce de mercancías de México hacia Estados Unidos de los cuales dichos factores no se tenía un conocimiento amplio, de tal modo gracias a los análisis cualitativos y cuantitativos que se realizaron se pudo concluir que para notar una mejora es necesario la implementación de tecnologías más actualizadas, el uso de combustibles más amigables con el medio ambiente y mejores infraestructuras en la frontera de México. Cuando se implementen estas mejoras se lograra ver un cambio radical en el tráfico de mercancías, especialmente las exportaciones e importaciones de la frontera.
Chimal Morales Ayahir Alexander, Instituto Politécnico Nacional
Asesor: Dr. Oscar Luis Sanchez Flores, Benemérita Universidad Autónoma de Puebla

ESTIMACIóN DE CAPACIDAD Y NIVELES DE SERVICIO CON DATOS EMPíRICOS EN CARRETERAS DE UN CARRIL POR SENTIDO.


ESTIMACIóN DE CAPACIDAD Y NIVELES DE SERVICIO CON DATOS EMPíRICOS EN CARRETERAS DE UN CARRIL POR SENTIDO.

Chimal Morales Ayahir Alexander, Instituto Politécnico Nacional. Asesor: Dr. Oscar Luis Sanchez Flores, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Las carreteras de un carril por sentido son esenciales para la conectividad entre áreas rurales y urbanas, especialmente en regiones con menor densidad poblacional. Estas vías presentan desafíos significativos relacionados con la capacidad y los niveles de servicio debido a su diseño y la variabilidad del tránsito. Según la Secretaría de Infraestructura, Comunicaciones y Transportes (SICT), el tránsito en estas carreteras ha aumentado un 15% en la última década. Este incremento ha generado preocupaciones para gestionar el tráfico creciente y mantener niveles de servicio adecuados. El problema principal es la insuficiente capacidad en carreteras tipo C y D en México. La demanda vehicular de la Red Carretera Federal se evalúa en términos de capacidad y niveles de servicio. Según los datos más recientes, una porción de estas carreteras se encuentra en niveles de servicio altos (A y B), existe una creciente preocupación por los tramos con niveles de servicio inferiores a C. En 2023, aproximadamente el 49% de las carreteras operaban en nivel A y B, el 24% en nivel C. Esto implica que cerca del 27% de las carreteras podrían estar operando por debajo del nivel de servicio C. El análisis de los elementos del flujo vehicular permite entender las características y el comportamiento del tránsito. Este análisis describe cómo circulan los vehículos en cualquier tipo de vialidad, permitiendo determinar el nivel de eficiencia de la operación de acuerdo con el Highway Capacity Manual 2010. Uno de los resultados más útiles del análisis del flujo vehicular es el desarrollo de modelos macroscópicos que relacionan variables como el volumen, la velocidad, la densidad, el intervalo y el espaciamiento. Estos modelos han sido la base del desarrollo del concepto de capacidad y niveles de servicio aplicados a diferentes tipos de elementos viales. La línea de investigación de Sistemas de transporte busca recabar y analizar un conjunto de bases de datos empíricos extraídos de MetroCount, que apoyan en el análisis macroscópico en la estimación del nivel de servicio y la capacidad de operación en carreteras de un solo carril por sentido.



METODOLOGÍA

Se extrajeron bases de datos de aforos mecánicos de carreteras tipo C y D en México realizados por MetroCount, una empresa especializada en la recolección y el análisis de datos de tránsito, para posteriormente pasarlos a Excel para poder manipularlos con facilidad. Se comenzó filtrando los datos empíricos que serían de utilidad para el análisis transformando los vehículos en vehículos particulares equivalentes. Dado que tránsito puede variar considerablemente en cortos periodos de tiempo se agregaron los datos en periodos de 15 minutos como lo señala el Highway Capacity Manual 2010, Al usar periodos de 15 minutos, se puede capturar mejor esta variabilidad y así obtener una imagen más precisa de las condiciones de tránsito. Se construyó el perfil horario A,B,C de los vehículos que pasaron por las vías y se creó el perfil horario para vehículos equivalentes durante 24 horas, por día de la semana y para fin de semana. De acuerdo con la teoría macroscópica al relacionar las variables de Intensidad, densidad y velocidad se construyó los diagramas (q-u), (u-k) y (k-q) para periodo diurno, periodo nocturno, entre semana diurno, fin de semana diurno. La relación intensidad - velocidad es la más importante a la hora de caracterizar el funcionamiento del tránsito de una vía, ya que considera la demanda de tránsito, definida por la intensidad, y la calidad de la circulación, definida por la velocidad media espacial. La relación intensidad - densidad se puede representar gráficamente mediante la curva fundamental del tránsito, que generalmente tiene forma de parábola invertida. Esta curva se divide en dos regiones principales, región de flujo libre y región de congestión La relación densidad - velocidad es inversamente proporcional, donde un aumento en la densidad generalmente lleva a una disminución en la velocidad media de los vehículos. Es fundamental para el análisis para poder identificar el régimen de circulación de la infraestructura y en su caso la capacidad Al analizar distintas carreteras su comportamiento era distinto con respecto a su uso y ubicación por ello se calculó el TPDS, al enfocarse en una semana específica, puede revelar patrones de tránsito que son característicos de ciertos días de la semana, como el tránsito más pesado durante los días laborables en comparación con los fines de semana y el TPDA que proporciona una visión general de las tendencias de tráfico a lo largo del año. Dependiendo de la base de datos hubo unos casos en los que los horarios venían incompletos, entonces se procedió a completarlos estimando su comportamiento derivado de los días en los que si se contaba la información.


CONCLUSIONES

Durante la estancia de investigación se logró adquirir conocimientos teóricos acerca del comportamiento del tránsito y como este se va transformando de acuerdo con los periodos de espacio tiempo. Al solo analizar un pequeño grupo de carreteras no se puede dar una conclusión detallada de cual es el estado real de la situación en las carreteras de un carril por sentido, es oportuno tomar una muestra mas amplia para proyectar los datos y así lograr obtener un margen de error menor al actual.
Choreño Cuevas Angel Issac, Universidad Politécnica de Tecámac
Asesor: Mtra. Ana Angelica Sánchez Sanchez Villegas, Universidad Politécnica de Tecámac

SCHOLAR ODYSSEY


SCHOLAR ODYSSEY

Angeles Gonzalez Irving Alejandro, Universidad Politécnica de Tecámac. Calva Santiago Brandon, Universidad Politécnica de Tecámac. Choreño Cuevas Angel Issac, Universidad Politécnica de Tecámac. Asesor: Mtra. Ana Angelica Sánchez Sanchez Villegas, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

La enseñanza de redes informáticas en entornos educativos enfrenta múltiples desafíos que dificultan el proceso de aprendizaje efectivo. Entre estos desafíos se encuentran la falta de recursos interactivos que faciliten la comprensión de conceptos complejos, la dificultad para mantener el interés y la motivación de los estudiantes, y la necesidad de adaptar los contenidos educativos a diferentes niveles de conocimiento y estilos de aprendizaje. Los métodos tradicionales de enseñanza a menudo no logran involucrar a los estudiantes de manera efectiva, lo que resulta en una retención de conocimientos insuficiente y en una comprensión superficial de los temas tratados.



METODOLOGÍA

La investigación se llevó a cabo mediante un enfoque mixto, combinando análisis cualitativo y cuantitativo en donde se realizaron investigaciones sobre el uso de software educativo enfocadas a la programación, lo cual  integrara una implementación del desarrollo de habilidades,  para permitir al alumno y al docente aprender de una manera continua y eficiente, mediante actividades lúdicas, didácticas, lo cual permitirá obtener resultados positivos en el uso de estas estrategias de enseñanza-aprendizaje, permitiendo a ambas partes el planteamiento de problemáticas, un razonamiento analógico que les permita solucionar problemas, por medio del uso de juegos.  Para el desarrollo de Scholar Odyssey, se adoptó un modelo iterativo, que permite una constante evaluación y mejora del software educativo. Este modelo se divide en las siguientes fases: 1.Análisis de necesidades: •Recolección de datos: Se realizaron encuestas y entrevistas con estudiantes de la universidad politécnica de Tecámac que están adscritos a la carrera de ingeniería en software para identificar las principales dificultades y necesidades en el proceso de enseñanza-aprendizaje. Se recogieron datos cualitativos y cuantitativos para entender mejor los desafíos específicos que enfrentan. •Definición de requerimientos: Basado en los datos recolectados, se definieron los requerimientos funcionales y no funcionales del software, especificando las características que debía incluir para abordar los problemas identificados Requerimientos Funcionales RF1.Registro de nuevos usuarios (estudiantes y profesores). RF2.Inicio de sesión y autenticación segura. RF3.Presentación de contenidos teóricos sobre redes informáticas, organizados por niveles de dificultad (básico, intermedio, avanzado). RF.4Actividades interactivas y ejercicios prácticos para aplicar los conocimientos adquiridos. RF5.Creación de cuestionarios y evaluaciones con diferentes tipos de preguntas (selección múltiple, verdadero/falso.). RF6.Evaluación automática de las respuestas. RF7.Registro y visualización del progreso y desempeño de los estudiantes. Requerimientos No Funcionales RNF1.La aplicación debe ser capaz de manejar múltiples usuarios simultáneamente sin degradación significativa del rendimiento. RNF2.Tiempo de respuesta de la interfaz de usuario debe ser inferior a 2 segundos. RNF3.El sistema debe ser capaz de escalar para soportar un aumento en la cantidad de usuarios y datos sin necesidad de rediseño significativo. RNF4.La arquitectura debe permitir la fácil adición de nuevos módulos y funcionalidades. RNF5.Los datos de los usuarios deben estar protegidos mediante mecanismos de seguridad hash. RNF6.Implementación de autenticación y autorización seguras para el acceso a los datos y funcionalidades. RNF7.La interfaz de usuario debe ser intuitiva y fácil de usar. RNF8.Diseño responsivo que asegure el correcto funcionamiento en diferentes dispositivos (móviles, tabletas, computadoras). 2.Diseño: •Arquitectura del sistema: Se diseñó la arquitectura general del sistema, definiendo los componentes principales y su interacción. Esto incluyó la selección de tecnologías como Flutter para el desarrollo de la interfaz de usuario y Firebase para la gestión de datos. Diseño de interfaz de usuario: Se desarrollaron diseños de alta fidelidad de la interfaz de usuario, asegurando que fueran intuitivos y accesibles. Se consideraron principios de diseño centrado en el usuario para mejorar la experiencia de uso. Desarrollo: Desarrollo de módulos básicos: Se inició el desarrollo de los módulos básicos de la aplicación, incluyendo las funcionalidades esenciales para el aprendizaje de redes informáticas. Esto incluyó la creación de actividades interactivas y cuestionarios. Pruebas unitarias: Se realizaron pruebas unitarias de cada componente desarrollado para asegurar su correcto funcionamiento. Estas pruebas ayudaron a identificar y corregir errores tempranamente en el proceso de desarrollo.


CONCLUSIONES

Durante el periodo de verano del programa delfín, podemos decir que se ha logrado adquirir conocimientos sobre la forma de enseñanza-aprendizaje a través del software educativo, el cual se tomó en base las estrategias de aprendizajes y metodologías a través de actividades lúdicas que permitirán el desarrollo cognitivo y eficaz lo que permitirá a los estudiantes aprender de manera autónoma para desarrollar conocimientos y habilidades en necesidad de  sus asignaturas. En base a las encuestas realizadas a estudiantes de la ingeniería en software con el fin de recolectar datos sobre sus percepciones y experiencias con el software educativo con las cuales se recopilo lo siguiente: * Se encontró que el 42% de los estudiantes utilizan su dispositivo móvil con más frecuencia para estudiar. * Además de acuerdo con la opinión de los estudiantes consideran que la materia que más se puede ver beneficiada con una aplicación educativa es "Redes" * Con los datos obtenidos mediante las encuestas se decide desarrollar una aplicación móvil que permita el estudio de temas relacionados con el área de diseño de redes, implementando el modelo de desarrollo de software iterativo permitiendo dar paso a mejoras continuas, para proporcionar un mayor porcentaje de satisfacción y eficacia ante el aprendizaje que brinda la aplicación.
Clemente Castillo Adalia Citlali, Universidad Politécnica de Atlacomulco
Asesor: Mg. Juan Barrero Barrero, Universidad Católica de Colombia

HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL EN LAS COMUNIDADES ACADéMICAS: OPORTUNIDADES Y DESAFíOS


HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL EN LAS COMUNIDADES ACADéMICAS: OPORTUNIDADES Y DESAFíOS

Clemente Castillo Adalia Citlali, Universidad Politécnica de Atlacomulco. Asesor: Mg. Juan Barrero Barrero, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

En el último año han aumentado considerablemente las aplicaciones de Inteligencia Artificial (IA) que utilizan modelos generativos y que han generado excelentes resultados particularmente la más importante ha sido Chat Generative Pre-trained Transformer (ChatGPT) cuya primera versión fue lanzada en noviembre de 2022. ChatGPT es un chatbot desarrollado a partir de un modelo avanzado de lenguaje autorregresivo con la capacidad comprender y generar texto de manera coherente y contextual. Gracias al éxito que ha tenido se han hecho varias actualizaciones, y actualmente va en la versión 4.0 presentada en mayo de 2024. Esta IA generativa tiene estadísticas muy favorables: 60 días después de su lanzamiento en 2022 logró más de 100 millones de usuarios activos, en febrero de 2024 contaba con más de 180.5 millones de usuarios activos en el mes, que realizaron más de 1,626 millones de consultas.  A nivel mundial hoy en día, Estados Unidos lidera con un total de 350 millones de visitas a ChatGPT diarias, seguido de India con 330 millones.   A nivel de Latinoamérica en Brasil se han registrado 73 millones de consultas diarias, en Colombia 62 millones, México 58 millones, seguidos de Chile, Argentina y Perú con 24 millones de visitas diarias. Para Julio de 2024, además de ChatGPT la tienda del portal de Toolify.ai tiene registradas 18.911 herramientas de IA y GPTs en 233 categorías, está información es actualizada diariamente por el mismo ChatGPT. Estas aplicaciones simplifican o ayudan en muchos procesos, pero han surgido inconvenientes en las comunidades académicas, en primer lugar, muchos profesores no las conocen o no han logrado introducirlas adecuadamente en sus actividades académicas por desconocimiento, por no encontrarse capacitados para utilizarlas, o por no estar preparados a la gestión del cambio ya que estas IA evolucionan demasiado rápido. En segundo lugar, los estudiantes han encontrado afinidad con las herramientas de IA y se apoyan en ellas para realizar sus tareas o actividades académicas, buscando un camino fácil y sencillo para su realización. En muchos casos, entregan actividades académicas generadas por la IA para cumplir sus deberes académicos lo que puede ser percibido por los profesores como una falta de originalidad o hasta como plagio por la similitud a trabajos de la red o a las obras de otros autores, y que realmente no son realizados por el estudiante. El problema está en que estas actividades académicas generadas por la IA al ser entregadas al profesor y calificadas con notas de aprobación pueden afectar al estudiante en su aprendizaje, debilitando sus habilidades y competencias académicas.  Este planteamiento genera la pregunta sobre cómo integrar las herramientas de inteligencia artificial en los entornos académicos, garantizando la integridad académica y la solidez de la formación para obtener profesiones idóneas, competentes y que usen adecuada y éticamente la tecnología.



METODOLOGÍA

Estudios recientes en los sectores académicos muestran cómo se están adoptando estas tecnologías, y como se están empleando para buscar buenas prácticas para introducirlas en la vida de los estudiantes de una manera positiva. Este proyecto tiene como finalidad el buscar identificar las buenas prácticas y las actividades ya utilizadas y realizadas en diferentes universidades y comunidades educativas en donde las herramientas de IA y chatbots se están usando correctamente y han sido integradas en los procesos de formación para los estudiantes y profesores. La metodología del proyecto inicio con la formulación de una ecuación de búsqueda, con la que se buscó en las bases de datos: Scopus, Proquest, Sdirect, Google Academy con una ventana de tiempo de 3 años, se seleccionaron 27 artículos. Se reviso e identifico las prácticas y el uso que le han dado a herramientas de IA.


CONCLUSIONES

Como resultado de la búsqueda en los artículos se encontró que han sido usadas las siguientes herramientas: QuillBot que sirve para parafrasear, detectar porcentaje de originalidad y que cuenta con 52,7 millones de visitas mensuales, Originality.ia que se utiliza para comprobar contenidos y cantidad de plagio, Copyleaks que es una plataforma nativa que detecta instantáneamente la cantidad y autenticidad humana o de IA), GPTZero que detecta la transparencia y distingue el contenido escrito por humanos identificando cuando un escrito de cierta longitud presenta patrones de generadores de lenguaje, entre otras. Estas herramientas fueron usadas por profesores en la corrección de sus actividades académicas para ayudar a prevenir cualquier forma de fraude, también algunos de ellos han utilizado estas herramientas para retroalimentar procesos de aprendizaje y evaluaciones; y por tutores para que los estudiantes tengan un aprendizaje personalizado. En la universidad de Santo Tomas, de Colombia han utilizado la IA para la administración universitaria, obteniendo un buen resultado en la disminución de la deserción estudiantil donde se identificaron los principales factores de riesgo, que inciden en los estudiantes, lo que les ha permitido realizar análisis predictivos, y crear sistemas de alerta temprana, asesorías personalizadas y optimización de recursos para brindar a los estudiantes medidas de apoyo necesarias para su éxito académico. Healthcare Switzerland, entidad que se ocupa de la promoción y desarrollo del sistema de salud en Suiza, está empleando ChatGPT como modelo de lenguaje conversacional que es usado en aplicaciones de salud digital. Newcastle University con ayuda de desarrolladores de software profesionales ha implementado recomendaciones pedagógicas, a través de la enseñanza de programación, diferenciando en lo que un estudiante puede lograr solo y lo que puede lograr con ayuda de IA. Además, en tiempo de pandemia por necesidad, se impulsó el desarrollo de redes, plataformas colaborativas y recursos de multimedia a mayor escala con fines educativo.
Coba Guzmán Luis Eduardo, Corporación Universitaria de Ciencias Empresariales, Educación y Salud
Asesor: Dra. Marisol Vázquez Tzompantzi, Instituto Politécnico Nacional

ANáLISIS DE REDES DE COLABORACIóN: EXPLORANDO CONCEPTOS Y COMUNIDADES


ANáLISIS DE REDES DE COLABORACIóN: EXPLORANDO CONCEPTOS Y COMUNIDADES

Coba Guzmán Luis Eduardo, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Asesor: Dra. Marisol Vázquez Tzompantzi, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las redes de colaboración científica representan las conexiones entre investigadores, instituciones o países en la creación de conocimientos científicos. Estas redes se modelan a menudo como grafos, donde los nodos representan a los investigadores y las aristas, las colaboraciones. Son cruciales para entender cómo se distribuye y comparte el conocimiento en la ciencia moderna. La estructura de estas redes puede influir notablemente en la productividad científica, facilitando el acceso a recursos y el intercambio de información. El análisis de redes sociales permite examinar aspectos como centralidad, densidad y modularidad, que afectan la capacidad de los investigadores para colaborar y mejorar su output científico. Investigaciones previas indican que los investigadores más prolíficos suelen ocupar posiciones estratégicas dentro de estas redes, beneficiándose de una mayor conectividad y acceso a información valiosa. En este contexto, este estudio se centra en analizar una muestra de graduados de doctorado del Instituto Politécnico Nacional (I.P.N.) para explorar sus colaboraciones en coautoría, categorizadas por áreas de investigación, y entender la estructura y dinámica de estas redes en la comunidad académica.



METODOLOGÍA

El estudio utilizó una metodología descriptiva dividida en varias etapas. Primero, se realizó una revisión exhaustiva de la literatura sobre redes de colaboración científica, enfocándose en sus componentes, importancia y métricas, utilizando recursos proporcionados por la asesora del proyecto y búsquedas autónomas. Luego, se recopiló información de la base de datos Scopus, construyendo una red de autores basada en un registro de graduados de doctorado del I.P.N. Esta población se segmentó en 66 autores del área interdisciplinaria y 151 autores del área de ciencias médico-biológicas. Se rastrearon las publicaciones de estos autores y se exportaron los datos en formato CSV para el análisis. Se utilizaron varias herramientas para el análisis. VOSviewer ayudó en la creación y visualización de grafos, permitiendo observar interacciones y relaciones entre los autores, así como identificar autores influyentes mediante mapas de calor y temporalidad. RStudio con el paquete Bibliometrix facilitó un análisis bibliométrico detallado, ofreciendo datos como el ranking de autores, palabras clave más frecuentes, y citas promedio por autor. Finalmente, Gephi se empleó para un análisis matemático avanzado, calculando medidas de centralidad, modularidad y densidad, lo que permitió una visión integral de la cohesión y estructura de las redes.    


CONCLUSIONES

El análisis de las dos redes de colaboración científica, basadas en datos de graduados de doctorado del I.P.N., reveló diferencias significativas en su estructura y composición. La red interdisciplinaria, con 1558 nodos y 7162 aristas, mostró una densidad de 0.006 y una alta modularidad de 0.881, sugiriendo la presencia de subgrupos bien definidos con conexiones significativas. En contraste, la red de ciencias médico-biológicas, mucho más grande con 18764 nodos y 1572864 aristas, presentó una densidad ligeramente mayor de 0.009 y una menor modularidad de 0.662. Este contraste es interesante, ya que, en general, se esperaría que redes más pequeñas sean más densas, debido a la mayor facilidad para establecer conexiones. Además, la ampliación de la muestra inicial reveló un aumento notable en el número de investigadores involucrados, con más de mil y diez mil autores identificados en las redes interdisciplinaria y médico-biológica, respectivamente. Este incremento se explica por la colaboración extendida, especialmente notable en el caso de México, que emergió como un nodo central debido a la predominancia de graduados del I.P.N. en la muestra. El estudio no solo permitió mapear las colaboraciones existentes, sino también comprender cómo estas redes influyen en la productividad y el intercambio de conocimientos en la comunidad científica. Las herramientas empleadas proporcionaron una visión detallada de la estructura y dinámicas de estas redes, subrayando la importancia de las redes científicas en la mejora de la productividad y la difusión de conocimientos. La comparación de densidad y modularidad entre las dos redes estudiadas destaca cómo las características estructurales pueden afectar la eficiencia de las colaboraciones científicas.
Cobos Lazcano Cristian Yahir, Instituto Tecnológico de Puebla
Asesor: Mg. Andrea Goméz Alzate, Universidad Autónoma de Manizales

PROYECTO 1: GUÍA PARA LA ELECCIÓN, ADAPTACIÓN Y USO DE PRÓTESIS TRANSTIBIAL PROYECTO 2: DISEÑO DE AYUDAS TÉCNICAS DEPORTIVAS: APUNTADORES DE BOCCIA


PROYECTO 1: GUÍA PARA LA ELECCIÓN, ADAPTACIÓN Y USO DE PRÓTESIS TRANSTIBIAL PROYECTO 2: DISEÑO DE AYUDAS TÉCNICAS DEPORTIVAS: APUNTADORES DE BOCCIA

Aguilera Saenz Miguel Angel, Universidad Autónoma de Ciudad Juárez. Cobos Lazcano Cristian Yahir, Instituto Tecnológico de Puebla. Asesor: Mg. Andrea Goméz Alzate, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

  Proyecto 1  La elección de una prótesis transtibial adecuada es un desafío complejo debido a las necesidades únicas de niños, adultos y adultos mayores y la falta de una guía estructurada puede resultar en decisiones no adecuadas. La búsqueda de materiales innovadores y sostenibles para prótesis añade complejidad, por esto se realizó una investigación con dos objetivos: desarrollar un mapa mental para guiar la elección de prótesis transtibiales según la edad y tipo de amputación y realizar pruebas de laboratorio para crear un material compuesto de fibras naturales. Se usa como fundamento el trabajo realizado en años anteriores, sobre la contextualización, el análisis y la elaboración de una tabla guía para la elección de prótesis transtibiales. Sin embargo, se requiere ajustes significativos. Proyecto 2 Boccia es un deporte paralímpico para personas con discapacidad motriz por la parálisis cerebral, requiere habilidades, estrategia y coordinación; los jugadores usan diferentes técnicas y equipamientos, según la categoría del juego. Existen estudios e investigaciones enfocados en aspectos psicológicos, sociales, físicos, entre otros, sin embargo, los enfocados en innovar en el equipo deportivo utilizado son muy pocos.  Existen empresas que venden los implementos deportivos, sin embargo, son pocas y en general tiene un alto costo; por esto, el jugador tiene pocas opciones y construyen sus propios elementos de manera artesanal, sin ergonomía ni para el jugador, ni para el auxiliar. El enfoque de esta investigación será el diseño del apuntador, usado específicamente en la categoría BC3, (jugadores con alto nivel de discapacidad motriz que requieren de un auxiliar para jugar), el cual sirve para impulsar las bochas desde la rampa; este elemento tiene diferentes formas de uso que dependen del nivel funcional del deportista y de la necesidad de alcance en el juego. Se pretende impactar positivamente a los jugadores de la categoría BC3 elaborando una propuesta de diseño apropiada para los usuarios.



METODOLOGÍA

  P1:contextualización, sobre  prótesis transtibial y  su uso correcto, además sobre cada una de las prótesis listadas, recopilando información sobre sus características, rendimiento, uso, mantenimiento y ergonomía. Evaluación de los rasgos establecidos en la tabla, determinando su importancia para la evaluación de prótesis. Se analizó cada calificación asignada mediante la información obtenida de cada prótesis y se ajustó la tabla. Además se apoyó el desarrollo de un material compuesto de fibras naturales para la fabricación de prótesis, mediante la preparación de fibras,(limpieza y peinado para eliminar impurezas y alinearlas de manera uniforme y secado al  horno a 40°C eliminar cualquier humedad residual) y pruebas de resistencia de las fibras (muestras del material y se sometieron a pruebas de tensión para medir su resistencia). Los datos obtenidos de estas pruebas fueron analizados para identificar patrones y propiedades mecánicas del material. P2:Contextualización: barrido documental para la comprensión del juego, entender las necesidades de cada usuario (jugadores y asistentes). Estudio de mercado para identificar el equipo existente, sus características, sus ventajas y desventajas, con el fin de identificar elementos susceptibles de rediseño. Se identificaron los requerimientos y restricciones de diseño con base en el usuario, el objeto y el contexto; para establecer parámetros de diseño. Ideación: Se elaboraron propuestas basadas en los parámetros de diseño establecidos de los tres soportes de puntero que utiliza el jugador (cabeza, mano y boca). Se analizaron las propuestas elaboradas para identificar aspectos a mejorar o cambiar y así obtener propuestas ajustadas. Esta etapa está relacionada con el segundo objetivo de la investigación, por lo que los resultados esperados son propuestas de diseño mejoradas que cumplan con los criterios establecidos. Evaluación: Se evaluaron la propuestas para asegurar cumplimiento de los parámetros de diseños y realizar las mejoras necesarias en caso de que no cumplieran, para así determinar el diseño conceptual final.


CONCLUSIONES

P1: Adquirimos conocimientos teóricos sobre el desarrollo de materiales compuestos con fibras naturales, al ser un trabajo extenso aún se encuentra en fase de pruebas por lo que no se pueden mostrar los datos obtenidos en su totalidad. P2: Para realizar el diseño de los apuntadores de boccia, es fundamental considerar las necesidades ergonómicas tanto del jugador como del auxiliar.  En la categoría BC3, donde la participación del auxiliar es obligatoria, la interacción y coordinación entre el jugador y su auxiliar son esenciales para maximizar el rendimiento y la efectividad durante las competiciones. Por lo tanto, cualquier diseño de apuntador debe facilitar no sólo la comodidad y eficiencia del jugador, sino también la del auxiliar. El análisis del mercado y la revisión de las tecnologías existentes revelaron que el desarrollo tecnológico en deportes en general es  más avanzado que en los deportes practicados por personas con discapacidad. Esta disparidad señala una oportunidad para la innovación en las disciplinas deportivas paralímpicas. La falta de atención y recursos dedicados a estos deportes ha resultado en una brecha tecnológica que debe ser reducida para asegurar que los atletas paralímpicos tengan acceso a equipamientos de alta calidad y rendimiento. Las propuestas desarrolladas hasta el momento no son las definitivas,  se deben realizar evaluaciones detalladas con los jugadores y sus asistentes para recoger datos sobre el desempeño y la comodidad de los apuntadores en un entorno real de juego; para identificar mejoras y ajustes, asegurando que los diseños satisfagan sus necesidades ergonómicas y funcionales. La retroalimentación directa guiará la refinación de los diseños, proporcionando comodidad y eficiencia tanto para los jugadores como para los auxiliares.
Collazos Bolaños Luisa Fernanda, Corporación Universitaria Remington
Asesor: Mtro. Javier Hilario Reyes Cordova, Universidad Tecnológica de Tehuacán

MEJORA DE LOS PROCESOS INSTITUCIONALES DE LA UNIVERSIDAD TECNOLóGICA DE TEHUACáN A PARTIR DE LA IMPLEMENTACIóN DE LA NORMA ISO 9001:2015


MEJORA DE LOS PROCESOS INSTITUCIONALES DE LA UNIVERSIDAD TECNOLóGICA DE TEHUACáN A PARTIR DE LA IMPLEMENTACIóN DE LA NORMA ISO 9001:2015

Avendaño Sánchez Zaira, Instituto Tecnológico Superior de Tierra Blanca. Collazos Bolaños Luisa Fernanda, Corporación Universitaria Remington. González Herrera Juan Alberto, Instituto Tecnológico de Querétaro. Romero Cordero Jhojan, Corporación Politécnico de la Costa Atlántica. Vega Hernández Adriana Sayuri, Instituto Tecnológico de Querétaro. Asesor: Mtro. Javier Hilario Reyes Cordova, Universidad Tecnológica de Tehuacán



PLANTEAMIENTO DEL PROBLEMA

En la constante necesidad de que en las instituciones de educación superior en México cuenten con un sistema que asegure la calidad de los procesos y servicios que se brindan dentro de la misma ha llevado a que todas estas instituciones busquen obtener la acreditación de un organismo que asegure que todos los procesos que se llevan a cabo dentro de las instituciones educativas cumplan con el principio de la mejora continua, a su vez la universidad tecnológica de tehuacán busca obtener la certificación en la norma iso 9001:2015, para poder demostrar ante la secretaría de educación pública que es una institución que cumple con los lineamientos básicos y que todos los procesos y servicios que se llevan a cabo dentro de la institución son de calidad y cumplen con el principio de la mejora continua por lo que una de las formas de poder lograrlo es a través de una casa certificadora que brinde el certificado y que lleva a cabo una evaluación de todos los procesos y servicios que brinda la institución y que se ven afectados por las partes interesadas, por lo que la presente investigación busca determinar si la certificación de la norma ISO 9001:2015 contribuye a la mejora de los procesos productivos en las instituciones de educación superior y los miembros de la comunidad universitaria perciben los beneficios de contar con dicha certificación, el poder evaluar los resultados que nos brinda el poder obtener una certificación como la norma ISO 9001:2015, permitirá determinar si la mejora continua contribuye hay crecimiento y desarrollo de las instituciones de educación superior, mejora las condiciones con respecto a un tiempo anterior, la presente investigación se lleva a cabo en el periodo de Enero a Septiembre del 2024, evaluando los indicadores del Programa Operativo Anual (POA) y esta supedito a la disponibilidad de la información que brinden las áreas de la Universidad tecnológica de Tehuacan.



METODOLOGÍA

La presente investigación parte del análisis de caso que ocurre en la universidad tecnológica de tehuacán y que parte de un estudio longitudinal que abarca del periodo de enero a septiembre del 2024, adicional a lo anterior el presente estudio comprende a toda la comunidad universitaria y a las partes interesadas que la conforman entendiendo qué se trata de un estudio descriptivo de cómo se lleva a cabo el proceso para lograr la certificación de la norma iso 9001:2015 en la universidad y cómo contribuye a la mejora de los procesos educativos y el alcance de los mismos en el círculo de Deming, que comprende planear, hacer, verificar y actuar que parte desde la alta dirección y el compromiso de la misma para poder llevar a cabo un proceso de certificación ya que la asignación y estrategias que mantiene la rectoría con respecto a dicha institución permiten establecer los alcances del sistema de gestión de la calidad y la evaluación de los mismos a través de algunos indicadores que ha desarrollado la institución y un análisis mixto, ya que se evalúan variables cuantitativas y cualitativas de la comunidad universitaria y se obtendrá información de primera mano mediante entrevistas a miembros de dicha comunidad para obtener su percepción con respecto a la implementación del sistema de gestión de la calidad y poder determinar mediante un análisis descriptivo de los múltiples beneficios que ofrece la universidad.


CONCLUSIONES

Lo que podemos apreciar de la presente investigación es que por cuestiones de tiempo no se podrá concluir de manera satisfactoria y que por la situación del programa delfín y el la corta estancia dentro de la misma no podremos ver de primera mano los resultados obtenidos pero sí podemos concluir que el proceso de la mejora continua dentro de las instituciones de educación superior es un proceso que se tiene que llevar a cabo de una manera muy particular de un análisis detallado y constante con la finalidad de entender qué lleva una institución de educación superior a buscar una certificación de calidad no solamente con el objetivo de cumplir con un mero requisito sino como la constante necesidad de la mejora continua de los procesos y el óptimo aprovechamiento de los recursos para lograr los fines con los que son desarrolladas las instituciones he aquí un avance que requiere más investigación y que no solamente corresponde a una cuestión de costos sino una situación en la que se tiene que atender los servicios educativos de calidad para que un alumno sea capaz de alcanzar estas metas y objetivos ya que no únicamente acude para llevar a cabo la generación del conocimiento sino para mejorar sus condiciones actuales y que las instituciones de educación superior son un medio para que éstas se logre no solamente buscando convenios con instituciones educativas homónimas sino con empresas a las que deberá de apoyar de una forma de otra brindando a alumnos de calidad y procesos y capacitación y todo aquello que le permita a la universidad mejorar su relación con las partes interesadas y con la comunidad misma en la que el desarrollo humano y la sostenibilidad junto con la sustentabilidad son mecanismos por los cuales tenemos que buscar un crecimiento constante.
Comino Ibarra Adilene Estefanía, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Omar Jehovani López Orozco, Instituto Tecnológico Superior de Apatzingán

ORQUESTACIóN DE DATOS PARA LA ESTIMACIóN DE RIESGO DE INUNDACIóN Y DE TRáFICO DE CIUDADES.


ORQUESTACIóN DE DATOS PARA LA ESTIMACIóN DE RIESGO DE INUNDACIóN Y DE TRáFICO DE CIUDADES.

Comino Ibarra Adilene Estefanía, Instituto Tecnológico Superior de Apatzingán. Mendoza Rosas Luis Francisco, Instituto Tecnológico Superior de Apatzingán. Molontzin Ruiz Maria Guadalupe, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Omar Jehovani López Orozco, Instituto Tecnológico Superior de Apatzingán



PLANTEAMIENTO DEL PROBLEMA

Las inundaciones en la Ciudad de México se han convertido en un problema recurrente que afecta tanto a la infraestructura urbana como a la calidad de vida de sus habitantes. La falta de un sistema de monitoreo y prevención efectivo agrava esta situación, resultando en daños materiales significativos y pérdidas económicas.  Con el cambio climático, la frecuencia e intensidad de estos eventos meteorológicos extremos están en aumento, lo que subraya la necesidad de desarrollar herramientas geoespaciales que ayuden a prever y mitigar los riesgos asociados.



METODOLOGÍA

El proyecto se enfocó en la recolección, limpieza y análisis de datos geoespaciales para la generación de mapas de riesgos de inundación en la Ciudad de México. Los datos fueron obtenidos de fuentes como las bases de datos públicas del gobierno de la Ciudad de México. Recolección de Datos: Se recopilaron datos históricos de precipitación utilizando datos del INEGI al igual que información de los sistemas captadores de agua de lluvia. Se utilizaron datos de infraestructura urbana, como la red de drenaje y las zonas habitacionales vulnerables. Limpieza de Datos: Los datos recolectados fueron depurados para eliminar valores atípicos y corregir errores de registro. Se integraron diferentes formatos de datos geoespaciales para asegurar su compatibilidad y coherencia. Se implementaron técnicas de interpolación para llenar vacíos en los datos de precipitación y nivel de agua. Análisis Geoespacial: Se emplearon Sistemas de Información Geográfica (SIG) para la visualización y análisis de los datos limpios. Generación de Mapas de Riesgo: Utilizando los resultados del análisis geoespacial, se crearon mapas de riesgo de inundación que destacan las áreas más vulnerables. Se implementaron estos mapas en una plataforma web interactiva que permite a los usuarios explorar los riesgos de inundación en tiempo real y planificar medidas de mitigación.


CONCLUSIONES

Durante el proyecto se adquirieron conocimientos avanzados en el manejo de datos geoespaciales y en el uso de herramientas SIG para la creación de mapas de riesgo. A pesar de que aún se encuentran en proceso algunos análisis detallados, los resultados preliminares indican una identificación precisa de las áreas de mayor riesgo de inundación en la Ciudad de México. Se espera que, con la implementación completa del sistema, las autoridades y la población puedan contar con una herramienta valiosa para la prevención y respuesta ante eventos de inundación, reduciendo así los daños y mejorando la resiliencia de la ciudad frente a desastres naturales.
Conde Pérez Ángel Noe, Instituto Tecnológico de Culiacán
Asesor: Dra. María Milagrosa del Carmen Pérez Sánchez, Universidad Autónoma de Yucatán

VIVIENDA ADECUADA, HáBITAT SUSTENTABLE Y COHESIóN SOCIAL: ALTERNATIVAS PARA INCIDIR EN LAS CONDICIONES DE POBREZA URBANA EN ZONAS VULNERABLES DE ATENCIóN PRIORITARIA EN TRES CIUDADES DE MéXICO (CIUDAD JUáREZ, MéRIDA Y MEXICALI). CASO MéRIDA. FONDO FORDECYT-PRONACES.


VIVIENDA ADECUADA, HáBITAT SUSTENTABLE Y COHESIóN SOCIAL: ALTERNATIVAS PARA INCIDIR EN LAS CONDICIONES DE POBREZA URBANA EN ZONAS VULNERABLES DE ATENCIóN PRIORITARIA EN TRES CIUDADES DE MéXICO (CIUDAD JUáREZ, MéRIDA Y MEXICALI). CASO MéRIDA. FONDO FORDECYT-PRONACES.

Conde Pérez Ángel Noe, Instituto Tecnológico de Culiacán. Asesor: Dra. María Milagrosa del Carmen Pérez Sánchez, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

La vivienda como bien social contribuye a la mejora de la calidad de vida de los habitantes de una ciudad, siendo el principal medio para evaluar las condiciones de progreso y bienestar social. Proveer una vivienda adecuada es esencial para crear un ambiente en el que el hábitat sea sustentable y los residentes puedan convivir, fortaleciendo así la cohesión social. Este estudio se enfoca en vincular la investigación con la práctica para incidir en cambios que disminuyan la pobreza urbana y el rezago social en sectores vulnerables. Entender que la problemática de la vivienda no se presenta de manera uniforme en todo el país es crucial para esta investigación. Los aspectos de pobreza urbana tienen un origen multifactorial, derivado de la falta de oportunidades socioeconómicas, la ausencia de procesos de participación y organización de los habitantes para construir cohesión social, y ambientes deteriorados con obsolescencia acelerada que generan problemas urbanos adicionales. Estas condiciones, sumadas a la segregación, vulnerabilidad y falta de acceso al derecho a la ciudad, conforman un complejo panorama que requiere intervenciones específicas y contextualizadas.



METODOLOGÍA

El estudio de campo se llevó a cabo en la colonia Jacinto Canek en Mérida, Yucatán. Se realizó un proceso de invitación casa por casa, donde se registró a las personas interesadas utilizando un formato específico. Este formato incluía datos como el domicilio, número de teléfono, CURP, INE, la elección de tres colores para pintar su umbral, y sugerencias de plantas para su jardín. Esta información permitió una planificación detallada y personalizada de las intervenciones. Una vez registrados, se trabajó directamente con los residentes en la mejora de sus jardines y se presentaron propuestas para la pintura de los umbrales. Esta fase del proyecto no solo involucró la implementación de mejoras físicas, sino también el fomento de la participación comunitaria y el empoderamiento de los residentes, creando un sentido de pertenencia y colaboración. Además de los trabajos en la colonia, se asistió a un seminario interdisciplinario de Ingeniería y Arquitectura para el desarrollo social, sustentable y equitativo. Este seminario proporcionó un marco teórico y práctico adicional, enriqueciendo la comprensión y abordaje de los problemas urbanos desde una perspectiva interdisciplinaria y holística.


CONCLUSIONES

Durante la estancia de verano, se lograron importantes avances en la modificación y mejora de los jardines de los residentes en la colonia Jacinto Canek. Estas intervenciones preliminares han mostrado un impacto positivo en la percepción de los residentes y en la cohesión social de la comunidad. Sin embargo, dado que se trata de un proyecto extenso y continuo, no se ha podido medir aún el impacto total de la modificación de los umbrales y jardines en la colonia en relación con los objetivos planteados. Las observaciones preliminares indican que las intervenciones realizadas han comenzado a transformar el entorno físico y social de la colonia, mejorando la calidad de vida de sus habitantes y fomentando un mayor sentido de comunidad. Estos cambios apuntan hacia la creación de un hábitat más sustentable y cohesionado, alineado con los objetivos del proyecto de incidir en las condiciones de pobreza urbana y rezago social.
Contreras Careaga Maria Fernanda, Universidad Tecnológica Paso del Norte
Asesor: Mtro. carlos Blancas blancas, Universidad Tecnológica Fidel Velázquez

CONFIGURACIÓN E INSTALACIÓN DE ANTENAS PUNTO A PUNTO


CONFIGURACIÓN E INSTALACIÓN DE ANTENAS PUNTO A PUNTO

Contreras Careaga Maria Fernanda, Universidad Tecnológica Paso del Norte. Lara Olvera Nayelli, Universidad Tecnológica Paso del Norte. Lopez Arellano Karely, Universidad Tecnológica Paso del Norte. Asesor: Mtro. carlos Blancas blancas, Universidad Tecnológica Fidel Velázquez



PLANTEAMIENTO DEL PROBLEMA

La creciente demanda de conectividad en áreas urbanas, rurales y remotas ha resultado en los límites de la infraestructura de red tradicional, que a menudo no cumplen con los requisitos cada vez más exigentes para el ancho de banda, la velocidad y la confiabilidad. Este desafío se amplía en escenarios en los que la geografía, la eliminación o los costos completan la implementación de soluciones convencionales como fibra de fibra o redes con cable. Además, la brecha digital permanece en muchas regiones y limita el acceso a servicios esenciales y oportunidades de desarrollo económico. Esto crea la necesidad predominante de soluciones de comunicación flexibles y eficientes que pueden adaptarse a varios entornos y superar las barreras existentes. Las antenas Point -Point -Point se presentan como una alternativa y ofrecen la posibilidad de establecer conexiones con una alta capacidad en situaciones en las que otras tecnologías fallan o se prohíben



METODOLOGÍA

La creciente demanda de conectividad en áreas urbanas, rurales y remotas ha resultado en los límites de la infraestructura de red tradicional, que a menudo no cumplen con los requisitos cada vez más exigentes para el ancho de banda, la velocidad y la confiabilidad. Este desafío se amplía en escenarios en los que la geografía, la eliminación o los costos completan la implementación de soluciones convencionales como fibra de fibra o redes con cable. Además, la brecha digital permanece en muchas regiones y limita el acceso a servicios esenciales y oportunidades de desarrollo económico. Esto crea la necesidad predominante de soluciones de comunicación flexibles y eficientes que pueden adaptarse a varios entornos y superar las barreras existentes. Las antenas Point -Point -Point se presentan como una alternativa y ofrecen la posibilidad de establecer conexiones con una alta capacidad en situaciones en las que otras tecnologías fallan o se prohíben


CONCLUSIONES

La implementación del sistema de antena punto a punto en la infraestructura de telecomunicaciones moderna se destaca por su versatilidad y eficiencia en superar las limitaciones de la infraestructura tradicional. Entre los puntos clave destacados se encuentran: Importancia estratégica: La antena punto a punto es crucial para proporcionar conexiones de alta velocidad y baja latencia, especialmente en áreas remotas. Complejidad técnica: Requiere un profundo conocimiento técnico para la selección y optimización de equipos, así como una precisa instalación y configuración. Adaptabilidad y escalabilidad: Estas antenas muestran una alta capacidad de adaptación a diversos entornos y necesidades, siendo escalables para implementaciones pequeñas o redes empresariales extensas. Desafíos sostenibles: A pesar de sus ventajas, enfrenta desafíos como la gestión de perturbaciones y la optimización del espectro, requiriendo una constante evolución. Impacto socioeconómico: Su implementación puede reducir la desigualdad digital, mejorando la conectividad en áreas remotas y teniendo un impacto profundo en el desarrollo económico, educativo y de salud. Integración con tecnologías emergentes: Su futuro está ligado a la evolución de tecnologías como el 5G, IoT y Edge, siendo crucial su integración para mantener su relevancia. Necesidades de capacitación sostenible: Se destaca la importancia de la formación continua para profesionales en este ámbito dado la complejidad y rápida evolución de la tecnología. En resumen, las antenas punto a punto son fundamentales en las telecomunicaciones del siglo XXI, y su éxito futuro dependerá de equilibrar aspectos técnicos, económicos, sociales y ambientales. Su optimización y evolución continuarán contribuyendo a un futuro digital más inclusivo y eficiente.  
Contreras Herrera Jordi Owuen, Instituto Politécnico Nacional
Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional

ROBOPOLIC


ROBOPOLIC

Contreras Herrera Jordi Owuen, Instituto Politécnico Nacional. Martínez Moreno Jorge Alberto, Instituto Tecnológico de Querétaro. Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La robótica y la programación son de gran beneficio para los niños o jóvenes ya que les permite adquirir o desarrollar habilidades ya sean el trabajo y cooperación en equipo para poder   resolver algún problema, o al igual identificar las fortalezas y debilidades para desarrollar un proyecto y que se logren desenvolver mejor en estos ámbitos. Para lo cual hoy en día existen diversos tipos de robots didácticos en el mercado los cuales solo basta con adquirirlos y armarlos para poder usarlos, sin la oportunidad de obtener un mayor aprendizaje acerca de sus componentes electrónicos o la programación que usan. Por lo cual el propósito del proyecto es desarrollar un robot que sea fácil de armar desde los componentes electrónicos hasta las piezas mecánicas y su programación, de tal manera que el individuo no solo logre armar un robot si no que a la vez pueda aprender sobre el funcionamiento de los componentes electrónicos, mecánicos y la programación del robot.



METODOLOGÍA

Se comenzó con el diseño del robot mediante una aplicación de diseño 3D, basándose en la configuración de los robots Otto ya existentes, una vez desarrollado el prototipo de las piezas mecánicas se pasaron a imprimir en una impresora 3D con el fin de verificar que el ensamblaje mecánico estuviera bien y que los componentes electrónicos encajaran en sus respectivas posiciones. Una diferencia con respecto a los robots Otto es que se agregaron imanes al diseño para poder crear adornos que acompañen al robot y puedan ponerse fácilmente con el uso de Mini imanes de neodimio, los cuales tiene un espesor de 1mm y un diámetro de 5 mm, En cuanto a la electrónica se opto por usar una Arduino nano debido a su reducido tamaño y peso, el cual es el cerebro del robot ejecutando los programas y comandos necesarios para su uso. Con el fin de agilizar las conexiones entre componentes se le agrego un shield de expansión al Arduino nano permitiendo facilitar las conexiones entre los diferentes componentes. Otros componentes electrónicos son un señor ultrasónico con el fin de medir distancias y saber si el robot va a chocar con algún objeto usando un buzzer como forma de aviso, además del uso de 4 servomotores los cuales se encargan de poder realizar los movimientos del robot. Todos estos componentes conectados al Arduino son controlados mediante un módulo de bluetoothHC-05 o HC-06 el cual se encarga de generar una conexión entre el Arduino y nuestro celular para poder controlar al robot. La aplicación del robot fue desarrollada en App Inventor permitiendo al usuario poder controlar los movimientos así como la velocidad de estos, además de poder calibrar los servomotores en caso de ser necesario. Finalmente, para poder desarrollar el programa principal del robot se utilizó el lenguaje de Arduino junto con su IDE, además del uso de diversas librerías propias del lenguaje como SoftwareSerial.h Y Otto.h, las cuales permitieron generar las conexiones bluetooth y los movimientos del robot.


CONCLUSIONES

En esta estancia de verano se logró aprender tanto a diseñar como a ensamblar, modificar y programar un robot, también a como crear una aplicación en app inventor para poder moverlo, estos conocimientos fueron reforzados tanto teórica como de manera practica al desarrollar lo dicho. El resultado fue el esperado cumpliendo con la realización de dos productos los cuales serían dos robots de fácil comprensión y un manual para su armado.
Contreras Solis Milton Abraham, Universidad de Guadalajara
Asesor: Mg. David Pulgarín Velásquez, Institución Universitaria Salazar y Herrera

DISEñO DE PRODUCTO DE SOFTWARE


DISEñO DE PRODUCTO DE SOFTWARE

Contreras Solis Milton Abraham, Universidad de Guadalajara. Asesor: Mg. David Pulgarín Velásquez, Institución Universitaria Salazar y Herrera



PLANTEAMIENTO DEL PROBLEMA

La industria alimenticia necesita un software que garantice la trazabilidad de productos perecederos y no perecederos para asegurar la seguridad alimentaria. Sin una adecuada trazabilidad, es difícil identificar y retirar productos en caso de problemas, lo que puede poner en riesgo la salud de los consumidores. Además, una gestión deficiente puede aumentar el desperdicio y generar costos adicionales. El software debe ayudar a cumplir con las normativas vigentes, controlar fechas de caducidad y facilitar el retiro rápido de productos defectuosos, optimizando así la gestión y protección de la cadena de suministro alimentaria.



METODOLOGÍA

Para el desarrollo del proyecto se utilizará la metodología Scrum, que comienza con la planificación inicial para definir requisitos y crear el Product Backlog. Luego, se desarrollarán ciclos de 2 a 4 semanas, llamados sprints, para entregar incrementos funcionales. Cada día se realizarán reuniones para revisar el progreso y ajustar el plan. Al final de cada sprint, se llevará a cabo una revisión y retrospectiva para evaluar el trabajo y promover la mejora continua. Finalmente, el software se entregará de manera continua, con entregas incrementales y retroalimentación constante.


CONCLUSIONES

La implementación de un software de trazabilidad en la industria alimentaria, utilizando una metodología ágil como Scrum, ofrece una solución robusta para los desafíos actuales en la gestión de productos perecederos y no perecederos. Este software no solo asegura la seguridad alimentaria al proporcionar un seguimiento detallado de cada producto desde su origen hasta el consumidor final, sino que también ayuda a reducir el desperdicio al gestionar eficazmente las fechas de caducidad y el inventario. Al adoptar un enfoque ágil con sprints y entregas incrementales, el software se ajusta continuamente a las necesidades del usuario y del mercado, garantizando una herramienta eficiente y adaptativa que mejora la transparencia y la eficiencia en la cadena de suministro alimentaria. Sin dejar atrás el hecho de que el verano de investigación me ayudó bastante, desarrollé nuevas habilidades, conocimientos, etc.
Contreras Trejo Santos Efraín, Instituto Tecnológico de Tepic
Asesor: Mtro. Victor Manuel Mata Prado, Instituto Tecnológico de Tepic

ANáLISIS SISTéMICO DE LA DEMANDA DE ALUMNOS POR SEMESTRE: PRONóSTICO UTILIZANDO HERRAMIENTAS DE LA NUBE.


ANáLISIS SISTéMICO DE LA DEMANDA DE ALUMNOS POR SEMESTRE: PRONóSTICO UTILIZANDO HERRAMIENTAS DE LA NUBE.

Contreras Trejo Santos Efraín, Instituto Tecnológico de Tepic. Asesor: Mtro. Victor Manuel Mata Prado, Instituto Tecnológico de Tepic



PLANTEAMIENTO DEL PROBLEMA

La demanda de grupos o bien, materias por parte de los alumnos es un reto sistémico al cuál se enfrentan todas las instituciones de educación, sean públicas o privadas, entre las situaciones que resultan imprescindibles para el alumno se encuentra la disponibilidad, pero claro, que para que este disponible una materia, previamente la academia responsable de ofertar la materia se basa en algo más que mera intuición para su publicación, es aquí donde los datos reconocen valor, pues analizando los datos de semestres pasados, se puede estimar cuántos alumnos tomaran ciertas materias y de este modo se tendrá una estimación de la cantidad de alumnos por grupo; esto con el fin de que no se encuentre ni muy vacío, pues sería un desperdicio de recursos, ni se encuentre tan saturado, pues esto puede afectar directamente al rendimiento académico.  



METODOLOGÍA

El estudio parte desde un enfoque cuantitativo, partiendo de datos almacenados desde 2018 a la actualidad referente a los alumnos y las materias que cursan. Los pasos a seguir fueron los siguientes:   Recopilación de Datos.   Como se comentó, los datos ya se encontraban en bases de datos que requerían cierta limpieza y aplicación de filtros para su manejo efectivo, lo primero fue segmentar por periodos la información, así como filtrar los valores atípicos que por diversos motivos perjudican la investigación pues pueden crear sesgos irreales.   Uso de Tablas Dinámicas.   Mediante tablas dinámicas se organizó la información para vaciarla en formatos tabulares más esclarecedores, es a partir de aquí que se pueden hacer cálculos de tendencias, es decir, mediciones de media, moda, mediana, desviación estándar, varianza, entre otros.   Utilizando el promedio y los periodos se generaron gráficas para divisar si existían sesgos, crecimientos o decrecimientos con el paso del tiempo con respecto a la cantidad de alumnos por grupo.  


CONCLUSIONES

En conclusión, se espera (en promedio) que los alumnos que integren los distintos grupos, sean de entre 31 y 32 alumnos, sin embargo, hay una varianza estimada entre 44.35 y 88.18, por lo que resultaría más útil hacer pronósticos más específicos, es decir, por materias o docentes, en vez de pronósticos generales, pues estar expuestos a una variación tan notable puede traer errores de estimación y a su vez complicaciones para la logística de la oferta y selección de materias entre alumnos y docentes.   
Copado Lozano Luis Enrique, Universidad Autónoma de Sinaloa
Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa

MONITOREO DE OBRAS CIVILES MEDIANTE TECNOLOGíA SATELITAL


MONITOREO DE OBRAS CIVILES MEDIANTE TECNOLOGíA SATELITAL

Copado Lozano Luis Enrique, Universidad Autónoma de Sinaloa. Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El monitoreo de obras civiles (presas, puentes, edificios, etc.) es clave para predecir el comportamiento que puedan presentar los principales elementos que componen la estructura de dichas obras. Para ello, es importante desarrollar una metodología que nos permita obtener datos con altos estándares de precisión (milimétrica), además de una capacidad de respuesta inmediata. El estudio de las diferentes obras de infraestructura y las deformaciones presentes en ellas nos permitirá tomar decisiones acertadas enfocadas al mantenimiento estructural de la obra y así evitar fallas en su estructura que pueda ocasionar una catástrofe, que se ve reflejado no solo en altos costos de reparación, sino también en la calidad de vida de todas aquellas personas que se benefician de dicha obra. El presente tema de investigación propone alternativas al monitoreo de obras civiles mediante el uso de tecnología como lo son los Sistemas Globales de Navegación Satelital (GNSS), con la finalidad de simplificar los trabajos de monitoreo y ahorrar tiempo y recursos en la obtención y procesamiento de los datos.



METODOLOGÍA

Se desarrolló una metodología de monitoreo de obras civiles la cual consiste en la obtención de los desplazamientos en puntos estratégicos de la obra por medio de equipo GNSS. La técnica se desarrolla en los siguientes pasos: Planeación de las mediciones. Selección de los instrumentos y equipos. Obtención de datos en campo. Procesamiento de datos por medio de software especializado. Análisis de los desplazamientos obtenidos. En la planeación de las mediciones debemos proponer día y hora en que realizaremos la visita a campo de la obra en estudio, y a través de herramientas de planeación de levantamientos geodésicos, como Trimble GNSS Planning, evaluar si dicha propuesta es viable, ya que para obtener datos de campo precisos y confiables debemos de considerar factores como el número de satélites observables, así como las diferentes constelaciones de satélites y el DOP (Dilución de Precisión). Posteriormente, debemos seleccionar el equipo e instrumentos que llevaremos a campo. En este paso tenemos dos opciones, los equipos GNSS tradicionales y aquellos de bajo costo. Los equipos tradicionales consisten en receptores geodésicos de alta precisión, desarrollados por fabricantes especializados en el área como lo son Leica, Topcon, Trimble, entre otros. La ventaja de estos es que los fabricantes realizan pruebas a dichos equipos dando confiabilidad y seguridad al usuario que los adquiera, el manejo de la interfaz del equipo es sencillo lo que se ve reflejado en un ahorro considerable de tiempo, además que estos equipos son compatibles con el software especializado que cada fabricante ha desarrollado, por lo que facilita el procesamiento de los datos obtenidos durante las mediciones. Los equipos de bajo costo son aquellos que los profesionistas pueden construir en base a una serie de elementos de hardware (antena, sección de radio frecuencia, microprocesador, unidad de control, unidad de almacenamiento, fuente de alimentación). La principal ventaja de estos equipos es el costo, ya que presentan un ahorra de hasta del 90% con respecto a un receptor comercial; además, a partir de diferentes estudios se ha comprobado que los datos obtenidos entre un equipo de bajo costo a uno tradicional son prácticamente igual. La desventaja es el manejo de la interfaz, ya que se requiere de un ordenador en sitio para capturar los datos. Después, se deberá visitar la obra en estudio con la finalidad de obtener los datos de campo. En este punto es importante señalar que nuestros receptores geodésicos de alta precisión realizan mediciones con cierta frecuencia que podemos ajustar según las necesidades de estudio. Tenemos una frecuencia normal, la cual nos indica que se realizará una medición en un tiempo igual o mayor a 1 segundo (fs≥1seg), y tenemos una alta frecuencia que nos indica que el receptor realizará 5 o más mediciones por segundo (fs≥5HZ). La frecuencia que utilicemos en nuestro equipo para el levantamiento afectará la cantidad de datos obtenidos durante los trabajos de monitoreo. En sitio debemos identificar un punto de control estratégico, el cual deberá ser una zona despejada para evitar cualquier interferencia, y colocar un receptor base. Este punto de control tendrá que ser georreferenciado a una estación oficial de la Red Geodésica Nacional Activa de INEGI. Posteriormente a instalarse el punto de control, se deberá identificar los puntos estratégicos en la obra en estudio, como lo pueden ser los testigos en la cortina de una presa, puntos a lo largo del claro de un puente, entre otras. Esto con la finalidad de instalar un segundo receptor (rover) durante un lapso definido (mínimo 8 minutos) para realizar las mediciones correspondientes. Este proceso se deberá repetir en cada punto definido. Después de haber concluido con la obtención de datos en sitio, deberemos procesar los datos por medio de un software especializado. Este procesamiento se realizará con la técnica de GNSS Diferencial (DGNSS), el cual consiste en ajustar la información obtenida en los puntos estratégicos de la obra con respecto a nuestro punto de control, lo cual nos permitirá obtener una mayor precisión en nuestros puntos de monitoreo. Con la información ya procesada, se deberá analizar los desplazamientos obtenidos como coordenadas de nuestros elementos estructurales, y en base a las normas constructivas oficiales determinar si estos desplazamientos son permisibles o si presentan algún potencial peligro para la comunidad que se ven beneficiadas por dicha obra.


CONCLUSIONES

Esta técnica de monitoreo de obras civiles mediante tecnología GNSS ofrece a los ingenieros civiles, geodestas y cualquier otra rama relacionada a la construcción e infraestructura una alternativa confiable, eficiente, precisa y segura para realizar los estudios de Monitoreo de Salud Estructural (SHM: Structural Health Monitoring).
Cordoba Alvarez Bryan Abel, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa

IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA DETECCIóN DE OBJETOS Y MOVIMIENTOS MEDIANTE LAS APLICACIONES DE LAS REDES NEURONALES CONVOLUCIONALES Y YOLO


IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA DETECCIóN DE OBJETOS Y MOVIMIENTOS MEDIANTE LAS APLICACIONES DE LAS REDES NEURONALES CONVOLUCIONALES Y YOLO

Betancourt Rodriguez Miguel Angel, Instituto Tecnológico Superior de Apatzingán. Cordoba Alvarez Bryan Abel, Instituto Tecnológico Superior de Apatzingán. Lara Fernandez Jhonatan Omar, Instituto Tecnológico Superior de Apatzingán. Reyes Baeza Oliver Uriel, Instituto Tecnológico Superior de Apatzingán. Vallejo Vázquez Sanjuana Candelaria, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

A medida que la tecnología ha avanzado, la IA ha evolucionado desde algoritmos básicos hasta sofisticados modelos de aprendizaje profundo, mejorando significativamente la precisión y la eficiencia en múltiples aplicaciones. Desde los primeros enfoques en visión por computadora, la IA ha integrado técnicas innovadoras como las redes neuronales convolucionales (CNN) y el aprendizaje profundo para detectar y analizar objetos y movimientos en tiempo real. Al usar algoritmos de aprendizaje profundo y redes neuronales, los dispositivos pueden identificar y clasificar objetos con rapidez y precisión, lo que a su vez tiene un impacto positivo en la seguridad civil, la atención médica y la eficiencia operativa en múltiples industrias. Los avances en IA han potenciado la detección de objetos, movimientos y tiempos, destacando sus aplicaciones en diversos sectores, la inteligencia artificial está transformando la detección de objetos y movimientos, los desafíos asociados y las oportunidades emergentes en un mundo cada vez más interconectado.  La inteligencia artificial ha emergido como una herramienta crucial en la detección de objetos, movimientos y tiempos, revolucionando diversos sectores mediante la mejora de precisión y eficiencia en el análisis de datos. El artículo realizado a lo largo de la estancia se entrenó una inteligencia artificial con métodos diferentes y analizar los campos de aplicación en los cuales se utiliza la inteligencia artificial para la detección de objetos y movimientos de forma rápida y precisa.



METODOLOGÍA

Para el desarrollo de cada uno de los métodos se implementaron diferentes algoritmos y modelos de aprendizaje, así como bibliotecas y frameworks de software entre otras herramientas para lograr el objetivo de detectar los objetos y los tiempos de movimientos, así como medir las estadísticas de entrenamiento, precisión y la predicción en la detección de los objetos. Para esto, el primer experimento de prueba será un carro de juguete. El experimento con el carro de juguete se llevará a cabo en varias fases: ·      Preparación del Dataset. -      Se recopilarán imágenes del carro de juguete en diferentes posiciones, ángulos y condiciones de iluminación. -      Se etiquetarán las imágenes utilizando herramientas como LabelImg para identificar las partes del carro (carrocería, chasis, llantas, luces, etc.). ·      Configuración del Entorno de Desarrollo. -       Se instalarán y configurarán las bibliotecas y frameworks necesarios, como TensorFlow, PyTorch y OpenCV. -      Se utilizará YOLOv3 para la creación del dataset y YOLOv8 para el entrenamiento del modelo de detección de objetos. ·      Entrenamiento del Modelo. -      Se dividirá el dataset en conjuntos de entrenamiento y validación. -      Se ajustarán los hiperparámetros del modelo, como el número de épocas, la tasa de aprendizaje y el tamaño del lote. -      Se ejecutará el entrenamiento del modelo, monitorizando las métricas de rendimiento como la precisión, la sensibilidad y la especificidad. ·      Evaluación del Modelo. -      Se evaluará el rendimiento del modelo en un conjunto de datos de prueba no visto durante el entrenamiento. -       Se analizarán las métricas de rendimiento para determinar la eficacia del modelo en la detección de las partes del carro de juguete. -      Se realizarán ajustes en el modelo y se volverá a entrenar si es necesario para mejorar la precisión y la robustez. ·      Implementación y Pruebas en Tiempo Real. -       Se implementará el modelo entrenado en un entorno de producción. -      Se realizarán pruebas en tiempo real utilizando un flujo de video en directo para detectar y rastrear el carro de juguete. -      Se medirán los tiempos de respuesta y la precisión en la detección en diferentes condiciones de prueba. ·      Análisis de Resultados y Mejora Continua: -       Se recopilarán y analizarán los resultados obtenidos durante las pruebas en tiempo real. -      Se identificarán posibles áreas de mejora y se propondrán soluciones para optimizar el rendimiento del modelo. -      Se iterará sobre el proceso de entrenamiento y evaluación para refinar el modelo y mejorar su capacidad de detección y predicción.


CONCLUSIONES

El artículo destaca herramientas como OpenCV, TensorFlow y Keras, junto con otros recursos como GitHub, Python y Anaconda, son esenciales para el desarrollo y la implementación de soluciones de detección basadas en IA. En conclusión, la capacidad de la IA para detectar y seguir objetos y movimientos continuará evolucionando, impulsando la transformación y el progreso en numerosos sectores, y su futuro es prometedor en la modernización de nuestras interacciones con el mundo digital y físico El experimento inicial con el carro de juguete proporcionará una base sólida para el desarrollo y la validación del modelo de detección de objetos. Los conocimientos y experiencias obtenidos en este proceso serán fundamentales para abordar desafíos más complejos en futuros proyectos de detección y reconocimiento de objetos.
Cordoba Reyes Aldair, Universidad Autónoma de Tamaulipas
Asesor: Dr. Gabriela Cervantes Zubirías, Universidad Autónoma de Tamaulipas

MEJORA CONTINUA ATRAVES DE LA HERRAMIENTA DE LEAN MANUFACTURING PARA EL INCREMENTO DE LA PRODUCTIVIDAD


MEJORA CONTINUA ATRAVES DE LA HERRAMIENTA DE LEAN MANUFACTURING PARA EL INCREMENTO DE LA PRODUCTIVIDAD

Cordoba Reyes Aldair, Universidad Autónoma de Tamaulipas. Asesor: Dr. Gabriela Cervantes Zubirías, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

El Objetivo de Desarrollo Sostenible (ODS) número 9 se enfoca en   Industria, innovación e infraestructura. Este objetivo busca construir infraestructuras resilientes, promover la industrialización inclusiva y sostenible, y fomentar la innovación por tal motivo esta investigación se centra en la metodología de   Lean Manufacturing es una metodología ampliamente adoptada para mejorar la eficiencia y reducir desperdicios en los procesos productivos. Sin embargo, en el contexto actual, las empresas enfrentan diversas problemáticas que pueden dificultar la implementación efectiva de Lean Manufacturing y afectar su impacto en la productividad. Dentro de sus principales problemáticas son la resistencia al cambio, capacitación y habilidades, integración tecnológica, sostenibilidad, logística y cadena de suministro y variabilidad de los procesos. De los cuales para poder superar dichas problemáticas hay que desarrollar prácticas, así como ser conocedores de la correcta interpretación de la metodología Lean con sus herramientas. Si bien Lean Manufacturing ofrece numerosas ventajas para mejorar la productividad, las organizaciones deben estar preparadas para enfrentar y superar diversas problemáticas en su implementación. Al abordar estos desafíos de manera proactiva y estratégica, las empresas pueden maximizar los beneficios de Lean Manufacturing y lograr mejoras sostenibles en la eficiencia y productividad de sus operaciones.



METODOLOGÍA

La metodología seguida para realizar el articulo durante la estancia incluyó las siguientes etapas: Diagnóstico Inicial: Se realizó un análisis detallado sobre todo lo relacionado a la metodología Lean, así como la recopilación de información haciendo énfasis en algunos puntos importantes. Selección de Herramientas Lean: Se seleccionaron herramientas específicas de Lean Manufacturing como 5S, Mapa de Flujo de Valor (VSM), y Mantenimiento Productivo Total (TPM), etc. Implementación en actuales empresas: que impacto y beneficio aplicaron las herramientas Lean en las áreas identificadas, involucrando a los operarios y al personal de mantenimiento en los procesos productivos. Evaluación y Ajuste: Se monitorearon los resultados benéficos en las empresas que implementan Lean Manufacturing y se hicieron ajustes según fuese necesario para maximizar los beneficios. Monitoreo y Evaluación: Realicé un seguimiento constante de las investigaciones actuales, así como cambios implementados y evaluar su impacto en la productividad, así como dar una visión a futuro de la implementación de Lean Manufacturing. En si en este artículo se desarrolló mediante un análisis de información, el cual se incluyó la búsqueda, recuperación, crítica e interpretación de datos secundarios, generados y registrados en base de datos reconocidos explorando y enfatizando los resultados de productividad de varios artículos, revistas, libros, etc., que han implementado la metodología Lean Manufacturing en los últimos años, a través de una exhaustiva búsqueda y revisión bibliográfica que se relacione al tema a fin de esta investigación. Además, al hablar de la implementación de Lean Manufacturing no solo se enfoca en mejorar la eficiencia y productividad de las empresas, sino que también puede contribuir significativamente a los Objetivos de Desarrollo Sostenible. Al alinear sus prácticas con los ODS,  tales prácticas como brindar trabajo decente y crecimiento económico, fomentar el crecimiento de la industria, innovación e infraestructura, concientizar en la producción y consumo responsables, por lo cual las empresas pueden no solo alcanzar sus metas de negocio, sino también contribuir a un futuro más sostenible y equitativo.


CONCLUSIONES

Al formar parte de la estancia de verano 2024 en el programa Delfín en nombre de la UAT como estudiante del programa académico Ingeniero Industrial, enfocándome en el tema "Mejora Continua a través de la Herramienta de Lean Manufacturing para el Incremento de la Productividad". Esta experiencia me permitió aplicar los conocimientos teóricos adquiridos en la universidad en un entorno práctico, así como desarrollar y ampliar mis habilidades clave en gestión de procesos y mejora continua, así como implementar herramientas tecnológicas en contribución con mi conocimiento. La  metodología Lean Manufacturing se ha consolidado como una estrategia eficaz para incrementar la productividad en diversas industrias. Esta metodología, fundamentada en la eliminación de desperdicios, la mejora de la calidad y la optimización de procesos ha demostrado su capacidad para transformar las operaciones empresariales. La estancia Delfín fue una experiencia invaluable que me permitió no solo aplicar mis conocimientos en Lean Manufacturing, sino también desarrollar habilidades prácticas y profesionales para mi futuro como estudiante. Los resultados obtenidos en la realización del trabajo de investigación demostraron la efectividad de las herramientas Lean para mejorar la productividad y la eficiencia. Esta experiencia me preparó mejor para futuros desafíos profesionales en el campo de la gestión de operaciones y la mejora continua. Agradezco a la UAT y la UAM Reynosa Aztlán por la oportunidad de realizar esta estancia, y a mi mentor la Dra. Gabriela Cervantes Zubirias por su apoyo y guía durante todo el proceso. Me despido no sin antes recalcar que en este resumen refleja los aprendizajes, experiencia y resultados obtenidos durante mi estancia Delfín, destacando la importancia de las herramientas Lean Manufacturing en su impacto en la mejora continua y el incremento de la productividad.
Cordova Cruz Iris Adela, Instituto Tecnológico Superior de Los Ríos
Asesor: Mg. Nolberto Gutiérrez Posada, Corporación Universitaria Empresarial Alexander von Humboldt

MODELO DE SIMULACIóN EMPRESARIAL PARA LA FORMACIóN EN LA TOMA DE DECISIONES EN LOGíSTICA Y CADENAS DE ABASTECIMIENTO


MODELO DE SIMULACIóN EMPRESARIAL PARA LA FORMACIóN EN LA TOMA DE DECISIONES EN LOGíSTICA Y CADENAS DE ABASTECIMIENTO

Cordova Cruz Iris Adela, Instituto Tecnológico Superior de Los Ríos. González Cervantes Karla Yeray, Instituto Tecnológico de Morelia. Morales Bertruy David, Instituto Tecnológico Superior de Los Ríos. Nahuat Narvaez Gerardo Alberto, Instituto Tecnológico Superior de Los Ríos. Asesor: Mg. Nolberto Gutiérrez Posada, Corporación Universitaria Empresarial Alexander von Humboldt



PLANTEAMIENTO DEL PROBLEMA

En este proyecto se abordaron dos situaciones clave relacionadas con la toma de decisiones en la gestión empresarial. Utilizando los conocimientos teóricos adquiridos en clase, se llevó a cabo una simulación de gestión empresarial para una fábrica de automóviles. El proceso incluyó diversas áreas de trabajo y tiempos de espera en la aduana. A continuación se describe el flujo de trabajo en la simulación:   1. Recepción y Preparación de Pedidos:    - Compradores: Los compradores nacionales e internacionales preparan los pedidos utilizando un formato específico. El apartado deseado debe coincidir exactamente con el pedido.    - Confirmación de Pedido: Una vez recibido el pedido, se completa con la palabra recibido y se envía a la bodega de productos terminados. 2. Gestión de Productos Terminados:    - Verificación en Almacén: Se realiza un pedido al área de almacén de productos terminados, que verifica la disponibilidad de productos para cumplir con el pedido.    - Preparación y Envío: Los pedidos se preparan en contenedores, se confirma el pedido en un formato y se envía tanto a nivel nacional como internacional. 3. Montaje y Revisión:    - Montaje Final: Los carros de montaje final se trasladan a la bodega de productos terminados y se recibe el pedido de la bodega de insumos. Se confirma el recibo y se actualiza el inventario.    - Ensamble: Se realiza el ensamble utilizando todos los materiales disponibles en un sistema de tipo push. En el pre-ensamble, se encargan los componentes existentes para el montaje final y se confirma el pedido de la bodega de insumos. 4. Gestión de Inventario y Pedidos:    - Pedido a Bodega de Insumos: Se efectúa un pedido a la bodega de insumos utilizando otro formato. La bodega recibe los pedidos de los proveedores, realiza inspecciones, y actualiza el inventario.    - Condiciones de Pedido:       - Pedido Internacional: No se pueden solicitar más de 38 piezas. Si no requiere revisión, el pedido tarda 2 etapas en llegar (etapa 1 al 3). Si requiere revisión, el pedido tarda 3 etapas (etapa 1 al 4).      - Pedido Nacional: No se pueden solicitar más de 45 piezas. El pedido tarda 2 etapas en llegar. 5. Manejo de Proveedores:    - Recepción y Clasificación: Los proveedores entregan pedidos, que se inspeccionan y se clasifican en buen o mal estado. El material en buen estado se coloca abajo en el contenedor y el de mala calidad arriba.    - Actualización de Inventario y Envío: Se actualiza el inventario y se envían los pedidos conforme a las solicitudes recibidas. Este enfoque asegura una gestión eficiente de los recursos y tiempos de espera en la aduana México-Colombia, en base una revisión bibliográfica, optimizando el proceso de producción y distribución.



METODOLOGÍA

Basados en el layout de la cadena de abastecimiento, se estableció la condición inicial para cada una de los roles de la simulación. Se establecieron las instrucciones de desarrollo de cada rol para que la simulación se realizara bajo condiciones controladas. Se establecieron los formatos requeridoa para la requisición entre los diferentes roles. Se validó el desarrolloo operativo de la simulación bajo esquemas ofimáticos. Se realizó la comparación de la simulación con conceptos teóricos.


CONCLUSIONES

La simulación empresarial brinda a los estudiantes la capacidad de aplicar sus conocimientos teóricos en un contexto práctico. Esta herramienta fortalece sus competencias en la toma de decisiones, gestión de inventarios y optimización de la cadena de suminstro a traves de la implementación de sistemas push y pull. Asimismo, los estudiantes adquieren habilidades en la gestión financiera y de recursos, el manejo de la logistica internacional y nacinal; por otra parte, promueve el pensamiento crítico, la resolución de porblemas y el trabajo en equipo, ofrecieno una experiencia educativa completa y realista que mejora la eficiencia y reduce los costos de producción. Dentro de los resultados obtenidos se encuntran los siguientes; - Se modificaron de manera exitosa las instrucciones de cada puesto, teniendo como resultado el éxito del simulador. - Se validaron los procesos de cada puesto de trabajo para que haya una continuida. - Se realizaron los modelos graficos de las distintas áreas de trabajo. - Se realizaron modificaciones en los formatos de Excel, en la parte de inventarios, facturas y formulas para crear un flujo entre todas las hojas de cada puesto de trabajo.
Cornelio Feliciano José Alberto, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

APLICACIóN DE INTELIGENCIA ARTIFICIAL EN LA EVALUACIóN Y MITIGACIóN DE AMENAZAS EN ENTORNOS IOMT MEDIANTE TéCNICAS INTELIGENTES NO SUPERVISADAS


APLICACIóN DE INTELIGENCIA ARTIFICIAL EN LA EVALUACIóN Y MITIGACIóN DE AMENAZAS EN ENTORNOS IOMT MEDIANTE TéCNICAS INTELIGENTES NO SUPERVISADAS

Cornelio Feliciano José Alberto, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La creciente adopción de Internet de las Cosas Médicas (IoMT) ha transformado la atención sanitaria al mejorar la conectividad y eficiencia de los dispositivos médicos. Sin embargo, este avance también ha expuesto a estos sistemas a una amplia gama de ciberataques que pueden comprometer la seguridad y privacidad de los datos médicos. La protección de estos entornos IoMT se ha convertido en una prioridad, ya que las fallas de seguridad no solo amenazan la integridad de los datos, sino también la salud de los pacientes. El desafío central de este proyecto es identificar y mitigar eficazmente las amenazas de seguridad en entornos IoMT mediante el uso de técnicas de inteligencia artificial no supervisadas. Estas técnicas son particularmente valiosas en contextos donde no se dispone de datos etiquetados, lo que es común en el ámbito de la ciberseguridad.



METODOLOGÍA

Revisión de Literatura: Se realizó una revisión de estudios recientes sobre la detección de tráfico malicioso y ciberataques en IoT e IoMT. Esta revisión permitió identificar las técnicas más relevantes y enfoques innovadores en el campo. Duración: Semanas 1 y 2. Definición de Ataques: Utilizando un dataset específico, se categorizó el tráfico en benigno y malicioso, lo que permitió definir las características de los ataques. Duración: Semanas 3 y 4. Implementación de Algoritmos: Se implementaron y evaluaron varios algoritmos de detección de anomalías, incluidos K-Means, Isolation Forest, One-Class SVM y Local Outlier Factor (LOF). Estos algoritmos fueron seleccionados por su capacidad para detectar comportamientos anómalos sin la necesidad de datos etiquetados. Duración: Semanas 3 y 4. Evaluación del Desempeño: Los algoritmos se evaluaron utilizando métricas como precisión, tasa de falsos positivos y recall. Esta evaluación permitió comparar la eficacia de cada algoritmo en la detección de amenazas en entornos IoMT. Duración: Semanas 5 y 6.


CONCLUSIONES

Los resultados obtenidos en este proyecto demostraron que los algoritmos no supervisados son efectivos para la detección de amenazas en entornos IoMT. En particular, técnicas como Isolation Forest y One-Class SVM mostraron una alta precisión y una baja tasa de falsos positivos, lo que sugiere su potencial para ser implementadas en sistemas de seguridad de dispositivos médicos conectados. El proyecto subraya la importancia de utilizar técnicas de inteligencia artificial no supervisadas en la ciberseguridad de IoMT, especialmente en situaciones donde no se dispone de datos etiquetados. Sin embargo, también se identificaron desafíos, como la necesidad de mejorar la escalabilidad y la eficiencia computacional de estos algoritmos, lo cual es crucial para manejar grandes volúmenes de datos en tiempo real.
Cornelio Salinas Sergio Alejandro, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato

APLICACIONES MóVILES DE REALIDAD AUMENTADA Y VIRTUAL


APLICACIONES MóVILES DE REALIDAD AUMENTADA Y VIRTUAL

Cornelio Salinas Sergio Alejandro, Instituto Tecnológico Superior de Guanajuato. Rodriguez Cuevas Frida Sofia, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La Realidad Aumentada (AR) es utilizada para combinar el entorno físico con elementos virtuales (imágenes, videos, archivos 3D) que pueden o no interactuar con el usuario para diferentes fines, mientras que la Realidad Virtual (VR) muestra un ambiente completamente de forma digital, es decir, se pueden ver recreaciones virtuales del entorno o avatares, siendo muy utilizada con videojuegos que utilizan gafas. MindAR es una biblioteca que permite utilizar realidad aumentada en proyectos web de código abierto, el cual posibilita al desarrollador a crear diferentes trabajos de acuerdo con las necesidades del mismo. A-Frame es un framework basado en la web que facilita la creación de experiencias de realidad virtual (VR) inmersivas utilizando HTML. Esta herramienta de código abierto permite a los desarrolladores construir entornos virtuales interactivos de manera accesible y eficiente.



METODOLOGÍA

Con base a la información recopilada, se realizaron dos pruebas diferentes con estas tecnologías, la primera fue una escena de bosque nocturno para demostrar la capacidad de A-Frame para combinar elementos visuales y efectos interactivos en un entorno 3D, la siguiente es mostrar el objeto animado sobre el mismo una vez que se abra la cámara de un dispositivo. Como primera fase del bosque nocturno se investigó acerca de los componentes y recursos de A-Frame para comprender cómo implementar elementos 3D, efectos visuales y sonidos en la escena, para crear un diseño preliminar que incluye la disposición de árboles, arbustos, rocas, una fogata interactiva, y una cascada con reflejos. Después, se preparó el entorno de desarrollo utilizando un editor de código (Visual Studio Code) para editar el archivo HTML, donde se incorporaron las librerías de A-Frame y componentes adicionales necesarios para la escena. Durante el desarrollo, se realizaron pruebas de funcionamiento de los elementos interactivos y la apariencia de la escena, para ajustar la disposición de los elementos y optimizar los recursos para una experiencia fluida y visualmente atractiva. La escena se publica en un servidor web o repositorio (por ejemplo, GitHub Pages) para permitir el acceso y la visualización en línea. En la prueba de la realidad aumentada, de igual manera se reunió información del sitio oficial del MindAR para conocer las funcionalidades del mismo, así como algunos ejemplos más elaborados para enfocarlo con diferentes elementos del entorno físico e interactuar con ellos. Luego, con apoyo de algún editor de código (se utilizó VisualStudio Code), se desarrolla la página web, agregando las librerías de MindAR y etiquetas necesarias para su funcionamiento. Para efectos del proyecto, se hace uso de una imagen de referencia como compilador y que se pueda mostrar el objeto animado sobre el mismo una vez se abra la cámara del dispositivo.  Para que se pueda visualizar el resultado desde cualquier dispositivo externo, el proyecto se alojó en GitHub, el cual puede generar URLs públicas para que, al abrirlas, pueda ejecutar el código de la página y mostrar el resultado.


CONCLUSIONES

Ambas tecnologías se basan en procesos computacionales similares, permitiendo la construcción de entornos interactivos y visualmente mejorados donde se puede controlar su propia realidad, convirtiéndolas al mismo tiempo en realidades con propiedades diferentes.
Corona Núñez Carlos Enrique, Universidad Mexiquense del Bicentenario
Asesor: Lic. Arisbeth Álvarez Marín, Tecnológico de Estudios Superiores de Villa Guerrero

SISTEMA WEB PARA LA CREACIóN Y ASIGNACIóN DE HORARIOS.


SISTEMA WEB PARA LA CREACIóN Y ASIGNACIóN DE HORARIOS.

Aquino Cruz Josue, Universidad Tecnológica Paso del Norte. Corona Núñez Carlos Enrique, Universidad Mexiquense del Bicentenario. Hernandez Guillen Zury Saday, Universidad Tecnológica Paso del Norte. Melchor Mariscal Andres Daniel, Universidad Tecnológica Paso del Norte. Asesor: Lic. Arisbeth Álvarez Marín, Tecnológico de Estudios Superiores de Villa Guerrero



PLANTEAMIENTO DEL PROBLEMA

El proyecto de investigación "Sistema Web de Creación y Asignación de Horarios para la División de Ingeniería en Sistemas del Tecnológico de Estudios Superiores de Villa Guerrero" tiene como finalidad desarrollar una plataforma digital que mejore la planificación y asignación de horarios académicos dentro de la división. Este sistema está diseñado para optimizar la gestión de horarios, facilitando la coordinación entre profesores, estudiantes y la asignación de recursos disponibles. Objetivos del Proyecto Automatización de la Creación de Horarios: Desarrollar un sistema que genere automáticamente horarios académicos eficientes, adaptados a las necesidades específicas de la División de Ingeniería en Sistemas, considerando restricciones como disponibilidad de docentes, asignaturas y aulas. Optimización de Recursos Académicos: Mejorar el uso de espacios y recursos, evitando conflictos y solapamientos en la programación de clases y actividades. Interfaz Intuitiva y Accesible: Diseñar una interfaz de usuario sencilla y fácil de usar que permita a docentes y estudiantes consultar y gestionar sus horarios de manera eficiente. Mejora de la Comunicación y Coordinación: Implementar un sistema de notificaciones para informar a todos los usuarios sobre cambios en los horarios y actividades, mejorando la coordinación interna.



METODOLOGÍA

Metodología El proyecto sigue una metodología ágil que se desarrolla en varias fases: Análisis de Requisitos: Se realizan entrevistas y encuestas con docentes, estudiantes y administradores de la División de Ingeniería en Sistemas para identificar las necesidades y desafíos actuales en la planificación de horarios. Diseño del Sistema: Se diseña la arquitectura del sistema y se crean prototipos de interfaz utilizando tecnologías web modernas, asegurando que el sistema sea escalable y fácil de usar. Desarrollo e Implementación: Se lleva a cabo la programación del sistema utilizando herramientas como HTML5, CSS3, JavaScript, y bases de datos como MySQL, siguiendo prácticas de integración continua para garantizar la calidad del software. Pruebas y Validación: Se realizan pruebas exhaustivas con usuarios finales, incluidas pruebas de usabilidad y funcionalidad, para asegurar que el sistema cumpla con los requisitos y expectativas. Despliegue y Capacitación: Se despliega el sistema en el entorno académico y se ofrece capacitación a los usuarios para asegurar que puedan utilizarlo de manera efectiva. Evaluación y Mejora Continua: Se monitorea el desempeño del sistema y se recopila feedback de los usuarios para implementar mejoras continuas y adaptar el sistema a las necesidades cambiantes de la división.


CONCLUSIONES

Resultados Esperados La División de Ingeniería en Sistemas del Tecnológico de Estudios Superiores de Villa Guerrero dispondrá de una herramienta eficiente para la gestión de horarios, mejorando la organización y uso de recursos académicos. El sistema contribuirá a aumentar la satisfacción de estudiantes y profesores al facilitar la consulta y administración de horarios, así como a optimizar los procesos administrativos relacionados con la programación de actividades académicas.
Corona Rodriguez Ana Karen, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor: Mg. Andres Yamil Martinez Choles, Universidad de la Guajira

ANáLISIS COMPARATIVO DEL EMPRENDIMIENTO MIGRANTE ENTRE MéXICO, NICARAGUA Y COLOMBIA


ANáLISIS COMPARATIVO DEL EMPRENDIMIENTO MIGRANTE ENTRE MéXICO, NICARAGUA Y COLOMBIA

Corona Rodriguez Ana Karen, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Vanegas Nolasco María Inés, Universidad Nacional Autónoma de Nicaragua, Managua. Asesor: Mg. Andres Yamil Martinez Choles, Universidad de la Guajira



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, las migraciones han emergido como un desafío significativo tanto en el ámbito político como normativo, particularmente en lo que respecta a la seguridad migratoria y la gestión de fronteras. Este fenómeno ha sido impulsado por el aumento considerable en los volúmenes de desplazamientos, lo que exige la implementación de políticas más robustas y efectivas para manejar los flujos migratorios de manera segura y ordenada. En este sentido, los factores causales de las migraciones son fuerzas de tipo económico, político, demográfico, ambiental y sociocultural. Los factores que facilitan o impiden la migración influyen de manera importante en la capacidad de las personas o familias de trasladarse a otro país International Organization for Migration. (s.f.).  Es por ello que según la Organización Internacional para las Migraciones. (2021), existe el emprendimiento como medio para que los migrantes consigan seguridad financiera y autosuficiencia, impactando el bienestar de sus familias y comunidad. Siendo también fuente de empleo y proveedores de ingresos a otros miembros de la comunidad migrante o nacionales. Ahora bien, desde latinoamérica, para Vásquez (2023), a pesar de las mejoras en la última década, la situación en América Latina sigue siendo alarmante en términos de desigualdad como causa de la migración, donde América Latina es la segunda región más desigual del mundo, con un coeficiente de desigualdad Gini de 0.52. Solo es superada por el África Subsahariana, que tiene un coeficiente de 0.56. En comparación, Asia tiene un coeficiente de 0.44 y Europa del Este y Asia Central tienen un coeficiente de 0.34, lo que coloca a América Latina en una posición crítica en cuanto a desigualdad socioeconómica. Esta persistente desigualdad destaca la necesidad de implementar políticas efectivas para reducir las disparidades y promover un desarrollo más equitativo en la región. Para el caso de México, señala Juárez (2023), el flujo migratorio en México, considerado como país de tránsito, ha experimentado cambios debido a diversos fenómenos económicos, sociales, políticos e incluso meteorológicos en los países de origen de los migrantes. Finalmente, se analizará conceptual y teóricamente para posteriormente hacer una comparación, así como hacer un estado del arte del emprendimiento migrante entre México, Nicaragua y Colombia. Se intenta con ello tener un acercamiento a esta temática desde la labor académica en México y Nicaragua para profundizar sobre la realidad de los empresarios migrantes que han crecido en las últimas décadas. Para ello se recurrirá al método documental, donde se hará una selección amplia del material para llegar a conclusiones y propuestas de investigación. Se utilizará un criterio cronológico de cinco años, después geográfico y cronológico para analizar el estado del arte. 



METODOLOGÍA

Se llevó a cabo un estudio descriptivo, basado en lo expuesto por Hernández et al, (2014), quienes afirman que este tipo de estudio pretende medir o recoger información de manera independiente o conjunta sobre las variables, sin necesariamente indicar cómo se relacionan. Bernal et al (2012) señalan que las investigaciones descriptivas muestran rasgos o características de un objeto de estudio, sin explicar las razones detrás de estos fenómenos. La investigación descriptiva se guía por las preguntas de investigación formuladas por el investigador y se soporta en técnicas como encuestas, entrevistas, etc. La presente investigación se desarrolla bajo un enfoque cuantitativo, que utiliza la recolección de datos (Sabino, 2012). Las principales características de este enfoque, sustentadas por los autores mencionados, son importantes para la validez del muestreo representativo de la población, obteniendo conclusiones útiles a partir de razonamientos deductivos sobre las variables determinadas. Esta investigación se desarrolla dentro del enfoque cuantitativo, planteando la medición de datos para lograr mayor coherencia, pertinencia y confiabilidad. Esta investigación se enmarca dentro de un diseño no experimental, transeccional o transversal. Según Hernández et al. (2014), los diseños no experimentales observan los fenómenos tal como se dan en su contexto natural para ser analizados. Esta investigación recolectó información de fuentes primarias y secundarias de fuentes confiables estadísticas y documentales. En cuanto a los instrumentos de recolección de la información, según Hernández et al. (2016), la técnica de recolección de datos consiste en vías a través de las cuales el investigador registra datos observables que representan verdaderamente los conceptos o variables que se pretende medir. Con relación a la recolección de los datos de los artículos se realizó una hoja de trabajo en Excel, que se detalló para evidenciar cuál de estos compartían elementos comunes para con ello delimitar los conceptos encontrados. 


CONCLUSIONES

Mediante esta estancia se logró indagar sobre el emprendimiento migrante entre México, Nicaragua y Colombia en donde se pudo observar la necesidad que hay de supervivencia económica, la cual impulsa a muchos migrantes a emprender y a enfrentar desafíos.  Al comparar las prácticas emprendedoras entre los migrantes de estos tres países mediante datos cuantitativos recopilados se descubrió que el comercio es una fuente de emprendimiento que en los tres países se utiliza. México, como país, tiene una serie de ventajas para los extranjeros que les permite emprender con mayor facilidad, de igual manera en Nicaragua, los provenientes de países de la región tienen mayor peso relativo en el sector primario (27,3%), que llega hasta el 41% en los hondureños y le sigue el comercio con (21,1%). En Colombia el 77% de los emprendimientos son liderados por mujeres, y de ellas, el 56% son jefas de hogar. Por otro lado, el proporcionar recomendaciones para mejorar las políticas y programas de apoyo al emprendimiento migrante y colaboración entre emprendedores facilitando así la formalización de negocios.
Coronado Cabrera Bryan Axl, Universidad de Guadalajara
Asesor: Ing. Alejandro Amaro Flores, Instituto Tecnológico de Morelia

SISTEMA WEB HíBRIDO PARA GESTIóN DE ENCUESTAS INSTITUCIONALES EN EL INSTITUTO TECNOLóGICO DE MORELIA: CUMPLIMIENTO DE NOM151-SCFI-2016 E ISO/IEC 25010:2011


SISTEMA WEB HíBRIDO PARA GESTIóN DE ENCUESTAS INSTITUCIONALES EN EL INSTITUTO TECNOLóGICO DE MORELIA: CUMPLIMIENTO DE NOM151-SCFI-2016 E ISO/IEC 25010:2011

Coronado Cabrera Bryan Axl, Universidad de Guadalajara. Diaz Angel, Universidad de Guadalajara. Martinez Hernandez Jesus Eduardo, Universidad de Guadalajara. Medina Guerrero Manuel Fernando, Universidad de Guadalajara. Mendoza Garcia Miguel Angel, Universidad de Guadalajara. Quintero Garcia Oliver Israel, Universidad de Guadalajara. Asesor: Ing. Alejandro Amaro Flores, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En el Tecnológico Nacional de México Campus Morelia, la gestión de encuestas dirigidas a los miembros de la institución presenta varios desafíos significativos. Actualmente, las encuestas no están homologadas ni integradas, lo que genera fragmentación y falta de consistencia en la recolección de datos. Algunas encuestas se administran a través del sistema escolar vigente, mientras que otras utilizan plataformas comerciales como Microsoft y Google. Esta diversidad de plataformas dificulta la centralización y el acceso a los resultados para todos los involucrados en los procesos de toma de decisiones. Además, muchas de estas encuestas no se han actualizado en más de una década, aunque las necesidades y circunstancias de la institución evolucionaron mucho en ese tiempo. Esta falta de actualización limita la relevancia y efectividad de las encuestas para abordar las necesidades actuales de estudiantes, docentes y administrativos. En consecuencia, la institución carece de un sistema unificado y moderno que permita una gestión eficiente y un análisis integral de los datos recolectados, afectando la capacidad para tomar decisiones informadas y mejorar continuamente la calidad educativa.



METODOLOGÍA

1. Análisis de Requerimientos Identificación de los requisitos funcionales y no funcionales. Estudio de la base de datos existente para integración con la tabla de usuarios. Determinación de roles y permisos necesarios para el acceso al sistema. 2. Diseño del Sistema · Arquitectura del Sistema: o MVC-Componentes. o Framework Laravel con Livewire. o Base de datos relacional PostgreSQL para la gestión de áreas, roles, permisos, usuarios y encuestas.   · Diseño de la Base de Datos: o Tablas para almacenar encuestas, preguntas, respuestas y resultados. o Integración con la tabla de usuarios existente. Interfaces de Usuario: Formularios para la creación y administración de encuestas. Interfaces para la participación de encuestas por parte de estudiantes, docentes y administrativos. Panel de administración para jefes de área con acceso a resultados y generación de reportes. 3. Desarrollo del Sistema: Desarrollo de formularios dinámicos para la creación de encuestas. Implementación de mecanismos de autenticación y autorización basados en roles. Interfaces amigables para la participación de encuestas. Lógica de negocio para la asignación de encuestas a roles específicos. Generación de reportes en PDF utilizando bibliotecas como DomPDF o jsPDF (JavaScript). 4. Pruebas: Pruebas Unitarias: Verificación de la funcionalidad individual de los componentes del sistema. Pruebas de Integración: Aseguramiento de la correcta interacción entre los componentes del sistema. Pruebas de Usuario: Evaluación de la usabilidad y efectividad del sistema mediante pruebas con usuarios finales. 5. Implementación y Despliegue: Despliegue del sistema en un entorno de producción. Capacitación a los usuarios (jefes de área) para la administración de encuestas y análisis de resultados. 6. Mantenimiento y Actualización: Monitoreo continuo del sistema para identificar y corregir errores. Actualización del sistema con nuevas funcionalidades según las necesidades de los usuarios. Resultados Esperados Sistema web funcional y seguro para la gestión de encuestas en la institución. Mejora en la eficiencia de recolección y análisis de datos. Facilidad para la evaluación individual de docentes y administrativos. Generación de reportes detallados en PDF para la toma de decisiones.


CONCLUSIONES

La implementación de este sistema web proporcionará una herramienta eficiente y robusta para la creación y gestión de encuestas dentro de la institución educativa. Facilitará la recolección de datos, mejorará la toma de decisiones y permitirá una evaluación más detallada de los docentes y administrativos, contribuyendo al desarrollo continuo de la calidad educativa.
Coronado Cob Jose Antonio, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE UNA APLICACIóN MóVIL CON REALIDAD AUMENTADA PARA LA ENSEñANZA DE LA NEUROCIENCIA EN LA COMUNIDAD ESCOLAR


DESARROLLO DE UNA APLICACIóN MóVIL CON REALIDAD AUMENTADA PARA LA ENSEñANZA DE LA NEUROCIENCIA EN LA COMUNIDAD ESCOLAR

Coronado Cob Jose Antonio, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La salud en la comunidad escolar suele ser deplorable, esto es así debido a una serie de factores que afectan negativamente el bienestar de los estudiantes de todos los niveles educativos. Desde la preparatoria, los estudiantes enfrentan una carga académica como los son las tareas, investigaciones y demás. Una de las causas puede ser que combinen el estudio con algún trabajo y eso hace que los estudiantes se descuiden. Estudiantes de preparatoria y universidad deciden trabajar medio tiempo para cubrir gastos personales y académicos. Esto resulta ser difícil de manejar y, por ende, los estudiantes descuidan su salud debido a la falta de tiempo y energía. Los estudiantes universitarios pueden empeorar su situación. Los proyectos universitarios, las investigaciones y las prácticas profesionales requieren una mayor ocupación de tiempo. Los estudiantes frecuentemente experimentan problemas de salid mental, como ansiedad y depresión, debido a la presión académica. Por otra parte, debido a la falta de tiempo puede resultar en hábitos alimenticios poco saludables y también física y/o mental.



METODOLOGÍA

En este apartado se describe las técnicas y métodos usados para la recolección de información sobre la salud de la comunidad escolar en todos los niveles educativos, en la que se le tomó más relevancia a la salud alimentaria y mental. De acuerdo con esto, el objetivo es mejorar la salud de la comunidad escolar con un enfoque en el cerebro humano, es decir, la salud mental. 1. Recolección de información. Se realizó una investigación sobre el cerebro humano. En esta investigación, se buscaron las áreas del cerebro humano, su clasificación y el grupo al que pertenece cada área. Se realizó un esquema de los lóbulos cerebrales que mostró las áreas funcionales de la corteza cerebral y del cerebelo. A través de imágenes, se identificaron las ubicaciones y divisiones de cada área. Al mismo tiempo, se analizaron las áreas de Brodmann para identificar cada región del cerebro. Una vez identificadas, se seleccionaron las áreas específicas con las que trabajar, las cuáles son Frontal, Parietal, Occipital y Temporal. 2. Análisis de herramientas tecnológicas. Se comenzó con la búsqueda de herramientas tecnológicas para el desarrollo de la aplicación. Se analizaron las opciones que cuentan con AR, entre ellos estuvo ARFoundation, Vuforia y también EasyAR. Obtuvimos las ventajas y desventajas de cada uno, las analizamos de acuerdo con el plan de desarrollo, ya que se tenía una idea en concreto. Aunque con EasyAR y Vuforia era más la cantidad de dispositivos compatibles, pero decidimos escoger ARFoundation, una de las razones por la cual se escogió es por la manera en que se quería trabajar con AR, esta tecnología nos permitía que le modelo 3D para AR sería más interactivo para los usuarios. Una de las desventajas fue lo contrario a las otras dos tecnologías, no es compatible con varios dispositivos. Y para el desarrollo de la aplicación se decidió usar Unity. 3. Planificación del desarrollo de la aplicación Con las tecnologías ya seleccionadas para trabajar se realizó el diseño de nuestra aplicación. El diseño se realizó en Figma, una tecnología para realizar prototipos. Planeamos interfaces en el cual se dividieron en 4: - Menú: cuenta con 3 opciones que dirigirán a otras interfaces.        - ¡Ejercita tu mente!: este dirige a una interfaz con dos           minijuegos cómo opciones y son un memorama y un quiz.       - ¿Mejorar la mente?: este dirige a una interfaz en el que habrá consejos para mejorar la salud mental.      - AR: este dirige a una interfaz que usa la cámara y se podrá observar las áreas del cerebro. - Minijuegos: cuenta con dos opciones, el memorama y el quiz, cada uno dirigirá a una interfaz diferente ya sea el que se escoja para interactuar. - Memorama: en esta interfaz se encuentra el minijuego, en el que el objetivo es encontrar la carta par. - Quiz: en esta interfaz se encuentra el segundo minijuego, en el que las preguntas serán sobre la información del cerebro, cuenta con 4 opciones y tiempo para responder las preguntas.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos sobre el cerebro humano, debido a las investigaciones que se realizaron sobre este órgano. Pude conocer que el cerebro se divide en diferentes áreas y que en cada una de estas áreas tienen una funcionalidad en específico. Lo más sorprendente es saber que existen lóbulos y son llamados Frontal, Parietal, Occipital y Temporal, yo desconocía esta información y es un claro ejemplo que gracias a la tecnología se puede aprender mucho más. Partiendo de esto, la aplicación desarrollada promueve el conocimiento de la neurociencia y es importante saber sobre ella, nuestro público fue la comunidad escolar de todos los niveles educativos y es una experiencia única poder unir mis conocimientos de desarrollo de software y la neurociencia porque con estas dos se puede dar a conocer información importante que mejora y estimula el aprendizaje a estudiantes desde preescolar hasta la universidad.
Coronado Ibarra Isaac, Instituto Tecnológico de San Luis Potosí
Asesor: Dr. Javier Bernardo Cabrera Mejia, Universidad Católica de Cuenca

REDES ELéCTRICAS INTELIGENTES


REDES ELéCTRICAS INTELIGENTES

Coronado Ibarra Isaac, Instituto Tecnológico de San Luis Potosí. Asesor: Dr. Javier Bernardo Cabrera Mejia, Universidad Católica de Cuenca



PLANTEAMIENTO DEL PROBLEMA

El ODS 7 busca garantizar el acceso a una energía asequible, segura, sostenible y moderna para todos. Actualmente, según datos del informe Tracking SDG 7: The Energy Progress Report 2023 hay 675 millones de personas que viven sin electricidad en todo el mundo, y el reto de dotar de energía es un problema de ámbito mundial, es por eso que, las energías alternativas o renovables son una gran alternativa a más de reducir la huella de carbono. El uso de energía eléctrica es una necesidad en la vida diaria pues, la mayoría de los aparatos se han desarrollado con base en esta, sin embargo, el almacenamiento y uso general de la misma conlleva un alto coste económico debido a su forma de generarla, sin embargo, se han ido presentando en la actualidad diversas alternativas para minimizar los gastos antes mencionados y a su vez, ser una fuente más limpia y amigable con el medio ambiente. La sostenibilidad es un concepto reciente que cada vez está más presente en la sociedad actual debido al alto consumo de recursos que se ha observado durante los últimos años, el cual se vuelve inestable mientras la población sigue aumentando, por lo que, preservar los recursos para las generaciones futuras se ha vuelto una discusión mundial que abarca todas las áreas, desde la ganadería hasta la forma en la que se producen automóviles y la energía eléctrica. La producción de energía eléctrica por medio de la energía solar o eólica se ha vuelto factible debido a los avances que se han propiciado durante los últimos años, sin embargo, para el máximo aprovechamiento es necesario unas condiciones climáticas adecuadas.



METODOLOGÍA

El enfoque planteado para esta investigación es del tipo cuantitativo, debido a las técnicas para la recolección de datos así como su posterior análisis, pues, para las etapas siguientes de la investigación e instalación de la red eléctrica se toman en cuenta las condiciones meteorológicas proporcionados por una base de datos, es decir, la producción eléctrica recae en únicamente factores ambientales tales como ráfagas de viento o la radiación solar, las cuales pueden ser agrupadas en patrones y analizadas.  El análisis de datos es de forma cuasi experimental, pues, los datos meteorológicos registrados en la zona los cuales son usados posteriormente para realizar simulaciones no son alterados o forzados artificialmente por el investigador, más bien, se analizan en su medio, únicamente observando los cambios naturales que se dan en los grupos de variables seleccionados, en este caso, las ráfagas de viento, temperatura, radiación solar, entre otras. Las variables que se analizaron se agruparon en una base de datos, donde cada hora y día del año se registraron los valores correspondientes en Excel, documento en el cual, se obtuvieron los valores promedio, mínimos y máximos por día, semana y mes del año, pudiendo observar si las condiciones climatológicas son aptas para la instalación de las nuevas tecnologías enfocadas en energías renovables, tomando en cuenta además si la infraestructura necesaria para dicha instalación se acopla a la arquitectura de la zona. Posteriormente se llevó una etapa de recolección de datos esta vez enfocado en analizar la demanda, donde de igual forma se realizó un archivo en Excel con el consumo por mes y año, la cual sirve como punto de partida en la selección de los aparatos que transformarán la energía solar o eólica en energía eléctrica, pues, la capacidad de producción de energía tiene que ser la suficiente para poder sustentar la comisión requerida por la Universidad Católica de Cuenca. Luego del análisis de datos meteorológicos, su agrupación y comparación, se realiza la etapa de simulación con el software de Simulink, en donde se introducen tanto los valores reales como los dispositivos a utilizar, en este caso se usará un aerogenerador de 600 watts y un panel fotovoltaico conectado a la red eléctrica, donde los resultados de la simulación determinarán si es realmente viable realizar la inversión en la integración de la red eléctrica inteligente.


CONCLUSIONES

Una vez recopilados los datos meteorológicos, se procesan en Excel obteniendo los valores mínimos, máximos y promedios de cada mes del año 2020, a su vez, se realizan gráficas donde se puede observar de manera visual el comportamiento natural de las variables, siguiendo con esto, dichos valores se introducen en las simulaciones donde se visualizan algunos de los resultados aproximados en cuestión de potencia, ya que, en la simulación se toma en cuenta condiciones invariables. Los resultados de las simulaciones, así como del análisis climatológico resultaron favorables para la instalación de la infraestructura que abastecerá de energía la Universidad Católica de Cuenca, debido a que la región muestra condiciones climatológicas favorables, sumado a que, la arquitectura del edificio permite el acople de ambas fuentes de energías para así abastecer la demanda promedio anual de la Universidad, fomentando el avance en los objetivos de la ONU. La producción de energía, representa actualmente en el mundo el 33% de las emisiones totales, mayormente por la quema de combustibles fósiles, quema de carbón y uso de gases naturales, en la región de América Latina, las emisiones de este sector representan el 40.2% del total, por lo que, la implementación de nuevas formas para generar energía eléctrica tales como la propuesta, representan un paso hacia la disminución de dichas emisiones, ya que, los costos de las energías renovables son cada vez menores. Observando las cantidades de energía eléctrica que se produce gracias a las energías renovables en las condiciones climatológicas de la región de Cuenca, se puede concluir que la instalación de una red eléctrica inteligente beneficiaría a la institución, pues, la producción estimada satisface correctamente las necesidades energéticas de la misma, sin embargo, sería necesario acoplar correctamente tanto el aerogenerador como los paneles solares para una máxima producción.
Corrales Bautista Christa Yvonne, Universidad Politécnica de Atlautla
Asesor: Mg. Angelica Maria Aguirre Bertel, Corporación Universitaria del Caribe

ESTUDIO DE ANÁLISIS DE LA PRODUCCIÓN INTELECTUAL DE LOS ESTUDIANTES DEL PROGRAMA ACADÉMICO DE INGENIERÍA INDUSTRIAL EN LA CORPORACIÓN UNIVERSITARIA DEL CARIBE – CECAR EN EL PERIODO 2019-2023


ESTUDIO DE ANÁLISIS DE LA PRODUCCIÓN INTELECTUAL DE LOS ESTUDIANTES DEL PROGRAMA ACADÉMICO DE INGENIERÍA INDUSTRIAL EN LA CORPORACIÓN UNIVERSITARIA DEL CARIBE – CECAR EN EL PERIODO 2019-2023

Corrales Bautista Christa Yvonne, Universidad Politécnica de Atlautla. Asesor: Mg. Angelica Maria Aguirre Bertel, Corporación Universitaria del Caribe



PLANTEAMIENTO DEL PROBLEMA

El alumno ha hecho un gran esfuerzo académico y de investigación con los análisis de la producción intelectual de los estudiantes del programa académico de ingeniería industrial, que ha creado el grupo de investigación de Simulación de Tecnologías Industriales (STI). Estos escritos abordan una variedad de temas relacionados con la simulación y las tecnologías industriales, y su análisis puede ofrecer información útil sobre las tendencias, la calidad, y el impacto de la investigación realizada a cabo durante este período. A pesar de los registros que es un nivel bajo del análisis de la producción intelectual producidos entre 2019 y 2023, no se ha realizado un análisis sistemático de estos documentos. Esta falta de análisis limita la capacidad de evaluar la evolución de los temas de investigación, la metodología empleada, la calidad de los trabajos y su contribución al conocimiento en el campo de la simulación de tecnologías industriales aunado a ello se pretende realizar este análisis para evaluar su impacto, distribución y contribución a los Objetivos de Desarrollo Sostenible (ODS).



METODOLOGÍA

Para llevar a cabo este estudio analítico se siguió una serie de pasos basados en un enfoqué sistemático y recopilación de información que fue proporcionada por el grupo de Investigación de Simulación de Tecnologías Industriales (STI) del CECAR, esto con la finalidad de pasar los datos a una matriz para una mejor comprensión. Los pasos específicos son los siguientes:   1.- Evaluación del contexto Se tuvo una junta con la asesora y con la dirección de investigación para contextualizar el objetivo del estudio. Se acordó el proceso a realizar para llegar a un análisis completo y efectivo en donde se encuentren áreas de mejora. 2.- Recopilación de datos La asesora y la academia proporciono la información registrada de los estudiantes, nombre de tema de posgrado, fecha, entre otros puntos clave para la contribución del estudio. Se realizo una matriz en el programa Excel como herramienta para facilitar la comprensión de información. 3.- Tratamiento de información Se ingreso la información de acuerdo a las variables que pedía la matriz, con la finalidad de filtrar y evaluar los resultados con base a la repetición de datos 4.- Análisis cuantitativo Se contabilizó el número total de productos de investigación por tipo y año de publicación. Se calculó la distribución porcentual de los productos por área de estudio y línea de investigación. 5.- Evaluación del Impacto en los Objetivos de Desarrollo Sostenible (ODS): • Para evaluar su contribución a los ODS, se examinaron los temas y los objetivos de cada investigación. • Se encontraron objetivos particulares, como el objetivo 13 (Acción climática), el objetivo 9 (infraestructura, innovación e industria) y otros relevantes.   RESULTADO Muestran una diversidad temática que refleja las tendencias emergentes en el campo de la simulación de tecnologías industriales. La mayoría de los trabajos de grado utilizan metodologías de investigación y herramientas de simulación estándar en el campo, con variaciones según el tema específico de cada trabajo. Los trabajos de grado cumplen con los estándares de calidad académica establecidos por la Universidad CECAR, aunque existe margen para mejorar en ciertos aspectos. Los trabajos de grado del Grupo STI tienen un impacto significativo tanto en la comunidad académica como en la industria, contribuyendo al avance del conocimiento y la innovación en tecnologías industriales.


CONCLUSIONES

El análisis de la producción intelectual del Grupo STI es esencial para entender cómo ha evolucionado la investigación en simulación de tecnologías industriales en la Universidad CECAR. Esta investigación no solo contribuirá a mejorar la calidad de los futuros trabajos de grado, sino que también permitirá identificar áreas de mejora y fomentar el desarrollo de proyectos de investigación más relevantes y de mayor impacto. Además, el estudio proporcionará una base para la evaluación y actualización de los programas académicos y de investigación, asegurando que se alineen con las necesidades y tendencias actuales de la industria.
Correa Blanco Vanessa, Institución Universitaria de Envigado
Asesor: Dr. Benito Zamorano González, Universidad Autónoma de Tamaulipas

VIOLENCIA LABORAL EN LOS LUGARES DE TRABAJO


VIOLENCIA LABORAL EN LOS LUGARES DE TRABAJO

Correa Blanco Vanessa, Institución Universitaria de Envigado. Asesor: Dr. Benito Zamorano González, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La violencia y los comportamientos negativos en el lugar de trabajo, como el acoso y la intimidación, afectan tanto a los empleados como a las organizaciones. Estos problemas pueden dañar el bienestar físico y psicológico de los trabajadores, reducir la productividad y crear un ambiente laboral hostil. Persisten en muchas organizaciones a pesar de los esfuerzos para abordarlos, destacando la necesidad de comprender mejor sus causas y consecuencias para desarrollar intervenciones efectivas. Teóricamente, varias perspectivas ayudan a entender estos fenómenos. La Teoría del Estrés Laboral sugiere que la violencia puede ser tanto una causa como una consecuencia del estrés, especialmente cuando las demandas superan los recursos. El Modelo del Acoso Laboral indica que los conflictos no resueltos pueden convertirse en acoso persistente, mientras que la Teoría de la Justicia Organizacional asocia la percepción de injusticia con comportamientos agresivos. Los efectos de la violencia laboral son significativos, provocando problemas de salud mental y física, como depresión y estrés postraumático, y afectando negativamente la satisfacción laboral, aumentando el ausentismo y la rotación de personal, y disminuyendo la productividad. Un ambiente de trabajo negativo también puede afectar la cohesión del equipo y la cultura organizacional. Para abordar estos problemas, es crucial implementar políticas claras contra la violencia, programas de formación, apoyo psicológico para las víctimas y mecanismos de evaluación continua. Estas estrategias pueden prevenir y gestionar los comportamientos negativos, promoviendo un entorno laboral más seguro y saludable. El estudio de estos temas busca proporcionar una base sólida para desarrollar estrategias preventivas y de manejo, ofreciendo recomendaciones prácticas basadas en evidencia.



METODOLOGÍA

Tipo de Estudio El presente estudio empleará un diseño cuantitativo, descriptivo y correlacional, con el objetivo de analizar los actos negativos en el trabajo y su impacto en la salud de los trabajadores. Instrumentos 1. El NAQ es un cuestionario ampliamente utilizado para medir la frecuencia y tipo de actos negativos (mobbing, bullying, acoso, etc.) en el ambiente laboral. Consta de una serie de ítems que describen diversos comportamientos hostiles y los encuestados deben indicar con qué frecuencia han experimentado cada uno de estos actos en su lugar de trabajo. El NAQ evalúa tres dimensiones principales: acoso personal, acoso relacionado con el trabajo y acoso físico. Los ítems del NAQ se responden en una escala Likert de 5 puntos, que va desde "Nunca" hasta "Diariamente". 2. La Encuesta Global de Salud es un instrumento estandarizado que evalúa diversos aspectos de la salud física y mental de los trabajadores, así como factores relacionados con el ambiente laboral y la calidad de vida. Esta encuesta abarca varias dimensiones, incluyendo salud física (dolores, enfermedades crónicas), salud mental (estrés, ansiedad, depresión), y bienestar general. Los ítems se responden en una escala Likert de 5 puntos, que varía dependiendo del ítem específico, por ejemplo, "Nada" a "Mucho". Población y Muestra Población: La población objetivo del estudio son los trabajadores de diversas industrias y sectores económicos.


CONCLUSIONES

Durante la pasantía virtual, recolecté 20 respuestas de trabajadores utilizando dos instrumentos: el NAQ (Cuestionario de Acoso Laboral) y la Encuesta Global de Salud. Estos datos se utilizarán para analizar la problemática de la violencia en los lugares de trabajo, con el objetivo de identificar las repercusiones de estos comportamientos en la salud física y mental de los empleados. Es importante señalar que, debido al tiempo limitado de la estancia, no se pudo profundizar en el estudio. Sin embargo, se lograron dos objetivos importantes: primero, se inició la búsqueda de información y referentes bibliográficos que clarifican las afectaciones en la salud de los trabajadores y las metodologías para identificar estas problemáticas en las organizaciones. Segundo, se aplicaron los instrumentos mencionados a través de un formulario para determinar la presencia de violencia en el lugar de trabajo y, con base en estos resultados, se formularán recomendaciones para la prevención de la violencia laboral. A continuación, se presentan algunos de los resultados obtenidos: Los datos sociodemográficos revelan que el 60% de las personas encuestadas se identifican con el género femenino y tienen entre 20 y 29 años. El 50% de los participantes posee un nivel educativo de técnico o tecnólogo. Además, el 85% trabaja en el turno diurno, lo cual se correlaciona con el hecho de que el 45% de los encuestados ocupa cargos administrativos, típicamente asociados con este horario laboral. En cuanto a los resultados de las respuestas a los dos instrumentos utilizados indican que la mayoría de los trabajadores no ha experimentado violencia activa ni comportamientos negativos que afecten directamente su salud o la organización. Sin embargo, 7 empleados señalaron que ocasionalmente se les ha ocultado información, lo cual ha afectado su rendimiento. Además, 8 trabajadores mencionaron que en ocasiones se les han asignado tareas por debajo de su nivel de competencia. También, 7 empleados reportaron haber sido objeto de gritos o trato con enojo, y 9 recibieron críticas sobre su trabajo y esfuerzo. En los últimos 7 días, 6 encuestados indicaron haber experimentado sensaciones de desmayo o mareo, así como dolor en el pecho o corazón. Además, 5 trabajadores expresaron sentir desinterés por las cosas, soledad, tensión o alteración. Aunque la mayoría afirma no haber sufrido actos de violencia o síntomas severos de estrés en el trabajo, la presencia de estos problemas en algunos empleados no debe ser ignorada. Es crucial intervenir para evitar que estos trabajadores se vean más afectados en el futuro. Por lo tanto, aunque la violencia laboral no sea muy recurrente entre los trabajadores encuestados, las organizaciones deben implementar medidas preventivas necesarias para mitigar la aparición y prevalencia de estos comportamientos negativos, protegiendo así el ambiente laboral y el bienestar de los empleados.  
Correa González José Ulises, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. Maricela Aguilar Almanza, Instituto Tecnológico Superior de Irapuato

PROTOTIPO PARA EL CONTROL DE INVENTARIO, EMPLEANDO TECNOLOGíA RFID.


PROTOTIPO PARA EL CONTROL DE INVENTARIO, EMPLEANDO TECNOLOGíA RFID.

Ayala Mercado Eduardo, Instituto Tecnológico Superior de Irapuato. Correa González José Ulises, Instituto Tecnológico Superior de Irapuato. Granados Regalado Diego, Instituto Tecnológico Superior de Irapuato. Hernández Hdz Jonathan, Instituto Tecnológico Superior de Irapuato. Rodriguez Vázquez Magdiel Dario, Instituto Tecnológico Superior de Irapuato. Torres Morales Luis Daniel, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. Maricela Aguilar Almanza, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Objetivo    Desarrollar una alternativa viable para capturar datos del control de entradas, salidas y estatus de piezas de inventario con tecnología RFID, y almacenar los datos en un manejador de base de datos para consultas y/o modificaciones posteriores.  Problemática   La problemática identificada se da en una escuela de educación básica en una comunidad del Municipio de Irapuato, en la que la directora debe realizar inventario de material y mobiliario por lo menos una vez al finalizar el ciclo escolar. Actualmente el registro del material en inventario se almacena en archivos de Excel en los que la directora debe ir identificando salón por salón la existencia y estado de cada uno de los materiales mencionados. Antes de iniciar la revisión, debe asegurarse de realizar una copia de seguridad del archivo anterior para prevenir la pérdida de información o eventualidades. La revisión es tediosa ya que debe ir filtrando y haciendo notas en el mismo archivo, lo que es tardado y extenuante, hay ocasiones en que le lleva casi una hora concluir con el inventario en un solo salón, esto depende de la organización o ubicación del material o recurso.  



METODOLOGÍA

Metodología  El prototipo se desarrolló a través de la metodología XP (Extreme Programming/Programación Extrema).  Primero, se identificó la problemática central: la dificultad y el tiempo que conlleva revisar los elementos, se realizaron preguntas clave a la persona encargada, para entender a fondo el proceso actual y explorar alternativas que facilitarían el trabajo, se inició con el proceso de planificación donde se plantearon las posibles soluciones, tales como el desarrollo de una aplicación web, una aplicación móvil o de escritorio que cubriera las necesidades mediante el uso del prototipo.    Se optó por continuar con el desarrollo de una aplicación de escritorio, ya que es más beneficiosa para realizar los movimientos específicos que indicó el cliente en su problemática.  Antes de planearse las pestañas necesarias para desarrollar la aplicación de escritorio, se debían migrar los datos de Excel a una base de datos adecuada, se propuso usar SQLite3 para manejar los datos de forma local sin afectar el rendimiento del equipo, la migración se realizará una vez que la base de datos esté normalizada.  Como se mencionó anteriormente, se requiere normalizar las tablas antes de migrarlas. El cliente indicó que desea separar los datos A de los datos B, por lo que se procedió a realizar esta separación, asignando los campos requeridos para cada uno.  Aunque inicialmente se había definido que sería una aplicación de escritorio, es necesario tener en cuenta las pestañas a utilizar, inicialmente, se había pensado en una única pestaña que recibirá los datos de lectura del prototipo, sin embargo, tras analizar nuevamente la problemática, se identificó la necesidad de varias pestañas para la elaboración de la actividad, ya que se debe cubrir un sistema de inicio de sesión así como un menú para los diferentes campos que se quieren abarcar, por consiguiente, se propusieron las siguientes ideas:  Una pantalla encargada de realizar el Log-in.  Una pantalla encargada de fungir como Menú principal.  Una pantalla encargada de recibir los datos recabados por el prototipo y validar que existan en la base de datos.  Una pantalla que reciba y permita modificar cualquier campo de los datos recopilados por el prototipo.  Después de decidir las pantallas necesarias para la aplicación y determinar a dónde migrar los datos, se procede a desarrollar el prototipo para leer y enviar los datos a la aplicación de escritorio. 


CONCLUSIONES

Conclusión  Durante el verano, se adquirieron conocimientos teóricos y prácticos esenciales para simplificar y agilizar el proceso de inventario en la escuela mencionada. Se utilizaron tecnologías como Wifi, Bluetooth e infrarrojo para mejorar la eficiencia y precisión del registro y gestión de materiales. Sin embargo, debido a la extensión del trabajo, aún se encuentra en la fase de prototipo y no se pueden mostrar los datos obtenidos. Se espera una reducción de tiempo al realizar el inventario, así como un incremento en la eficiencia del inventario y en la búsqueda de este. 
Correa Pichardo Fanny, Universidad Autónoma del Estado de México
Asesor: Dr. Alfonso Talavera López, Universidad Autónoma de Zacatecas

TRATAMIENTO DE AGUAS RESIDUALES GANADERAS POR ELECTROCOAGULACIÓN Y GENERACIÓN DE HIDRÓGENO POR MEDIO DE UN PROCESO FOTOCATALÍTICO


TRATAMIENTO DE AGUAS RESIDUALES GANADERAS POR ELECTROCOAGULACIÓN Y GENERACIÓN DE HIDRÓGENO POR MEDIO DE UN PROCESO FOTOCATALÍTICO

Correa Pichardo Fanny, Universidad Autónoma del Estado de México. Estefes Cantú Brisa, Universidad Autónoma del Estado de México. Asesor: Dr. Alfonso Talavera López, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Durante este verano de investigación 2024, se asignó el tema de ¨Tratamiento de aguas residuales ganaderas por electrocoagulación y generación de hidrógeno por medio de un proceso fotocatalítico¨ con el objetivo de degradar contaminantes presentes en el agua residual ganadera produciendo a su vez hidrógeno a través de fotocatalizadores, sin embargo; la problemática a la que nos enfrentamos fue la coloración muy pigmentada del agua residual que obstruía el paso de luz a través del agua evitando por consecuencia la activación del catalizador. De esta forma, se incorporó previamente un proceso de electrocoagulación al agua residual esperando un aclaramiento del agua por precipitación de materia orgánica. Por otro lado, la elaboración de los catalizadores TiO2/Pd se realizó a diferentes porcentajes de paladio (1%, 2% y 4% respectivamente), con el objetivo de observar el mejor rendimiento en la producción de hidrógeno, además de variar entre dos métodos de síntesis. Se utilizaron artículos para obtener los métodos de síntesis de catalizadores, de los cuales sabemos que hasta el momento se ha realizado experimentación con un agente de sacrificio y con agua residual controlada en donde han obtenido resultados favorables. En este proyecto se desea lograr el tratamiento de agua residual ganadera a través de fotocatálisis que no necesite un agente de sacrificio, sin embargo, se ha replicado este tipo de experimentación con agua controlada (en nuestro caso el agente de sacrificio fue el etanol) para solucionar paso a paso la problemática a la que nos enfrentamos.



METODOLOGÍA

Para realizar catalizadores con Pd a 1%, 2% y 4% por método Sol-Gel: Se comenzó con la mezcla de 70 mL de isopropanol y 7.5 mL de isopropóxido de titanio con burbujeo de nitrógeno en agitación a 400 rpm sin calentamiento durante 20 minutos. Posteriormente, con ayuda de una bureta, se agrega por goteo 10 mL de una solucion con acetilacetonato de paladio (AcAcPd) en isopropanol para obtener las cargas de Pd al 1,2 y 4% en peso. Después se agrega por goteo 10 mL de una solución de NaBH4 0.03M en agua desionizada. Finalmente se agregan 50 mL de agua desionizada por goteo, manteniendo en agitación hasta esperar una mezcla uniforme. Posteriormente, se deja en reposo en ambiente oscuro por una noche.  Se procede con la filtración y secado al vacío antes de introducir el material a la mufla para la etapa de calcinado de 25°C hasta 110°C por 8 horas, de 110°C hasta 250°C por 2 horas y de 250°C hasta 450°C por 5 horas, con una rampa de calentamiento para cada temperatura de 1°C/min. Para realizar la experimentación de captación de hidrógeno por fotocatálisis  Se colocan 7 L de agua desionizada al reactor. Con ayuda de una probeta medir 140 mL de etanol y adicionarlos al agua. Pesar en un vidrio de reloj 1.05 g de TiO2 comercial (catalizador) y agregarlos al agua, encender la bomba que hace circular el contenido. Con ayuda del medidor de pH (calibrado) y del ácido sulfúrico a 1M, verificar que el pH se encuentre en 4.0 Sellar el reactor y colocarle una atmósfera de N2 a una presión de 6 atm. Comprobar que no existan fugas en el reactor. Tomar la línea base con la jeringa al vacío e introducirla al cromatógrafo.   Comenzar la reacción encendiendo la lámpara. Para tomar la muestra de gas es necesario purgar la jeringa 3 veces para evitar la contaminación de la muestra. Tomar muestra de gas cada 30 minutos durante 6 hrs. Para terminar la reacción es necesario apagar la lámpara y la bomba de circulación. Para realizar la electrocoagulación del agua residual ganadera  Se colocó 8L del agua residual ganadera en el recipiente colocando 2 electrodos de aluminio. Se inició con un voltaje de 8.3 Volts y una intensidad de 1 A haciendo uso de la fuente de poder durante 3 horas aproximadamente. Posteriormente se fue incrementando el voltaje y amperaje gradualmente hasta obtener mejores resultados.


CONCLUSIONES

Análisis de resultados  Durante el proceso de electrofloculación no se observaron cambios representativos en el agua residual al menos durante las 2 primeras horas de tratamiento.  Posteriormente se llevó a cabo una segunda prueba con 4 amperes aproximadamente durante 24 horas aproximadamente. Sin embargo, no se observaron cambios evidentes en la colorimetría del agua, por otro lado, sí se observó la presencia de espuma.  Al realizar pruebas de cromatografía para determinar el tiempo de retención del H2 para la columna utilizada, se encontró que el tiempo de retención determinado para la molécula de Hidrógeno en el sistema de cuantificación CG es de 1.95 minutos. En el experimento 1, se observa la producción de hidrógeno con respecto al tiempo de la reacción usando el catalizador comercial TiO2/Pluronic F-127 únicamente con agua desionizada adicionando 140 mL de etanol como agente de sacrificio y a las condiciones ya establecidas. Este experimento se realizó con el objetivo de obtener experimentos blancos para poder comparar posteriormente con las pruebas de los catalizadores sintetizados. A diferencia del experimento 3, el experimento se llevó a cabo variando la lámpara, proporcionando otra intensidad en el proceso de fotocatálisis, por lo que en este caso se observa que la producción de hidrógeno disminuyó.  Los catalizadores elaborados durante el verano de investigación, aún serán sometidos a experimentación para corroborar su eficiencia.
Correa Rios Jhonier Elibardo, Instituto Tecnológico Metropolitano
Asesor: Dr. Heriberto Casarrubias Vargas, Universidad Autónoma del Estado de México

ANALISIS DE TRAYECTORIAS MEDIANTE VISION ARTIFICIAL


ANALISIS DE TRAYECTORIAS MEDIANTE VISION ARTIFICIAL

Correa Rios Jhonier Elibardo, Instituto Tecnológico Metropolitano. Asesor: Dr. Heriberto Casarrubias Vargas, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

El proyecto consiste en implementar visión artificial para hacer seguimiento de los movimientos que realiza un trabajador situado en un área de empaquetado, los movimientos que este tiene que realizar consisten en tomar un producto de su estantería y llevarlo hasta la zona de embalaje, para el seguimiento de estos movimientos se implementó MediaPipe, un framework mediante el cual es posible desarrollar algoritmos, que con ayuda de machine learning pueden identificar expresiones faciales, reconocimiento de manos y la herramienta usada en este caso, MediaPipe BlazePose, que permite realizar estimaciones de posiciones corporales, mediante una red neuronal convolucional ligera, la cual produce 33 puntos de referencia, para identificar estos puntos véase la figura 1. Con estas referencias la red es capaz de realizar las estimaciones; además, al ser una red ligera puede ejecutarse sobre dispositivos móviles, que cuentan con un poder de cómputo más limitado (Reig, 2022). De lograrse, este programa funcionaria no solo para recopilar datos que puedan usarse para mejorar la eficiencia de los empleados, además, permitiría monitorear que los pedidos empacados sean los solicitados, evitando que se envíen productos a destinatarios equivocados, lo que generaría mayor confianza con los clientes y de evitaria costos de devoluciones, rembolsos, o más gastos logísticos, aumentando así la rentabilidad.



METODOLOGÍA

Para la realización de este proyecto lo primero fue configurar el apartado del hardware y software, instalando las librerías necesarias, lo que contemplo la adecuacion de los equipos y la instalacion de las librearias a utilizar, Una vez instaladas las librerias y generado el algoritmo del programa, se entrenó el modelo en Teachable Machine, el cual se diseñó para que identificara Tomates verdes y papas, además de contar con datos de referencia en los cuales simplemente se pasaban imágenes sin objetos, con el fin de que el programa pudiera identificar cuando no existían objetos de interés en el plano. Una vez hecho esto, se procedio a realizar pruebas en un entorno ideal, donde los movimientos se realizaban sobre un fondo blanco y se maximizaba la visibilidad de los objetos a identificar, en cuanto el desempeño del programa en este entorno fue el adecuado se procedió a realizar las pruebas en un entorno real, en el cual ya se contaba con las estanterías, factores de luz variables, ruido de fondo y una visibilidad menor de los productos, se realizaron varias pruebas con el fin de recolectar los datos necesarios para su posterior análisis, finalizando con la redacción del presente documento.  


CONCLUSIONES

Se encontraron varios errores al momento de recopilar los datos, estos errores se atribuyen principalmente a dos factores: Visibilidad: Tanto para la clasificación como para el seguimiento de las muñecas la visibilidad no fue la mejor, ya que durante el desplazamiento de los objetos existen casos donde las muñecas se perdían de vista, lo que afecta la recopilación de las coordenadas. En cuanto a la clasificación los objetos en ocasiones no eran visibles en el plano, ya que las manos del operador se interponían entre la cámara y estos. Ruido: Aunque se redujo en lo posible, aun se mantenían elementos en el plano que podrían llegar a limitar el desempeño de MediaPipe, al tratar de detectar los segmentos corporales con mas elementos dentro del plano como lo son las estanterías, cajas, etc. A pesar de estas limitantes se lograron recolectar varias trayectorias. De 30 movimientos totales realizados 20 fueron recopilados, de estos solo 3 fueron mal clasificados; aunando a estos, se capturaron 7 movimientos más, en los cuales no se logro clasificar el objeto, por lo tanto, se consideran movimientos erróneos; sin embargo, se tuvieron en cuenta para el análisis. En las tablas realizadas, se pudo observar que entre las trayectorias 1 y 20 se tienen 3 trayectorias atípicas, mientras que de la 21 a la 27 que fueron aquellas consideradas erróneas por no identificar el objeto se tienen solo dos trayectorias normales, lo que indica que a pesar de que no se logro clasificar el objeto, la trayectoria fue un movimiento correcto. Algunos de los factores que afectan la similitud entre las trayectorias son las coordenadas en sí mismas y el número de estas que se recopilan, lo que se traduce en el tiempo que tarda el movimiento, por lo que las trayectorias que tienen una duración similar y valores cercanos tienen una medida de similitud mayor, mientras que aquellas que se realizaron de formas extraña, ya sé que estuvieron en una zona del plano poco común, como las esquinas del mismo o la duración del movimiento fue muy corta, su similitud es menor. Al graficar las trayectorias, tomando sus elementos en X y Y, como los ejes de la grafica, se observo que los valores atípicos tienden a la derecha del gráfico, por lo que se podría decir que uno de los factores que más afecto la medida de similitud, fueron las coordenadas recopiladas en el eje Horizontal (X), ya que en cuanto al eje vertical todos los datos se mantuvieron en un rango entre 200 y 500, sin embargo el factor de mayor incidencia fue el tiempos de los movimientos, ya que al este afectar la cantidad de coordenadas que se recopilan, aquellos movimientos que fueron muy rápidos o en los que se perdió de vista la muñeca (lo que detiene la recopilación de datos) genera vectores que tienen muy pocos elementos a comparación de el de referencia, generando un valor de similitud más bajo que el resto. A pesar de que los cálculos y la interpretación de los análisis sea correcta, el programa aun no se puede implementar, ya que la fiabilidad de la recopilación de las coordenadas y la clasificación de los elementos no es suficiente, debido a factores como la visibilidad, la capacidad de seguimiento de las muñecas, entre otros; los cuales limitan el desempeño del programa; por lo que, se concluye que a pesar de que este aun no está en optimas condiciones para funcionar, establece unas bases para su futura implementación, para ello se recomienda mejorar las limitaciones evidenciadas, como cambiar los ángulos de captura de los movimientos, implementar modelos de clasificación más robustos o mejorar el entorno de captura, reduciendo el ruido de fondo, condiciones lumínicas, entre otros.
Correa Rubio Lizette, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla

FABRICACIóN Y CARACTERIZACIóN DE CAPACITORES MOS Y MIM BASADOS EN PELíCULAS DE óXIDO DE HAFNIO A 150°C


FABRICACIóN Y CARACTERIZACIóN DE CAPACITORES MOS Y MIM BASADOS EN PELíCULAS DE óXIDO DE HAFNIO A 150°C

Correa Rubio Lizette, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La importancia de los capacitores de película delgada flexibles radica en la adaptación a diferentes aplicaciones, para la fabricación se deben usar bajas temperaturas para lograr el óptimo funcionamiento de los dieléctricos utilizados, ya que a altas temperaturas como las utilizadas de manera convencional puede ocasionar dificultades al conservar un valor bajo de corriente. El óxido de hafnio tiene diferentes características que favorecen a los capacitores ya que presenta estabilidad mecánica, térmica y química, estas propiedades otorgan al capacitor buen aislamiento eléctrico y diversas propiedades ópticas adecuadas.  



METODOLOGÍA

Se preparó una solución precursora a  partir de cloruro de hafnio (HfCl4, 99.99 %, Aldrich) con concentración de 0.1 M en agua tridestilada, esta solución se homogeneizó bajo vibración ultrasónica hasta obtener una solución transparente. Para la fabricación de los capacitores MOS se utilizaron obleas de silicio y para los capacitores MIM se utilizaron placas recubiertas de ITO. Se realizó un proceso de limpieza acetona y alcohol isopropílico bajo vibración ultrasónica, para eliminar la capa de óxido nativo se usó una solución de ácido fluorhıdrico y finalmente se enjuagaron con agua tridestilada. La solución precursora se aplicó a los sustratos mediante spin-coating a 2000 rpm durante 60 segundos. Se realizó un proceso de curado de la película con tratamiento térmico a 150°C durante 1 hora. Por último se depositaron electrodos de FTO (Flourine-Tin Oxide) mediante rocío pirolítico. Se realizó caracterización mediante FTIR y caracterización eléctrica para la obtención de curvas C-V.  


CONCLUSIONES

Se fabricaron y caracterizaron capacitores MOS y MIM de películas delgadas de óxido de hafnio a 150◦C usando el método de deposición de spin-coating para la obtención de la película delgada. Con la fabricación de este tipo de capacitores se espera obtener propiedades óptimas usando temperaturas mínimas, obteniendo regiones de acumulación definidas gracias a la estructura dieléctrico-semiconductor debido a la conservación del bajo valor de corriente. Su aplicación ofrece una alternativa prometedora para dispositivos electrónicos flexibles debido a las propiedades obtenidas.
Corredor Rodríguez Juan Sebastían, Fundación Universitaria Cafam
Asesor: Dr. Israel Becerril Rosales, Tecnológico de Estudios Superiores de Jocotitlán

PRONóSTICOS HíBRIDOS E INVENTARIOS ABC


PRONóSTICOS HíBRIDOS E INVENTARIOS ABC

Corredor Rodríguez Juan Sebastían, Fundación Universitaria Cafam. Asesor: Dr. Israel Becerril Rosales, Tecnológico de Estudios Superiores de Jocotitlán



PLANTEAMIENTO DEL PROBLEMA

La gestión de inventarios y el pronóstico de ventas, vienen de la mano a la hora de una correcta gestión interna de la operación de la empresa, como siempre se debe buscar obtener el mayor beneficio para la empresa de cada situación, Jaime Arango, menciona en su artículo, se busca siempre un equilibrio que garantice la mínima inversión que permita el mejor nivel de servicio, teniendo la cantidad justa que se espera que el cliente requiera (Arango Marin, 2013), lo anterior toma mucho sentido cuando entendemos la situación a una menor escala, tengo una necesidad, y hasta no tener la información de esta necesidad, no sé cuánto debo tener para satisfacerla, lo mismo pasa en las empresas pero en mayor medida y muchas empresas, caen en este paso, y sin importar la necesidad, sin saber la información de esta, siguen la operación sin afectación alguna.   La falta de innovación y de creatividad, han llevado a diversas empresas a estar al borde de la quiebra o en camino a esta, es por eso que vemos la necesidad como estudiantes investigadores, de generar un producto, el cual les ayude en la gestión de inventarios y pronósticos a las MYPES en general, lo anterior engranando diferentes metodologías de pronósticos y de clasificación ABC, con herramientas ofimáticas clave donde buscaremos automatizar lo mejor posible este proceso para que sea mas amigable y sea visto como una ayuda.



METODOLOGÍA

La investigación se llevó a cabo mediante un enfoque cuantitativo utilizando los datos dados por la vinatería, además de utilizar diferentes herramientas ofimáticas como lo es Excel, Power Query y algunas herramientas de programador de macros. La información recopilada, paso por un estricto proceso de limpieza de base de datos, eliminando datos innecesarios y erróneos que podrían afectar el correcto funcionamiento, en primera instancia por parte del archivo y sus fórmulas, y en segunda instancia a la investigación como tal.   Luego de esto, por medio de fórmulas y Power Query, logramos migrar la información de la base de datos ordinaria depurada, a una base de datos la cual iba a ser el motor de todas las formulas y los reportes que más adelante se anexarían al documento. Por medio de fórmulas y demás, se logró que por medio del código de cada uno de los 60 productos, se extrajera la información total de este, como lo es el nombre, la cantidad de entrada, la cantidad de salida, la cantidad de stock, el precio unitario y el precio de todo el lote que se encontraba en stock. Esta información migro inicialmente a dos reportes por separado, reportes los cuales trataban de los pronósticos por regresión lineal y suavización exponencial respectivamente para las siguientes semanas del año completo (54 semanas). Por otro lado, la información también migro hacia una plantilla la cual realizaba una clasificación de inventario tipo ABC donde el método para clasificar o los criterios de esta clasificación estaban divididos por cantidad de entrada, cantidad de demanda y el precio como tal del stock de cada producto.   Luego de generar estos reportes, se realizo el ultimo paso el cual consistió en automatizar la navegación entre cada una de las plantillas, además del ingreso de información a la base de datos general, por medio de hipervínculos y macros programadas con Visual Basic, se logro hacer esto de manera efectiva y muy amigable para la empresa que utilice la plantilla.


CONCLUSIONES

Durante la estancia de investigación, podemos concluir que los pronósticos y los inventarios ABC, se pueden unir para volver las herramientas de la logística más útiles, eficientes y atractivas para mas empresas, además, el lograr que, por medio de las herramientas ofimáticas, se logre un archivo con la capacidad de realizar pronósticos e inventarios de forma automática, además de ser muy entendible para cualquiera que lo utilice. Por último, y dejando de lado el tema de la investigación, puedo concluir que el verano de investigación, además de ser algo que nos ayuda a crecer de forma profesional y educativa, también puedo agregar que ayuda al crecimiento personal, permitiendo a la conexión de países y de culturas únicas, las cuales ayudan a entender que en este mundo se pueden generar contactos en otro países y volver así el conocimiento compartido e internacional.   Uno de los resultados que podemos resaltar, es la creación de un archivo Excel, donde se creó desde una base de datos, un modelo de pronóstico hibrido de entradas y ventaS, además, junto con este modelo de pronóstico, trabajando conjuntamente se creó una plantilla automatizada para llevar el control de un inventario con el método ABC en diferentes tipos de clasificación: precio, stock, demanda.   Principalmente, se creó este archivo con el propósito de ayudar a determinada empresa a obtener pronósticos e inventarios de forma más fácil y casi que automática, pero también se dejó una ventana abierta al cambio, es decir que este archivo es adaptable para cualquier tipo de empresa que desee utilizar un modelo así, desde que respeten los parámetros de cada una de las celdas, el archivo funcionara perfectamente pare pronosticar ventas de licor, vino, etc, como de flores, plantas y demás.   Por ultimo pero no menos importante, puedo decir con gran emoción, que como producto de esta investigación, en los próximos días se enviara para evaluación un artículo científico a la revista Ciencia Administrativa, de la Universidad Veracruzana, donde se describe la manera en cómo podremos llegar a utilizar las herramientas ofimáticas junto con las herramientas de logística, y así potenciarlas para lograr con más eficacia y en menor tiempo, las metas.
Cortés Alarcón Samantha, Instituto Politécnico Nacional
Asesor: Mg. Manuel Ricardo Gonzalez Vasquez, Fundación Universidad de América

CIUDADES COMPETITIVAS


CIUDADES COMPETITIVAS

Cortés Alarcón Samantha, Instituto Politécnico Nacional. Asesor: Mg. Manuel Ricardo Gonzalez Vasquez, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

El mundo de la construcción requiere de cambios en la forma en la que se generan edificaciones visto desde los materiales que se utilizan y es por eso que se en esta investigación se utiliza la búsqueda para encontrar biomateriales de construcción que puedan aportar nuevas alternativas a la industria con la finalidad de tener más opciones, no solo como arquitectos o constructores, sino también, como comunidad. Que sea posible generar edificaciones a partir de lo que consideramos desecho desde una visión prospectiva con el fin de establecer y desarrollar los atributos de sostenibilidad que agregan valor a la cadena de producción de la industria a partir del uso de la vigilancia tecnológica y la visualización estratégica de un futuro deseable en la Arquitectura.



METODOLOGÍA

Se realizó una contextualización de los conceptos de prospectiva y vigilancia tecnológica, así como atributos de sostenibilidad y el concepto biomateriales de construcción para realizar un estudio detallado al respecto. Tomando en cuenta el modelo de Sánchez y Palop 2002 se desarrolló de la siguiente manera:   1. Identificación de necesidades y fuentes de información: Obtener biomateriales de construcción mediante bases de datos, identificar los biomateriales por tendencia según la vigilancia tecnológica   2. Búsqueda y captación de información: Creación de una ecuación de búsqueda para utilizarla en diferentes bases de datos y obtener resultados específicos.   3. Análisis y organización de la información: Clasificación de los materiales por tendencia, organización por familia de los biomateriales, clasificación por país, clasificación por año entre 2018 a 2024, organización de los biomateriales de acuerdo al elemento constructivo y etapa de construcción en la que es posible utilizarlo.   4. Interpretación de datos, resultados y conclusiones: Realización de gráficas para crear conclusiones al respecto, presentación de tabla organizacional para ubicar las necesidades de la industria de la construcción de diferentes materiales   5. Difusión de la información: Redacción de ensayo corto con título: La visión de los biomateriales de construcción a través de la prospectiva., presentación gráfica y oral para compartir conocimientos con miembros de Universidad de América.


CONCLUSIONES

La segunda tendencia con mayor número de materiales seleccionados es de TENDENCIA PESADA lo que significa que se han utilizado biomateriales de construcción en diferentes edificaciones lo que nos lleva a entender que los biomateriales no son un tema ajeno en la industria. Durante el año 2021 y 2022 hubo una reducción de la investigación, que puede ser atribuido a la emergencia sanitaria por COVID.19 ya que la atención de la investigación en el tema de biomateriales no era la prioridad en ese momento. Los países con mayor cantidad de investigaciones al respecto son: Ecuador con 42 materiales, México 15 materiales y Colombia 14 materiales de un total de 95 materiales investigados. Del total de materiales investigados, existen materiales que tienen más de un uso por sistema constructivo y poco más del 80% pueden ser utilizados en muros De los materiales, el uso prioritario que se les da por partida o etapa constructiva es en acabados o envolventes. Con esta investigación se puede constatar no solo a los países que tienen mayor aporte de biomateriales de construcción a la industria sino también, en los años en los que se ha realizado, el impacto de la pandemia por COVID-19, el auge que el tema ha desarrollado así como la importancia que ha cobrado para crear edificaciones más sustentables y resilientes buscando así que éstos tengan un menor impacto, no solo ambiental sino también económico en su producción al ser creados, en su mayoría, de materiales que son considerados desecho. La Vigilancia Tecnológica y la prospectiva son de gran utilidad, no solo en la industria de la construcción, sino en todo ámbito de la vida personal y profesional ya que nos permite hacer un análisis a fondo de diferentes caminos que podemos tomar en una situación. Hay mucho por investigar y, sobre todo, por llevar a cabo, pero esta investigación es una clara muestra de la importancia que el tema va cobrando, por lo tanto, en los próximos años, estos materiales serán una realidad como sistemas constructivos alrededor del mundo. PALABRAS CLAVE Biomateriales de construcción, búsqueda, organización, biocompuestos, vigilancia tecnológica, prospectiva. REFERENCIAS Alzate, B. A., Giraldo, L. T., & Barbosa, A. F. (2012). Vigilancia tecnológica: metodologías y aplicaciones. Revista Gestión de las Personas y Tecnología, 5(13), 154-158. https://dialnet.unirioja.es/descarga/articulo/4125293.pdf Del Pilar Montoya Robles T, León SL. De la «Quesana» tradicional a un sistema modular de paneles aislantes de Totora. https://www.redalyc.org/journal/1251/125177934007/. Published 2024. González, M., & Neira, J. (2023). Tendencias en la innovación de biomateriales de construcción en Colombia. En Experiencias significativas para la investigación en Colombia (pp. 130-135). Agremiación Colombiana de Facultades de Arquitectura. https://www.arquitecturaacfa.org/images/Experiencias_Significativas_Para_la_Investigacion_en_Colombia_2.pdf Sánchez, A. (2019). Vigilancia Tecnológica y prospectiva Tecnológica, disciplinas que generan insumos para el diseño de políticas de ciencia, tecnología e innovación [Tesis de maestría, INSTITUTO TECNOLÓGICO DE BUENOS AIRES - ITBA]. https://ri.itba.edu.ar/server/api/core/bitstreams/568c7eac-6fc1-4389-9630-06b38b74189c/content Vásquez, J. E. M., Becerra, S., & Castaño, P. (2014). Capítulo II. Conocimiento básico de la prospectiva. En Prospectiva y política pública para el cambio estructural en América Latina y el Caribe (pp. 39-100). Comisión Económica para América Latina y el Caribe (CEPAL). https://repositorio.cepal.org/bitstream/11362/37057/1/S2014125_es.pdf
Cortés Alvarado Abraham Isaac, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Sergio Raul Bonilla Alejo, Universidad Tecnológica de Nayarit

CARACTERIZACIóN HIDRáULICA PARA LA IMPLEMENTAR MICRO GENERACIóN HIDRáULICA, A PARTIR DEL APROVECHAMIENTO DE CAUCE DE DISTRITO DE RIEGO, NO. 043


CARACTERIZACIóN HIDRáULICA PARA LA IMPLEMENTAR MICRO GENERACIóN HIDRáULICA, A PARTIR DEL APROVECHAMIENTO DE CAUCE DE DISTRITO DE RIEGO, NO. 043

Cortés Alvarado Abraham Isaac, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Sergio Raul Bonilla Alejo, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

En tiempos donde el rápido crecimiento de la población demanda grandes cantidades de energía y el agotamiento de los recursos fósiles nos obliga a buscar soluciones sostenibles, la micro generación de energía renovable toma un mayor protagonismo. La micro generación de energía hidráulica propone el aprovechamiento del continuo movimiento del agua para generar energía en pequeñas cantidades. Este método es sostenible y renovable ya que implica una mínima intervención humana. Los canales de riego representan una oportunidad valiosa para la generación de energía hidráulica debido a su flujo continuo y estable de agua. En esta investigación, se lleva a cabo un estudio en el lado derecho del canal Centenario, ubicado en el distrito de riego No. 43, en Tepic, Nayarit. El objetivo es diseñar y evaluar la implementación de hélices en el canal, con el fin de aprovechar el caudal constante del agua para generar micro electricidad. La energía generada tiene el propósito de alimentar la demanda energética del mismo canal, ayudando a que sea autosuficiente y reduciendo su huella ecológica. La generación de energía renovable es una necesidad creciente en el contexto actual de cambio climático y agotamiento de los recursos fósiles. Los canales de riego, con su flujo continuo y estable de agua, ofrecen una oportunidad significativa para la generación de energía hidráulica. En esta investigación, se busca diseñar y evaluar la implementación de hélices en el canal Centenario, con el fin de aprovechar el movimiento del agua para generar electricidad. La energía generada contribuiría al suministro energético del canal, reduciendo la dependencia de fuentes no renovables y mejorando la sostenibilidad del sistema de riego.



METODOLOGÍA

Como primera actividad se realizó una visita al canal para conocer el lugar y poder obtener las coordenadas cartesianas especificas del tramo a trabajar. Esto ayudo a poder obtener imágenes satelitales que fueron analizadas en el software QGIS. Con la ayuda de esta herramienta dimensionamos las hectáreas de siembra a las que afectara el canal en funcionamiento, además de determinar las ubicaciones optimas para el emplear las hélices. Se analizaron factores como la velocidad del flujo, la profundidad del canal y posibles obstáculos. Al ser una obra pública se consultó el documento MIA Terminación Canal Centenario Nayarit del cual se obtuvieron características específicas, coordenadas, materiales utilizados y lo más importante un diagrama del canal, el cual se sacaron alturas, largos y anchos lo que ayudo a una mejor compresión del comportamiento del canal. Con estos datos se utilizó SolidWorks para diseñar hélices optimizadas para el flujo específico del canal. Se observo que había dos maneras de generación, la primera aprovecha la caída de agua para utilizar el peso del agua mediante un hidro tornillo; y la otra forma propone hacer una turbina sumergible para provechar completamente el volumen del canal. A continuación, se describen a mayor profundidad. Hidro tronillo. Es un tornillo con tres hilos y una cierta inclinación, principalmente se basa en el tornillo de Arquímedes, pero con la diferencia fundamental que este tornillo no bombea agua, sino que usa la caída del agua, por lo tanto, se necesita una base donde se encuentren los ejes de transmisión hacia el generador; la principal desventaja es la necesidad de una caída de agua y en el tramo a trabajar del canal hay pocos lugares que cumplen esas características. Turbina Sumergible. En esta idea se propone sumergir completamente la hélice para aprovechar el volumen completo del caudal, lo cual lo hace perfecto para ser replicable en todo el largo del canal. Sin embargo, el desafió a resolver es la transformación de energía, ya que los ejes al estar sumergidos también sufren el impacto del flujo de agua. En esta propuesta se consideraron diferentes materiales y geometrías para maximizar la eficiencia de conversión de energía cinética en energía eléctrica.


CONCLUSIONES

Resultados Obtenidos Obtuvimos tres resultados en este verano de investigación 2024, el primero poder obtener una imagen satelital del canal centenario el cual nos ayudo enormemente en la compresión del canal y sobre el cual logramos estudiar las características, esto conllevo a nuestro segundo resultado que es saber que este proyecto afecta directamente a 2066 hectáreas de siembra. Y como ultimo resultado se logro obtener en CAD dos prototipos de turbinas, ya listas para su impresión en 3D y así lograr hacer una maqueta. Los resultados que esperamos tras mas investigación son: 1. Generación Eficiente de Energía:  Una conversión efectiva de la energía cinética del agua en energía eléctrica, con una producción estimada acorde al caudal y condiciones del canal. 2. Impacto Ambiental Reducido:  Un sistema de generación de energía que no interfiera significativamente con la función primaria del canal de riego ni con el ecosistema circundante.   Conclusión: Durante esta estancia obtuve conocimientos multidisciplinarios, como el uso de datos abiertos y sistemas de referencia geográfica, así como reforzar habilidades tales como el diseño asistido por computadora. Como el proyecto esta contemplado a un año de investigaciones y pruebas los resultados presentados no son completos, es decir falta muchas simulaciones a las turbinas para determinar si soportarán el esfuerzo al que serán sometidas.Sin embargo el proyecto es factible siempre y cuando se tomen en cuanta todas las variables involucradas, la más importante sería la conversión de energía, ya que siempre existe una perdida.En conclusión, este proyecto tiene el potencial de convertirse en un modelo replicable para otros canales de riego, aprovechando un recurso ya existente para generar energía limpia y sostenible.
Cortes Anzurez Jose Angel, Instituto Tecnológico de Cuautla
Asesor: Post-doc Maria Victoria Silva Dominguez, Universidad Católica de Oriente

CONSTRUCCIóN DE UNA ARQUITECTURA DE SOLUCIONES DE SOFTWARE Y SUS PROCESOS PARA LA PRESTACIóN DE SERVICIOS DE CONSULTORíA EN INGENIERíA DE REQUISITOS, SQA Y SQC, EN EL LABORATORIO PARA LA INDUSTRIA (O FABRICA) DE DESARROLLO DE SOFTWARE, DE LA FACULTAD DE INGENIERíAS DE LA UCO.


CONSTRUCCIóN DE UNA ARQUITECTURA DE SOLUCIONES DE SOFTWARE Y SUS PROCESOS PARA LA PRESTACIóN DE SERVICIOS DE CONSULTORíA EN INGENIERíA DE REQUISITOS, SQA Y SQC, EN EL LABORATORIO PARA LA INDUSTRIA (O FABRICA) DE DESARROLLO DE SOFTWARE, DE LA FACULTAD DE INGENIERíAS DE LA UCO.

Cortes Anzurez Jose Angel, Instituto Tecnológico de Cuautla. Asesor: Post-doc Maria Victoria Silva Dominguez, Universidad Católica de Oriente



PLANTEAMIENTO DEL PROBLEMA

La Universidad Católica de Oriente (UCO) enfrenta dificultades significativas en el desarrollo de software y la formación de sus estudiantes en ingeniería debido a la falta de un laboratorio adecuado. Aunque desde 2018 se ha planificado la creación de un laboratorio para el desarrollo de software, esta infraestructura aún no ha sido implementada ni puesta en funcionamiento. Esto impide que la universidad atienda tanto sus necesidades internas, como el desarrollo de aplicaciones que soporten los procesos académicos e investigativos, como sus expectativas externas, que incluyen prácticas empresariales, consultoría e innovación tecnológica. Además, los estudiantes de Ingeniería de Sistemas y otros programas tienen problemas al entregar sus trabajos de grado, lo que retrasa sus graduaciones. La ausencia de un espacio adecuado para aplicar el conocimiento adquirido y desarrollar proyectos reales contribuye a estos retrasos. Actualmente, aproximadamente 20 estudiantes están pendientes de graduarse debido a esta falta de infraestructura. Por lo tanto, la problemática principal radica en la carencia de un laboratorio funcional que permita integrar las necesidades académicas con las externas, y en la falta de una estructura para gestionar y mantener los productos de software desarrollados. Para abordar estos problemas, se propone formular e implementar un modelo de gestión para el laboratorio de desarrollo de software, basado en el ciclo PHVA y las mejores prácticas de CMMI. Este modelo tiene como objetivo facilitar la operacionalización del laboratorio, mejorar la calidad de los productos desarrollados, y conectar eficazmente el proceso académico con el desarrollo de software, beneficiando así a estudiantes, docentes, egresados y al sector empresarial externo.



METODOLOGÍA

Para abordar los problemas identificados y establecer un laboratorio de desarrollo de software eficaz, proponemos una metodología basada en el ciclo PHVA (Planificar, Hacer, Verificar, Actuar) y las mejores prácticas de CMMI, seguirá una metodología estructurada en cuatro fases principales, cada una de las cuales incorpora artefactos estratégicos clave para garantizar el éxito del proyecto. Fase 1: Diagnóstico y Análisis de Necesidades En la primera fase, se llevará a cabo una recolección de información esencial para comprender las necesidades del laboratorio. Esto incluye la definición de la visión, que establecerá el propósito, los objetivos y el impacto esperado del laboratorio en la universidad y en el sector externo. Se creará un mapa de impacto para conectar los objetivos del laboratorio con las funcionalidades y beneficios esperados, asegurando una alineación con los objetivos estratégicos. Se realizará un análisis de datos mediante la documentación y el análisis de los modelos de procesos del negocio actuales, identificando cómo el laboratorio puede mejorar o automatizar estos procesos. Se desarrollarán dos tipos de modelos de dominio: el modelo de dominio anémico, si se identifica que las entidades tienen lógica dispersa, y el modelo de dominio enriquecido, en el que las entidades incluirán comportamientos y lógica de negocio, promoviendo una mayor encapsulación. La definición de requisitos se llevará a cabo mediante sesiones de Event Storming para identificar y modelar eventos clave en el dominio, y la creación de un mapa de historias de usuario para visualizar y priorizar las funcionalidades del laboratorio. Fase 2: Diseño del Modelo de Gestión En la segunda fase, se procederá a la planificación del modelo mediante el tallaje de producto, que permitirá estimar el esfuerzo requerido para desarrollar cada historia de usuario y facilitar la planificación de recursos. Se elaborará un plan de liberaciones que defina las fechas y funcionalidades a entregar en cada fase del proyecto, asegurando entregas incrementales y oportunas. Se diseñará la estructura del laboratorio y se elaborará la especificación funcional, que incluirá la documentación detallada de las historias de usuario, el modelado de transacciones para definir la lógica de negocio, y los requerimientos funcionales, de información, no funcionales y reglas de negocio. Además, se crearán casos de uso para describir cómo los usuarios interactuarán con el sistema para cumplir sus objetivos. Fase 3: Implementación Durante la fase de implementación, se construirá y equipará el laboratorio según los diseños y especificaciones establecidas. Se procederá con la capacitación de estudiantes, docentes y personal administrativo en el uso del laboratorio y las nuevas prácticas de desarrollo. Se desarrollarán proyectos piloto basados en las historias de usuario y el plan de liberaciones para probar y ajustar el modelo de gestión y los procesos. Fase 4: Evaluación y Mejora Continua Finalmente, en la fase de evaluación y mejora continua, se realizará un monitoreo y evaluación del desempeño del laboratorio en función de los objetivos establecidos, evaluando la efectividad de las funcionalidades implementadas y la satisfacción de los usuarios. Se implementarán acciones correctivas y preventivas basadas en la retroalimentación y los resultados del monitoreo, y se actualizará el modelo de gestión, los procesos y las especificaciones para mejorar continuamente la eficiencia y la calidad del laboratorio.


CONCLUSIONES

Durante mi estancia de verano en el Programa Delfín me a permitido adquirir conocimientos sobre la elaboración del desarrollo de un software que optimiza los procesos académicos y promueve la integración de la investigación con la práctica profesional y se espera que el laboratorio no solo beneficiará a la comunidad universitaria, sino que también servirá como un puente para futuras colaboraciones y desarrollos en el campo del software, reafirmando el compromiso de la Universidad Católica de Oriente y las personas que trabajan en este grandioso proyecto.
Cortés Arenas Martín, Universidad de Sonora
Asesor: Dr. Dagoberto Cabrera German, Universidad de Sonora

DEPóSITO DE PELíCULAS DELGADAS DE SN(OH)2 POR MéTODO DE SPIN COATING


DEPóSITO DE PELíCULAS DELGADAS DE SN(OH)2 POR MéTODO DE SPIN COATING

Cortés Arenas Martín, Universidad de Sonora. Asesor: Dr. Dagoberto Cabrera German, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Las celdas solares a base de plomo, especialmente las de perovskita de haluro de plomo, se han convertido muy populares en el panorama científico actual debido a que presentan eficiencias muy altas. Sin embargo, la toxicidad de este elemento así como la poca estabilidad a largo plazo en condiciones exteriores y la falta de métodos de producción a gran escala de estos dispositivos han imposibilitado su pronta comercialización. Como resultado, se busca obtener materiales que puedan mejorar la calidad de estas celdas solares pero también que puedan remplazarlas. El estaño es un elemento que se encuentra en varios compuestos semiconductores que prometen ayudar en este campo de acción debido a que su toxicidad es mucho menor y la eficiencia que presentan las celdas solares que lo incorporan logran obtener eficiencias bastante altas también. Uno de los usos que ha recibido en los últimos años es como ETL (Electron Transport Layer) en celdas solares de perovskita en la forma de películas delgadas de SnO2. Otros usos que se le pueden dar a este material es como capa buffer en dispositivos de Kesterita o como capa semilla para crecer diferentes materiales (como sulfuros/sulfatos de varios metales) que no se adhieren a sustratos de vidrio fácilmente.



METODOLOGÍA

Para realizar los experimentos se realizó una solución madre de iones Sn2+, la cual se obtiene al disolver 1 g de SnCl2 en 10 ml de etanol. Se realizaron variaciones por triplicado en los siguientes parámetros para el depósito de películas delgadas de Sn(OH)2 sobre sustratos de vidrio transparente de 2.5 cm x 2.5 cm: volumen de adición de la solución, revoluciones por minuto del spin coater y número de capas por sustrato. El parámetro que se mantuvo constante para todas las muestras fue el tiempo que se sometió al sustrato a rotación dentro del spin coater, el cual fue de 10 segundos por capa. Después del depósito se posicionaron las muestras en una plancha de calentamiento a temperaturas no muy altas por un poco tiempo.      Primeramente, para depositar una película que recubriera de manera homogénea al sustrato se varió el volumen de alicuota de la solución utilizando un velocidad de constante del spin coater de 3000 RPM y realizando tres capas. Previo a este trabajo ya se habían realizado algunas pruebas en el laboratorio, por lo que estos dos parámetros constantes parecieron un buen punto de partida. Los volumenes de alicuota con los que se trabajaron fueron de 100 μl, 200 μl, 250 μl, 300 μl, 400 μl y 500 μl. Las películas más homogeneas y que parecían llenar mejor la superficie del sustrato fueron las de 200 μl y 250 μl, presentando un característico reflejo un tanto tornasol y una homogeneidad bastante buena tras analizar los espectros de UV-VIS en varias partes (una en el centro y cuatro alrededor de esta) de la película. Las películas de 100 μl no se veían para nada homogeneas y en las de mayor volumen la alicuota se desbordaba del sustrato dejando marcos blanquizcos alrededor de la película delgada que se formaba en el centro de la cara del sustrato.      Conociendo con qué volumen de alicuota se parece formar una buena película, se prosiguió a encontrar la velocidad del spin coater óptima. Los parámetros constantes en este siguiente experimento fueron 200 μl y 3 capas. Las velocidades con las que se trabajaron fueron 1000 RPM, 2000 RPM, 3000 RPM, 4000 RPM, 6000 RPM, 8000 RPM. Las películas de 1000 y 2000 RPM parecían que no eran homogéneas a simple vista, pero las demás tenían un muy buen aspecto en especial algunas de 6000 RPM y 8000 RPM. Sin embargo, como algunos sustratos salían disparados al utilizar velocidades muy altas se decidió continuar con una velocidad de 4000 RPM ya que la homogeneidad que demostraba en los espectros de UV-VIS eran comparables o hasta mejor que estas de mayor velocidad.      Para determinar el número de capas óptimo se tomaron 250 μl de alicuota y 4000 RPM como parámetros constantes. Se trabajó con 2, 3, 6, 9 y 12 capas. Las películas más homogeneas y a las cuales no se les formaba un cuadro blanquizco alrededor fueron las de 3 y 6 capas.      Finalmente, se implementaron soluciones de Zn y de Cu en la solución original de SnCl2 y etanol para determinar la posibilidad de obtener películas delgadas de SnO2 dopado con estos metales por método de spin coating y recocido. Para el caso del Zn se realizó una solución madre de Zn(NO3)2 (0.31 g en 5.0 mL de agua y 15 mL de etanol) y para el caso del Cu se realizó una solución madre de CuSO4 (0.14 g en 5.0 mL de agua y 15 mL de etanol). Para cada caso se colocaron 3 ml de la solución de SnCl2 en tres viales de vidrio y se virtieron 1, 2 y 3 ml de la solución madre de cada metal dopante en cada vial. Los parámetros con los que se realizaron las películas fueron 4000 RPM, 250ml de alicuota y se realizaron películas de 3 y de 6 capas para con cada solución de cada vial. Al final las películas no resultaron ser muy homogéneas. Las de cobre resultaron ser las mejores, especialmente las de 3 capas que mostraron una apariencia homogenea pero aún con defectos muy probablemente causados por una falta de solubilidad.


CONCLUSIONES

Durante la estancia de investigación se logró obtener conocimientos muy valiosos acerca de los diferentes métodos para sintetizar y depositar semiconductores en forma de películas delgadas, en especial por el método de spin coating. Se entendió su importancia y se reconoció que estos materiales se utilizan en el mundo de la ingeniería para construir diversos dispositivos eléctricos como lo son sensores o celdas solares.       El objetivo de encontrar los parámetros óptimos para depositar películas de Sn(OH)2 se cumplió al poder interpretar el comportamiento de sus propiedades ópticas en el rango UV-VIS. Los parámetros que favorecen la formación de películas homogéneas de este material por medio de spin coating son los siguientes: una alicuota de entre 200-300 μl, una velocidad de 3000-8000 RPM, un tiempo de rotacipon de 10 segundos por capa y 3 o 6 capas. También, hace falta encontrar la forma de incorporar los iones metálicos en las películas delgadas ya sea modificando las concentraciones en las soluciones y/o implementando algún agente complejante.
Cortes Curiel Sonia Getsemani, Universidad de Guadalajara
Asesor: Mg. Fernando Aricapa Palacio, Fundación Universitaria Tecnológico Comfenalco

ELABORACIóN DE UN PROTOTIPO DE COLECTOR SOLAR COMO ALTERNATIVA DE DESINFECCIóN DEL AGUA EN ZONAS NO INTERCONECTADAS A PARTIR DE LA ESTIMACIóN POTENCIAL ENERGéTICO SOLAR DISPONIBLE


ELABORACIóN DE UN PROTOTIPO DE COLECTOR SOLAR COMO ALTERNATIVA DE DESINFECCIóN DEL AGUA EN ZONAS NO INTERCONECTADAS A PARTIR DE LA ESTIMACIóN POTENCIAL ENERGéTICO SOLAR DISPONIBLE

Acosta Espinoza Angel Arturo, Instituto Tecnológico de Morelia. Cortes Curiel Sonia Getsemani, Universidad de Guadalajara. Santiago Maldonado Karla Jaquelin, Universidad Autónoma de Tamaulipas. Asesor: Mg. Fernando Aricapa Palacio, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

Las principales problemáticas relacionadas a las zonas rurales están asociadas a la contaminación del recurso hídrico y el saneamiento básico, las cuales representan altos costos por la prestación de servicios en la instalación de sistemas centralizados. Sin embargo, estas comunidades poseen diversos recursos y en especial potencial energético en radiación para implementar alternativas de solución. Desde la perspectiva de los objetivos de desarrollo sostenible, se espera que para el 2030, las comunidades rurales presenten una mejor calidad de vida, es por ello que se promueve el desarrollo rural integral, el cual es el conjunto de actividades que vinculan los agentes económicos, sociales y ambientales para satisfacer las necesidades básicas, haciendo uso de los recursos renovables.   Una de las actividades que promueve el desarrollo rural integral es la inclusión de soluciones energéticas no convencionales, la cual mediante su implementación ha logrado mejorar la gestión y aprovechamiento de los recursos en países en vías de desarrollo. Dadas estas condiciones se plantea la elaboración de un prototipo de colector solar que permita la desinfección del agua en las comunidades que no poseen sistemas de tratamiento. 



METODOLOGÍA

Dimensionamiento del colector solar cilíndrico parabólico  Los componentes principales de un CCP, son un concentrador o reflector, en forma de parábola, y un tubo receptor, ubicado en el eje focal de la parábola (Deebhesh et al., 2020). Para el dimensionamiento del concentrador se tomaron en cuenta algunos parámetros como el lado recto, Lr, ángulo de borde, ϕ, lado curvo, S, y la distancia focal, f.   Primero se seleccionó el lado recto, de 86.2 cm, y la distancia focal de 14 cm. A partir de ahí, los otros parámetros se calcularon utilizando las ecuaciones de Bharti y Paul (2017), determinando un ángulo de borde de 113.98°. Así mismo, se seleccionó el largo del colector de 1 metro. El diámetro mínimo calculado para el tubo receptor, fue de 4.36 mm. Sin embargo, se utilizó un tubo de 3.4 cm de diámetro.  Modelación de la eficiencia y transferencia de calor en el CCP  Como ya es conocido, los métodos de transferencia de calor son radiación, conducción y convección; a continuación, se enunciarán cómo se afectaron cada uno de ellos al CCP  Radiación: debido al ángulo de incidencia casi perpendicular durante el día, la radiación es el método predominante.   Conducción: ocurre en 2 momentos: el primero es la transferencia entre la superficie externa del cristal donde incide la radiación solar, hacia la superficie interna que está en contacto con el fluido de trabajo; y también debido al inevitable contacto del cristal receptor con el soporte del colector. En la bibliografía consultada se menciona una transferencia de calor del tubo receptor hacia el soporte, sin embargo, debido a las diferencias entre el colector analizado y el colector puesto en práctica se presentó una transferencia del soporte hacia el tubo receptor debido a una mayor temperatura del soporte causada por las propiedades del material del que está hecho.  Convección: debido a las condiciones ambientales, se puede decir que, en comparación con los otros métodos de transferencia, la convección tiene una muy baja influencia en el sistema en cuestión.  Validación de la eficiencia y perfil térmico longitudinal mediante prototipo experimental  Se realizaron pruebas experimentales durante tres días seguidos en un horario de 9:00 am hasta 12:00 pm, en proceso estacionario. Al iniciar las pruebas se orientó el CCP de este a oeste para obtener la mayor radiación solar, se colocó agua en el tubo de cristal y se tomó su temperatura inicial con ayuda de un pirómetro. La temperatura ambiente se obtuvo de los datos de la estación meteorología ubicada en la Universidad Tecnológica Comfenalco Sede España, la velocidad del viento se midió con ayuda de un anemómetro digital. Luego de haber contenido el flujo de manera fija se tomaron los datos cada 30 minutos después de la última prueba. 


CONCLUSIONES

Se pudo concluir que el prototipo tenía mejor rendimiento en los días con mayor radiación solar (despejados) y con menor velocidad de viento. Así mismo, se observó que entre mayor sean las horas de exposición, mayor será el aumento de la temperatura. Aunque los resultados obtenidos no fueron los deseados para la desinfección, se seguirá trabajando en la mejora del prototipo para dicho propósito. Adicionalmente, se realizarán pruebas microbiológicas para determinar si existe una disminución de bacterias y dentro de que rangos de temperatura se obtendrían los mejores resultados. 
Cortes Facio Juan Diego, Instituto Tecnológico de Morelia
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

ESTACIóN NIMBUS, SISTEMA DE MONITOREO AMBIENTAL


ESTACIóN NIMBUS, SISTEMA DE MONITOREO AMBIENTAL

Cortes Facio Juan Diego, Instituto Tecnológico de Morelia. de Jesús Martínez Carlos Alberto, Instituto Politécnico Nacional. Feliciano Pioquinto Jorge Osvaldo, Instituto Tecnológico Superior de Ciudad Hidalgo. Piceno Reyes Guillermo Eduardo, Instituto Tecnológico de La Piedad. Pineda Ibarra Alexandra, Instituto Tecnológico Superior de Ciudad Hidalgo. Rosales Gómez Adrian, Instituto Politécnico Nacional. Vargas Castro Jonathan Antonio, Instituto Tecnológico de Morelia. Vidal Gómez Yessica Gisel, Instituto Politécnico Nacional. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la región de los Valles, Jalisco, la agricultura enfrenta desafíos significativos debido a la variabilidad climática y la falta de datos meteorológicos precisos y actualizados. Estos problemas afectan la planificación de cultivos y la gestión de recursos hídricos, esenciales para la producción agrícola sostenible. Según el Instituto Nacional de Estadística y Geografía (INEGI), la región de Jalisco ha experimentado fluctuaciones en temperatura y precipitaciones que impactan directamente en la productividad agrícola. La falta de estaciones meteorológicas eficientes en la región agrava esta situación, limitando la capacidad de los agricultores para tomar decisiones informadas y oportunas. La problemática principal está en el ingenio azucarero de la región, estos desafíos son particularmente pronunciados. La producción de caña de azúcar requiere condiciones climáticas específicas y una gestión adecuada del agua. La falta de datos precisos dificulta la planificación y optimización de las actividades agrícolas, resultando en pérdidas económicas y una menor eficiencia en la producción.



METODOLOGÍA

Para el desarrollo de la estación de monitoreo ambiental, se siguió un proceso sistemático que involucró diversas fases de diseño, implementación y pruebas. A continuación, se detallan los pasos específicos llevados a cabo: Fase de Diseños Selección de Sensores: Se eligieron sensores adecuados para medir temperatura, humedad, precipitación pluvial, altitud, presión atmosférica, velocidad y dirección del viento, índice UV, calidad de aire (partículas), luminosidad, CO2. Los sensores seleccionados fueron DHT11 para temperatura y humedad, BMP180 para presión atmosférica, y anemómetros y veletas para medir velocidad y dirección del viento. Diseño de la estructura: Utilizando SolidWorks, se diseñaron los soportes y la carcasa para los sensores y las placas electrónicas Raspberry Pi y la Arduino Nano. Se realizaron varias iteraciones del diseño para asegurar estabilidad y protección contra condiciones climáticas adversas. FORTALECIMIENTO DE LA Fase de Implementación Montaje de Hardware: Los componentes físicos fueron hechos utilizando una impresora 3D con filamento PLA. Los sensores fueron montados en sus respectivos soportes y conectados a la Raspberry Pi y Arduino Nano. Configuración de la Raspberry Pi: Se configuró la Raspberry Pi con Raspbian OS y se instalaron las bibliotecas necesarias para la lectura de los sensores (Adafruit_DHT, BMP180, y PySerial para el anemómetro y la veleta). Así mismo con la Nano. Desarrollo de la Interfaz: Se desarrolló una interfaz de usuario utilizando Flask, un microframework de Python, para permitir la visualización en tiempo real de los datos recopilados. La interfaz incluye gráficos y alertas para condiciones climáticas extremas. Fase de Pruebas. Pruebas en Campo: La estación de monitoreo ambiental fue instalada en el Centro Universitario de los Valles de la Universidad de Guadalajara, ya que está rodeado de zonas agrícolas. Se realizaron pruebas durante un periodo de tres semanas para recolectar datos y ajustar la calibración de los sensores. Validación de Datos: Los datos recolectados fueron comparados con los registros de estaciones meteorológicas oficiales para validar la precisión de las mediciones. Se encontraron discrepancias menores que fueron ajustadas mediante calibración adicional.


CONCLUSIONES

Durante el desarrollo de la estación de monitoreo ambiental, se logró adquirir conocimientos teóricos y prácticos en el diseño e implementación de sistemas de monitoreo medio ambientales utilizando tecnologías accesibles como la Raspberry Pi, Ardunio Nano y la impresión 3D. La integración de sensores y el desarrollo de una interfaz de usuario intuitiva permitieron la recolección y visualización de datos meteorológicos en tiempo real. Los resultados obtenidos durante el periodo de pruebas demostraron que la estación de monitoreo ambiental proporciona datos precisos y confiables, la cual contribuirá esencialmente para la planificación agrícola en región de los Valles, Jalisco. La comparación de los datos recolectados con los registros de estaciones meteorológicas oficiales validó la precisión de las mediciones, y los ajustes realizados mejoraron aún más su exactitud. En el contexto del ingenio azucarero, la estación de monitoreo ambiental permitiría ajustar las prácticas de riego y manejo de cultivos, mejorando la eficiencia y reduciendo pérdidas. Esto subraya la importancia de contar con datos climáticos precisos para optimizar la producción agrícola y enfrentar los desafíos específicos de la región. A pesar de los avances logrados, el proyecto aún se encuentra en fases de prototipado. Se espera continuar con la recolección de datos a largo plazo para analizar patrones climáticos y su impacto en la agricultura local. Futuras mejoras en la calibración de sensores y la expansión de la red de estaciones de monitoreo ambiental podrían proporcionar una cobertura más amplia y datos aún más precisos. Además, se prevé que el uso continuo de esta tecnología contribuirá a incrementar la sostenibilidad y productividad agrícola en la región. El conocimiento adquirido y las técnicas desarrolladas pueden ser aplicadas en otros contextos y regiones, proporcionando una herramienta valiosa para enfrentar los desafíos del cambio climático y la variabilidad meteorológica en la agricultura. Desarrollo del proyecto "ESTACIÓN NIMBUS” Video: https://drive.google.com/file/d/1awq5EhNIY7j6gRyHKIEVdf6mNa2rBiaP/view?usp=sharing  
Cortes Perez Haminton, Universidad de Investigación y Desarrollo
Asesor: M.C. Judith Pérez Marcial, Benemérita Universidad Autónoma de Puebla

ANáLISIS E IMPLEMENTACIóN DE HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL PARA LA GENERACIóN AUTOMáTICA DE DESARROLLO WEB


ANáLISIS E IMPLEMENTACIóN DE HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL PARA LA GENERACIóN AUTOMáTICA DE DESARROLLO WEB

Briñez Arciniegas Cristhian Felipe, Universidad de Investigación y Desarrollo. Cortes Perez Haminton, Universidad de Investigación y Desarrollo. Cuadros Vega Juan David, Universidad de Investigación y Desarrollo. Asesor: M.C. Judith Pérez Marcial, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del Problema  Las herramientas generadoras de código han evolucionado significativamente desde las herramientas CASE, que se centraban en la automatización del desarrollo de software a través del modelado y la generación de código básico, hasta las modernas herramientas basadas en IA que pueden entender el contexto y generar código complejo de manera más precisa y eficiente. Esta evolución ha llevado a un aumento en la productividad, una mayor calidad del código y una reducción en los errores manuales, aunque todavía existen desafíos relacionados con la dependencia de datos y la necesidad de supervisión humana.  El desarrollo de software tradicional enfrenta desafíos significativos en términos de eficiencia, productividad, calidad y velocidad. La codificación manual consume mucho tiempo y es propensa a errores. Con el avance de la inteligencia artificial (IA), surge la oportunidad de transformar estos procesos mediante la generación automática de código, aunque es necesario que el usuario tenga conocimientos de lenguajes y técnicas de programación para darle un correcto uso a la IA y validar el código proporcionado por esta. Este proyecto busca analizar e implementar herramientas de IA que puedan interpretar descripciones en lenguaje natural y generar código, mejorar la velocidad de escritura y la reducción de errores, garantizar la transparencia y seguridad del código, mitigar sesgos para promover la equidad, proteger la privacidad de los datos y considerar el impacto laboral en los desarrolladores, fomentando su adaptación profesional, así como estandarizar y automatizar la creación de estructuras básicas y repetitivas en el desarrollo de software.  



METODOLOGÍA

Metodología  El proyecto se realizó utilizando Visual Studio Code, con cada integrante del equipo trabajando desde su casa y avanzando en el proyecto de manera colaborativa. Se evaluó ChatGPT como la inteligencia artificial, haciéndole preguntas específicas sobre el código y las tareas a realizar, las cuales fueron resueltas por la IA. Además, la metodología fue fundamentalmente de trabajo en grupo, donde se compartieron conocimientos y se coordinaron esfuerzos para cumplir con los objetivos del proyecto.       1. Análisis  Análisis de Herramientas de IA:  Investigar modelos de lenguaje natural, asistentes de programación y generadores de código basados en IA.  Ejemplos de herramientas: GPT-4 de OpenAI, GitHub Copilot, TabNine, y IntelliCode de Microsoft.    Evaluación de Necesidades y Selección de Herramientas:  Identificar áreas del proceso de desarrollo que se beneficiarán más de la automatización.  Evaluar y seleccionar herramientas de IA que se adapten mejor a las necesidades específicas.      2. Diseño  Uso de Chat GPT para el Desarrollo Web:  Utilizar Chat GPT para realizar toda la página web desde la landing page hasta las diferentes funciones de esta.  Reformular las preguntas a Chat GPT para obtener una información más clara y  estructurar mejor las preguntas para tener un desarrollo guiado y que entienda mejor lo que se quiere conseguir.  Contextualizar a la IA para que pueda realizar bien el código y cómo implementarlo.    3. Desarrollo  Uso de Chat GPT para el Desarrollo Web:  Implementar las funciones y características definidas en la fase de diseño, utilizando Chat GPT para generar y refinar el código necesario.  Integrar las herramientas seleccionadas durante el análisis para optimizar el desarrollo.    4. Pruebas  Monitoreo y Mejora Continua:  Recopilar el feedback de los desarrolladores para identificar problemas y áreas de mejora.  Analizar las métricas de rendimiento y productividad para evaluar la efectividad del código generado y las herramientas utilizadas.        5. Mantenimiento  Monitoreo y Mejora Continua:  Continuación del monitoreo del desempeño del software y las herramientas de IA.  Implementación de mejoras y ajustes basados en el feedback continuo y el análisis de métricas, asegurando la calidad y eficiencia del software a lo largo del tiempo. 


CONCLUSIONES

Conclusiones Generales  Se logró percibir que la IA funciona de manera eficiente cuando se le hacen preguntas específicas y se es claro y conciso en las peticiones. Sin embargo, para poder utilizar IA en el desarrollo de código, es imprescindible contar con un conocimiento mínimo de programación. La IA, en este caso ChatGPT, no puede realizar todo un trabajo de programación por sí sola, ya que requiere de la intervención humana para guiar y corregir el proceso, esto se hace validando que el código proporcionado por la IA este bien estructurado, que se adapte la secuencia de preguntas con los objetivos planteados y se ajuste con el programa que se está realizando, también corrigiendo errores de contexto que puede llegar a tener la IA y saber ubicar el código en el programa.  La implementación de herramientas de IA para la generación automática de código promete mejoras significativas en eficiencia, productividad, calidad y velocidad en el desarrollo de software. Se espera una reducción considerable del tiempo necesario para escribir y revisar código, un aumento en la productividad al permitir a los desarrolladores centrarse en tareas más complejas y creativas, una mejora en la calidad del código con menos errores, y una aceleración del ciclo de desarrollo. Sin embargo, es crucial asegurar la precisión de la IA, manejar adecuadamente la seguridad y privacidad de los datos, y superar la resistencia al cambio por parte de los desarrolladores. También se concluyó en la investigación que si se puede tener ética mientras se utiliza la IA para programar, solo hay que saber que está bien utilizar o hacer con una IA y tener cuidado con el código que resulta. 
Cortes Sanchez Pablo Emilio, Universidad Simón Bolivar
Asesor: M.C. Juan Jesús Moncada Bolón, Universidad Autónoma de Campeche

ANTEPROYECTO VERANO DELFíN: OPTIMIZACIóN DE PESOS DE UNA RED NEURONAL MEDIANTE ALGORITMOS GENéTICOS


ANTEPROYECTO VERANO DELFíN: OPTIMIZACIóN DE PESOS DE UNA RED NEURONAL MEDIANTE ALGORITMOS GENéTICOS

Cortes Sanchez Pablo Emilio, Universidad Simón Bolivar. Asesor: M.C. Juan Jesús Moncada Bolón, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

Se puede concebir a las redes neuronales como una representación artificial y simplificada del cerebro humano, constituyéndose como una gran alternativa para el tratamiento de la información y teniendo por unidad básica de procesamiento la neurona". Una Red Neuronal se encuentra constituida por neuronas (unidades de procesamiento) conectadas entre sí y organizadas en capas: una capa de entrada, una o varias capas ocultas, y una capa de salida. Los Algoritmos Genéticos son una forma de realizar búsquedas basada en la teoría de evolución de Charles Darwin para la resolución de problemas. Lo anterior se evidencia en que, en estos, se toman sujetos (potenciales soluciones) de una población inicial bajo cierto criterio para posteriormente cruzarlos (reproducirlos y mutarlos) con el propósito de dar con nuevos individuos, los cuales se espera sean más aptos que sus antecesores. En el proceso se llevarán a cabo varias operaciones que garantizarán llegar a una buena solución al problema en cuestión, tales como: mutación, migración, elitismo, criterio de paro, etc. A través de esta pasantía de investigación se ha podido evidenciar que una Red Neuronal Retro Propagada no es más que un proceso matemático que desemboca en un programa informático capaz de clasificar una cantidad variable de datos de forma correcta, esto gracias al entrenamiento recibido tras un proceso conocido como retro propagación en el cual se altera el valor de los pesos de las neuronas o nodos que procesan la información y generan conclusiones. Estos pesos son, en síntesis, el punto central de la efectividad de la red. Como parte de un ejercicio de innovación y apropiación del conocimiento, surge la curiosidad de desarrollar un algoritmo genético que permita hallar los pesos ideales de una Red Neuronal Clásica (de tres capas), presentando una visión holística de las diferentes técnicas de inteligencia artificial. Esta propuesta es de aplicación general, esto respecto al propósito último de la Red Neuronal y el Algoritmo Genético (el cual se encarga de la optimización de sus pesos). Es decir, clasificar imágenes médicas o no, pilas de datos, evaluar el comportamiento de algún fenómeno, etc. Debido a que, lo que se plantea desarrollar, será una herramienta que, como se ha evidenciado a lo largo de la pasantía, se adaptará sin problema alguno a las necesidades del contexto.



METODOLOGÍA

1. Codificación de Red Neuronal Tricapa. El lenguaje de programación en el cual se ejecutará el proyecto es C++. Con base en los conocimientos adquiridos, se procederá a programar la estructura de una Red Neuronal Tricapa (1 capa de entrada, 1 capa hidden y 1 capa de salida). Se integrarán al código fuente los archivos header   y   con el propósito de desarrollar arreglos dinámicos, y codificar cualquier expresión matemática necesaria. 2. Representación de los pesos y definición de la función de evaluación. Este proceso es fundamental para una adecuada ejecución del algoritmo genético. En él se definirá la manera de cómo representar los pesos (coeficientes y biases) de las bancadas en forma de cromosomas. También, la manera de cómo evaluar cada solución para que, de esta forma, se pueda determinar cuáles son esos individuos (cromosomas) que se están acercando a la buena solución que se solicita, con la cual la red clasifique la información ingresada (de diversa índole) sin margen de error alguno.  3. Delimitación de los conceptos claves restantes del algoritmo genético. De entre los conceptos claves a delimitar se encuentran: generación de la población inicial (Aleatoria o Dirigida), proceso de selección de individuos (Probabilística o Determinística), procedimiento de supervivencia (Uno a uno o Uno a muchos), operaciones de cruzamiento (reproducción de los individuos para la generación de nuevos que heredan las características genéticas de el o los progenitores), mutación (Aleatoria o Dirigida), aparición del elitismo (Sin elitismo, Elitismo parcial o Elitismo completo), grado de migración (Sin migración, Débil o Fuerte), y criterio de paro para el desarrollo y evolución del algoritmo (Número de generaciones, Desempeño, Desviación o Razón mejor/media). Estos conceptos serán delimitados con base en pruebas teóricas y empíricas que garanticen una óptima convergencia del algoritmo. 4. Codificación del algoritmo genético en C++ y uso de herramientas que transformen información no estructurada en datos de entrada válidos. Ya habiendo definido todos los procesos antes mencionados, se procederá a su programación en el lenguaje C++, haciendo uso de los conocimientos informáticos adquiridos durante la estancia que garanticen la usabilidad y adaptabilidad del código. Además, si se requiere, se usarán diversas herramientas que permitan adaptar la información no estructurada que se tenga (imágenes, por ejemplo) al tipo de dato que procesa una Red Neuronal por defecto (valores numéricos). 


CONCLUSIONES

Respecto al anteproyecto propuesto en las secciones anteriores, se espera dar con los algoritmos y experimentar con ellos para su optimización. Parte fundamental de esta estancia de verano ha sido aprender que en el proceso de investigación en IA, la experimentación juega un rol protagónico, puesto que da paso a cuestionar los modelos tradicionales de resolución de problemas en el área, teniendo por resultado la concepción de ideas innovadoras que, a la larga, den con soluciones óptimas a grandes interrogantes (sin descuidar las tareas de recopilación de información y su clasificación, el apego, en una medida razonable, a metodologías confiables y aceptadas por la comunidad científica, y el uso de normas académicas de escritura y presentación de trabajos).
Cortés Sereno María Esmeralda, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

DETERMINACIóN DE LAS NECESIDADES CAMBIANTES DEL MERCADO PARA LA TOMA DE DECISIONES Y ACTUALIZACIóN DE ESTRATEGIAS


DETERMINACIóN DE LAS NECESIDADES CAMBIANTES DEL MERCADO PARA LA TOMA DE DECISIONES Y ACTUALIZACIóN DE ESTRATEGIAS

Cortés Sereno María Esmeralda, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Un estudio de mercado bien diseñado nos proporciona información de vital importancia para lograr tomar las mejores decisiones bien informadas y poder garantizar el éxito de nuestro nuevo producto cosmético artesanal en el mercado. El desarrollo de productos de aseo personal o cosméticos basados en extractos naturales de plantas, frutas y flores no es un invento de último momento. Estos elementos, empezaron a utilizarse en las antiguas civilizaciones como tributo al arte de embellecerse. Por esta razón la teoría del consumidor es una herramienta útil para entender cómo los consumidores toman decisiones de compra, cómo el precio de los bienes y los ingresos afectan a la demanda y cómo los cambios en la oferta pueden influir en los precios de los bienes. Esta teoría también se usa para predecir el comportamiento de los consumidores y para diseñar estrategias de marketing para atraer a los consumidores hacia un producto o servicio específico.



METODOLOGÍA

Búsqueda de información: Este es el primer paso a realizar, el cual es el más importante, ya que se debe buscar la información más óptima relacionada con los principales puntos de la investigación de mercado, obtener información de investigaciones anteriores, así como de conceptos clave, realizar una investigación consultando la mayor cantidad de fuentes a nuestro alcance, las cuales se irán actualizando y descantando hasta lograr obtener lo más importante. Para el diseño de la encuesta nos basamos en la escala de Likert, de tal manera que pudo ser adaptada a las necesidades de la investigación y a las preguntas planteadas, para obtener la información que se proponía recaudar para el diseño de estrategias y buena toma de decisiones. La escala de Likert contiene cuatro opciones, las cuales se les asignará una ponderación del 1 al 4 de acuerdo a la importancia. Para lograr determinar el tamaño de la muestra es necesario utilizar fórmulas matemáticas de estadística, de tal manera obtener con una mayor exactitud el tamaño de la muestra. Fórmula para calcular el tamaño de muestra de una población finita. Datos de la fórmula: Nivel de confianza 1-а-0.94 a=1-0.94 a/2=0.06 1-0.03=0.97 Z a/2=1.88 2 a/2-1.88 n= (< (x^2) *p*q) /e^2 n= ((1.88) ^2 (0.5) (0.5)) / L (0.06) *2 =245.44 La aplicación de la encuesta fue a través de una plataforma digital, debido a que es un medio más práctico y fácil de usar en la actualidad. Antes de llevar a cabo la encuesta a las 245 personas fue necesario realizar una prueba piloto para de esta manera conocer la fiabilidad de la misma investigación. La fiabilidad obtenida de la prueba piloto a 30 personas, fue igual a 0.795 lo cual nos da un resultado favorable para poder aplicar la encuesta a las 245 personas y de esta manera obtener los mejores resultados. El análisis de la información se llevó a cabo de una manera muy cuidadosa, para obtener la información necesaria y asi la toma de decisiones y adaptación de estrategias, etc. A través de la aplicación de Google forms al finalizar el encuesteo, el programa automáticamente genero los gráficos necesarios en cada pregunta para conocer los resultados Análisis estadístico empleando alfa de Cronbach Este programa nos ayudo a lograr obtener la información de una mejor manera y comprender mejor la información obtenida de las encuestas Manejo de software IBM SPSS Statistics 25. Este programa es el complemento del anterior para lograr un análisis de información más completo, nos ayudo a conocer realmente la viabilidad de la información, etc. Posteriormente, gracias a los programas mencionados anteriormente se logro obtener gráficos de comparación de ambas investigaciones y tomar las mejores decisiones mejor informadas.


CONCLUSIONES

Durante mi estancia de verano del Delfín logré obtener una serie de conocimientos tanto teóricos como prácticos, que me serviran para poderlos aplicar en mi vida cotidiana o en diversas situaciones que se vayan presentando a lo largo del tiempo, esta estancia fue muy importante para mi ya que en general la investigación es una gran oportunidad para poder aplicar cada una de nuestras habilidades e incluso desarrollar habilidades nuevas. Por otro lado la investigación nos abre un gran panorama hacia lo desconocido y nos brinda muchas nuevas oportunidades de aprender y crecimiento personal, de esta manera los resultados nos permiten tomar decisiones más informadas y mejor.
Cortez Chávez Oscar Eduardo, Universidad Nacional Autónoma de Nicaragua, Managua
Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)

ANáLISIS DE UN CASO DE OPERACIONES DE TRANSPORTE A TRAVéS DE LA ESTADíSTICA DESCRIPTIVA E INFERENCIAL EN EL LENGUAJE R


ANáLISIS DE UN CASO DE OPERACIONES DE TRANSPORTE A TRAVéS DE LA ESTADíSTICA DESCRIPTIVA E INFERENCIAL EN EL LENGUAJE R

Cortez Chávez Oscar Eduardo, Universidad Nacional Autónoma de Nicaragua, Managua. Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La falta de un análisis detallado de los datos del caso específico de operaciones de transporte está afectando la eficiencia y la precisión de las operaciones. Utilizando el lenguaje R para llevar a cabo un análisis estadístico exhaustivo, se busca obtener información valiosa que permita optimizar las operaciones, mejorar la exactitud de los pronósticos y tomar decisiones más informadas.



METODOLOGÍA

Los datos del caso son origen, destino, día, hora de salida, valores del pronóstico y datos reales de las operaciones de transporte realizadas. La forma para evaluar estos datos es primero definir el tipo de dato que es. Se procedió a cargar las librerías. Se utilizaron las librerías readxl, dplyr, ggplot2, grid, gridExtra, BSDA y nortest para todos los análisis y se importó la tabla.  Se conoce que la longitud de origen y destino es de 366,395. Las operaciones comenzaron el 01 y terminaron el 31 de agosto del año 2023. El día promedio de transportes fue el 16. La hora de salida promedio fue las 13.86 horas (1:51pm). El rango de las cantidades del pronóstico es de 1 a 342 y el real es de 0 a 342. La cantidad promedio pronosticada fue de 9.617 y la real fue de 9.017. Para identificar los datos presentes en las columnas de "ORIGEN" y "DESTINO", se generó unas tablas resumen. Existen un total de 16 ubicaciones distintas tanto para los puntos de origen como para los destinos de los transportes. Se realizó un gráfico de barras con leyenda de origen y se puede concluir que en Veracruz es donde se originaron la mayoría de transportes. Para conocer el sitio a donde se destinaron la mayoría de los transportes, se realizó un diagrama de barras con leyenda y se concluyó de que es Veracruz. Se graficó un diagrama de barras concluyendo de que el 25 de agosto del 2023 fue cuando se realizaron más transportes teniendo una proporción de 3.73%. Se realizó un diagrama de barras ordenado de manera descendente de la proporción de las horas de salida concluyendo de que a las 23 horas es cuando se realizaron más transportes teniendo una proporción de 6.23%. Debido a que no se conoce con exactitud qué tipo de distribución siguen los datos pronosticados y reales, se realizaron diagramas de densidad obteniendo de que siguen una distribución exponencial.  Prueba de hipótesis Se busca establecer si existe una diferencia significativa entre los valores pronosticados y los valores reales. En este caso, sea calculado la diferencia entre los valores reales y los valores pronosticados para evaluar la precisión del modelo de pronóstico utilizado.  Primero se realizó un resumen estadístico de la diferencia usando el código escrito en el anexo 18 concluyendo de que el rango de los datos es de -135 a 115, la mediana es -1 y la media es -0.59. Estas dos dan indicios de que los datos no están centrados en el 0 por lo que hay razones de que haya una diferencia. La gráfica Q-Q plot muestra que la diferencia de real menos pronóstico no siguen una distribución normal perfectamente, especialmente en los extremos. Se realizó la prueba de normalidad Anderson-Darling y se concluyó que el valor p es extremadamente pequeño (p-value<2.2×10−16). Esto sugiere que es altamente improbable que las diferencias sigan una distribución normal.  Se realizó la prueba no paramétrica Wilcoxon debido a que solo se analiza un grupo. Se espera que la mediana sea igual 0. Dado que el p-valor es extremadamente bajo, se rechaza la hipótesis nula con alta confianza. Esto significa que hay evidencia estadísticamente significativa para afirmar que los datos pronosticados y los datos reales no son iguales; es decir, el modelo de pronóstico presenta diferencias significativas respecto a los valores reales.  Recomendaciones • Analizar continuamente los datos pronosticados versus los datos reales. • Ajustar los tiempos de salida y llegada para mejorar la puntualidad y reducir los tiempos de espera. • Establecer indicadores clave de rendimiento (KPI) basados en los análisis estadísticos de R  • Realizar auditorías periódicas de los datos y modelos • Es fundamental que el personal operativo esté capacitado para interpretar y utilizar los resultados obtenidos en R.  • Adoptar tecnologías avanzadas que integren con R, como sistemas de gestión de transporte (TMS) y software de análisis de datos, puede automatizar la recolección y análisis de datos, facilitando la toma de decisiones en tiempo real.  • Fomentar una cultura de mejora continua es clave para el éxito a largo plazo. 


CONCLUSIONES

En conclusión, el análisis ha demostrado que, aunque los datos descriptivos proporcionan una visión clara del comportamiento de origen, destino, días y horas, las diferencias significativas entre los datos reales y los pronósticos sugieren que se deben realizar ajustes en los métodos de pronóstico. Estos ajustes son fundamentales para mejorar la precisión de las predicciones y optimizar las operaciones de transporte, garantizando una planificación más eficaz y una mejor alineación con la demanda real.
Cota Gastelum Juan Miguel, Universidad de Sonora
Asesor: Dr. Diego Alfredo Tlapa Mendoza, Universidad Autónoma de Baja California

APLICACIÓN DE INTELIGENCIA ARTIFICIAL Y LEAN HEALTHCARE EN LABORATORIOS CLÍNICOS PÚBLICOS Y CALIDAD 4.0 PARA LA MEJORA DE PROCESOS DE EMPAQUE EN LA INDUSTRIA VINÍCOLA


APLICACIÓN DE INTELIGENCIA ARTIFICIAL Y LEAN HEALTHCARE EN LABORATORIOS CLÍNICOS PÚBLICOS Y CALIDAD 4.0 PARA LA MEJORA DE PROCESOS DE EMPAQUE EN LA INDUSTRIA VINÍCOLA

Cota Gastelum Juan Miguel, Universidad de Sonora. Asesor: Dr. Diego Alfredo Tlapa Mendoza, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

A pesar del avance significativo de la tecnología en los últimos años, sectores como el de la salud y la industria vinícola aún enfrentan desafíos críticos que impactan su eficiencia y calidad. La implementación de simulación de procesos y deep learning en estas áreas, poco exploradas en México, tiene el potencial de revolucionar la manera en que se gestionan los desafíos que presentan estos sectores, proporcionando soluciones tecnológicas avanzadas que optimizan los procesos y mejoran significativamente la calidad y la sostenibilidad. En los laboratorios clínicos públicos, uno de los principales retos es la inspección de muestras de sangre, la cual está sujeta a errores humanos que pueden generar retoma de muestras, retrasos en el análisis y riesgos de contaminación. La falta de tecnología adecuada y la ausencia de guías sobre posibles errores y acciones de mejora agravan estos problemas. La necesidad de incrementar la inspección de muestras mediante tecnología avanzada, generar un análisis de riesgos y contar con información precisa sobre el nivel de inspección actual son áreas críticas que demandan soluciones innovadoras. En la industria vinícola, la calidad del empaque es fundamental para proteger el producto y asegurar la satisfacción del cliente. Sin embargo, el proceso de empaque de vino enfrenta distintos problemas que pueden llevar a cuestiones de calidad, como errores de etiquetado y la falta de una botella en las cajas enviadas. Además, el empaque del vino es uno de los mayores desafíos de sostenibilidad en el sector, ya que involucra diversos niveles, desde los materiales y formatos utilizados hasta la logística de comercialización y las percepciones y actitudes de los consumidores. La aplicación de inteligencia artificial (IA) y herramientas avanzadas de análisis de datos tiene el potencial de mejorar significativamente la calidad, flujo de trabajo y eficiencia de los procesos de manufactura.  Ambos proyectos requieren un enfoque integral que combine el desarrollo de tecnologías avanzadas, como modelos de deep learning (DL) para la inspección de muestras de sangre y la mejora de procesos de empaque en la industria vinícola, con la implementación de metodologías de mejora continua como lean healthcare y Calidad 4.0. 



METODOLOGÍA

Fueron utilizadas técnicas y métodos de inspección apoyados por la Industria 4.0, la cual es completamente funcional y aplicable tanto dentro de los laboratorios clínicos como en la industria vinícola, donde fueron llevadas a cabo una serie de actividades que permitieron el desarrollo de este proyecto, como lo fue la revisión de literatura científica en bases de datos, así como también el etiquetado y balanceo de imágenes con el propósito de desarrollar el entrenamiento del modelo Deep Learning para el sector salud y el sector vinícola, con ello, se pudo evaluar dicho modelo para poder definir el equipo necesario para el proceso de inspección en el área donde se llevan a cabo las múltiples actividades. Todo ello fue creado a través de la programación de un módulo Raspberry Pi 5 con modelos pre-cargados y cámaras para la detección de objetos, no obstante, trabajar con la creación de carcasas de montaje que se adecuaran correctamente tanto al módulo Raspberry Pi 5 como a la cámara fue una parte muy importante de este proceso, donde a través de la búsqueda y creación de modelos, pudieron ser fabricadas a través del diseño por computadora e impresión 3D. En el caso del sector de los laboratorios clínicos, se llevaron a cabo una serie de análisis del flujo de la cadena de suministro, en donde a través de una serie de visitas de campo al Centro de Salud Ruiz y 14 se realizaron tomas de tiempos en el proceso de registro y de toma de muestra, donde fueron elaborados distintos modelos de simulación en softwares enfocados a esta área, donde se logró llevar a cabo una comparativa de resultados entre escenarios propuestos en tres distintos softwares (Arena Simulation Software, Promodel y AnyLogic), así como también un análisis estadístico de los tiempos del proceso de registro y tomas de muestra de sangre. De igual forma, en el caso del sector vinícola fueron llevadas a cabo visitas de campo en la vinícola de Santo Tomás ubicada en el Valle de Santo Tomás al sur de la capital de Ensenada, B.C. en donde se estudió el proceso de embotellado y etiquetado de las botellas de vino para la elaboración de propuestas de mejora, obtención y procesamiento de datos. Como parte de subactividades realizadas, por parte del investigador, se brindaron cursos de estadística (pruebas de hipótesis y análisis de datos), herramientas de calidad, análisis de los sistemas de medición (MSA), elaboradas y desarrolladas en softwares estadísticos, donde al trabajar con casos de estudio, se pudieron llevar a cabo los análisis de toma de decisiones correspondientes y la interpretación de los resultados frente a estos casos.


CONCLUSIONES

Durante la estancia de verano se lograron adquirir conocimientos relacionados a múltiples áreas dentro del ámbito de la ingeniería industrial, como lo son la ingeniería de métodos, dibujo industrial, mejoramiento de procesos, análisis de datos, simulación de sistemas, análisis de decisiones, entre otras, permitiendo ser aplicados cada uno de ellos en futuro a mediano plazo frente a casos reales en el campo laboral. La colaboración entre múltiples instituciones permitió un desarrollo en la elaboración de soluciones frente a desafíos surgidos durante esta investigación, pudiendo ser implementados aprendizajes adquiridos previamente a través de modelos estadísticos, propuestas de mejora, investigación en bases de datos y utilización de herramientas de calidad. Es importante que seguirá siendo desarrollado el modelo de inteligencia artificial con el incremento de etiquetas para un entrenamiento exhaustivo del modelo deep learning, beneficiando en un incremento de la confiabilidad durante el proceso de tomas de muestras de sangre y en el proceso de etiquetado y embotellado.
Couttolenc Martínez Felipe, Instituto Tecnológico Superior de Guanajuato
Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato

LABORATORIO INTELIGENTE PARA REGULACIóN DE CONFORT TéRMICO DE HUMANO Y DE DISPOSITIVOS USANDO TéCNICAS DE INTELIGENTE ARTIFICIAL


LABORATORIO INTELIGENTE PARA REGULACIóN DE CONFORT TéRMICO DE HUMANO Y DE DISPOSITIVOS USANDO TéCNICAS DE INTELIGENTE ARTIFICIAL

Couttolenc Martínez Felipe, Instituto Tecnológico Superior de Guanajuato. Hanon Orozco Faruich Abdel, Universidad Nacional Autónoma de Nicaragua, Managua. Melendez Gonzalez Juan David, Instituto Tecnológico Superior de Guanajuato. Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Automatizar un laboratorio de computo para el confort térmico del personal y los alumnos que ingresaron en el, usando herramientas de programación y electrónica en el  desarrollo del proyecto para así garantizar el regulamiento de la temperatura dentro del laboratorio no solo dispositivos de computo sino que también de los alumnos.



METODOLOGÍA

En este proyecto se realizo una investigación, en la cual, recolectamos datos relacionados con proyectos sobre ambientes inteligentes; en los que se registran, almacenan y visualizan valores de temperatura. Realizamos una simulación para ver como funciona el circuito antes de construirlo físicamente, la pagina de WOKWI nos brindó los materiales necesarios para realizar las pruebas simuladas del sistema. Después de analizar los datos simulados, decidimos comenzar la construcción del sistema. Para ello, se emplearon un sensor de temperatura para recopilar información  sobre el ambiente del área. y un microcontrolador que transmita la información recibida de manera inalámbrica. Una vez construido el circuito nos dedicamos a la programación que se utilizará en el microcontrolador, para este usamos el programa Arduino IDE.


CONCLUSIONES

Durante la estancía se lograron obtener y reforzar conocimientos investigativos y técnicos, siempre con el objetivo de poner en practica las técnicas de redacción y lógica de programación, así como la construcción de circuitos electrónicos y programación de los mismos. El conocimiento adquirido fue poder llevar acabo de manera practica la epistemología que tenemos en base a los estudios hasta la actualidad, usando dispositivos y programas para la realización del proyecto, al igual que los que adquirimos en las investigaciones efectuadas de otros proyectos con temas similares al ambiente inteligente y confort térmico. Dejándonos distintos aprendizajes con relación a la carrera de mecatrónica, siendo la utilización del dispositivo ESP32 con sus distintos funcionamientos y capacidades, al igual que la aplicación Arduino IDE para la realización de nuestro código. Sin embargo la mayor enseñanza que nos dejo esta estancia es que; es importante colaborar con distintas carreras para poder lograr los objetivos de practicas, proyectos o investigaciones futuras, resaltando la importancia del trabajo en equipo de manera multidisciplinaría.
Covarrubias del Toro Angel David, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Gilberto Alejandro Herrejón Pintor, Instituto Tecnológico de Estudios Superiores de Zamora

INTRODUCCIóN A MICROPYTHON ORIENTADO A ALGORITMOS DE CONTROL (GRID FOLLOWING) PARA CONVERTIDORES DE POTENCIA


INTRODUCCIóN A MICROPYTHON ORIENTADO A ALGORITMOS DE CONTROL (GRID FOLLOWING) PARA CONVERTIDORES DE POTENCIA

Covarrubias del Toro Angel David, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Gilberto Alejandro Herrejón Pintor, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

Los algoritmos de control de grid following: Los algoritmos de control de grid following son especialmente importantes en aplicaciones donde los convertidores deben interactuar con la red eléctrica, como en sistemas de energía solar fotovoltaica, turbinas eólicas y almacenamiento de energía. Estos algoritmos permiten que el convertidor se sincronice con la frecuencia y fase de la red, asegurando una transferencia de energía eficiente y minimizando las perturbaciones. Además, los algoritmos de control deben ser capaces de adaptarse a las variaciones en las condiciones de la red y responder a eventos transitorios, manteniendo la estabilidad y la calidad de la energía suministrada.   MicroPython, una implementación ligera del lenguaje de programación Python para microcontroladores, ofrece una plataforma flexible y accesible para el desarrollo de algoritmos de control en convertidores de potencia. Su facilidad de uso, combinada con la capacidad de ejecutarse en hardware de bajo costo como el ESP32, lo convierte en una opción atractiva para ingenieros y desarrolladores que buscan prototipar y desplegar soluciones de control eficientes. MicroPython permite una programación rápida y una depuración eficiente, facilitando la implementación y ajuste de algoritmos complejos de control de potencia. La capacidad de MicroPython para ejecutar tareas en tiempo real es otra ventaja clave en aplicaciones de control de potencia. Los algoritmos de control requieren una respuesta rápida a los cambios en las condiciones de la red y en las cargas conectadas al convertidor. MicroPython, ejecutándose en microcontroladores como el ESP32, puede manejar estas tareas en tiempo real, asegurando que el convertidor responda adecuadamente a eventos transitorios y mantenga la estabilidad del sistema.



METODOLOGÍA

Aplicaciones de MicroPython: Prototipos Rápidos: Su facilidad de uso permite a los desarrolladores probar ideas rápidamente y ajustar los diseños sin la complejidad de compilaciones largas y configuraciones complicadas. Internet de las Cosas (IoT): MicroPython facilita la conexión de dispositivos a redes y servicios en la nube, permitiendo la creación de aplicaciones IoT con relativa simplicidad. Proyectos Educativos: Su lenguaje sencillo y la capacidad de interactuar con el hardware lo hacen ideal para enseñar conceptos de programación y electrónica. Automatización Industrial: MicroPython puede ser utilizado para controlar procesos y sistemas industriales, integrando sensores y actuadores para tareas automatizadas. Electrónica de Consumo: Desde dispositivos portátiles hasta electrodomésticos inteligentes, MicroPython puede ser utilizado para desarrollar una amplia gama de productos electrónicos. Instalación del Firmware de MicroPython en una Placa Compatible (ESP8266, ESP32, etc.) Para instalar el firmware de MicroPython en un ESP32, sigue estos pasos: Descargar el Firmware de MicroPython: Ve a la página de descargas de MicroPython y descarga la última versión del firmware para el ESP32. Preparar la Herramienta de Flasheo: Puedes utilizar esptool.py, una herramienta escrita en Python para flashear el firmware en tu ESP32. Si no lo tienes instalado, puedes instalarlo utilizando pip: bash pip install esptool Conectar el ESP32 al Computador: Conecta tu ESP32 al puerto USB de tu computadora. Borrar la Memoria del ESP32: Antes de flashear el nuevo firmware, es una buena idea borrar la memoria del ESP32: bash esptool.py --chip esp32 erase_flash Flashear el Firmware: Ejecuta el siguiente comando para flashear el firmware que descargaste: bash esptool.py --chip esp32 --port /dev/ttyUSB0 --baud 460800 write_flash -z 0x1000 esp32-20220117-v1.18.bin Asegúrate de reemplazar /dev/ttyUSB0 con el puerto correcto donde está conectado tu ESP32 y esp32-20220117-v1.18.bin con el nombre del archivo de firmware que descargaste. 4. Configurar el Entorno de Desarrollo Para desarrollar con MicroPython, puedes utilizar varios entornos de desarrollo. Aquí se describe cómo configurar dos de los más populares: Thonny y Mu Editor.   Thonny Thonny es un entorno de desarrollo integrado (IDE) simple y fácil de usar, ideal para quienes empiezan con MicroPython. Instalar Thonny: Descarga e instala Thonny desde su sitio oficial. Configurar Thonny para MicroPython: Abre Thonny y ve a Tools > Options. En la pestaña Interpreter, selecciona MicroPython (ESP32) y el puerto correcto donde está conectado tu ESP32. Haz clic en OK. Mu Editor Mu Editor es otro IDE simple y amigable para MicroPython. Instalar Mu Editor: Descarga e instala Mu Editor desde su sitio oficial. Configurar Mu para MicroPython: Abre Mu Editor y selecciona ESP MicroPython en el menú de inicio. Conecta tu ESP32 y selecciona el puerto correcto.


CONCLUSIONES

La tecnología de convertidores de potencia ha revolucionado la manera en que gestionamos y utilizamos la energía eléctrica, permitiendo una mayor eficiencia y flexibilidad en una variedad de aplicaciones, desde sistemas de energía renovable hasta electrónica de consumo. Los convertidores de potencia, como inversores, rectificadores y convertidores de CC a CC, son esenciales para transformar y regular la energía eléctrica entre diferentes formas y niveles de voltaje. Un componente crítico en la operación de estos dispositivos es el algoritmo de control, que asegura que el convertidor funcione de manera eficiente y estable, siguiendo las condiciones de la red eléctrica o "grid following".  
Cravioto Hernandez Alexander Ivan, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. María del Carmen Chacón Olivares, Instituto Tecnológico Superior de Irapuato

MEDICIóN DE LA EFICACIA DE LA PRODUCTIVIDAD EN EL SECTOR DE TRANSPORTE


MEDICIóN DE LA EFICACIA DE LA PRODUCTIVIDAD EN EL SECTOR DE TRANSPORTE

Cravioto Hernandez Alexander Ivan, Instituto Tecnológico Superior de Ciudad Hidalgo. Ramirez Ramirez America Vanesa, Instituto Tecnológico de Colima. Asesor: M.C. María del Carmen Chacón Olivares, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Este proyecto se hizo en conjunto con una em presa de transporte de mercancías. Muchas organizaciones de transporte de cargas disponen de un extenso parque de vehículos, necesarios para satisfacer las demandas de transportación de cargas de diversa naturaleza. En México el transporte de carga terrestre  es una pieza clave esencial del sistema. En el ámbito económico nacional, se lleva a cabo la trasferencia de materias primas, productos e insumos que permiten el correcto funcionamiento de otros sectores económicos nacionales. En la organización con la que se trabajo AX Logistics se ha detectado un consumo excesivo de diésel en las operaciones diarias de los vehículos. Se origino esta inquietud al comparar el consumo de diésel con otros operadores con lo que se trabajó, quienes demostraron un uso significativamente menor del combustible. Esta confusión plantea posibles deficiencias en el manejo del combustible por parte del personal interno, lo cual podría suponer costos elevados e innecesarios.



METODOLOGÍA

Este proyecto de investigación , se enfoco en proporcionar estrategias prácticas en pruebas verificadas en el incremento de la eficacia del consumo de diésel en operaciones de transporte. Abordando temas técnicos, operacionales y de gestión, centrándose principalmente hacia los gerentes de flotas, operadores de transporte y personal de administración.  Por ende, la metodología empleada fue básicamente una investigación de campo pues tuvimos que reunir los datos necesarios que nos ayudaron a complementar la investigación. De igual manera se hizo una investigación descriptiva al momento de explicar los datos recopilados para tener un mejor entendimiento del problema y un mejor desarrollo del trabajo. Y por último fue una investigación aplicada pues se establecieron diversos KPIs para tener una buena implementación de tecnologías avanzadas, criterios de calidad y estrategias de mantenimiento preventivo.


CONCLUSIONES

Con la presente investigación que se hizo y con los datos que se recopilaron de la empresa AX Logistics, la cual se dedica al transporte de mercancías y en donde se ha detectado que en los últimos mese ha habido un consumo excesivo de diésel en las operaciones diarias de  los vehículos, llegamos a la conclusión de que esta situación sugiere que existen deficiencias operativas dentro de la organización, lo cual llega a generar un impacto negativo en la rentabilidad de la empresa.  Por ello establecer indicadores clave de desempeño (KPIs) para medir la eficiencia en el consumo de combustible y los tiempos de espera y tránsito de las unidades de transporte es esencial para optimizar las operaciones logísticas de la empresa, puesto que pueden proporcionar métricas cuantificables que permitirán una evaluación objetiva y continua del rendimiento, facilitando de esta manera la identificación de las áreas de mejora y la implementación de estrategias más efectivas. Es así que con este proyecto se prevé aportar a la comunidad empresarial de la industria del transporte, una herramienta para una administración más eficiente de la actividad del negocio, con el propósito de obtener una rentabilidad más elevada.
Crespo Sanchez Aura Susana, Instituto Tecnológico de San Luis Potosí
Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez

PROYECTO DE ROBóTICA PARA LA ENSEñANZA DE LA PROGRAMACIóN Y LA PRESERVACIóN DE LAS LENGUAS AUTóCTONAS


PROYECTO DE ROBóTICA PARA LA ENSEñANZA DE LA PROGRAMACIóN Y LA PRESERVACIóN DE LAS LENGUAS AUTóCTONAS

Crespo Sanchez Aura Susana, Instituto Tecnológico de San Luis Potosí. Martinez Dolores Bryan, Universidad Politécnica de Atlacomulco. Romualdo González Veronica, Universidad Politécnica de Atlacomulco. Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

La programación es una de las habilidades más demandadas actualmente, siendo esencial en múltiples campos profesionales y educativos. A medida que la tecnología avanza, la necesidad de trabajadores con competencias en programación no deja de crecer. Por lo tanto, existen diversas plataformas diseñadas para la enseñanza de la programación, las cuales varían en su enfoque dependiendo del nivel de conocimiento de sus usuarios, ya sean novatos o expertos. Para los novatos, especialmente niños y adolescentes, es importante contar con métodos de enseñanza que sean atractivos y accesibles. Plataformas como code.org utilizan estrategias de "drag and drop" (arrastrar y soltar) para facilitar el aprendizaje, mientras que para los más avanzados se emplean ejercicios complejos y específicos. Scratch, por ejemplo, es una de las herramientas más populares para la enseñanza introductoria de la programación debido a su enfoque visual y amigable.  Sin embargo, a pesar de la disponibilidad de estas plataformas, existe una problemática significativa en el método de enseñanza de la tecnología y la programación a niños, especialmente en el contexto de fomentar el interés en la tecnología y la ingeniería. La falta de enfoques educativos que integren la robótica y la programación de una manera que también preserve y promueva las lenguas autóctonas es un desafío que debe ser abordado.



METODOLOGÍA

Al inicio, se planteó la idea y el diseño del proyecto, que consiste en una estructura de base con un pilar en el cual se colocan bloques con instrucciones, que se reciben en el robot y este las ejecuta según el orden en que se colocaron los bloques. Se realizan de una a dos reuniones por semana para demostrar avances, corregir errores o hacer pruebas de funcionamiento. Durante las primeras semanas, se realizó una investigación profunda sobre los sensores y materiales que se utilizaron en el proyecto. Para comprender el funcionamiento de los sensores, se llevaron a cabo pruebas de funcionamiento y se comenzó con la conexión del hardware utilizando Arduinos para la conexión de cajas que se detectan usando sensores infrarrojos. Estas señales se transmiten mediante módulos Bluetooth, juntados en un arreglo que recibe el Arduino base. Se ensambló el brazo robótico Dofbot de Yahboom y se logró la conexión Bluetooth del Arduino principal con la Raspberry Pi. Para finales del primer mes, se iniciaron las pruebas de comunicación entre Arduinos y la investigación e instalación de las librerías necesarias para la conexión con la Raspberry Pi para mover el brazo robótico. Se codificaron los programas necesarios para ejecutar los movimientos del brazo una vez recibida la instrucción del bloque. También se desarrollaron códigos para la detección de colores a través de una imagen, utilizando la cámara del robot para detectar cubos de colores, los cuales tienen una instrucción predeterminada. De esta manera, el robot los detecta y se mueve según el orden en que se colocaron. Una vez que los Arduinos se comunicaban entre sí y enviaban las instrucciones al Arduino principal, se iniciaron las pruebas para asegurar una conexión correcta y que el brazo ejecutara las instrucciones enviadas. Se diseñó el estilo de la caja que contiene los bloques utilizados en el proyecto y se mandaron a imprimir en 3D. Se redactó la documentación del desarrollo del proyecto y los manuales de usuario necesarios para su uso, con o sin capacitación, además de pequeñas actividades para el aprendizaje de programación básica para los niños y niñas que lo utilicen.


CONCLUSIONES

Durante la estancia de verano, se lograron adquirir conocimientos teóricos de robótica, electrónica y programación, y ponerlos en práctica al desarrollar el proyecto movilizando el brazo robótico mediante bloques con sensores. Además, se diseñó una manera práctica de enseñar y aprender programación básica. Se espera que el proyecto fomente el interés por la programación y la ingeniería en niños y niñas desde una edad temprana.
Crisostomo Lazos Berenice, Universidad de Ciencias y Artes de Chiapas
Asesor: Dra. Josefina Guerrero García, Benemérita Universidad Autónoma de Puebla

VIDEOJUEGO DE REHABILITACIóN PARA EL DEDO íNDICE EN SITUACIONES DE PARáLISIS CEREBRAL INFANTIL


VIDEOJUEGO DE REHABILITACIóN PARA EL DEDO íNDICE EN SITUACIONES DE PARáLISIS CEREBRAL INFANTIL

Crisostomo Lazos Berenice, Universidad de Ciencias y Artes de Chiapas. Flores Ramos Jennifer, Universidad de Ciencias y Artes de Chiapas. Asesor: Dra. Josefina Guerrero García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La parálisis cerebral es una condición neurológica que afecta principalmente a niños y niñas, puede ocurrir antes del nacimiento o en los primeros años de vida. Este padecimiento afecta los cerebros en desarrollo, causando problemas de movimiento, equilibrio y postura. Las principales partes del cuerpo que pueden verse afectadas son los brazos, las piernas, la cara, el cuello, el tronco y el sistema respiratorio. Además, las personas con parálisis cerebral pueden presentar dificultades para realizar movimientos finos, como el movimiento de los dedos, lo que les impide escribir, manipular pequeños objetos, entre otras actividades. Este es el principal problema que motiva la creación de un método potencialmente efectivo para la rehabilitación del dedo índice. Se trata de un videojuego divertido y práctico. Consideramos importante buscar métodos de rehabilitación que capten la atención de los niños y niñas, evitando que se aburran y abandonen sus ejercicios.



METODOLOGÍA

El presente proyecto se encuentra en una fase preliminar de desarrollo. Nos enfocamos en la creación de un prototipo de videojuego para la rehabilitación del dedo índice en niños y niñas con parálisis cerebral. El videojuego consiste en carreras automovilísticas, los jugadores usarán su dedo índice para pulsar la pantalla y hacer llegar a la meta al auto manipulado. Este juego constará de cinco capítulos; cada capítulo tendrá un escenario diferente y en cada uno se contará con tres niveles. A medida que se vayan desbloqueando los niveles, aumentará la velocidad de la competencia. Para la realización del prototipo ya mencionado, se ha utilizado la aplicación MIT App Inventor, una plataforma de desarrollo de aplicaciones móviles que se trabaja mediante bloques de código. Esta aplicación nos facilita planear la interfaz y cómo se espera que funcione el juego. No fue utilizada para realizar el juego como tal, debido a que no es recomendable para proyectos tan elaborados; sin embargo, funciona perfectamente para realizar el prototipado. El enfoque a utilizar es de gamificación, donde, por medio de un videojuego, se ayudará a la mejora del movimiento en el dedo. En este juego nos enfocaremos en la rehabilitación del dedo índice, ya que es fundamental para muchas actividades diarias, como tomar objetos, escribir, señalar y otras tareas motoras finas. Su rehabilitación ayuda a mejorar la funcionalidad de la mano y la capacidad de realizar estas actividades básicas. Asimismo, mejorar la función del dedo índice puede aumentar la independencia de la persona afectada, permitiéndole realizar más actividades por sí misma, sin depender tanto de la ayuda de otros.   Beneficios del videojuego: Mejora la motivación y el compromiso del paciente con el tratamiento. Permite una práctica repetitiva y estructurada de movimientos específicos del dedo índice. Puede ser personalizado para adaptarse a las necesidades individuales y niveles de habilidad del paciente. Integra elementos de juego que hacen que el proceso de rehabilitación sea más atractivo y divertido, lo que puede aumentar la adherencia al tratamiento.  En la actualidad, encontramos diversos juegos diseñados específicamente para mejorar la rehabilitación del dedo índice. Estos juegos están diseñados para ofrecer ejercicios estructurados y repetitivos que ayudan a mejorar la coordinación y la precisión del movimiento. Esta modalidad de rehabilitación no solo promueve la motivación del paciente, sino que también ofrece una forma atractiva y efectiva de trabajar en la recuperación funcional del dedo. Ejemplos de juegos existentes: Dexteria Jr.: Una aplicación diseñada específicamente para mejorar la destreza de las manos y los dedos en niños pequeños. Incluye ejercicios como tocar burbujas y arrastrar objetos. Toca boca Jr.: Estas aplicaciones permiten a los niños interactuar con personajes y escenarios mediante toques y deslizamientos. Los juegos suelen ser abiertos, fomentando la creatividad y la exploración sin objetivos específicos, lo que permite a los niños jugar a su propio ritmo.   Endless Alphabet: Los niños arrastran y sueltan letras animadas para formar palabras. Cada letra tiene su propio sonido y animación, haciendo el aprendizaje interactivo y divertido, mientras mejora la motricidad fina. Busy Shapes: Un juego que desafía a los niños a mover formas y resolver rompecabezas tocando y arrastrando objetos. Está diseñado para mejorar la coordinación ojo-mano y la motricidad fina. Los juegos que se han creado han tenido buenos resultados, sin embargo,  para poderlos utilizar el niño debe tener una movilidad más avanzada del dedo índice (ya que debe arrastrar, mover, dibujar, etc.) Nuestro juego será simple, ideal para una rehabilitación inicial, consta de movimientos básicos, esto es ideal para las primeras etapas de rehabilitación y para pacientes con movilidad muy limitada. Estudios han demostrado que ejercicios simples y repetitivos son altamente efectivos en la recuperación inicial de la movilidad.


CONCLUSIONES

En conclusión, podemos resaltar que se logró terminar el diseño de la interfaz de todo el juego y tener en funcionamiento el primer nivel del capítulo 1, lo cual es suficiente para el prototipo, ya que en los otros niveles lo único variable es la velocidad de los autos y los escenarios de cada capítulo. Los resultados fueron satisfactorios. Se tiene la intención de que más adelante los expertos desarrollen el videojuego en un lenguaje de programación adecuado y que este pueda ser probado y usado por niños y niñas que lo necesiten.  
Cruz Barrios Wendy Zuzeth, Instituto Tecnológico de Nuevo Laredo
Asesor: Mg. Nadia Judith Olaya Coronado, Universidad de la Costa

TECNOLOGíAS Y METODOLOGíAS DE CALIDAD PARA LA GESTIóN AMBIENTAL EN ZONAS INDUSTRIALES.


TECNOLOGíAS Y METODOLOGíAS DE CALIDAD PARA LA GESTIóN AMBIENTAL EN ZONAS INDUSTRIALES.

Cruz Barrios Wendy Zuzeth, Instituto Tecnológico de Nuevo Laredo. Martinez Pestaña Fatima Yumey, Instituto Tecnológico de Nuevo Laredo. Asesor: Mg. Nadia Judith Olaya Coronado, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

¿Cuáles son las Tecnologías y Metodologías de Calidad para la Gestión Ambiental en Zonas Industriales? El problema central de esta investigación es la contaminación del aire en las zonas industriales de Tamaulipas, la cual afecta tanto al medio ambiente como a la salud de la población. El problema central de esta investigación es la contaminación del aire en las zonas industriales de Tamaulipas. Las emisiones de contaminantes como dióxido de azufre (SO₂), óxidos de nitrógeno (NOₓ), compuestos orgánicos volátiles (COVs) y partículas en suspensión (PM10 y PM2.5) son preocupantes debido a sus efectos adversos que impactan en la salud humana. Algunos de los problemas son los siguientes: Los problemas Respiratorios ante la exposición a contaminantes atmosféricos en el cual puede causar enfermedades respiratorias agudas y crónicas, como asma, bronquitis y enfermedades pulmonares obstructivas. Las enfermedades Cardiovasculares, debido a los contaminantes del aire también están asociados con un aumento en las enfermedades cardiovasculares, incluyendo ataques cardíacos y accidentes cerebrovasculares. Ante el Impacto en el Medio Ambiente, las emisiones de SO₂ y NOₓ contribuyen a la acidificación de los suelos y cuerpos de agua, afectando la biodiversidad y los ecosistemas. La deposición de nutrientes como nitrógeno puede causar la eutrofización de cuerpos de agua, resultando en la proliferación de algas nocivas y la disminución de oxígeno en el agua, afectando la vida acuática. Muchos contaminantes atmosféricos, como los COVs y las partículas finas, contribuyen al calentamiento global y al cambio climático.



METODOLOGÍA

Para mejorar la calidad del aire en Tamaulipas, se requiere una gestión integral con transporte limpio, planificación urbana y uso de combustibles ecológicos. El programa ProAire busca reducir ozono, material particulado, dióxido de azufre, dióxido de nitrógeno y monóxido de carbono. Tamaulipas tiene 80,175 km² y 43 municipios. En 2015, tenía 3.4 millones de habitantes, y se espera que alcance los 4 millones en 2030. Reynosa, Matamoros, Nuevo Laredo y Victoria son las ciudades más pobladas. El estado contribuye con el 3% del PIB nacional, destacando en agricultura, pesca, manufactura y turismo. La manufactura genera el 43.1% de los nuevos empleos. Empresas clave: - Refinería Francisco I. Madero de Pemex: Emite NOx, SO2, VOCs y partículas. - BASF (Altamira): Emite VOCs, NOx y SO2. - Flex Américas (Altamira): Emite VOCs y partículas. - MG (Altamira): Emite partículas, metales pesados, SO2 y NOx. - Icon Recycling (Reynosa): Emite partículas y compuestos orgánicos. Estas empresas contaminan el aire, afectando el medio ambiente y la salud pública. El ProAire busca reducir contaminantes para mejorar la salud pública. La norma ISO 14001 ayuda a reducir residuos, cumplir la legislación y mejorar el desempeño ambiental.


CONCLUSIONES

Para diseñar un formulario de auditoría ambiental para la contaminación del aire en las industrias de Tamaulipas, es esencial incluir: 1. Identificación de la entidad auditada: Datos de la empresa, dirección, contacto, sector y actividades. 2. Información sobre la contaminación del aire: Fuentes, tipos, volumen y frecuencia de emisiones. 3. Prácticas de gestión: Políticas, monitoreo, seguimiento y certificaciones ambientales. 4. Verificación de cumplimiento normativo: Cumplimiento con leyes y documentación de incidentes previos. 5. Recomendaciones y documentación: Áreas de mejora, medidas correctivas, resultados de auditoría y plan de acción. 6. Herramientas de auditoría: Listas de comprobación, software de gestión y referencias legislativas. 7. Preguntas clave: Basadas en ISO 9001 e ISO 14001, evaluación de riesgos y principios de Shingo. 8. Evaluación de riesgos: Identificación, análisis y medidas de control. 9. Identificación de desperdicios ambientales: Residuos sólidos, líquidos, emisiones, peligrosos y de energía. 10. Principios de Shingo: Eliminación de desperdicios, mejora continua, trabajo en equipo, enfoque en el cliente y eficiencia. El formulario debe guiar la mejora de la gestión ambiental, con propuestas como monitoreo en tiempo real, nuevas tecnologías de control, capacitación y análisis de casos de éxito. Se espera reducir emisiones y residuos, mejorar la cultura organizacional, cumplir regulaciones, disminuir sanciones y reducir costos operativos mediante Lean Manufacturing y principios de Shingo.
Cruz Cruz Ricardo, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Mg. Nelly Clavijo Clavijo Bustos, Universidad Cooperativa de Colombia

PROYECTO IMPLEMENTACIóN DE UN MODELO DE APROPIACIóN SOCIAL DEL CONOCIMIENTO PARA LA OPTIMIZACIóN DE LOS SISTEMAS PRODUCTIVOS DE CACAO, AGUACATE, LIMóN, ARRACACHA Y CAFé CON LOS PEQUEñOS PRODUCTORES DEL DEPARTAMENTO DEL TOLIMA


PROYECTO IMPLEMENTACIóN DE UN MODELO DE APROPIACIóN SOCIAL DEL CONOCIMIENTO PARA LA OPTIMIZACIóN DE LOS SISTEMAS PRODUCTIVOS DE CACAO, AGUACATE, LIMóN, ARRACACHA Y CAFé CON LOS PEQUEñOS PRODUCTORES DEL DEPARTAMENTO DEL TOLIMA

Cruz Cruz Ricardo, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Perez Sanchez Ana Karen, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Vázquez Zaraos Lizayda, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Mg. Nelly Clavijo Clavijo Bustos, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

El departamento del Tolima en Colombia es una región agrícola diversa y fértil, conocida por la producción de diversos cultivos como cacao, aguacate, limón, arracacha y café. Estos productos representan una fuente crucial de ingresos para los pequeños productores locales y son fundamentales para la economía regional. Sin embargo, los finqueros y agricultores enfrentan serias dificultades para darse a conocer y comercializar sus productos agrícolas, la ausencia de herramientas tecnológicas y plataformas digitales impide que estos productores puedan acceder a un mercado más amplio y variado, limitando así sus oportunidades de venta y exposición. Los métodos tradicionales de venta, como mercados locales y ferias, no son suficientes para satisfacer las necesidades comerciales de los finqueros, lo que conlleva a varios problemas significativos: Los productos agrícolas no alcanzan un público amplio, lo que reduce las oportunidades de venta y genera un ingreso limitado para los finqueros. La falta de un sistema organizado de inventario provoca pérdidas por caducidad y una planificación inadecuada de la producción. Sin una plataforma centralizada, la comunicación con los compradores es dispersa e ineficiente, dificultando la negociación y venta de productos. En un entorno comercial cada vez más digital, la ausencia de una presencia en línea pone a los agricultores locales en desventaja frente a competidores que utilizan herramientas digitales avanzadas.



METODOLOGÍA

Se seleccionaron 6 asociaciones y 35 fincas de los productores con las que se habían firmado convenio anteriormente. A estas fincas se les trabajó, una página web de publicidad y una página web de control de inventario. Además, se realizó un informe detallado en el que se agregan los convenios firmados entre la finca o asociación y la Universidad Cooperativa de Colombia. Se levantó los requerimientos funcionales para cada uno de las páginas web de acuerdo a las especificaciones y necesidades de cada una de las fincas y asociaciones involucradas, dado que cada uno tiene información diferente, la idea fue realizar cada página personalizada con su descripción, misión, visión, productos y datos de contacto. Se   formó grupos de trabajo, para asignar responsabilidades, cada uno de los miembros del programa Delfín, se le asignó una tarea y alumnos pertenecientes del programa de estudio de la Universidad Cooperativa, debido al corto tiempo de la estancia y de la urgencia de los entregables. Se elaboraron informes de cada una de las 35 fincas y 6 asociaciones, para proporcionar una guía integral para el diseño, desarrollo, y gestión de la página web del proyecto, asegurando que todas las áreas importantes sean consideradas y que el resultado final cumpla con los objetivos del proyecto y las necesidades del público objetivo, así mismo para poder completar el informe se hizo una búsqueda de cada uno de los convenios de cada una de las fincas para plasmar el acuerdo que se ha realizado con las fincas y asociaciones. Se desarrolló una página web de publicidad y una página web de sistema de inventario utilizando herramientas digitales como, Visual Studio Code (VSCode), como editor de código fuente, HTML y CSS, para diseñar el frontend, para estructurar y diseñar la interfaz de usuario. PHP y JavaScript, fueron los lenguajes de programación utilizado para el desarrollo del backend y funcionalidades de las páginas web. Se diseñó una página web con una interfaz amigable y responsiva, que permite a los finqueros listar sus productos con detalles como descripción, imágenes de sus productos, agregando un resumen de su finca. Se integró funciones como WhatsApp que permiten a los compradores realizar pedidos directamente a través de la web con los finqueros. Se desarrolló un sistema que permite la entrada y seguimiento de productos agrícolas, incluyendo reportes de entrada y salida de productos. El sistema fue adaptado a las necesidades específicas para fincas, basado en la información recolectada durante la investigación de campo. También, se utilizó un servicio de hosting para que cada uno de los finqueros y asociaciones puedan ver las páginas web en línea. Para ello se configuró un servidor web que permite alojar las páginas web y las bases de datos que se manejó. Para que cada uno de los finqueros sepan cómo funciona las páginas se realizaron manuales prácticos, sencillos y personalizados, de esta manera, aunque ellos no estén familiarizados con las tecnologías ellos entenderán muy fácilmente el funcionamiento de cada una de las páginas que se les crearon. Este sistema pretende proporcionar una solución integral que facilite la gestión del inventario y amplíe el alcance de venta de los productos, permitiendo a los agricultores optimizar sus operaciones y aumentar su competitividad en el mercado.


CONCLUSIONES

Durante la estancia de verano, logramos implementar una página web de publicidad y una página web para un sistema de control de inventario, para cada uno de los 35 finqueros y 6 asociaciones, del departamento del Tolima, Colombia. Esta iniciativa promete ser una solución viable y efectiva para mejorar la comercialización de productos agrícolas. Esperamos que el uso de las herramientas digitales permita a los finqueros alcanzar un mercado más amplio, optimizar la gestión de sus inventarios y fortalecer su competitividad en el sector agrícola.
Cruz del Angel Alan, Instituto Tecnológico Superior de Huauchinango
Asesor: Mg. María Antonieta Clemente Velarde, Instituto Nacional de Formación Técnica Profesional - INFOTEP

HERRAMIENTAS PARA EL DESPLIEGUE DE SERVICIOS DE TRANSPORTE PÚBLICO CON MOVILIDAD INTELIGENTE VERDE EN EL DEPARTAMENTO DE LA GUAJIRA


HERRAMIENTAS PARA EL DESPLIEGUE DE SERVICIOS DE TRANSPORTE PÚBLICO CON MOVILIDAD INTELIGENTE VERDE EN EL DEPARTAMENTO DE LA GUAJIRA

Beas Hernández Luis Elias, Universidad Tecnológica de Nayarit. Cruz del Angel Alan, Instituto Tecnológico Superior de Huauchinango. Hermosillo Sandoval Edwin Gabriel, Universidad Tecnológica de Nayarit. Ramos Avalos Roberto, Universidad Tecnológica de Nayarit. Asesor: Mg. María Antonieta Clemente Velarde, Instituto Nacional de Formación Técnica Profesional - INFOTEP



PLANTEAMIENTO DEL PROBLEMA

Planteamiento El estudio se centra en la infraestructura para la innovación tecnológica en el Departamento de La Guajira y las tecnologías y herramientas de movilidad inteligente verde presentes en la infraestructura del transporte público de esta localidad. El objetivo principal es describir y analizar las características actuales de la infraestructura de transporte público en relación con las tecnologías de movilidad inteligente y sostenible. Se busca identificar las oportunidades y desafíos para la implementación de estas tecnologías en el contexto de La Guajira.



METODOLOGÍA

Metodología El estudio se enmarca en un diseño de investigación no experimental y transeccional descriptivo. Esto significa que no se manipularon las variables de estudio y que los datos fueron recolectados en un solo momento temporal. Se utilizó un enfoque de investigación de campo, recolectando datos directamente de la realidad, en este caso, de las Alcaldías Municipales y Secretarías de Movilidad del Departamento de La Guajira. La población de estudio incluyó a los directores de transporte público y a los Secretarios de Movilidad de los municipios seleccionados​


CONCLUSIONES

Conclusiones Infraestructura Tecnológica Actual: La investigación reveló que la infraestructura tecnológica actual del transporte público en La Guajira es limitada. Hay una falta de sistemas avanzados de gestión y monitoreo de flotas, lo que dificulta la eficiencia operativa y la implementación de tecnologías de movilidad inteligente. Potencial para la Innovación: A pesar de las limitaciones actuales, existe un potencial significativo para la adopción de tecnologías de movilidad inteligente en La Guajira. Las autoridades locales y los actores del sector pueden aprovechar las oportunidades de innovación tecnológica para mejorar la sostenibilidad y la eficiencia del transporte público, lo cual contribuiría al desarrollo regional y al bienestar de la población​
Cruz Heras Raquel, Universidad de Sonora
Asesor: Dr. Jenaro Leocadio Varela Caselis, Benemérita Universidad Autónoma de Puebla

SíNTESIS DE NANOPARTíCULAS DE PLATA PARA SU POSIBLE USO COMO AGENTE EN PLAGUICIDAS.


SíNTESIS DE NANOPARTíCULAS DE PLATA PARA SU POSIBLE USO COMO AGENTE EN PLAGUICIDAS.

Cruz Heras Raquel, Universidad de Sonora. Asesor: Dr. Jenaro Leocadio Varela Caselis, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Constantemente se buscan nuevas maneras de obtener insecticidas que sean amigables con el sistema en el que se encuentra la plaga. En este caso se buscó el uso de las nanopartículas de plata por sus propiedades antimicrobianas y su baja toxicidad.



METODOLOGÍA

Se realizó la síntesis de las nanopartículas a través de un método de reducción, en el cual se realizaban 4 soluciones madre que al combinarse estas reaccionaban entre sí, reduciendo el nitrato de plata para que este formara nanopartículas de plata. Para comenzar con la síntesis se realizaron 4 soluciones: Ácido ascórbico con una concentración 6x10-4 M Citrato de potasio con una concentración 3x10-3 M Nitrato de plata con una concentración de 0.1 M Hidróxido de sodio con una concentración de 0.1 M Se realizaron los cálculos según la concentración y el volumen de las soluciones, que en este caso fueron 100 ml, para obtener el peso en gramos para cada reactivo. Después se realizó cada solución utilizando como solvente agua destilada. Al tener listas las soluciones, el siguiente paso es realizar la reacción de reducción. Para esto se requiere tomar un vaso de precipitado y agregar las soluciones en las siguientes cantidades: 8 ml de ácido ascórbico 8 ml de citrato de potasio 2 ml de nitrato de plata Al tener esta mezcla se le toma el pH, ya que la reacción requiere de un pH básico de entre 8 y 12. Esta solución se encontraba aproximadamente en un pH 6, por lo cual se le agregó hidróxido de sodio hasta llegar a un pH de 8. Se agregó aproximadamente 2 ml de NaOH. Esta reacción se lleva a cabo inmediatamente y esto se puede observar ya que el color cambia de ser totalmente transparente a tener un color gris oscuro. Se dejó reposar la solución por 2 días. Posteriormente esta se dividió en 2 y una mitad de llevó a secar. Se secó a 105°C por 4 horas en un horno. Aquí finaliza la síntesis de las nanopartículas, sin embargo, para poder comprobar su formación se necesitan realizar distintas técnicas de caracterización. Por motivos de tiempo y disponibilidad del equipo, solamente se caracterizó por FT-IR. Para esta caracterización se utilizó la muestra seca. De igual manera caracterizaron los reactivos utilizados en la síntesis, para poder comparar los resultados. En el espectro de la solución de NPs se puede apreciar que las bandas que se encuentran principalmente en el nitrato de plata ya no se encuentran o su intensidad disminuyó significativamente. Con esto podemos inferir en que estos enlaces covalentes que se encontraban previamente ya no están porque la reacción se llevó a cabo exitosamente. Formando de manera correcta nanopartículas de plata.


CONCLUSIONES

En esta estancia de investigación obtuve conocimientos teóricos acerca des nanopartículas de plata, así como de los distintos métodos de síntesis que existen de estas. De igual manera puse en práctica mis habilidades en el laboratorio para la preparación de soluciones.
Cruz Pérez Angie Yanelly, Universidad Veracruzana
Asesor: Mg. Jairo Enrique Parra Herrera, Institución Universitaria Politécnico Grancolombiano

EL IMPACTO DE LOS BANCOS DE ALIMENTOS DE MéXICO EN LA SEGURIDAD ALIMENTARIA DEL PAíS.


EL IMPACTO DE LOS BANCOS DE ALIMENTOS DE MéXICO EN LA SEGURIDAD ALIMENTARIA DEL PAíS.

Cruz Pérez Angie Yanelly, Universidad Veracruzana. Valencia Marines Abdiel, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Jairo Enrique Parra Herrera, Institución Universitaria Politécnico Grancolombiano



PLANTEAMIENTO DEL PROBLEMA

Los bancos de alimentos en México son fundamentales para combatir la inseguridad alimentaria y reducir el desperdicio de alimentos. La Red de Bancos de Alimentos de México (BAMX) es una organización que coordina y apoya el trabajo de diversos bancos de alimentos en el país. Fue fundada en 1995 y desde entonces ha crecido para abarcar una gran parte del territorio mexicano. Actualmente, la integran 58 bancos de alimentos en diversos estados de la República Mexicana que rescatan y redistribuyen alimentos, según datos de la Red BAMX, en 2023 se distribuyeron más de 200 millones de kilogramos de alimentos, beneficiando a más de 1.8 millones de personas al mes en México. Estudios como el de Velasco (2019) en "Seguridad Alimentaria y Bancos de Alimentos en México" destacan la importancia de estas organizaciones en la mitigación del hambre. Velasco subraya que los BAMX no solo proporcionan alimentos, sino que también educan a las comunidades sobre nutrición y sostenibilidad. Autores como Gómez y Martínez (2021), en su artículo "El Rol de los Bancos de Alimentos en la Sociedad Mexicana", argumentan que estas organizaciones no solo tienen un impacto en la reducción del hambre, sino también en la creación de comunidades más solidarias y sostenibles. En un informe de la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO) de 2020, se menciona que aproximadamente el 34.9% de la población mexicana vive en condiciones de inseguridad alimentaria. Los BAMX son fundamentales para reducir esta cifra. La red cuenta con el apoyo de miles de voluntarios que ayudan en la recolección, clasificación y distribución de los alimentos. La red BAMX trabaja en colaboración con diversas organizaciones, empresas y gobiernos locales para implementar programas que aborden la inseguridad alimentaria y promuevan la nutrición adecuada; tales como Alsea Fundación, Walmart, Unilever, Carl’s Jr, NATURESWEET, SEMPRA, entre muchos otros. El objetivo de esta investigación es identificar cómo operan los bancos de alimentos en México, analizando sus procesos de recolección, almacenamiento y distribución de alimentos, así como sus estrategias de colaboración con donantes y organizaciones comunitarias.



METODOLOGÍA

Para este artículo hemos considerado adoptar un enfoque cualitativo con un diseño descriptivo y exploratorio para comprender conceptos, opiniones y experiencias, pero también incluir datos cuantitativos que aporten información acerca de análisis estadísticos y obtener resultados generales de poblaciones grandes. Se ha seleccionado este tipo de metodología para obtener una comprensión más profunda de las operaciones, impacto y desafíos de los Bancos de Alimentos en México. La población del estudio incluye a todos los Bancos de Alimentos afiliados a la Red de Bancos de Alimentos de México (Red BAMX). La muestra se seleccionó de manera intencional e incluyó a diez Bancos de Alimentos distribuidos en diferentes regiones del país para asegurar la representación geográfica y operacional, los cuales son:     1.    BAMX Veracruz     2.    BAMX Tijuana     3.    BAMX Querétaro     4.    BAMX CDMX     5.    BAMX Baja California Sur     6.    BAMX Quintana Roo     7.    BAMX Puebla     8.    BAMX Morelia     9.    BAMX Nuevo León     10.    BAMX Guadalajara   Recolección de Datos Los datos se recopilarán mediante dos técnicas principales:            1.         Entrevistas: Se realizarán entrevistas en profundidad con directores y personal clave de los Bancos de Alimentos seleccionados. Las entrevistas se enfocarán en los procesos operativos, fuentes de donaciones, distribución de alimentos, y los desafíos enfrentados.            2.         Análisis Documental: Se revisarán documentos y artículos internos, además de reportes anuales proporcionados por los Bancos de Alimentos, así como estudios y publicaciones relacionadas con la seguridad alimentaria y la gestión de bancos de alimentos en México. Análisis de Datos El análisis de datos se realizará por etapas:            1.         Transcripción: Las entrevistas se transcribirán íntegramente.            2.         Análisis Temático: Se aplicará un análisis temático para identificar las principales áreas de interés y preocupación en las operaciones de los Bancos de Alimentos.             3.         Triangulación de Datos: Los datos obtenidos de entrevistas, observaciones y documentos se triangularán para asegurar la validez y confiabilidad de los hallazgos. Limitaciones del Estudio Entre las limitaciones se incluyen el tamaño de la muestra y la posible falta de representatividad de todos los Bancos de Alimentos en México. Además, la investigación cualitativa puede estar sujeta a sesgos del investigador, aunque se tomarán medidas para minimizar estos efectos.


CONCLUSIONES

Como resultado de este proyecto de pasantía de investigación se identifican los siguientes elementos frente al estudio:     •    Los Bancos de Alimentos de México (BAMX) son actores clave en la mejora de la seguridad alimentaria en el país. Al establecer una red de distribución y colaboración, han logrado reducir la inseguridad alimentaria y mejorar la calidad de vida de millones de personas. Sin embargo, la logística, especialmente en zonas rurales, representa un desafío significativo que limita su alcance y eficiencia. Para superar esta barrera, es fundamental invertir en infraestructura y adoptar tecnologías innovadoras que optimicen la distribución de alimentos.     •    La efectividad de los BAMX radica en la colaboración entre diversos sectores y la activa participación de la comunidad. Las alianzas estratégicas con el sector privado, organizaciones no gubernamentales y el gobierno han sido esenciales para expandir su alcance y capacidad operativa. Sin embargo, persiste la necesidad de ayuda por parte de los diferentes sectores     •    El estudio proporciona una visión general del impacto de los BAMX, sin embargo, es necesario continuar con la recolección de información, etapa aun en desarrollo para con ayuda de las entrevistas identificar en detalle las operaciones diarias de los bancos de alimentos, sus desafíos específicos y las necesidades de las comunidades a las que sirven.
Cruz Piña Arely, Universidad Politécnica de Atlacomulco
Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías

SISTEMA IOT PARA EL MONITOREO REMOTO BASADO EN TARJETAS DE DESARROLLO ESP32-CAM


SISTEMA IOT PARA EL MONITOREO REMOTO BASADO EN TARJETAS DE DESARROLLO ESP32-CAM

Cruz Piña Arely, Universidad Politécnica de Atlacomulco. Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías



PLANTEAMIENTO DEL PROBLEMA

Los laboratorios de la División de Ciencias Ingeniería y Tecnología (DCIT) de la Universidad Autónoma del Estado de Quintana Roo, cuenta con instalaciones adecuadas y equipo avanzado para que los alumnos y docentes de la Universidad realicen prácticas y proyectos. La problemática existente es que en ocasiones los equipos salen de laboratorio y no son regresados al laboratorio, por ello se busca implementar un monitoreo del área, para que sea supervisada las 24 horas del día, que se pueda ver a la hora que ingresa y sale una persona, se pretende solucionar esta problemática con la implementación de una ESP32-CAM, una placa de desarrollo que combina el microcontrolador ESP32 con una cámara OV2640, y que con esta implementación sea detectado el movimiento y que sea capturado por la cámara.



METODOLOGÍA

A partir de una idea y la búsqueda de una solución ante la problemática existente en los laboratorios de DCIT, se lleva a cabo el diseño de un prototipo, capaz de supervisar 24/7 las instalaciones, esto con el fin de tener un control con los equipos. Para ello se deberá contar con una serie de materiales y herramientas, HERRAMIENTAS Jumpers macho y hembra Sensor infrarrojo de movimiento PIR HC-SR501 ESP32 CAM Protoboard Fuente reguladora de Voltaje Cámara OV2640 Jumpers MATERIALES Red Wifi. IDE Arduino. Fuente de alimentación reguladora de voltaje. Aplicación de mensajería Telegram     Este prototipo se basa principalmente con ayuda de un ESP32-CAM, un sensor PIR de movimiento, conectados entre si por medio de un circuito electrónico en una protoboard, esta protoboard alimentada con una fuente de alimentación reguladora de Voltaje. Para que este sistema de seguridad funcione, se ocupa de la codificación en Arduino, esto en el IDE de Arduino, para que el código sea cargado a la placa de la ESP32-CAM y el sensor PIR. El código es capaz de realizar la conexión de la cámara a Telegram, esto por medio de un bot creado en Telegram, este bot y la cámara están en conjunto, lo que se busca es que cuando la ESP32-CAM detecte un movimiento, este sea enviado vía Telegram. Asimismo, cuando el código es ejecutado en el IDE, proporciona una IP que esta al ponerla en un navegador nos muestra la interfaz de la cámara, esto permite que se supervise en vivo. Se realiza la conexión física entre sensor de movimiento y ESP32-CAM así teniendo como resultado que la cámara al detectar movimiento, envía una foto a el chat en telegram. Al igual en cualquier momento pedir una foto, y poder en vivo lo de la cámara. Los resultados fueron exitosos e interesante.


CONCLUSIONES

Durante las semanas de estancia se estuvo trabajando en el proyecto, y día a día se adquirió nuevos conocimientos, si bien el uso de una ESP32CAM para desarrollar un prototipo de seguridad no solo optimiza los recursos disponibles, sino que también abre puertas a nuevas oportunidades en la creación de soluciones de vigilancia accesibles y efectivas. Este enfoque innovador representa un paso significativo hacia la mejora de la seguridad en diversos contextos, aprovechando al máximo las capacidades tecnológicas actuales.
Cruz Regalado Ariana Daheli, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

LOGíSTICA INVERSA EN EMPRESAS DEL SUR DE SINALOA


LOGíSTICA INVERSA EN EMPRESAS DEL SUR DE SINALOA

Cruz Regalado Ariana Daheli, Universidad Politécnica de Sinaloa. Gonzalez Cabanillas Ailin, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La logística inversa ha cobrado gran importancia en la gestión de la cadena de suministro, especialmente en un contexto donde la sostenibilidad y la eficiencia son prioritarias, la cual representa un componente crucial en la estrategia de sostenibilidad de una empresa, permitiendo un manejo más eficiente de los recursos, contribuyendo a la responsabilidad corporativa, su implementación efectiva puede generar valor a la cadena de suministro volviéndola más resiliente, contribuyendo en la empresas en analizar, optimizar sus procesos y adaptarla a los desafíos globales, esto solo se puede llevar a cabo con una mayor eficiencia en todas las operaciones de la logística de distribución. En la actualidad en la región de Mazatlán ubicada en el Sur de Sinaloa, la industria está en la búsqueda constante de mejores prácticas operativas, en un ámbito de desarrollo económico la cual pone a prueba la conciencia en estrategias en la logística de distribución, con una atención principal en procesos de logística inversa, se detecta la necesidad de abordar la problemática compleja en el tema del objetivo 9.- Industria, innovación e infraestructura de los ODS de la ONU incluidos en la agenda 2030 al realizar un estudio preliminar que nos proporcione un conocimiento para la reflexión y difusión del conocimiento derivado del impacto del crecimiento económico en la sociedad y su conciencia en la sustentabilidad. Por lo anterior se requieren actividades de identificación de paradigmas empresariales utilizando el método científico que nos permita generar conocimiento sobre el desempeño del proceso de logística inversa siendo clave en el aporte de valor en la cadena de suministro, para esta investigación se realiza el estudio en empresas del sector industrial ubicadas en la ciudad de Mazatlán Sinaloa.



METODOLOGÍA

Para este estudio científico se utiliza la metodología de investigación cuantitativa, de tipo campo la cual consiste en la recolección de datos directamente de la realidad donde ocurren los hechos, sin manipular o controlar variable alguna, con una extensión del estudio de investigación de campo con medios de instrumentos impresos, el nivel de la investigación descriptiva donde se busca el diagnosticar la relación de los hechos. Investigación titulada Logística y Cadena de suministro con título de proyecto: Logística inversa en empresas del Sur de Sinaloa. Como primera etapa del verano de investigación se define el título del proyecto siendo Logística inversa en empresas del Sur de Sinaloa describiendo el objetivo general el cual es Analizar el nivel de eficiencia y eficacia de los procesos de logística inversa, con el propósito de argumentar sobre el nivel de preparación en empresas del sur de Sinaloa, así también, se inicia con la búsqueda de información basada en fuentes auditadas sobre el tema del proyecto, posteriormente se realiza un análisis teórico de lo encontrado para proceder a el método de recolección de datos a través de un instrumento de tipo encuesta con 62 reactivos, de los cuales 6 reactivos son en el ámbito logístico, se orientó el estudio a la pregunta: ¿Qué tan eficientes y eficaces son los procesos de logística inversa en la empresa?, ambas con posibles respuestas con la siguiente escala (5) Muy de acuerdo, (4) De acuerdo, (3) En desacuerdo, (2) Muy en desacuerdo, (1) No sé, el instrumento se aplicó a empresas de diferentes sectores que para el procesamiento de datos se categorizo en industrial, con una muestra recabada de 25 encuestas contestadas por los responsables de área en campo en diversas empresas. Con los datos recabado por el instrumento se analiza la información de forma gráfica y estadística descriptiva para realizar una argumentación sustentada ante una hipótesis preliminar de que si las empresas del sector industrial mantienen un nivel de preparación en materia logística inversa son adecuadas, así también las bases de conocimiento para reflexionar del contexto actual en el aporte al objetivo 9 de los ODS de la ONU incluidos en la agenda 2030, que promueva el desarrollo de conocimiento orientado para poder argumentar en el tema de la calidad de los procesos productivos en áreas de abastecimiento desde una perspectiva Logística de Distribución.


CONCLUSIONES

De los resultados del análisis gráfico y estadístico descriptivo se argumenta que las empresas del giro industrial ubicadas en la región de Mazatlán Sinaloa desde una perspectiva del personal en campo con relación en los procesos de logística inversa describe que están muy de acuerdo (46%) en que su gestión es con eficiencia y eficacia, se detecta que un 6 % de los encuestados describen que no identifican si los procesos de logística inversa si la gestión es con eficiencia y eficacia , mientras que un 48 % describe como de acuerdo en que su gestión es con eficiencia y eficacia. Durante el verano en la línea de investigación titulada Investigación: Logística y Cadena de suministro con título de proyecto: Logística inversa en empresas del Sur de Sinaloa, se puede argumentar que las empresas del Sur de Sinaloa en la región de Mazatlán en su gran mayoría realizan una gestión de sus procesos de logística inversa con eficiencia y eficacia, contribuyendo así a la competitividad y sostenibilidad de las organizaciones, la cual aporta al ODS2030 al que contribuye: Desarrollar infraestructuras resilientes, promover la industrialización inclusiva y sostenible, y fomentar la innovación.
Cuadra Ramos Ana, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Edgar Peralta Sánchez, Universidad Popular Autónoma del Estado de Puebla

CARGADOR DE CELDAS DE IONES DE LITIO


CARGADOR DE CELDAS DE IONES DE LITIO

Arenas Muñoz Daniel, Instituto Politécnico Nacional. Cuadra Ramos Ana, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Edgar Peralta Sánchez, Universidad Popular Autónoma del Estado de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, las baterías de iones de litio son ampliamente utilizadas en una variedad de dispositivos electrónicos y vehículos eléctricos debido a su alta densidad de energía y longevidad. Sin embargo, el proceso de carga de estas baterías presenta varios desafíos críticos que afectan su eficiencia y durabilidad. Los problemas incluyen la necesidad de una carga precisa y controlada para evitar sobrecalentamiento, sobrecarga, y degradación prematura de la batería, así como la integración de sistemas de protección avanzados. A pesar de los avances en tecnología de carga, muchos cargadores disponibles en el mercado no cumplen con los estándares óptimos de seguridad y eficiencia. Esto puede resultar en una vida útil reducida de las baterías, riesgos de seguridad y un rendimiento subóptimo. Además, la falta de uniformidad en los métodos de carga y la variabilidad en las especificaciones de las baterías requieren una solución que sea adaptable a diferentes configuraciones y aplicaciones. El problema central es diseñar un cargador para baterías de iones de litio que: Garantice una carga segura y precisa: Implementando técnicas avanzadas de control de carga para prevenir sobrecalentamiento y sobrecarga. Optimice la eficiencia energética: Reduciendo las pérdidas de energía durante el proceso de carga. Incorpore sistemas de protección: Protegiendo tanto la batería como el cargador de posibles fallos y malfuncionamientos. Ofrezca versatilidad y compatibilidad: Adaptándose a diversas configuraciones de baterías y aplicaciones. Resolver estos problemas permitirá mejorar la vida útil y el rendimiento de las baterías de iones de litio, así como garantizar una mayor seguridad en su uso.



METODOLOGÍA

Para iniciar nuestro proyecto, fortalecimos nuestros conocimientos mediante la consulta de libros especializados en electrónica de potencia. Estos textos detallaban el funcionamiento y la aplicación de componentes sometidos a altas tensiones y frecuencias. Seguidamente, nos adentramos en el estudio de los convertidores DC/DC, centrándonos específicamente en el tipo buck. Este tipo de convertidor es fundamental debido a su capacidad para reducir el voltaje de salida, ideal para su uso en dispositivos eléctricos. Después de comprender su funcionamiento, procedimos con cálculos detallados para asegurar valores de salida precisos. Diseñamos un cargador para cuatro celdas de litio-ferrofosfato de 3.2V y 105Ah, que en serie producen 12.8V y 105Ah. Los resultados obtenidos para el diseño del convertidor fueron los siguientes: Relación de trabajo: 0.365 Voltaje de entrada: 40V Potencia asociada: 14.6W Corriente de salida: 1A Voltaje de salida: 14.6V Período de trabajo: 20µs Tiempo de encendido del interruptor: 7.3µs Tiempo de apagado del interruptor: 12.7µs Rizo de corriente en el inductor: 300mA Cálculo de inductancia: 618µH Rizo de voltaje en el capacitor: 146mV Cálculo de capacitor de filtrado: 5mF Resistencia o carga: 14.6 ohms Una vez completados los cálculos teóricos, validamos nuestros resultados mediante simulaciones utilizando el software "PSIM". Esta etapa fue crucial para confirmar que nuestros valores teóricos eran correctos y nos proporcionaban resultados de salida aceptables. El siguiente paso fue la implementación del control, vital para el circuito. El control del ciclo de trabajo del interruptor determina el período necesario de encendido y apagado para obtener resultados positivos en la simulación. También fue importante analizar el rango del ciclo de trabajo en el cual nuestro inductor podría entrar en modo discontinuo, lo que significaría pérdidas de energía y variaciones en la tensión. Mantener el inductor en modo continuo fue fundamental para asegurar una corriente de salida estable. Para controlar este ciclo de trabajo, experimentamos con diversas etapas de diseño. Finalmente, implementamos un sensor de corriente después del transistor para medir el flujo de corriente de entrada. Utilizamos estos datos para implementar un control PI (proporcional, integral). Mediante la retroalimentación con una señal de referencia, ajustamos la entrada del sistema para corregir cualquier desviación en la señal de control. Usando un comparador, ajustamos el ciclo de trabajo utilizando una señal triangular y una señal lineal para generar PWM, que define y ajusta el ciclo según los parámetros establecidos. Este enfoque garantizó un control preciso de la corriente en el circuito, permitiendo que el sistema ajuste la tensión para satisfacer las demandas energéticas de las celdas, aumentando la corriente según sea necesario. En cuanto a la parte física, fabricamos el inductor utilizando un núcleo AMCC-160 de acero al silicio. Para asegurar la inductancia deseada, realizamos cálculos detallados sobre el número de vueltas del embobinado, la temperatura de operación y las pérdidas en el núcleo. Los demás componentes como transistores, capacitores, drivers y controladores fueron fácilmente accesibles.


CONCLUSIONES

El proyecto de investigación durante este verano ha sido una inmersión profunda en el campo de la electrónica de potencia y los convertidores DC/DC tipo buck. Desde el estudio inicial de los fundamentos teóricos hasta la implementación práctica y el control avanzado del circuito, cada paso ha sido crucial para entender y optimizar el rendimiento del sistema. La combinación de cálculos precisos, simulaciones detalladas con software especializado como PSIM, y la fabricación cuidadosa de componentes físicos como inductores con núcleos específicos ha resultado en un diseño robusto y eficiente. La aplicación de un control PI ha permitido mantener la estabilidad del circuito, asegurando una salida de corriente consistente y adaptable a las necesidades de las celdas de litio-ferrofosfato. Este proyecto no solo ha fortalecido nuestros conocimientos teóricos y prácticos en electrónica de potencia, sino que también ha demostrado la importancia de la investigación sistemática y el diseño preciso en la ingeniería de sistemas electrónicos modernos.
Cuadros Vega Juan David, Universidad de Investigación y Desarrollo
Asesor: M.C. Judith Pérez Marcial, Benemérita Universidad Autónoma de Puebla

ANáLISIS E IMPLEMENTACIóN DE HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL PARA LA GENERACIóN AUTOMáTICA DE DESARROLLO WEB


ANáLISIS E IMPLEMENTACIóN DE HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL PARA LA GENERACIóN AUTOMáTICA DE DESARROLLO WEB

Briñez Arciniegas Cristhian Felipe, Universidad de Investigación y Desarrollo. Cortes Perez Haminton, Universidad de Investigación y Desarrollo. Cuadros Vega Juan David, Universidad de Investigación y Desarrollo. Asesor: M.C. Judith Pérez Marcial, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del Problema  Las herramientas generadoras de código han evolucionado significativamente desde las herramientas CASE, que se centraban en la automatización del desarrollo de software a través del modelado y la generación de código básico, hasta las modernas herramientas basadas en IA que pueden entender el contexto y generar código complejo de manera más precisa y eficiente. Esta evolución ha llevado a un aumento en la productividad, una mayor calidad del código y una reducción en los errores manuales, aunque todavía existen desafíos relacionados con la dependencia de datos y la necesidad de supervisión humana.  El desarrollo de software tradicional enfrenta desafíos significativos en términos de eficiencia, productividad, calidad y velocidad. La codificación manual consume mucho tiempo y es propensa a errores. Con el avance de la inteligencia artificial (IA), surge la oportunidad de transformar estos procesos mediante la generación automática de código, aunque es necesario que el usuario tenga conocimientos de lenguajes y técnicas de programación para darle un correcto uso a la IA y validar el código proporcionado por esta. Este proyecto busca analizar e implementar herramientas de IA que puedan interpretar descripciones en lenguaje natural y generar código, mejorar la velocidad de escritura y la reducción de errores, garantizar la transparencia y seguridad del código, mitigar sesgos para promover la equidad, proteger la privacidad de los datos y considerar el impacto laboral en los desarrolladores, fomentando su adaptación profesional, así como estandarizar y automatizar la creación de estructuras básicas y repetitivas en el desarrollo de software.  



METODOLOGÍA

Metodología  El proyecto se realizó utilizando Visual Studio Code, con cada integrante del equipo trabajando desde su casa y avanzando en el proyecto de manera colaborativa. Se evaluó ChatGPT como la inteligencia artificial, haciéndole preguntas específicas sobre el código y las tareas a realizar, las cuales fueron resueltas por la IA. Además, la metodología fue fundamentalmente de trabajo en grupo, donde se compartieron conocimientos y se coordinaron esfuerzos para cumplir con los objetivos del proyecto.       1. Análisis  Análisis de Herramientas de IA:  Investigar modelos de lenguaje natural, asistentes de programación y generadores de código basados en IA.  Ejemplos de herramientas: GPT-4 de OpenAI, GitHub Copilot, TabNine, y IntelliCode de Microsoft.    Evaluación de Necesidades y Selección de Herramientas:  Identificar áreas del proceso de desarrollo que se beneficiarán más de la automatización.  Evaluar y seleccionar herramientas de IA que se adapten mejor a las necesidades específicas.      2. Diseño  Uso de Chat GPT para el Desarrollo Web:  Utilizar Chat GPT para realizar toda la página web desde la landing page hasta las diferentes funciones de esta.  Reformular las preguntas a Chat GPT para obtener una información más clara y  estructurar mejor las preguntas para tener un desarrollo guiado y que entienda mejor lo que se quiere conseguir.  Contextualizar a la IA para que pueda realizar bien el código y cómo implementarlo.    3. Desarrollo  Uso de Chat GPT para el Desarrollo Web:  Implementar las funciones y características definidas en la fase de diseño, utilizando Chat GPT para generar y refinar el código necesario.  Integrar las herramientas seleccionadas durante el análisis para optimizar el desarrollo.    4. Pruebas  Monitoreo y Mejora Continua:  Recopilar el feedback de los desarrolladores para identificar problemas y áreas de mejora.  Analizar las métricas de rendimiento y productividad para evaluar la efectividad del código generado y las herramientas utilizadas.        5. Mantenimiento  Monitoreo y Mejora Continua:  Continuación del monitoreo del desempeño del software y las herramientas de IA.  Implementación de mejoras y ajustes basados en el feedback continuo y el análisis de métricas, asegurando la calidad y eficiencia del software a lo largo del tiempo. 


CONCLUSIONES

Conclusiones Generales  Se logró percibir que la IA funciona de manera eficiente cuando se le hacen preguntas específicas y se es claro y conciso en las peticiones. Sin embargo, para poder utilizar IA en el desarrollo de código, es imprescindible contar con un conocimiento mínimo de programación. La IA, en este caso ChatGPT, no puede realizar todo un trabajo de programación por sí sola, ya que requiere de la intervención humana para guiar y corregir el proceso, esto se hace validando que el código proporcionado por la IA este bien estructurado, que se adapte la secuencia de preguntas con los objetivos planteados y se ajuste con el programa que se está realizando, también corrigiendo errores de contexto que puede llegar a tener la IA y saber ubicar el código en el programa.  La implementación de herramientas de IA para la generación automática de código promete mejoras significativas en eficiencia, productividad, calidad y velocidad en el desarrollo de software. Se espera una reducción considerable del tiempo necesario para escribir y revisar código, un aumento en la productividad al permitir a los desarrolladores centrarse en tareas más complejas y creativas, una mejora en la calidad del código con menos errores, y una aceleración del ciclo de desarrollo. Sin embargo, es crucial asegurar la precisión de la IA, manejar adecuadamente la seguridad y privacidad de los datos, y superar la resistencia al cambio por parte de los desarrolladores. También se concluyó en la investigación que si se puede tener ética mientras se utiliza la IA para programar, solo hay que saber que está bien utilizar o hacer con una IA y tener cuidado con el código que resulta. 
Cubillos Osorio Miguel Angel, Universidad del Valle
Asesor: Mg. Gabriel Dario Piñeres Espitia, Universidad de la Costa

ANÁLISIS DE HERRAMIENTAS DE SIMULACIÓN DE REDES DE SENSORES INALÁMBRICOS APLICADAS A LA GESTIÓN LOGÍSTICA PORTUARIA


ANÁLISIS DE HERRAMIENTAS DE SIMULACIÓN DE REDES DE SENSORES INALÁMBRICOS APLICADAS A LA GESTIÓN LOGÍSTICA PORTUARIA

Cubillos Osorio Miguel Angel, Universidad del Valle. Asesor: Mg. Gabriel Dario Piñeres Espitia, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

 La gestión logística portuaria enfrenta numerosos desafíos debido a la necesidad de un control eficiente y preciso de los vehículos y mercancías que transitan en los puertos. Actualmente, esta tarea puede ser complicada debido a la diversidad de tecnologías y sistemas utilizados, lo que resulta en ineficiencias operativas, errores en la documentación y posibles brechas de seguridad. La identificación y seguimiento de vehículos son aspectos críticos para asegurar el flujo continuo y seguro de operaciones dentro de un puerto.[1][2] A pesar de la existencia de diversas tecnologías inalámbricas como LoRa y zigBee, su implementación en el contexto específico de la gestión portuaria no está completamente explorada. La falta de herramientas de simulación adecuadas para evaluar estas tecnologías en escenarios portuarios es un obstáculo significativo. Esta carencia limita la capacidad de los administradores portuarios para prever el desempeño de los sistemas de identificación y seguimiento antes de su despliegue real.[3][4] En este contexto, es esencial identificar y evaluar sistemas inalámbricos que mejoren la identificación y seguimiento de vehículos en un puerto. Implementar una red de sensores inalámbricos que ofrezca datos precisos y en tiempo real es clave para enfrentar estos desafíos. Además, utilizar un simulador adecuado permitirá probar y validar estas tecnologías en un entorno controlado antes de su implementación real. El objetivo del proyecto es analizar las herramientas de simulación de redes de sensores inalámbricos disponibles, identificar la más adecuada para la gestión logístico-portuaria y demostrar su aplicabilidad en un entorno portuario. Esto incluye evaluar diferentes sistemas inalámbricos, implementar una red de sensores y usar un simulador para validar los resultados, mejorando así la eficiencia y seguridad en la gestión logística portuaria y asegurando un control óptimo sobre vehículos y mercancías.



METODOLOGÍA

Para llevar a cabo el proyecto, se siguió una metodología estructurada en varias fases. Primero, se realizó una introducción al proyecto y a la investigación sobre herramientas de simulación de redes de sensores inalámbricos (WSN), seguida de una búsqueda exhaustiva de información y una revisión bibliográfica. Se diseñó una cadena de búsqueda y se creó un repositorio en la nube para almacenar los artículos revisados. También se elaboró una tabla con los artículos descartados y se identificaron métricas clave para evaluar las herramientas de simulación. Se creó una matriz de revisión bibliográfica y se realizó un análisis comparativo de las herramientas de simulación identificadas. Se seleccionó la herramienta más adecuada para la gestión logístico-portuaria, utilizando herramientas de inteligencia artificial para facilitar la revisión literaria. Se llevó a cabo una revisión bibliográfica adicional sobre las aplicaciones de la herramienta seleccionada, actualizando el repositorio y completando la matriz de revisión bibliográfica. Además, se elaboró un diagrama del escenario de aplicación, describiendo la arquitectura del sistema logístico portuario a simular, e identificando las configuraciones iniciales necesarias. Finalmente, se condensaron los hallazgos en un documento final de investigación, el cual fue revisado y corregido. Se preparó y presentó una socialización de los resultados con el equipo de trabajo y otros interesados, asegurando una documentación completa y justificada en cada etapa, contribuyendo a la mejora de la gestión logística portuaria.


CONCLUSIONES

Durante la estancia de verano, se llevaron a cabo actividades según las propuestas del profesor para cumplir con el objetivo del proyecto. Se realizó una búsqueda exhaustiva de documentos en bases de datos universitarias, enfocándose en emuladores de redes de sensores inalámbricos (WSN) aplicados a la gestión logística portuaria, con un enfoque particular en Scopus. Se utilizaron herramientas de inteligencia artificial como ChatGPT, Perplexity, Claude y Gemini para ampliar la búsqueda. Los documentos no relevantes fueron excluidos y documentados. Se evaluaron varias herramientas de simulación de WSN, considerando su funcionamiento, dificultad de aprendizaje, y costos. CupCarbon, recomendada por el profesor, se destacó como una opción robusta y accesible, siendo la más utilizada en los documentos revisados. Además, se investigaron aplicaciones de tecnologías como LoRa con herramientas de simulación WSN, encontrando que CupCarbon era eficaz para simular redes de sensores en aplicaciones logísticas portuarias. En conclusión, la selección de una herramienta de simulación WSN debe considerar costo, accesibilidad y facilidad de uso. CupCarbon se destacó como una herramienta altamente recomendable por su versatilidad y amplia utilización en investigaciones. Esta pasantía permitió identificar una herramienta adecuada para la gestión logística portuaria y resaltó la importancia de una revisión bibliográfica meticulosa y el uso de tecnologías avanzadas para apoyar la investigación académica. REFERENCIAS BIBLIOGRÁFICAS [1] Romero, O. (2016). Estrategias para la optimización de la gestión portuaria en Puerto Cabello (Doctoral dissertation, Universidad de Buenos Aires. Facultad de Ciencias Económicas.). [2] Montaño Avila, J. X. (2022). Estudio para la automatización del despacho de vehículos importados en autoridad portuaria de Esmeraldas (Master's thesis). [3] Devalal, S., & Karthikeyan, A. (2018, March). LoRa technology-an overview. In 2018 second international conference on electronics, communication and aerospace technology (ICECA) (pp. 284-290). IEEE. [4] Ramya, C. M., Shanmugaraj, M., & Prabakaran, R. (2011, April). Study on ZigBee technology. In 2011 3rd international conference on electronics computer technology (Vol. 6, pp. 297-301). IEEE.  
Cuervo Vargas Juana Maria Valentina, Universidad Antonio Nariño
Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara

IDENTIFICACIóN Y FORMULACIóN DE ESTRATEGIAS PARA DESARROLLAR CASAS SUSTENTABLES EN EL DEPARTAMENTO DE BOYACá EN COLOMBIA


IDENTIFICACIóN Y FORMULACIóN DE ESTRATEGIAS PARA DESARROLLAR CASAS SUSTENTABLES EN EL DEPARTAMENTO DE BOYACá EN COLOMBIA

Cuervo Vargas Juana Maria Valentina, Universidad Antonio Nariño. Martinez Torres Maikol Yohan, Universidad Antonio Nariño. Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La creciente urbanización y el cambio climático han llevado a un aumento en la demanda de viviendas en Colombia, especialmente en el departamento de Boyacá, donde se han observado problemas significativos relacionados con el acceso a la vivienda con sostenibilidad ambiental. A pesar de los esfuerzos por promover la construcción de casas sustentables, muchos proyectos habitacionales en la región no integran adecuadamente prácticas que optimicen el uso de recursos, minimicen el impacto ambiental y mejoren la calidad de vida de sus habitantes. En Boyacá, la realidad es compleja la escasez de recursos, la variabilidad climática y la falta de políticas públicas efectivas dificultan la implementación de soluciones habitacionales tanto accesibles como sostenibles. Esto requiere Identificar y formular estrategias que permitan desarrollar una solución a la situación actual que genera esta problemática en cuestiones de construcción de casas sustentables, donde se requiere abordar investigaciones que permitan disminuir las barreras y aumente las oportunidades para la implementación de casas sustentables en Boyacá, para mejorar la percepciones de la comunidad sobre la sostenibilidad y la habitabilidad, se espera contribuir a las recomendaciones prácticas que aseguren un futuro más sostenible para las generaciones venideras. ¿Cuáles son los beneficios de identificar y formular estrategias para apoyar la construcción de casas sustentables, adaptadas y aplicadas eficazmente en el contexto específico de Boyacá, considerando sus características socioeconómicas, culturales y ambientales?



METODOLOGÍA

Para este trabajo se selecciona la mitología de investigación Holística que permite ubicar las diversas propuestas en un esquema coherente y aplicable a cualquier área del conocimiento (Carhuncho-Mendoza , 2019). Los siguientes pasos para realizar la investigación con éxito: primero aplicar los diez objetivos de la investigación, segundo identificar los diez tipos de investigación, tercero entender los niveles de profundidad del conocimiento, cuarto realizar la espiral holística y quinto aplicar el ciclo holístico para la investigación en particular. Etapa 1: Entendimiento de los diez objetivos de la metodología que son: explorar, describir, analizar, comparar explicar, predecir, proponer intervenir, confirmar y evaluar. Utilizando los conocimientos de la administración de la calidad, estudio de trabajo, formulación y evaluación de proyectos y desarrollo de proyectos de emprendimiento e inversión. Etapa 2: Identificar diez los tipos de investigación: exploratoria, descriptiva, analítica, comparativa, explicativa, predictiva, proyectiva, interactiva, confirmatoria y evaluativa Etapa 3: Entender los niveles de conocimiento: perceptual, aprehensivo, comprensivo e integrativo. Etapa 4: Diseñar la espiral holística de la investigación indicando los siguientes puntos: perceptual (describir y explorar), aprensivo (comparar y analizar), comprensivo (proponer, predecir y explicar) e integrativo (modificar, confirmar y evaluar). Etapa 5: Aplicar el ciclo holístico formado por: explorar, describir, analizar, comparar, explicar, predecir, proyectar, interactuar, confirmar y evaluar.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos, para la realización de proyectos de investigación desde una idea, estructurar el planteamiento del problema, título, objetivos generales y particulares, justificación, hipótesis y diseño de la metodóloga de investigación para este trabajo es la metodología holística y principalmente como esto se puede aplicar a un tema de interés personal, académico y profesional. Se identificaron brechas regulatorias en las políticas públicas de Boyacá, específicamente en la falta de incentivos económicos y flexibilidad en los códigos de construcción, lo que limita la adopción de prácticas de construcción sostenible. El análisis de ciclo de vida y evaluación del desempeño ambiental de las prácticas de construcción actuales en Boyacá reveló que la implementación de tecnologías como la construcción con materiales locales, sistemas de energía renovable y gestión eficiente del agua pueden reducir significativamente la huella de carbono y el impacto ambiental de las viviendas en la región. Los resultados de la investigación sugieren que la implementación de un programa de certificación de viviendas sostenibles en Boyacá, basado en estándares internacionales como , podría ser una estrategia efectiva para promover la construcción sostenible y brindar incentivos económicos a los desarrolladores y constructores que adopten prácticas sostenibles.
Cuevas Ayala Bibiana Guadalupe, Instituto Tecnológico de Jiquilpan
Asesor: Esp. Angelica Maria Blanco Correa, Institución Universitaria de Envigado

CONDICIONES DE TRABAJO EN SALAS DE BELLEZA Y SPA DE UÑAS DEL MUNICIPIO DE ENVIGADO, ANTIOQUIA- COLOMBIA (2024)


CONDICIONES DE TRABAJO EN SALAS DE BELLEZA Y SPA DE UÑAS DEL MUNICIPIO DE ENVIGADO, ANTIOQUIA- COLOMBIA (2024)

Cuevas Ayala Bibiana Guadalupe, Instituto Tecnológico de Jiquilpan. González Hernández Erick Axel, Instituto Tecnológico de Morelia. Guijosa Hernández Brenda Estefany, Instituto Tecnológico Superior de Ciudad Hidalgo. Martínez Martínez Cecilia Lizbeth, Instituto Tecnológico Superior de Ciudad Hidalgo. Medina Tello Dulce Maria, Instituto Tecnológico Superior de Ciudad Hidalgo. Medina Tello Regina Vianeey, Instituto Tecnológico Superior de Ciudad Hidalgo. Pérez Delgado Rosario Nallely, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Esp. Angelica Maria Blanco Correa, Institución Universitaria de Envigado



PLANTEAMIENTO DEL PROBLEMA

En las salas de belleza y spa de uñas, los colaboradores se exponen a múltiples factores de riesgo que pueden afectar su salud y bienestar. Estos riesgos incluyen exposición a sustancias químicas, radiaciones no ionizantes, ruido, iluminación inadecuada, condiciones de confort térmico deficientes y factores ergonómicos debido a posturas forzadas y movimientos repetitivos. La falta de medidas preventivas específicas y el desconocimiento sobre los riesgos agravan la situación, aumentando la probabilidad de accidentes de trabajo y enfermedades laborales. Los colaboradores de las peluquerías y spa de uñas en Envigado están expuestos a riesgos ocupacionales y ergonómicos que pueden impactar negativamente su salud, y en la mayoría de los casos, no se implementan acciones preventivas adecuadas.



METODOLOGÍA

Diseño del Estudio El estudio se diseñará como una investigación descriptiva y transversal, evaluando los riesgos de higiene ocupacional y ergonómicos en los trabajadores de salas de belleza y spa de uñas en Envigado. Población y Muestra Población: Trabajadores de salas de belleza y spa de uñas en el municipio de Envigado. Muestra: Se seleccionará una muestra representativa de trabajadores de diferentes salas de belleza y spa de uñas en Envigado, utilizando un muestreo aleatorio estratificado. Instrumentos de Recolección de Datos Encuestas y Cuestionarios: Para caracterizar el perfil sociodemográfico y las condiciones de salud y trabajo de los trabajadores. Mediciones Ambientales: Para evaluar niveles de ruido, iluminación, radiación no ionizante y confort térmico en los lugares de trabajo. Análisis de Sustancias Químicas: Para identificar y medir la concentración de sustancias químicas presentes en el ambiente laboral. Evaluaciones Ergonómicas: Para identificar y analizar posturas forzadas y movimientos repetitivos. Procedimiento Recolección de Datos: Aplicación de encuestas y cuestionarios a los trabajadores. Realización de mediciones ambientales y análisis de sustancias químicas en las salas de belleza y spa de uñas. Evaluaciones ergonómicas en los puestos de trabajo. Análisis de Datos: Análisis descriptivo de los datos sociodemográficos, de salud y condiciones de trabajo. Análisis cuantitativo de los niveles de exposición a riesgos higiénicos y ergonómicos. Relación entre los riesgos evaluados y los efectos en la salud reportados por los trabajadores Elaboración de Recomendaciones: Basadas en los resultados obtenidos, se emitirán recomendaciones para mejorar las condiciones de trabajo y reducir la exposición a los riesgos identificados.


CONCLUSIONES

Perfil Sociodemográfico y Condiciones de Salud: Caracterización detallada del perfil sociodemográfico de los trabajadores y sus condiciones de salud, identificando posibles patrones o tendencias relacionadas con la exposición a riesgos. Evaluación de Riesgos: Identificación de los niveles de exposición a ruido, iluminación, radiación no ionizante, confort térmico y sustancias químicas en las salas de belleza y spa de uñas. Evaluación de los riesgos ergonómicos relacionados con posturas forzadas y movimientos repetitivos. Relación entre Riesgos y Salud: Análisis de la relación entre los riesgos ocupacionales y los efectos en la salud reportados por los trabajadores, proporcionando evidencia sobre el impacto de estos riesgos en su bienestar.
Cuevas Gaytán Juan Manuel, Universidad de Monterrey
Asesor: Dr. Emmanuel Ovalle Magallanes, Universidad La Salle Bajío

USO DE LA ARQUITECTURA U-NET PARA SEGMENTACIóN DE ANGIOGRAMAS DE LA ARTERIA CORONARIA


USO DE LA ARQUITECTURA U-NET PARA SEGMENTACIóN DE ANGIOGRAMAS DE LA ARTERIA CORONARIA

Cuevas Gaytán Juan Manuel, Universidad de Monterrey. Asesor: Dr. Emmanuel Ovalle Magallanes, Universidad La Salle Bajío



PLANTEAMIENTO DEL PROBLEMA

Las enfermedades cardiovasculares ocupan el primer lugar en cuanto a la mortalidad general con un total de 68716 fallecimientos. La cardiopatía coronaria se posiciona al comienzo de la lista de las cardiopatías, con 44064 defunciones. Esta enfermedad consiste en el estrechamiento o bloqueo de las arterias coronarias, lo cual puede provocar infartos u otros problemas. Es posible la prevención de la enfermedad de las arterias coronarias por medio de un diagnóstico temprano y un tratamiento adecuado. Uno de los principales métodos de diagnóstico es el angiograma, una radiografía de los vasos sanguíneos y el flujo de sangre.  A pesar de ser un método efectivo para la identificación de las arterias pueden ocurrir errores de interpretación debido a la variabilidad de las arterias. Una solución a este problema es la segmentación de los angiogramas por medio de técnicas de aprendizaje profundo con redes neuronales, ya que permiten identificar las arterias coronarias con más precisión. Por este motivo, el objetivo de esta investigación de verano se enfocó en la implementación de un modelo de redes neuronales convolucionales para el procesamiento y segmentación de angiogramas de arterias coronarias.  



METODOLOGÍA

El desarrollo de la investigación se llevó a cabo en tres etapas: la implementación del modelo de red neuronal, el procesamiento de los datos y la evaluación del modelo. El proyecto se desarrolló en Python, usando el framework de Pytorch.  Una de las claves para la segmentación con redes neuronales convolucionales es el uso de la arquitectura UNET, la cual consta de tres partes el down sample, bottleneck y up sample. Esta arquitectura pasa la imagen pasa por filtros y residuos de su proceso ayudando a crear la segmentación de la imagen.  La primera parte de la investigación consistió en implementar la arquitectura U-NET con Pytorch. Para esto se creó la clase que aplica doble capa de convolución con max pooling, esta clase es usada en cada uno de los pasos del down sample y up sample. Por último, se desarrolló la clase del modelo U-NET, en la cual se implementa la lógica por la que deben para las imágenes.  Para el procesamiento de datos se utilizaron las imágenes del repositorio de github ICA_NJ_BinarySeg del usuario MIILab-MTU. Estás imágenes fueron usadas para la investigación Automatic extraction and stenosis evaluation of coronary arteries in invasive coronary angiograms. El repositorio contiene 616 angiogramas de arterias coronarias y sus respectivas etiquetas, las cuales son las imágenes segmentadas.  El primer paso del procesamiento de las imágenes fue aplicar una esqueletización a cada imagen segmentada para adelgazar las de las arterias coronarias. Posteriormente, se creó una clase de Pytorch que funcionara para encapsular la lógica del dataset que se iba utilizar para entrenar el modelo. Para la repartición de las muestras se usó un 80% de las imágenes para el entrenamiento, 10% para la etapa de validación y 10% para las pruebas del modelo ya entrenado. Cada una de estas particiones se dividió en lotes de 4 imágenes, para minimizar el consumo de la memoria RAM.  Para alimentar el modelo, se creó una función para entrenar por época, en cada una de estas se aplicaba el entrenamiento y se evaluaba los errores entre los valores obtenidos y reales por medio de la función Binary Cross Entropy Logistic Loss. Con ese valor se realizaba el backpropagation para ajustar los pesos del modelo con el optimizador Adam. Además, se evaluaba el rendimiento del modelo por época. Por último, se evaluó el modelo con las muestras del dataset de pruebas y se graficaron las estadísticas obtenidas del proceso de entrenamiento y pruebas.   


CONCLUSIONES

Durante la estancia, aprendí mucho sobre los fundamentos de los algoritmos de aprendizaje profundo y la segmentación por medio de redes neuronales convolucionales. Gracias a esto pude implementar la arquitectura de U-NET y procesar los datos. El modelo logró entrenar y lanzar resultados, pero le faltó mayor refinamiento, ya que no daba una segmentación completa.    REFERENCIAS  Chávez Domínguez, R., Ramírez Hernández, J. A., & Casanova Garcés, J. M. (2003). La cardiopatía coronaria en México y su importancia clínica, epidemiológica y preventiva. Archivos de cardiologia de Mexico, 73(2), 105-114. https://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-99402003000200003 Diccionario de cáncer del NCI. (2011, February 2). Cancer.gov. https://www.cancer.gov/espanol/publicaciones/diccionarios/diccionario-cancer/def/enfermedad-arterial-coronaria Weihua.(n.d.). ICA_NJ_BinarySeg.https://github.com/MIILab-MTU/ICA_NJ_BinarySeg ANEXOS Link al código de la investigación: https://github.com/Cuevas2402/deep-learning-notebooks.git  
Cuevas Ochoa Gustavo Adán, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Ivan Salgado Transito, Centro de Investigaciones en Óptica (CONACYT)

DISEñO MECáNICO DE UN CONCENTRADOR SOLAR DE DISCO PARABóLICO


DISEñO MECáNICO DE UN CONCENTRADOR SOLAR DE DISCO PARABóLICO

Cuevas Ochoa Gustavo Adán, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Ivan Salgado Transito, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La crisis climática, la crisis energética y el agotamiento de los combustibles fósiles son realidades que enfrentamos hoy en día. Por ello, es vital realizar la transición hacia energías más limpias y renovables. Una opción destacada es la energía solar, especialmente a través de las tecnologías de concentración. Entre estas, la concentración solar de disco parabólico nos ayuda a obtener energía eléctrica y a realizar aplicaciones de alta temperatura. Es necesario desarrollar el diseño mecánico de un concentrador solar de disco parabólico, crear un modelo CAD y someterlo a un análisis estructural y de cargas de viento mediante el método de elementos finitos. Esto garantizará la estabilidad y eficiencia del diseño propuesto, tanto bajo condiciones operativas reales como en condiciones extremas.



METODOLOGÍA

Como primera instancia, se realizará una investigación del estado del arte del concentrador de disco parabólico con el fin de conocer los avances actuales y el conocimiento disponible. Esto incluirá reportes, tesis, investigaciones, modelos, etc. Posteriormente, se llevará a cabo el diseño óptico del concentrador solar de disco parabólico utilizando herramientas y software de raytracing. Se utilizó SolTrace, un software gratuito y de uso libre. Con este software, se proporcionaron diferentes datos de entrada para simular nuestro disco parabólico. Primero, se declaró el sol bajo condiciones ideales con una dirección exacta hacia nuestro vértice y con una irradiancia de 1000 W/m². En el apartado óptico, se declaró el disco parabólico con una reflectividad de 0.9 y una transmitancia de 1. El absorbedor se configuró con una reflectividad de 0 y una transmitancia de 0.9. En el apartado geométrico, el disco parabólico se declaró con una apertura de 5 m y una superficie parabólica (Cx=0.25 y Cy=0.25). Para la geometría del absorbedor, se le asignó una apertura de .625 cm y una superficie plana. El absorbedor (punto focal) se colocó a 2 metros del vértice. Una vez concluido el modelo óptico, se debe diseñar el modelo CAD basado en la geometría y los resultados obtenidos con SolTrace. Para realizar el diseño CAD, se utilizó el software SolidWorks, donde se dibujaron las piezas que componen el modelo. Se optó por un sistema de seguimiento de dos ejes (azimut y elevación) para que el concentrador pueda funcionar de la manera más óptima y eficiente posible. Se realizó un ensamblaje de todas las piezas y, una vez concluido el modelo, los archivos generados por SolidWorks se exportaron a una extensión ejecutable para el software Ansys. Al exportar el modelo CAD a Ansys, se ejecutó la simulación de cargas de viento con el método de elementos finitos en AnsysFluent. Primero, se seleccionó la geometría a evaluar, optando solo por utilizar el disco parabólico en su punto máximo de inclinación, ya que es donde recibe mayor presión del viento. Se descartó la base del disco, ya que es despreciable y no afecta este estudio. Se añadió un enclosure para simular el fluido (viento) y la trayectoria que este seguirá. En el apartado de Mesh, se declararon diferentes named selections como: Air, Dish, Wall, Inlet y Outlet, para hacer saber al software la función predeterminada de cada uno de los componentes. Se utilizó un sizing de 30 cm, obteniendo un total de 46,332 nodos y 252,007 elementos. Al revisar la calidad de la malla, se mostró de buena calidad, con los siguientes resultados: Max aspect ratio = 8.635; Max element quality = 0.196; Min orthogonal quality = 0.142; Max skewness = 0.858. En el apartado de Setup, solo se declaró la gravedad normal de la Tierra (9.82 m/s²) y una velocidad del viento de 5 m/s. Para realizar los cálculos, se declararon 400 iteraciones para que todos los resultados pudieran converger. Al obtener la velocidad máxima del viento y la presión máxima ejercida sobre el disco parabólico, esta información se utilizó como dato de entrada en el análisis estructural por el método de elementos finitos. Este estudio y simulación se realizaron en Ansys Mechanical. Para esto, se requirió de toda la estructura del concentrador solar, incluyendo la base, los espejos del disco, el sistema de seguimiento, la zapata y la estructura metálica que sostiene el disco parabólico. Cabe mencionar que, para este estudio, se simplificó el diseño CAD para ahorrar recursos computacionales y que la simulación pudiera ejecutarse sin inconvenientes. Como datos de entrada para este estudio, en cuanto a los materiales, se utilizó acero estructural para la mayoría de los componentes, a excepción del disco parabólico (espejos), para el cual se utilizó aluminio de alta reflectancia. Para la malla, se utilizó un sizing de 30 cm, obteniendo una malla de calidad con 34,879 elementos y 75,289 nodos. En las condiciones de Setup, se declaró una gravedad normal de la Tierra (9.82 m/s²). La presión ejercida por el viento, obtenida en el estudio anterior (22.41 Pa), se aplicó en el disco parabólico. La estructura se fijó en la parte inferior de la base. Se calculó la deformación total, la tensión de Von Mises y el estrés, además del factor de seguridad del modelo.


CONCLUSIONES

Como conclusión, se obtuvo que nuestro diseño es viable ya que cumple con todos los parámetros esperados. Se esperaba una concentración mayor a 1.2 MW y se obtuvo una de 1.38 MW. Es resistente al viento, con una velocidad máxima de 7.44 m/s y una presión máxima de 22.41 Pa. El disco desvía adecuadamente el viento y, según los resultados del análisis estructural, la deformación máxima es de 1.6 cm y de 7 mm, siendo esta despreciable en el diseño. El estrés que nuestro modelo presenta es mínimo y está muy lejos de causar alguna deformación plástica, permaneciendo en su comportamiento elástico y sin afectar la concentración solar. Esto nos brinda un modelo viable y realizable.
Cuevas Pérez Braulio Naresh, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Osvaldo Lira Díaz, Instituto Tecnológico de Lázaro Cárdenas

ALGORITMOS PARA EL SEGUIMIENTO DE TRAYECTORIAS EN VEHíCULOS NO TRIPULADOS


ALGORITMOS PARA EL SEGUIMIENTO DE TRAYECTORIAS EN VEHíCULOS NO TRIPULADOS

Cuevas Pérez Braulio Naresh, Instituto Tecnológico Superior de Ciudad Hidalgo. Rivera Aguilar Juan Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Osvaldo Lira Díaz, Instituto Tecnológico de Lázaro Cárdenas



PLANTEAMIENTO DEL PROBLEMA

Desde tiempos remotos, motivados por sus desplazamientos sobre la tierra o el mar, los seres humanos han utilizado diversas técnicas de navegación. Dichas técnicas requieren determinar el valor de ciertos parámetros de navegación del individuo, y eventualmente, de vehículos. Esto se puede conseguir de distintas formas, ya sea por mediciones referidas a cuerpos ajenos al individuo como podrían ser los astros y su posición en el firmamento; o asistidos por instrumentos propios como lo fueron las brújulas, y cuyo uso fue puesto en práctica durante muchos años en la antigüedad. La navegación robótica se enfoca a la ubicación espacial de un robot respecto a su entorno, con el propósito de realizar un desplazamiento desde un punto de partida hacia un destino. Sin la definición de parámetros adecuada y dada la falta de libre albedrío de un robot, este es incapaz de reaccionar frente eventos externos no previstos. Para la coordinación de movimientos se realizan procedimientos de control, tales como navegación autónoma y reprogramación de ruta. El desarrollo de robots móviles es un campo relativamente joven que data apenas de fines de la década de 1970. Con anterioridad el desarrollo se había centrado exclusivamente en robots industriales, los cuales son aun ampliamente usados, representando una gran cuota comercial. Para la planificación de trayectorias óptimas en la navegación robótica, se han utilizado distintos procedimientos de búsqueda de rutas y así, con el paso del tiempo se han implementado controles automáticos que requieren softwares que cuenten con diversas herramientas tecnológicas como lo es la inteligencia artificial, ello orientado a lograr que el vehículo sea capaz de tomar decisiones en tiempo real bajo escenarios cambiantes. Debido a lo anterior existe la necesidad de desarrollar e implementar algoritmos para el seguimiento de trayectorias de manera optima y automáica en vehículos no tripulados.



METODOLOGÍA

Configuración Inicial y Conectividad Actualización de la Raspberry Pi con sudo apt update y sudo apt upgrade. Conexión a la red Wi-Fi local y habilitación del acceso remoto mediante SSH para facilitar el control. Integración de Componentes GPS Neo6M: Conectado al GPIO de la Raspberry Pi (TX a RX y RX a TX). Instalación de gpsd y python-gps, con configuración y desarrollo de un hilo para lectura continua en exteriores. Sensor RPLIDAR A1M8: Conectado mediante USB, identificado con ls /dev/ttyUSB. Instalación de dependencias (rplidar, pyserial, numpy) y desarrollo de un script en Python con hilo para lectura continua de datos. Cámara USB: Conectada para streaming de video, instalación de librerías necesarias y verificación del acceso mediante un navegador. Desarrollo del Software en C# Uso de Visual Studio Code para programar en C#. Instalación de librerías System.Drawing, System.Windows.Forms, y AForge.Video, y creación de un panel en Windows Forms para visualizar el video. Configuración de MQTT Instalación del bróker Mosquitto en la Raspberry Pi, configuración para manejo de comunicación MQTT y pruebas entre aplicaciones en C# y Python. Creación de la Base de Datos MySQL Instalación y configuración de MySQL, creación de la base de datos rutas_db con tabla de nodos. Scripts en Python para insertar coordenadas del GPS en la base de datos. Desarrollo del Software en C# Creación de un proyecto en Visual Studio Code, instalación de MQTTnet para comunicación MQTT, y desarrollo de la interfaz para datos de sensores y video de la cámara. Permite ajustes en velocidad, orientación y destino. Algoritmo de Toma de Decisiones Script en Python para leer datos del GPS y almacenarlos en MySQL. Cálculo de la ruta más corta con la fórmula de Haversine y el algoritmo de Dijkstra. Implementación de función para reconstrucción del camino óptimo entre nodos.


CONCLUSIONES

El sistema es capaz de caracterizar su entorno debido a la información obtenida por los sensores implementados (GPS, giroscopio, magnetómetro, acelerómetro, detector de obstáculos LIDAR), esto permite que el vehículo pueda identificar la ubicación y el entorno en el que se encuentra, de manera que pueda explorar, seguir una ruta establecida y llegar al punto geográfico establecido en el menor tiempo posible, ya que a parte de determinar la ruta más corta a su destino con la implementación de un controlador PID y la cinemática del vehículo alcanza una velocidad adecuada y cambios de dirección manteniendo estabilidad y alcanzando su destino con éxito. El vehículo podrá ser monitoreado vía remota apoyándose en la implementación de protocolos de comunicación IoT así como visión robótica, está implementación quedó fuera del alcance del presente proyecto, sin embargo se continuará trabajando para concluir con esta característica.
Damaso Ramirez Oliva, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: M.C. Maurilio Tobón Gómez, Universidad Tecnológica de Tecamachalco

ANáLISIS COMPARATIVO DE LA TEMPERATURA DE DESTILACIóN DEL MEZCAL Y EL CLIMA ESTACIONAL EN EL VALLE DE PUEBLA: CORRELACIóN CON LOS GRADOS BRIX


ANáLISIS COMPARATIVO DE LA TEMPERATURA DE DESTILACIóN DEL MEZCAL Y EL CLIMA ESTACIONAL EN EL VALLE DE PUEBLA: CORRELACIóN CON LOS GRADOS BRIX

Damaso Ramirez Oliva, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: M.C. Maurilio Tobón Gómez, Universidad Tecnológica de Tecamachalco



PLANTEAMIENTO DEL PROBLEMA

La destilación artesanal del mezcal es un proceso que separa los compuestos de una mezcla líquida por medio de sus diferentes puntos de ebullición. En este proceso, el líquido pasa del estado líquido al estado gaseoso para luego ser condensado, este se consigue elevando la temperatura del fermentado, y manteniéndola en un rango deseado que favorezca la destilación. Actualmente, en el valle de Puebla existen diversos climas a lo largo del año, lo que deriva a uno de los principales problemas en el proceso de destilación, ya que la composición de la mezcla depende directamente de la temperatura y de la presión de equilibrio. Al no mantenerse en una temperatura constante los alcoholes no llegan correctamente a su punto de ebullición lo que provocaría que alcoholes tóxicos como lo es el metanol llegara hasta la parte final del destilado contaminando al producto final.



METODOLOGÍA

La destilación del mezcal de agave mapisaga, se divide en 2 partes, el destilado rectificado y el destilado ordinario, se llevó a cabo un monitoreo durante el periodo de abril­-mayo y otro en junio-julio debido a la variación de temperatura ambiental entre ambos periodos. En el periodo de abril-mayo la temperatura promedio es de 28 a 37 °C, lo cual favorece una mejor destilación, ya que por ser temperaturas cálidas de la región es más fácil llegar al punto de ebullición adecuado para la destilación al igual que la presión de equilibrio, haciendo que el volumen del gas sea cada vez mayor, cabe mencionar que al tener una temperatura alta es menor el uso de leña  (materia utilizada para calentar los hornos durante todo el proceso de destilación artesanal) ahorrando de esta manera la materia prima, pero esta temperatura repercute en el sistema de enfriamiento puesto que, al estar el ambiente más caliente, el agua utilizada aumenta su temperatura. En los meses junio-julio la temperatura es de 21 a 31 °C teniendo un ambiente húmedo, ya que son meses de lluvias constantes, aires fríos y suelos húmedos lo cual afecta en la destilación, por lo cual ocurre todo lo contrario al periodo anterior, es más tardado llegar a la temperatura correcta para el destilado del alcohol etílico sin metanol, haciendo la presión del equilibrio cada vez menos, afectando al volumen del gas y repercutiendo en la calidad del producto final Una vez teniendo el análisis completo acerca del cómo afecta la variabilidad de la temperatura en el valle de puebla, se puede empezar a diseñar sistemas o herramientas que ayuden a mantener una temperatura constante en los hornos no dejando a un lado que es un proceso y un producto considerado artesanal.


CONCLUSIONES

Durante esta estancia se logró realizar un análisis de las principales variables que afectan al destilado, haciendo una comparación y obteniendo qué relación tiene en la calidad del producto final, de este modo dar a conocer propuestas que ayuden a contrarrestar las variables negativas, sin embargo todo este proceso es muy extenso ya que el destilado no se realiza frecuentemente y los estudios se prolongan hasta que se repita de nuevo la destilación, debido a esto actualmente se encuentra en la fase de análisis y estudios a posibles soluciones que den mejores resultados.  
Dávalos Gallardo Karla Anette, Universidad de Guadalajara
Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara

SOLUCIÓN DE PROBLEMAS DE LA INGENIERÍA QUÍMICA CON EL APOYO DEL LENGUAJE DE PROGRAMACIÓN PYTHON


SOLUCIÓN DE PROBLEMAS DE LA INGENIERÍA QUÍMICA CON EL APOYO DEL LENGUAJE DE PROGRAMACIÓN PYTHON

Dávalos Gallardo Karla Anette, Universidad de Guadalajara. Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La ecuación de estado de Van der Waals es una herramienta fundamental en la termodinámica para describir el comportamiento de los gases reales. La creación de programas específicos que utilicen esta ecuación puede proporcionar herramientas valiosas para estudiantes e investigadores en el campo de la termodinámica y la ingeniería química, ya que facilitaria el proceso de calculos para agilizar la obtención de resultados. Este proyecto se centra en el desarrollo de programas que no solo calculen la presión, el volumen y la temperatura de sustancias puras y mezclas binarias usando la ecuación de Van der Waals, sino que también incorporen cálculos de cambios de entalpía y entropía con la ayuda de la biblioteca ‘CoolProp’. Este enfoque permitirá un análisis más completo y práctico de los procesos termodinámicos.



METODOLOGÍA

La metodología del proyecto se basó en el desarrollo iterativo de software, utilizando Python y la biblioteca CoolProp para obtener propiedades termodinámicas. Inicialmente, se desarrolló un programa básico para la ecuación de estado de Van der Waals para sustancias puras, que luego se extendió para manejar mezclas binarias y n-componentes. Posteriormente, se implementaron programas para calcular cambios de entalpía y entropía. Durante el proceso, se identificaron y corrigieron errores, optimizando el código y mejorando la interfaz de usuario. Se crearon un total de 12 programas: 6 donde el usuario debe ingresar las propiedades y 6 donde CoolProp obtiene las propiedades basadas en el nombre de la sustancia en inglés. Finalmente, se validaron los programas con datos y resultados reales.


CONCLUSIONES

Durante el desarrollo de este proyecto, se lograron crear programas eficientes para calcular propiedades termodinámicas utilizando la ecuación de estado de Van der Waals. La metodología de desarrollo iterativo permitió ajustar y mejorar los programas continuamente, garantizando su funcionalidad y precisión. Los programas desarrollados no solo permiten calcular la presión, el volumen y la temperatura de sustancias puras así como mezclas binarias, sino que también incorporan cálculos de entalpía y entropía, proporcionando una herramienta completa para el análisis termodinámico. Como se tienen dos versiones de cada programa es posible usarlos teniendo o no la biblioteca de Coolprop, facilitando el uso de los programas para personas que no tienen instalados dichos requerimientos.
Dávila Godínez Teresa, Universidad de Guadalajara
Asesor: Dr. Jorge de Jesús Galvez Rodríguez, Universidad de Guadalajara

GENERACIóN DE IMáGENES CON INTELIGENCIA ARTIFICIAL PARA PRUEBAS DE TUBERCULOSIS


GENERACIóN DE IMáGENES CON INTELIGENCIA ARTIFICIAL PARA PRUEBAS DE TUBERCULOSIS

Dávila Godínez Teresa, Universidad de Guadalajara. Asesor: Dr. Jorge de Jesús Galvez Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La tuberculosis es una enfermedad infecciosa causada por la bacteria Mycobacterium tuberculosis. Afecta principalmente a los pulmones, pero también puede atacar otras partes del cuerpo como los riñones, la columna vertebral y el cerebro. La tuberculosis se propaga a través del aire cuando una persona infectada tose, estornuda o habla, liberando bacterias en el aire que pueden ser inhaladas por otras personas. Identificar y tratar la tuberculosis es crucial para controlar la propagación de la enfermedad, especialmente en comunidades con alta densidad poblacional. Diagnosticar la TB de manera temprana permite iniciar el tratamiento antes de que la enfermedad progrese y cause más daño al cuerpo. La tuberculosis no tratada puede ser fatal, el tratamiento oportuno puede salvar vidas. La detección y el tratamiento adecuados pueden prevenir el desarrollo de tuberculosis resistente a múltiples fármacos, que es más difícil y costosa de tratar. Para identificar la tuberculosis, existen diversos métodos. Para agilizar la detección de casos negativos y positivos, es necesario crear un clasificador de pruebas basado en inteligencia artificial, el cual requiere un gran banco de datos para su entrenamiento. Desafortunadamente, este proceso consume mucho tiempo y dinero. Sin embargo, la Inteligencia Artificial Generativa puede ayudarnos a crear imágenes adicionales para ampliar nuestro banco de pruebas de tuberculosis, facilitando así el entrenamiento y mejorando la precisión del clasificador.



METODOLOGÍA

La implementación se realizó utilizando el marco de trabajo PyTorch, con Generative Adversarial Networks (GANs, por sus siglas en inglés, o redes generativas antagónicas en español) son una clase de algoritmos de aprendizaje automático que aprovechan el poder de dos redes neuronales en competencia: el generador y el discriminador. Generador El generador toma un vector de ruido aleatorio y lo transforma en una imagen. Este proceso se lleva a cabo a través de varias capas de convolución y de upsampling, que aumentan gradualmente la resolución de la imagen generada. La arquitectura del generador incluye capas de Batch Normalization y activaciones Leaky ReLU, seguidas por una función de activación Tanh para producir la imagen final. Discriminador El discriminador clasifica las imágenes como reales o falsas. La arquitectura del discriminador incluye varias capas de convolución que reducen gradualmente las dimensiones espaciales de la imagen, seguidas por capas totalmente conectadas que aplastan la salida y aplican una función de activación Sigmoid para producir una probabilidad de validez. Proceso de entrenamiento El proceso de entrenamiento de una GAN funciona como un juego de suma cero entre estas dos redes: Competencia: El generador intenta engañar al discriminador creando datos cada vez más realistas. Al mismo tiempo, el discriminador mejora sus habilidades para distinguir los datos falsos de los reales. Retroalimentación: Ambos modelos se entrenan simultáneamente y se retroalimentan. El generador recibe retroalimentación sobre qué tan bien está engañando al discriminador, y el discriminador recibe retroalimentación sobre qué tan bien está identificando los datos falsos. Este proceso iterativo continúa hasta que el generador produce datos tan realistas que el discriminador no puede distinguirlos de los datos reales con alta precisión. Al final del entrenamiento, tenemos un generador capaz de crear datos artificiales que son casi indistinguibles de los datos reales. Implementación de DCGAN Se eligió la DCGAN (Deep Convolutional GAN) debido a sus buenos resultados en la generación de imágenes de calidad. En la configuración inicial se establecieron parámetros importantes para el entrenamiento, como el número de épocas, el tamaño del lote, la tasa de aprendizaje, la dimensionalidad del espacio latente y el tamaño de la imagen. Estos parámetros se definieron utilizando la librería argparse para permitir una fácil modificación. Se utilizó una función de inicialización de pesos para asegurar que los pesos de las capas convolucionales y de Batch Normalization sigan una distribución normal. Esto ayudó a estabilizar el entrenamiento de la GAN. El conjunto de datos se cargó utilizando la librería torchvision. Las imágenes se transformaron para tener un tamaño uniforme y se normalizaron. El DataLoader de PyTorch se configuró para cargar las imágenes en lotes y mezclarlas para el entrenamiento. El entrenamiento se realizó durante un número definido de épocas, en este caso 700. En cada época, se entrena tanto el generador como el discriminador. Transfer learning Se implementó también la transferencia de aprendizaje guardando los parámetros del modelo en diferentes etapas del entrenamiento e implementándolos más tarde. Estos parámetros se utilizaron para generar imágenes adicionales que amplían el conjunto de datos y mejoran el entrenamiento de la GAN.


CONCLUSIONES

La implementación y el entrenamiento de una GAN para la generación de imágenes médicas demuestran ser una herramienta poderosa para ampliar los conjuntos de datos y mejorar la precisión de los clasificadores de enfermedades. La combinación de técnicas de transferencia de aprendizaje y generación de imágenes sintéticas resulta especialmente útil en contextos donde los datos disponibles son limitados. En este estudio, las imágenes generadas fueron altamente prometedoras, sugiriendo que esta metodología puede ser un enfoque viable y eficaz para apoyar el diagnóstico y tratamiento de la tuberculosis. Este avance no solo facilita el entrenamiento de modelos de inteligencia artificial más robustos, sino que también tiene el potencial de acelerar la detección temprana y el tratamiento de enfermedades.
Daza Moscote Darling Duliana, Universidad de la Guajira
Asesor: Mtro. Lucio Martin Estrada Garcia, Tecnológico de Estudios Superiores de San Felipe del Progreso

ELABORACIóN DE PROYECTO DE UN PUENTE SUSTENTABLE


ELABORACIóN DE PROYECTO DE UN PUENTE SUSTENTABLE

Daza Moscote Darling Duliana, Universidad de la Guajira. Tirado Rodríguez Lauren Vanessa, Universidad de la Guajira. Asesor: Mtro. Lucio Martin Estrada Garcia, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual de la ingeniería civil y la sostenibilidad, existe una creciente necesidad de desarrollar infraestructuras que no solo sean funcionales y seguras, sino también ambientalmente responsables. Uno de los desafíos principales en este campo es el diseño y construcción de puentes que puedan integrar tecnologías y prácticas sustentables para reducir su impacto ambiental y mejorar su eficiencia energética. Históricamente, los puentes han sido estructuras fundamentales para la conectividad y el desarrollo urbano, pero su construcción tradicional ha estado asociada con altos niveles de consumo energético y emisiones de carbono. Además, la infraestructura de puentes existente enfrenta desafíos de mantenimiento y renovación que también requieren soluciones innovadoras y sostenibles. El planteamiento del problema radica en la necesidad de diseñar y construir puentes que cumplan con estándares de sostenibilidad rigurosos, utilizando materiales y tecnologías que minimicen el consumo de recursos naturales, reduzcan las emisiones de carbono durante la construcción y operación, y maximicen la eficiencia energética a lo largo de su vida útil. Además, estos puentes deben ser capaces de adaptarse a condiciones ambientales cambiantes y promover prácticas de ingeniería que contribuyan a la conservación de los recursos naturales y la protección del medio ambiente local. Para abordar este problema de manera efectiva, es fundamental realizar investigaciones avanzadas y desarrollar metodologías innovadoras que integren principios de sostenibilidad desde las etapas iniciales de diseño hasta la implementación y operación del puente. Esto implica explorar nuevas tecnologías de construcción, evaluar el ciclo de vida completo de los materiales utilizados y optimizar el rendimiento estructural con consideraciones ambientales en mente.  



METODOLOGÍA

La investigación del proyecto sobre puentes sustentables se inició con la definición del problema, la justificación del estudio y el establecimiento de objetivos claros. Realizaremos una revisión exhaustiva de la literatura para identificar conceptos claves, teorías y estudios previos relevantes, además recopilaremos información mediante análisis de documentos técnicos y normativos. Identificaremos temas y patrones emergentes. Interpretaremos y contextualizaremos los hallazgos en el marco de la sostenibilidad y la ingeniería civil. Finalmente, elaboraremos un informe detallado, prepararemos una presentación visual y presentaremos los resultados a los interesados, facilitando distintos puntos de vista para obtener retroalimentación. Esta metodología nos proporcionará una comprensión profunda de los puentes sustentables, integrando perspectivas técnicas y comunitarias.


CONCLUSIONES

En conclusión, esta pasantía de investigación representó una oportunidad invaluable que nos permitió desarrollar habilidades técnicas, analíticas y de comunicación en los campos de la ingeniería civil y la energía renovable. A través de un enfoque integral, adquirimos conocimientos prácticos y teóricos esenciales, capacitándonos en herramientas especializadas como HEC-RAS y técnicas de fotogrametría. Además, fortalecimos nuestras competencias en la planificación y ejecución de proyectos, formulación de marcos teóricos, análisis de datos y comunicación efectiva de resultados. Esta experiencia no solo enriqueció nuestro aprendizaje académico, sino que también contribuyó a la innovación y mejora de procesos en ingeniería civil y sostenibilidad energética, beneficiando a la comunidad y posicionándonos como candidatos destacados para futuras oportunidades profesionales y académicas. En resumen, esta pasantía nos preparó para un futuro prometedor en la vanguardia de nuestro campo de estudio.
Daza Peralta Caren Johana, Fundación Universitaria Cafam
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

OPTIMIZACIóN AL MODELO DE CALIDAD DEL PROCESO DE PANIFICACIóN PARA MEJORA DE LA EFICIENCIA DE PRODUCTIVIDAD


OPTIMIZACIóN AL MODELO DE CALIDAD DEL PROCESO DE PANIFICACIóN PARA MEJORA DE LA EFICIENCIA DE PRODUCTIVIDAD

Daza Peralta Caren Johana, Fundación Universitaria Cafam. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

En la industria de la panificación, hay factores claves que permiten medir la efectividad y productividad del proceso para así mantener y mejorar la competitividad y rentabilidad del negocio. El proceso de panificación involucra varias etapas, desde la preparación de los ingredientes hasta la cocción y/o empaquetado del producto. No obstante, las panificadoras comúnmente se enfrentan a diversos desafíos que pueden afectar su productividad, como por ejemplo los tiempos de producción prolongados, el desperdicio de materias primas, fallos en la maquinaria y procesos manuales que podrían afectar el resultado final. En la actualidad, la panificadora en estudio identifica un modelo de producción claro, pero no está controlado, por lo cual se ha evidenciado una disminución en su eficiencia productiva, reflejada en perdida de producto final, aumento en el desperdicio de insumos y exceso de costos operativos. Así mismo, la capacidad de satisfacer la demanda se ve comprometida y afectada. Esta situación no solo impacta la producción en sí, sino también se ve afectada la competitividad en el mercado, la rentabilidad del negocio y la satisfacción de necesidades del cliente final. Para abordar estos problemas, es necesario identificar y optimizar el modelo productivo actual del proceso de panificación. Esto implica analizar y mejorar cada etapa del proceso productivo, desde la gestión de insumos y recursos humanos, hasta analizar la viabilidad de implementar tecnologías avanzadas que permitan optimizar, mejorar y monitorear el proceso de producción. El objetivo es lograr a través del análisis del modelo productivo, reducir tiempos de producción, minimizar el desperdicio, mejorar la calidad del producto final y, en última instancia, aumentar la eficiencia de la productividad de la panadería.



METODOLOGÍA

Diseño de investigación: Este estudio utiliza un diseño de investigación mixta, para examinar la relación entre longitud, altitud, anchura, color, textura y sabor del pan con respecto a lo que se determina como el pan ideal, definiendo previamente las medidas y las condiciones ideales del pan hojaldrado. Este diseño es el mas adecuado ya que permite evaluar todos los aspectos cuantitativos y cualitativos relacionados con la producción del pan hojaldrado. Población y muestra Este estudio es realizado en una panificadora de la ciudad de Bogotá, se toma una muestra de 5 panes crudos por lata de forma aleatoria para completar 30 panes diarios durante 5 días, estos panes son marcados para lograr identificarlos del resto, se van a analizar en 2 tiempos: crudo y horneado. Instrumentos de recolección de datos: Los instrumentos de recolección de datos utilizados son: Observación directa no participante: Se realizan observaciones por 5 días de cada una de las etapas de producción del pan hojaldrado para medir el tiempo empleado en cada etapa. Observación participante: Se realizan observaciones directas con el pan una vez se haya horneado para medir su calidad en cuanto a tamaño, sabor, color y textura. Instrumentos de medición (vernier, cronometro): El vernier es utilizado para medir la longitud, altitud y anchura de las muestras tanto en crudo como horneado y el cronometro toma el tiempo utilizado en cada etapa de la producción de la muestra. Análisis de datos: Los datos cuantitativos serán analizados utilizando técnicas estadísticas descriptivas, utilizando la herramienta MINITAB y EXCEL para realizar análisis de los datos, graficas de control, histogramas, pruebas de normalidad, graficas Xbarra-R e informes de capacidad.


CONCLUSIONES

 En el análisis estadístico del proceso de producción del pan hojaldrado se determina, que la estación de trabajo 7: crecimiento, es un cuello de botella obligatorio que no se puede mejorar por lo tanto se tiene que tomar como una restricción obligatoria, de igual forma al realizar el análisis de calidad se comprobó que el proceso de pan hojaldrado no es estable y tampoco es capaz, es decir esta fuera de control estadístico., lo que representa rechazos del producto por parte del cliente. Por lo tanto, se acepta la hipótesis de que la optimización del proceso de productividad de la panadería en estudio entre los meses de junio y agosto puede mejorarse mediante la implementación de un sistema de calidad y control de producción Se recomienda un análisis más profundo en el proceso de producción, recabar más información referente a los tiempos ciclos, para calcular tiempos estándar, y obtener el rendimiento real del proceso del pan hojaldrado, a su vez, se tiene que mejorar la calidad del producto, por ende, es conveniente la implementación de herramientas de calidad (VSM, OEE, KANBAN, KAIZEN, POKA YOKE, Control Estadístico de procesos, diseños de experimentos y SEIS SIGMA).
de Dios Garcìa Victoria del Alba, Instituto Tecnológico Superior de Las Choapas
Asesor: Dr. Luis Enrique Colmenares Guillen, Benemérita Universidad Autónoma de Puebla

GLUCOMETRO NO INVASIVO


GLUCOMETRO NO INVASIVO

de Dios Garcìa Victoria del Alba, Instituto Tecnológico Superior de Las Choapas. Asesor: Dr. Luis Enrique Colmenares Guillen, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Un glucómetro no invasivo es un dispositivo que permite medir los niveles de glucosa en sangre sin necesidad de pincharse el dedo. Estos dispositivos utilizan diferentes tecnologías, como la espectroscopía infrarroja o la medición a través de la piel, para obtener lecturas de la glucosa en sangre. Los objetivos principales de este proyecto son: Eliminan la necesidad de pincharse el dedo Son más cómodos y fáciles de usar Pueden ser más precisos Pueden ser más discretos La creación de un glucómetro no invasivo integrado en un smartwatch representa un gran paso adelante en el manejo de la diabetes. Esta tecnología tiene el potencial de transformar la vida de millones de personas, ofreciendo una mayor comodidad, un mejor control de la enfermedad y una mejor calidad de vida.



METODOLOGÍA

La metodología que se eligió para la elaboración de una app móvil es: Scrum. Scrum es un marco de trabajo para la gestión de proyectos ágiles que ayuda a los equipos a trabajar de manera colaborativa y efectiva para alcanzar sus objetivos. Se basa en ciclos cortos de desarrollo denominados "sprints", durante los cuales se planifica, desarrolla, prueba y entrega un conjunto de funcionalidades del producto. Algunos beneficios son: Mayor flexibilidad y capacidad de adaptación Entrega más rápida de valor Mayor satisfacción del cliente Mejora en la productividad del equipo Mayor motivación del equipo   La herramienta que se eligió para la elaboración de una app móvil es: Android Studio. Android Studio es el entorno de desarrollo integrado (IDE) oficial para la plataforma Android, creado por Google y basado en IntelliJ IDEA de JetBrains. Está diseñado específicamente para el desarrollo de aplicaciones Android y ofrece una amplia gama de herramientas y funcionalidades que facilitan el proceso de creación, prueba y depuración de aplicaciones.   El porqué de usar Android Studio son: Completo y potente Basado en IntelliJ IDEA Soporte para diferentes lenguajes de programación Actualizaciones regulares Gran comunidad


CONCLUSIONES

La creación de un glucómetro no invasivo integrado en un smartwatch representa un paso importante hacia una mejor gestión de la diabetes. Sin embargo, es necesario continuar investigando y desarrollando esta tecnología para garantizar su accesibilidad, precisión y eficacia. Lo cual impactará los siguientes beneficios, tanto para los pacientes como al sector salud: Beneficios para los Pacientes Mayor comodidad Monitorización continua Mayor adherencia al tratamiento Detección temprana de complicaciones Empoderamiento del paciente   Beneficios para el Sistema de Salud Reducción de costos Mejora de la calidad de vida Mayor eficiencia
de Jesús Martínez Carlos Alberto, Instituto Politécnico Nacional
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

ESTACIóN NIMBUS, SISTEMA DE MONITOREO AMBIENTAL


ESTACIóN NIMBUS, SISTEMA DE MONITOREO AMBIENTAL

Cortes Facio Juan Diego, Instituto Tecnológico de Morelia. de Jesús Martínez Carlos Alberto, Instituto Politécnico Nacional. Feliciano Pioquinto Jorge Osvaldo, Instituto Tecnológico Superior de Ciudad Hidalgo. Piceno Reyes Guillermo Eduardo, Instituto Tecnológico de La Piedad. Pineda Ibarra Alexandra, Instituto Tecnológico Superior de Ciudad Hidalgo. Rosales Gómez Adrian, Instituto Politécnico Nacional. Vargas Castro Jonathan Antonio, Instituto Tecnológico de Morelia. Vidal Gómez Yessica Gisel, Instituto Politécnico Nacional. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la región de los Valles, Jalisco, la agricultura enfrenta desafíos significativos debido a la variabilidad climática y la falta de datos meteorológicos precisos y actualizados. Estos problemas afectan la planificación de cultivos y la gestión de recursos hídricos, esenciales para la producción agrícola sostenible. Según el Instituto Nacional de Estadística y Geografía (INEGI), la región de Jalisco ha experimentado fluctuaciones en temperatura y precipitaciones que impactan directamente en la productividad agrícola. La falta de estaciones meteorológicas eficientes en la región agrava esta situación, limitando la capacidad de los agricultores para tomar decisiones informadas y oportunas. La problemática principal está en el ingenio azucarero de la región, estos desafíos son particularmente pronunciados. La producción de caña de azúcar requiere condiciones climáticas específicas y una gestión adecuada del agua. La falta de datos precisos dificulta la planificación y optimización de las actividades agrícolas, resultando en pérdidas económicas y una menor eficiencia en la producción.



METODOLOGÍA

Para el desarrollo de la estación de monitoreo ambiental, se siguió un proceso sistemático que involucró diversas fases de diseño, implementación y pruebas. A continuación, se detallan los pasos específicos llevados a cabo: Fase de Diseños Selección de Sensores: Se eligieron sensores adecuados para medir temperatura, humedad, precipitación pluvial, altitud, presión atmosférica, velocidad y dirección del viento, índice UV, calidad de aire (partículas), luminosidad, CO2. Los sensores seleccionados fueron DHT11 para temperatura y humedad, BMP180 para presión atmosférica, y anemómetros y veletas para medir velocidad y dirección del viento. Diseño de la estructura: Utilizando SolidWorks, se diseñaron los soportes y la carcasa para los sensores y las placas electrónicas Raspberry Pi y la Arduino Nano. Se realizaron varias iteraciones del diseño para asegurar estabilidad y protección contra condiciones climáticas adversas. FORTALECIMIENTO DE LA Fase de Implementación Montaje de Hardware: Los componentes físicos fueron hechos utilizando una impresora 3D con filamento PLA. Los sensores fueron montados en sus respectivos soportes y conectados a la Raspberry Pi y Arduino Nano. Configuración de la Raspberry Pi: Se configuró la Raspberry Pi con Raspbian OS y se instalaron las bibliotecas necesarias para la lectura de los sensores (Adafruit_DHT, BMP180, y PySerial para el anemómetro y la veleta). Así mismo con la Nano. Desarrollo de la Interfaz: Se desarrolló una interfaz de usuario utilizando Flask, un microframework de Python, para permitir la visualización en tiempo real de los datos recopilados. La interfaz incluye gráficos y alertas para condiciones climáticas extremas. Fase de Pruebas. Pruebas en Campo: La estación de monitoreo ambiental fue instalada en el Centro Universitario de los Valles de la Universidad de Guadalajara, ya que está rodeado de zonas agrícolas. Se realizaron pruebas durante un periodo de tres semanas para recolectar datos y ajustar la calibración de los sensores. Validación de Datos: Los datos recolectados fueron comparados con los registros de estaciones meteorológicas oficiales para validar la precisión de las mediciones. Se encontraron discrepancias menores que fueron ajustadas mediante calibración adicional.


CONCLUSIONES

Durante el desarrollo de la estación de monitoreo ambiental, se logró adquirir conocimientos teóricos y prácticos en el diseño e implementación de sistemas de monitoreo medio ambientales utilizando tecnologías accesibles como la Raspberry Pi, Ardunio Nano y la impresión 3D. La integración de sensores y el desarrollo de una interfaz de usuario intuitiva permitieron la recolección y visualización de datos meteorológicos en tiempo real. Los resultados obtenidos durante el periodo de pruebas demostraron que la estación de monitoreo ambiental proporciona datos precisos y confiables, la cual contribuirá esencialmente para la planificación agrícola en región de los Valles, Jalisco. La comparación de los datos recolectados con los registros de estaciones meteorológicas oficiales validó la precisión de las mediciones, y los ajustes realizados mejoraron aún más su exactitud. En el contexto del ingenio azucarero, la estación de monitoreo ambiental permitiría ajustar las prácticas de riego y manejo de cultivos, mejorando la eficiencia y reduciendo pérdidas. Esto subraya la importancia de contar con datos climáticos precisos para optimizar la producción agrícola y enfrentar los desafíos específicos de la región. A pesar de los avances logrados, el proyecto aún se encuentra en fases de prototipado. Se espera continuar con la recolección de datos a largo plazo para analizar patrones climáticos y su impacto en la agricultura local. Futuras mejoras en la calibración de sensores y la expansión de la red de estaciones de monitoreo ambiental podrían proporcionar una cobertura más amplia y datos aún más precisos. Además, se prevé que el uso continuo de esta tecnología contribuirá a incrementar la sostenibilidad y productividad agrícola en la región. El conocimiento adquirido y las técnicas desarrolladas pueden ser aplicadas en otros contextos y regiones, proporcionando una herramienta valiosa para enfrentar los desafíos del cambio climático y la variabilidad meteorológica en la agricultura. Desarrollo del proyecto "ESTACIÓN NIMBUS” Video: https://drive.google.com/file/d/1awq5EhNIY7j6gRyHKIEVdf6mNa2rBiaP/view?usp=sharing  
de Jesús Salas María Lorena, Universidad Vizcaya de las Américas
Asesor: Esp. Karina Fiorella Gutiérrez Allccaco, Universidad Femenina del Sagrado Corazón

REVISIóN SISTEMáTICA DE CENTRO CULTURAL VIVENCIAL


REVISIóN SISTEMáTICA DE CENTRO CULTURAL VIVENCIAL

de Jesús Salas María Lorena, Universidad Vizcaya de las Américas. Asesor: Esp. Karina Fiorella Gutiérrez Allccaco, Universidad Femenina del Sagrado Corazón



PLANTEAMIENTO DEL PROBLEMA

A pesar de la riqueza cultural y paisajística de muchos países en desarrollo, como Perú, el turismo y la promoción cultural se concentran en sitios turísticos conocidos, dejando de lado lugares menos explorados y con un gran potencial, como Ferreñafe. La falta de compromiso de gobiernos y comunidades locales en la preservación y promoción del patrimonio cultural limita el desarrollo turístico y económico de estas regiones. Este estudio propone la creación de un Centro Turístico Vivencial-Cultural en Ferreñafe como solución para promover la cultura local, atraer turistas y fomentar el desarrollo sostenible de la región.



METODOLOGÍA

Esta investigación cualitativa busca comprender la percepción de turistas y pobladores sobre la necesidad de un nuevo centro turístico-cultural en Lambayeque. Se utilizará un enfoque interpretativo para analizar la realidad social y cultural de la región.  A través de encuestas, entrevistas y análisis de datos estadísticos, se recopilará información sobre las experiencias turísticas, las necesidades de la comunidad y la percepción del patrimonio cultural. La muestra se centrará en turistas de alto nivel socioeconómico que visitan la región. El objetivo principal es identificar las carencias en la oferta turística actual y justificar la implementación de un nuevo espacio que fomente la experiencia cultural y el turismo vivencial. Además, tendrá una revisión sistemática, revisando varios documentos de investigación de autores de trayectoria para poder ver cómo se planeta el diseño de un centro cultural vivencial.


CONCLUSIONES

En conclusión, aunque muchos países en desarrollo poseen ricos paisajes culturales y paisajísticos, los esfuerzos de promoción turística y cultural suelen descuidar las zonas con gran potencial. Esta falta de atención obstaculiza el desarrollo económico de estas regiones. Para abordar esta cuestión, se propone Ferreñafe (Perú) como estudio de caso. Aquí, una débil identidad cultural y una limitada infraestructura para el turismo experiencial plantean desafíos. La investigación presentada pretende comprender la necesidad de un nuevo centro turístico-cultural en Lambayeque a través de un enfoque cualitativo, centrándose en las percepciones de turistas y residentes. Mediante la identificación de lagunas en la oferta actual y la promoción de la inmersión cultural, este proyecto pretende fomentar el turismo sostenible y el desarrollo regional.
de la Cruz Ascencion Hector, Benemérita Universidad Autónoma de Puebla
Asesor: Mtra. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla

EVALUACIóN DE DAñOS POR SISMO EN EL PATRIMONIO CULTURAL Y TéCNICAS DE REHABILITACIóN ESTRUCTURAL


EVALUACIóN DE DAñOS POR SISMO EN EL PATRIMONIO CULTURAL Y TéCNICAS DE REHABILITACIóN ESTRUCTURAL

de la Cruz Ascencion Hector, Benemérita Universidad Autónoma de Puebla. Asesor: Mtra. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Este artículo presenta una evaluación exhaustiva de los daños causados por sismos en el Patrimonio Cultural de Puebla, México, con un enfoque particular en los eventos sísmicos de 1999, 2017 y 2018. Se analizan los métodos de evaluación de daños y las técnicas de rehabilitación estructural aplicadas a edificios históricos, principalmente templos y conventos. El estudio incluye casos específicos de estructuras dañadas, como el Convento de San Miguel Arcángel en Huejotzingo, el Templo de Santo Domingo en Puebla, y la Iglesia de Nuestra Señora de los Remedios en Cholula, detallando las patologías observadas y las intervenciones realizadas. Se discuten las técnicas de rehabilitación, desde métodos no destructivos hasta intervenciones más invasivas, considerando la importancia de preservar el valor histórico y cultural de estas estructuras. 



METODOLOGÍA

La evaluación de daños y la implementación de técnicas de rehabilitación en el patrimonio cultural requieren un enfoque multidisciplinario que combine métodos tradicionales con tecnologías modernas. La propuesta de metodología empleada en este estudio se divide en las siguientes fases: Inspección Visual: La inspección visual es el primer paso crucial en la evaluación de daños. Realizar visitas in situ a las estructuras afectadas, documentar detalladamente las patologías observadas mediante fotografías y esquemas. Prestar especial atención a: Grietas y fisuras en muros, bóvedas y cúpulas Desprendimientos de material Deformaciones estructurales Daños en elementos decorativos Pruebas No Destructivas: Emplear diversas técnicas no destructivas para evaluar el estado interno de las estructuras sin comprometer su integridad: Esclerómetro o martillo de rebote: Este método es posible utilizarlo para evaluar la dureza superficial del concreto endurecido, proporcionando una estimación indirecta de su resistencia a la compresión (adminCotecno, 2019). Ultrasonido: Es ideal para aplicarlo ya que detecta discontinuidades internas en la mampostería y evalúa la integridad de las estructuras de piedra y ladrillo. Termografía infrarroja: Esta técnica permite identificar áreas de humedad, pérdidas de calor y defectos en el aislamiento de las estructuras. Pruebas Ligeramente Destructivas En casos donde se requiere información más detallada sobre las propiedades de los materiales, se realizaron pruebas ligeramente destructivas: Extracción de núcleos: Extracción de muestras cilíndricas de concreto y mampostería para análisis de laboratorio, siguiendo las normas ASTM C42 / C42M y ASTM C857. Ensayos de resistencia a la penetración: Se utiliza el método de la pistola Windsor para evaluar la resistencia del concreto in situ, siguiendo la norma ASTM C803 / C803M. Análisis de Datos y Modelado Estructural Los datos recopilados se analizan utilizando software especializado (SAP 2000, ETABS 20, STAAD) para crear modelos estructurales que simularan el comportamiento de los edificios bajo diferentes condiciones sísmicas. Diseño de Estrategias de Rehabilitación Basándose en los resultados de las evaluaciones, se diseñan estrategias de rehabilitación específicas para cada estructura, considerando: La gravedad y extensión de los daños El valor histórico y cultural del edificio La necesidad de intervenciones reversibles La compatibilidad de los materiales nuevos con los originales


CONCLUSIONES

La evaluación de daños por sismo y la rehabilitación estructural del patrimonio cultural en Puebla revelan la complejidad de preservar estructuras históricas en zonas sísmicamente activas. Las técnicas de evaluación no destructivas, como la termografía y el ultrasonido, han demostrado ser herramientas valiosas para identificar daños ocultos sin comprometer la integridad de las estructuras. En cuanto a las técnicas de rehabilitación, se observa una tendencia hacia métodos menos invasivos y más compatibles con los materiales originales. La inyección de resinas epoxi y el refuerzo con mallas de fibra han mostrado resultados prometedores en términos de mejora estructural y preservación estética. Sin embargo, cada estructura requiere un enfoque personalizado. Los casos del Convento de San Miguel Arcángel en Huejotzingo, el Templo de Santo Domingo en Puebla, y la Iglesia de Nuestra Señora de los Remedios en Cholula ilustran cómo diferentes técnicas pueden ser aplicadas según las necesidades específicas de cada edificio. El impacto socioeconómico de la preservación del patrimonio ha demostrado ser significativo, contribuyendo al turismo, la revitalización urbana y el fortalecimiento de la identidad comunitaria. No obstante, los desafíos técnicos, financieros y legales persisten y requieren soluciones innovadoras. Es fundamental continuar investigando y desarrollando técnicas de rehabilitación que equilibren la mejora estructural con la preservación del valor histórico y cultural. Además, es necesario implementar programas de monitoreo a largo plazo para evaluar la efectividad de estas intervenciones y prevenir futuros daños. La preservación del patrimonio cultural no solo es una responsabilidad técnica, sino también un compromiso con la historia y la identidad de la comunidad. Las lecciones aprendidas en Puebla pueden servir como guía para la conservación de estructuras históricas en otras regiones sísmicas del mundo, promoviendo un enfoque holístico que integre la innovación tecnológica, la participación comunitaria y la sostenibilidad en la conservación del patrimonio cultural.
de la Cruz Rojas Antony, Universidad Autónoma del Estado de México
Asesor: Dra. Jazmin Perez Mendez, Universidad Tecnológica de Nayarit

ANáLISIS DE IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA EDUCACIóN SUPERIOR


ANáLISIS DE IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA EDUCACIóN SUPERIOR

de la Cruz Rojas Antony, Universidad Autónoma del Estado de México. Asesor: Dra. Jazmin Perez Mendez, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

El grupo de investigación de TEDES (Tecnología, Educación y Desarrollo de Software) en respuesta a la rápida evolución tecnológica y la creciente influencia de la inteligencia artificial (IA) en diversos sectores, que han ampliado el acceso a estas tecnologías capaces de buscar, analizar, interpretar y generar textos diversos con instrucciones específicas. Se desarrolló un proyecto de investigación para evaluar las oportunidades y amenazas que presenta la IA en la educación superior. Esta investigación surgió en un contexto de transformación digital global, donde las instituciones educativas buscan innovar y mejorar sus métodos de enseñanza y gestión administrativa mediante el uso de tecnologías avanzadas. La problemática que dio origen a esta investigación radica a múltiples desafíos a la integración de esta tecnología en el ámbito educativo. A medida que la IA gana terreno como herramienta transformadora, su implementación en las instituciones educativas plantea una serie de cuestiones complejas que deben ser abordadas de manera crítica y consciente. En la sociedad actual, el uso generalizado de tecnologías contrasta con la falta de conocimiento sobre la IA, lo que puede llevar a malentendidos y preocupaciones infundadas sobre su impacto en la educación y la ética. Es esencial que estudiantes y docentes comprendan cómo funciona la IA. Esto no solo implica entender sus bases técnicas, sino también explorar sus implicaciones éticas y sociales. El objetivo principal del proyecto fue evaluar las oportunidades y amenazas que la implementación de la inteligencia artificial presenta en la educación superior, identificando tanto los beneficios como la eficiencia de su integración. Esta investigación busca proporcionar una base sólida para la toma de decisiones estratégicas informadas sobre la integración de la IA en los programas educativos. También contribuirá a desarrollar estrategias que maximicen los beneficios de la IA al tiempo que protegen los derechos y el bienestar de los estudiantes y el personal educativo.



METODOLOGÍA

Para la elaboración de la presente investigación, se adoptó en dos fases la primera conlleva a una revisión sistemática enfocada en investigaciones cualitativa y cuantitativa de artículos publicados en diferentes bases de datos electrónicas, el cual explora una realidad subjetiva y dinámica que se desarrolla en una multiplicidad de contextos. Este enfoque de investigación facilitó la exploración de las diferentes perspectivas y significados subyacentes relacionados con la integración de la IA en la educación superior. Los criterios de inclusión fueron: Artículos o tesis publicados menor a una antigüedad de 5 años en español e inglés, que tuvieran en su título, resumen o palabras clave, las palabras: inteligencia artificial o educación superior o oportunidades o uso. Categorías. A partir de los artículos finales, se extrajeron seis categorías clave que reflejan los temas más relevantes y las preocupaciones más importantes sobre el uso de la IA en el ámbito educativo. Estas categorías son: "Inteligencia Artificial," "Innovación Educativa," "Educación Superior," "Ventajas," "Desventajas" y "Percepción de Estudiantes." Cada una de estas categorías se deriva de un análisis meticuloso del contenido de los artículos, asegurando que se cubran todos los aspectos críticos del estudio. Aplicación de instrumento. La segunda fase del estudio se centra en la aplicación de un instrumento de investigación dirigido a la Universidad Tecnológica de Nayarit, diseñado específicamente para este estudio, consistió en un cuestionario estructurado con preguntas cerradas, donde permitieron recolectar datos cuantitativos precisos. La aplicación del instrumento se realizó en dos modalidades: en línea y en persona. La modalidad en línea facilitó la participación de un mayor número de estudiantes, mientras que las encuestas en persona se llevaron a cabo en las aulas y espacios de la universidad para asegurar una mayor tasa de respuesta. Todos los datos recolectados fueron almacenados y manejados de manera segura, siguiendo estrictos protocolos de confidencialidad y ética. Se garantizó a los participantes que su información sería utilizada exclusivamente para fines de investigación y que sus respuestas serían anónimas.


CONCLUSIONES

El proyecto permitió una comprensión profunda de las oportunidades y amenazas que la inteligencia artificial presenta en la educación superior. Se aprendió que la IA tiene el potencial de personalizar el aprendizaje, automatizar tareas administrativas y proporcionar acceso a recursos educativos avanzados. Sin embargo, también puede aumentar las desigualdades educativas, introducir sesgos de información y plantear desafíos éticos sobre la privacidad y el control de los datos. La aceptación y adaptación de estas tecnologías varían entre estudiantes y docentes, lo que afecta su implementación efectiva. El objetivo del proyecto, que era evaluar las oportunidades y amenazas de la implementación de la IA en la educación superior, se logró de manera efectiva. La metodología adoptada, basada en una revisión sistemática y la aplicación de un instrumento a la comunidad universitaria, permitió obtener una visión integral de las percepciones y actitudes hacia la IA. El proyecto ha tenido un impacto significativo en la comunidad educativa de la Universidad Tecnológica de Nayarit al proporcionar una base sólida para la toma de decisiones estratégicas sobre la integración de la IA. Los resultados y hallazgos del estudio han contribuido a una mayor conciencia sobre los beneficios y riesgos asociados con la IA, promoviendo un uso más informado y crítico de estas tecnologías en la educación superior.
de la Torre Ledezma Luis David, Universidad de Guadalajara
Asesor: Mg. Anderson Gallego Montoya, Institución Universitaria Pascual Bravo

EVALUACIóN TEóRICA Y EXPERIMENTAL DE UN RENAULT LOGAN 1.6 L OPERANDO BAJO UN CICLO DE CONDUCCIóN WLTC


EVALUACIóN TEóRICA Y EXPERIMENTAL DE UN RENAULT LOGAN 1.6 L OPERANDO BAJO UN CICLO DE CONDUCCIóN WLTC

de la Torre Ledezma Luis David, Universidad de Guadalajara. Martín del Campo Cervantes Aldo, Universidad de Guadalajara. Asesor: Mg. Anderson Gallego Montoya, Institución Universitaria Pascual Bravo



PLANTEAMIENTO DEL PROBLEMA

Los vehículos actuales, en su gran mayoría, cuentan con motores de combustión interna de tecnologías diésel o gasolina, estos generan gran parte de las emisiones de efecto de invernadero las cuales varían según el modo de operación y las circunstancias de conducción a las cuales se somete el vehículo, así como factores geográficos y ambientales. En Colombia, según el Ministerio de Ambiente y Desarrollo Sostenible, los vehículos son responsables del 78% de las emisiones de gases de efecto invernadero y del 80% de las emisiones contaminantes atmosféricas del país. Por otro lado, el uso de los motores de combustión interna causa la mayor parte de la emisión de gases de efecto invernadero como los hidrocarburos no quemados (HC), el vapor de agua (H2Ov), el dióxido de carbono (CO2) y algunos óxidos de nitrógeno (NOx). Asimismo, estos motores emiten otras especies contaminantes como el monóxido de carbono (CO), los óxidos de azufre (SOx), entre otros, los cuales son los causantes de algunos problemas de salud pública, contaminación ambiental y acidificación de los ríos, mares y suelos. De esta manera, es importante conocer con precisión las tecnologías de los motores de combustión interna, determinar su alcance, aplicación y, sobre todo, estimar su rendimiento y emisiones. En consecuencia, con este trabajo se pretende responder como pregunta de investigación ¿Qué resultados se tendría sobre el rendimiento y las emisiones de un Renault Logan 1,6L si estas se comparan entre un trabajo experimental y numérico?



METODOLOGÍA

Metodología experimental Para la evaluación experimental del rendimiento del vehículo, así como la emisión de gases contaminantes, se emplean varios instrumentos de medición, los cuales son acoplados con un vehículo Renault Logan 1.6L. Entre los equipos más destacados para esto se encuentran los siguientes: Dinamómetro de rodillos MD 150 de Mustang Analizador de gases MD-Gas-5C Mediante el dinamómetro de rodillos se obtienen los datos de operación del vehículo con respecto al tiempo durante toda la prueba experimental, entre ellos destacan y serán analizados la velocidad del motor y de las ruedas, la potencia y el par desarrollado. Asimismo, dado que el analizador de gases está acoplado al software del dinamómetro (PowerDyne), se obtienen las especies gaseosas como el CO2, CO, HC y O2. Inicialmente, se consideran los parámetros obtenidos mediante el Coast Down. De esta manera, se obtiene el coeficiente de arrastre aerodinámico, el coeficiente de resistencia a la rodadura y la resistencia a la fricción. Al calibrar el dinamómetro con dichos parámetros, se ajusta su respuesta dinámica para que simule más fielmente las condiciones de conducción reales y de esta manera mejora la precisión de los resultados obtenidos. Los valores empleados para las pruebas fueron 0.34 (N/(Km/h)2) para el coeficiente de arrastre aerodinámico, 0.014 (N) para el coeficiente de resistencia a la rodadura y 0.02 (N/(Km/h)) para el coeficiente de fricción. Posteriormente, el analizador de gases es conectado al escape del automóvil mediante una sonda, considerando una calibración de ceros y verificación de fugas previa al inicio de las pruebas y al colocar la sonda del analizador en el escape. Por otra parte, para las pruebas experimentales, las llantas delanteras del vehículo (tracción 2WD) se descargan sobre los rodillos del dinamómetro, a su vez, el vehículo se asegura mediante eslingas para evitar accidentes. Después, el vehículo se debe encender y permanecer de esta manera durante aproximadamente 30 minutos. Luego, el Renault Logan es sometido a una serie de pruebas operando bajo el ciclo de conducción WLTC clase 3, el cual tiene una duración aproximada de 30 minutos y se divide en subciclos que tienen su nombre dada la velocidad alcanzada. Finalmente, se realiza un análisis de combustión inversa para llevar las emisiones entregadas por el analizador de gases en base seca y en porcentaje a índice de emisiones. Metodología teórica Con el objetivo de validar los datos obtenidos en las pruebas experimentales, se propuso un modelado en Matlab Simulink en donde primeramente fue necesario recabar algunos datos de la ficha técnica del vehículo, como la masa de 975 kg y el área frontal del vehículo de 2.65 m2. Estos datos generales sirven para alimentar el modelo. Posteriormente con los parámetros de Coast Down mencionados previamente y los datos técnicos del vehículo, se formulan en Matlab Simulink diferentes subsistemas, en donde cada uno contiene las ecuaciones de la dinámica longitudinal vehicular, como lo son la resistencia aerodinámica, la resistencia a la pendiente, la resistencia a la rodadura y la resistencia a la fricción, los cuales se usaron en la metodología experimental. Algunas de estas ecuaciones necesitan datos de velocidad, de tal manera que todas estas entradas son alimentadas con el ciclo de conducción WLTC clase 3. Las pérdidas calculadas en cada subsistema se agrupan mediante un bloque de suma en Simulink, y esta fuerza resultante se utiliza para calcular la potencia y el par desarrollado por el vehículo en cada etapa del ciclo de conducción WLTC clase 3. Los resultados se muestran a través del uso de gráficas y se comparan los resultados experimentales con los resultados teóricos.


CONCLUSIONES

Tras el análisis de los datos obtenidos, se concluye que la generación de hidrocarburos no quemados y monóxido de carbono tiende a incrementarse en cada proceso de aceleración súbita del vehículo, lo cual evidencia el desarrollo de una combustión incompleta en cada uno de esos puntos, de manera contraria, en cada proceso de combustión completa se tiende a generar una mayor cantidad de dióxido de carbono. Por otra parte, al comparar los resultados experimentales con los numéricos, se tiene una tendencia similar de las tendencias obtenidas, por lo tanto, este modelo será de gran utilidad para modelar la implementación de tecnologías vehiculares, combustibles alternativos y/o renovables y analizar numéricamente su comportamiento, y su impacto en la emisión de gases contaminantes y en el rendimiento del vehículo.
de los Santos Tovilla Paulina, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Mg. Diana Patricia Urrea Ramirez, Corporación Universitaria Remington

COMPARATIVA DEL COMPORTAMIENTO A COMPRESIóN Y A FLEXIóN ENTRE UN CONCRETO TRADICIONAL Y UN CONCRETO ELABORADO CON REEMPLAZO DE METACAOLíN Y ADICIóN DE FIBRAS DE PET


COMPARATIVA DEL COMPORTAMIENTO A COMPRESIóN Y A FLEXIóN ENTRE UN CONCRETO TRADICIONAL Y UN CONCRETO ELABORADO CON REEMPLAZO DE METACAOLíN Y ADICIóN DE FIBRAS DE PET

de los Santos Tovilla Paulina, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Vazquez Tovilla Valeria, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Mg. Diana Patricia Urrea Ramirez, Corporación Universitaria Remington



PLANTEAMIENTO DEL PROBLEMA

El crecimiento continuo de la población mundial incrementa no solo la demanda de  viviendas, sino también la necesidad de una infraestructura más extensa. A medida que la  población aumenta, se hace evidente la necesidad de construir más edificaciones y mejorar  los servicios públicos para satisfacer las necesidades de la sociedad.  Según las Naciones Unidas, se espera que la población mundial alcance los 9.700  millones para 2050 (United Nations, 2019). En América Latina, más del 70% de la  población ya reside en áreas urbanas. Este escenario, que estaba previsto para 2030, señala  una situación preocupante en la que el impacto ambiental está en aumento (UNPP, 2019). El sector de la construcción es uno de los más contaminantes a nivel global. Según  un informe del Programa de las Naciones Unidas para el Medio Ambiente (UNEP), este  sector representa aproximadamente el 38% de las emisiones de dióxido de carbono (CO2)  relacionadas con la energía a nivel mundial. Este alto porcentaje se debe tanto a las  emisiones operativas de los edificios como a las emisiones derivadas de la producción de  materiales de construcción como el cemento, el acero y el aluminio (United Nations  Environment Programme, 2020; International Energy Agency, 2019). Además, el informe "Global Status Report for Buildings and Construction 2019" de  la Agencia Internacional de Energía (IEA) señala que el sector de la construcción y los  edificios también es responsable del 36% del uso final de energía. Para mitigar su impacto  ambiental, es crucial adoptar estrategias que incluyan la reducción de la demanda  energética en los edificios, la descarbonización del sector energético y la implementación  de materiales de construcción más sostenibles (International Energy Agency, 2019). Por estas razones se deben implementar acciones que vayan en favor de la eficiencia  del concreto, el uso racional y adecuado de recursos naturales y materias primas, además, el  uso de materiales innovadores para la fabricación de este. Es por esto que la formulación del problema que origina esta investigación es ¿Como se vería afectado la resistencia del concreto hidráulico al agregarle a su dosificación  metacaolín y fibras de PET  



METODOLOGÍA

El crecimiento continuo de la población mundial incrementa no solo la demanda de  viviendas, sino también la necesidad de una infraestructura más extensa. A medida que la  población aumenta, se hace evidente la necesidad de construir más edificaciones y mejorar  los servicios públicos para satisfacer las necesidades de la sociedad.  Según las Naciones Unidas, se espera que la población mundial alcance los 9.700  millones para 2050 (United Nations, 2019). En América Latina, más del 70% de la  población ya reside en áreas urbanas. Este escenario, que estaba previsto para 2030, señala  una situación preocupante en la que el impacto ambiental está en aumento (UNPP, 2019). El sector de la construcción es uno de los más contaminantes a nivel global. Según  un informe del Programa de las Naciones Unidas para el Medio Ambiente (UNEP), este  sector representa aproximadamente el 38% de las emisiones de dióxido de carbono (CO2)  relacionadas con la energía a nivel mundial. Este alto porcentaje se debe tanto a las  emisiones operativas de los edificios como a las emisiones derivadas de la producción de  materiales de construcción como el cemento, el acero y el aluminio (United Nations  Environment Programme, 2020; International Energy Agency, 2019). Además, el informe "Global Status Report for Buildings and Construction 2019" de  la Agencia Internacional de Energía (IEA) señala que el sector de la construcción y los  edificios también es responsable del 36% del uso final de energía. Para mitigar su impacto  ambiental, es crucial adoptar estrategias que incluyan la reducción de la demanda  energética en los edificios, la descarbonización del sector energético y la implementación  de materiales de construcción más sostenibles (International Energy Agency, 2019). Por estas razones se deben implementar acciones que vayan en favor de la eficiencia  del concreto, el uso racional y adecuado de recursos naturales y materias primas, además, el  uso de materiales innovadores para la fabricación de este. Es por esto que la formulación del problema que origina esta investigación es ¿Como se vería afectado la resistencia del concreto hidráulico al agregarle a su dosificación  metacaolín y fibras de PET  


CONCLUSIONES

La presente investigación propone el uso de materiales no convencionales como el  metacaolín y las fibras de PET como elementos de refuerzo del concreto con el fin de poder  mejorar su resistencia a la compresión y flexión. Para poder lograrlo, se hizo un análisis  comparativo de las propiedades antes mencionadas con un concreto tradicional y un  concreto con un reemplazo en peso de cemento de 10% de metacaolín y 1% de fibras de  PET en volumen de la mezcla de concreto. Las conclusiones obtenidas son las siguientes: 1. El ensayo a compresión se basó en la norma ASTM. Los resultados obtenidos indican que el concreto con reemplazo de metacaolín y reforzado con fibras de  PET tiene una mayor resistencia que las muestras del grupo de control.  2. El ensayo a tensión se basó en la norma ASTM. Los resultados obtenidos  indican que el concreto con reemplazo de metacaolín y reforzado con fibras de  PET tiene una mayor resistencia que las muestras del grupo de control. 3. Las fibras de PET añadieron la capacidad de soportar cargas post-agrietamiento  en ambos ensayos. Sin embargo, añadir fibras de PET, de 10 cm de longitud,  disminuyó la trabajabilidad del concreto. Por lo que, se recomienda que en  futuras investigaciones se pueda hacer un cambio en la longitud de las fibras de  PET Esta investigación hace énfasis en el mejoramiento a la resistencia a compresión y  flexión del concreto con el uso de metacaolín y fibras de PET  
del Angel Mercado Jorge Rafael, Universidad de Guadalajara
Asesor: Dr. Jorge de Jesús Galvez Rodríguez, Universidad de Guadalajara

INTELIGENCIA ARTIFICIAL GENERATIVA PARA IMáGENES DE PRUEBAS DE TUBERCULOSIS


INTELIGENCIA ARTIFICIAL GENERATIVA PARA IMáGENES DE PRUEBAS DE TUBERCULOSIS

del Angel Mercado Jorge Rafael, Universidad de Guadalajara. Asesor: Dr. Jorge de Jesús Galvez Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La tuberculosis, causada por la bacteria Mycobacterium tuberculosis, fue la segunda enfermedad infecciosa con más muertes a nivel mundial en 2022, después del COVID-19, con 1.3 millones de muertes de 10.6 millones de casos. La enfermedad es altamente contagiosa, transmitiéndose a través del aire al toser, hablar o estornudar. La mayoría de los infectados tienen tuberculosis latente, sin síntomas ni capacidad de transmisión, pero pueden desarrollar tuberculosis activa en el futuro, cuando la enfermedad se vuelve sintomática y contagiosa. Es crucial diagnosticar y tratar la tuberculosis a tiempo. Se utilizan pruebas de sangre para su detección y se está desarrollando un sistema inteligente para clasificar automáticamente pruebas positivas y negativas. Este sistema se entrenará con imágenes de pruebas clasificadas, pero se requiere ampliar la base de datos de imágenes para mejorar la efectividad del modelo clasificatorio. Para esto, se empleará inteligencia artificial generativa para crear imágenes adicionales de pruebas de sangre para la detección de tuberculosis.



METODOLOGÍA

El modelo generativo de imágenes se desarrolló utilizando redes generativas adversariales (GANs). Una vez definida la técnica a utilizar, se dictaminó el uso de PyTorch para la elaboración del modelo, además de establecer las siguientes etapas para su desarrollo: Definición del Tipo de GAN Se seleccionó el tipo adecuado de GAN para generar imágenes sintéticas de pruebas de sangre y ampliar la base de datos existente. Revisión de Variantes de GANs: GAN Clásica: Arquitectura básica. DCGAN: Mejora la estabilidad y calidad de las imágenes con redes convolucionales profundas. WGAN: Usa la distancia de Wasserstein para mejorar la estabilidad del entrenamiento. cGAN: Genera datos condicionados a etiquetas específicas. ACGAN: Incluye un clasificador auxiliar para mejorar la generación. BEGAN: Equilibra las pérdidas del generador y el discriminador, ofreciendo estabilidad y mejor calidad visual. Evaluación de Requisitos del Proyecto: Tipo de Datos: Imágenes de pruebas de sangre. Calidad y Diversidad: Necesidad de imágenes de alta calidad y diversa. Estabilidad del Entrenamiento: Evitar problemas como el colapso del modelo. Capacidad Computacional: Recursos disponibles para el entrenamiento. Selección y Justificación: Se eligió BEGAN por su capacidad para generar imágenes de alta calidad, mantener el equilibrio entre las pérdidas del generador y el discriminador, y evitar problemas comunes del entrenamiento como el colapso del modelo. Esta elección se alinea con el objetivo de mejorar el sistema de clasificación de pruebas de tuberculosis.   Diseño e Implementación de la GAN Arquitectura del Generador: Entrada y Capas Iniciales: Un vector de ruido aleatorio (latent_dim) se transforma a un tamaño adecuado para la red convolucional mediante una capa lineal. Bloques Convolucionales y Upsampling: El tamaño de la imagen se incrementa mediante capas convolucionales con filtros de 256, 128, 128, 64, y 32 canales, seguidas de upsampling. Arquitectura del Discriminador: Capas de Downsampling: La imagen se procesa a través de capas convolucionales con filtros de 32, 64, 128, y 256 canales, reduciendo las dimensiones espaciales. Capas de Fully Connected: La salida se aplana y se pasa por capas lineales de tamaño decreciente (512, 256, 128), cada una seguida de BatchNorm y activaciones LeakyReLU. Capas de Upsampling: Se reconstruye la imagen original mediante capas convolucionales transpuestas, con filtros decrecientes de 128, 64, 32 canales.   ​Transferencia de Aprendizaje con Modelos Preentrenados Elección de Modelos: Fueron seleccionados modelos preentrenados relevantes para la tarea. Estos modelos han aprendido representaciones útiles que pueden ser adaptadas para el aprendizaje de detalles o características no aprendidos por los modelos previos. Congelación de Capas: En algunas pruebas hechas, se fue decidido congelar las capas iniciales del modelo preentrenado para conservar las características aprendidas, permitiendo que solo las capas superiores sean entrenadas. Esto reduce el tiempo de entrenamiento y mejora la eficiencia del modelo. Entrenamiento y Fine-Tuning: Ajustar hiperparámetros como la tasa de aprendizaje. El objetivo es ajustar las capas superiores del modelo para que se adapten a las características específicas de las imágenes de pruebas de tuberculosis, mientras se conservan las características generales aprendidas. Evaluación y Ajuste Evaluación del Modelo: Fue evaluado el desempeño del modelo adaptado en un conjunto de validación para asegurar que se ajusta bien a los datos específicos. Se utilizaron métricas de rendimiento para determinar la eficacia del modelo en la tarea de generación. Ajuste Adicional: Basado en los resultados de la evaluación, fueron realizados ajustes adicionales al modelo, como afinar hiperparámetros o ajustes en la arquitectura, para mejorar el rendimiento.


CONCLUSIONES

La arquitectura del modelo BEGAN seleccionada podría decirse que exige recursos computacionales considerablemente altos, sin embargo, la generación de imágenes es de buena calidad y acorde a los requisitos de las imágenes positivas y negativas. Lo que se espera es lograr un ajuste más adecuado en la arquitectura para llegar a un equilibrio entre rendimiento computacional y calidad en las imágenes generadas sintéticamente.
del Rio Galindo Frida Julieta, Benemérita Universidad Autónoma de Puebla
Asesor: Mg. Yaffa Nahir Ivette Gómez Barrera, Universidad Católica de Pereira

INVENTARIO DEL PATRIMONIO DE LOS BIENES MUEBLES E INMUEBLES DE LA DIÓCESIS DE PEREIRA Y ARMENIA


INVENTARIO DEL PATRIMONIO DE LOS BIENES MUEBLES E INMUEBLES DE LA DIÓCESIS DE PEREIRA Y ARMENIA

del Rio Galindo Frida Julieta, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Yaffa Nahir Ivette Gómez Barrera, Universidad Católica de Pereira



PLANTEAMIENTO DEL PROBLEMA

La iglesia católica y su infraestructura ha manifestado tener una gran importancia dentro de la sociedad desde el accionar evangelizador que realizan las Diócesis. La Diócesis de Pereira, cuenta con una circunscripción de 113 parroquias en 14 municipios del departamento de Risaralda y 7 del Departamento de Caldas, la presencia de sus templos en las cabeceras municipales y en determinados lugares geográficos tanto rurales como urbanos constituye un patrimonio cultural. De manera que la investigación se concentra en la valoración de dicho patrimonio tanto en lo inmueble y como en lo mueble presente en los templos de la Diócesis de Pereira. Para ello se hace necesario la identificación de los objetos que tienen un valor estético, histórico y cultural. Se identifico también el papel tan importante que tiene la arquitectura en cada uno de los templos. Dentro de este marco de la investigación, la participación de la pasantía de investigación se concentra en los procesos de apropiación social de conocimiento y de comunicación de los hallazgos hacia la sociedad, para lo cual se establece una exposición en la cual se darán a conocer la información a través de fichas gráficas que sintetizan la investigación.



METODOLOGÍA

Se parte de la información recabada con anterioridad por los asesores para poder tener una priorización con los templos considerados de primer nivel de patrimonio, llegando a 21 templos. De manera que se reconocen los bienes muebles de cada uno de ellos para la ficha a realizar. Se establece la diagramación que van a tener las fichas gráficas teniendo en cuenta la información de mapas, fotografías de la fachada y detalle del templo, planimetría de la edificación, objetos seleccionados y cortes arquitectónicos para la ubicación de los objetos. Para lo cual fue necesario realizar varias propuestas de ficha gráfica hasta llegar a definir tanto el contenido como la organización de la información. La información gráfica se acompaña de las descripciones que se sustraen de las fichas de inventarios previamente elaboradas por el equipo investigador. Se consideró óptimamente un 3D, para permitir observar el área en donde se encuentra ubicados cada uno de los objetos seleccionados por su valor cultural, tiempo de antigüedad o valor incluso estético dentro del templo. Se seleccionaron entre tres a cuatro objetos para el uso de la ficha, agregándoles una descripción, que fue analizada para relatar principalmente su valor cultural. Después de todo el filtrado anterior se redujo la información consideradamente para realizar múltiples opciones de boceto, realizando varios cambios estéticos, y significativos para la correcta administración de la información que permitiría el uso adecuado y la interpretación concisa y certera de los expositores. Así también se elaboraron varios mapas que permiten visualizar la circunscripción territorial de la Diócesis, separados por sus distintos nombres, posibilitando tener una idea más clara de la jurisdicción de cada uno, se analizó detalladamente con la ayuda de arquitectos para llevarlo a la versión más practica y gráfica que permitiera ser apto para su claro entendimiento.


CONCLUSIONES

Durante la estancia del verano se logró adquirir conocimientos teóricos de la arquitectura y del patrimonio cultural que constituye a los templos de Risaralda.  También se adquirió un lenguaje técnico dentro del área de la liturgia, así como en el área arquitectónica y objetual, al ser una investigación extensa que abarca zonas con mucha evidencia religiosa. Se logró reconocer los objetos importantes dentro de los templos y el porqué de su significación o valoración.  Se aportó de manera significativa a establecer la ficha gráfica que sintetiza los principales aspectos del patrimonio mueble e inmueble de cada templo y se elaboraron los mapas de la Diócesis de Pereira, de sus ocho arciprestazgos y los 21 mapas de la ubicación los templos seleccionados de primer nivel de la Diócesis. Se deja como base para continuar avanzando en desarrollo de la labor de síntesis de la información 4 fichas gráfica correspondientes a cuatro templos en diferentes arciprestazgos.
Delgadillo González Andrea, Universidad de Guadalajara
Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional

RECONOCIMIENTO DE SEñALES DE FLUORESCENCIA INDUCIDA EN MUESTRAS HEPáTICAS


RECONOCIMIENTO DE SEñALES DE FLUORESCENCIA INDUCIDA EN MUESTRAS HEPáTICAS

Delgadillo González Andrea, Universidad de Guadalajara. Leon Cruz Mayra Lizett, Universidad de Guadalajara. Martin de la Rosa Carlos Humberto, Universidad de Guadalajara. Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El hígado es crucial para la vida, pero las enfermedades hepáticas están aumentando alarmantemente. La fibrosis hepática, una condición prevalente, implica la acumulación de tejido cicatricial en el hígado, frecuentemente debido al consumo excesivo de alcohol y hepatitis previa. Sin tratamiento, la fibrosis puede evolucionar a cirrosis. En 2021, la cirrosis fue la sexta causa de mortalidad y la octava de años de vida saludable perdidos. Actualmente, la biopsia hepática es el estándar de oro para la detección y estudio de la fibrosis hepática, pero es un método invasivo y costoso.



METODOLOGÍA

Se utilizaron muestras de biopsias hepáticas humanas proporcionadas por el Hospital General de México. Estas fueron clasificadas según la escala Ishak-Knodell en cuatro grupos: sano (F0), fibrosis inicial (F1-F2), fibrosis avanzada (F3) y cirrosis (F4). Se empleó un sistema portátil para adquirir espectros de fluorescencia del tejido hepático usando un LED UVB y una fibra óptica bifurcada. Un espectrómetro de alta sensibilidad capturó los espectros, y un programa en LabVIEW controló el proceso. Para mejorar el diagnóstico de enfermedades hepáticas, se propuso un clasificador móvil. Los datos de las biopsias, normalizados para uniformidad, fueron utilizados para diseñar e implementar tres redes neuronales con TensorFlow: una red densa y dos convolucionales (una para imágenes y otra para señales). Red densa Esta red clasifica los grupos utilizando datos estadísticos (promedio, desviación estándar y varianza) de los espectros. Se entrenó con el 80% de los datos y se validó con el 20%. Con tres capas densas de 64 neuronas cada una y una capa final de 4 neuronas, se logró una precisión del 0.95, indicando un posible sobreentrenamiento. Red Convolucional (Imágenes) Utilizó espectrogramas de 468 x 812 píxeles, obtenidos de señales normalizadas. Las imágenes se convirtieron a blanco y negro para mejorar la respuesta de la red. El modelo, con 11 capas (MaxPooling2D, Conv2D, Flatten, Densa) y un kernel de 3x3, alcanzó una precisión del 0.8 tras 200 épocas de entrenamiento. Red Convolucional (Señales) Esta red clasifica señales generadas, normalizadas para uniformidad. Leyó 1024 datos por archivo y utilizó una matriz de confusión para evaluar el aprendizaje. Las etiquetas asignadas fueron "Sano" (F0), "Fibrosis inicial" (F1-F2), "Fibrosis avanzada" (F3) y "Cirrosis" (F4). La precisión obtenida varió entre 0.4 y 0.6.


CONCLUSIONES

El proyecto comenzó con el aprendizaje sobre los archivos espectrales de fluorescencia de muestras hepáticas. Se adquirieron conocimientos teóricos y prácticos sobre redes neuronales, utilizando código para procesar y normalizar archivos .txt. Las redes densas se usaron para interpretar señales, mientras que las convolucionales adaptaron las señales a imágenes. Se concluyó que las redes convolucionales aplicadas a imágenes en blanco y negro proporcionaron mejores resultados, alcanzando una precisión del 0.8. Aunque el trabajo sigue en desarrollo, se espera optimizar las redes implementadas para garantizar una clasificación precisa y certera de enfermedades hepáticas.
Delgado López José Rafael, Universidad Tecnológica de La Selva
Asesor: Dra. Sheila Jazmín Reyes Zambrano, Instituto Tecnológico de Tuxtla Gutiérrez

EFECTO DEL CEBADO CON NANOPARTíCULAS DE ZNO EN PLáNTULAS DE CACAHUATE (ARACHIS HYPOGAEA)


EFECTO DEL CEBADO CON NANOPARTíCULAS DE ZNO EN PLáNTULAS DE CACAHUATE (ARACHIS HYPOGAEA)

Delgado López José Rafael, Universidad Tecnológica de La Selva. Ramírez García Dulce María, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dra. Sheila Jazmín Reyes Zambrano, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

Las nanopartículas al incorporarse a las plantas provocan cambios morfológicos y fisiológicos en función de sus propiedades, lo que permite mayor tolerancia ante diferentes condiciones de estrés ambiental. El tamaño de las nanopartículas les permite cruzar barreras biológicas, transportándose por el sistema vascular de la planta después de la aplicación foliar, en la raíz o semillas. Sin embargo, se considera que el cebado es un método fácil que puede aportar beneficios durante las primeras etapas de crecimiento debido a que estimula los procesos involucrados en el metabolismo, previene el deterioro de las semillas e induce una resistencia sistemática contra el estrés biótico y abiótico, además de los cambios bioquímicos y fisiológicos que ocurren al realizar un tratamiento de cebado antes de la germinación y la emergencia de la radícula. Algunos autores mencionan que las nanopartículas pueden ser usadas en el manejo de semillas e indican una variedad de aplicaciones, particularmente mediante cebado, mejorando la germinación de la semilla para optimizar la capacidad de absorción, degradación de reservas y división celular. Los efectos beneficiosos de las nanopartículas podrían atribuirse a una mayor producción de enzimas responsables de las reacciones metabólicas. El cacahuate es una semilla oleaginosa cuyo cultivo es prioritario a nivel mundial por sus múltiples usos en la industria alimenticia. Además de que este cultivo es muy adaptable y poco exigente. Uno de los problemas más comunes en los cultivos de cacahuate es la falta de zinc, lo que puede generar una serie de complicaciones que afectan negativamente el crecimiento, desarrollo y productividad de las plantas. Además, la deficiencia de zinc puede afectar la absorción de otros nutrientes esenciales para las plantas, lo que puede exacerbar aún más los problemas. Se ha reportado que las nanopartículas de óxido de zinc en semillas de cacahuate promueven la germinación, así como la elongación de raíz y tallo. En este contexto, el objetivo del estudio fue evaluar el efecto del cebado de nanopartículas en plántulas de cacahuate respecto a la actividad enzimática y no enzimática. 



METODOLOGÍA

Se utilizaron semillas de cacahuate las cuales fueron tratadas con distintas concentraciones de nanopartículas de óxido de zinc para su posterior siembra en el invernadero del Tecnológico Nacional de México, campus Tuxtla Gutiérrez. Posterior a un periodo de 15 días dichas plántulas fueron sacrificadas para análisis posteriores, como la evaluación de la actividad de catalasa (CAT) mediante la metodología descrita por Góth y Suárez et al., utilizando molibdato de amonio con peróxido de hidrógeno, para la mezcla de reacción se tomó una alícuota de 100 μL del extracto enzimático y 500 μL de la solución de reacción que contenía una concentración de peróxido de hidrógeno al 65 mM en tampón de fosfato de sodio al 60 mM a un pH de 7,4. La mezcla de reacción se incubó a 37 °C durante 4 min, posteriormente se añadieron 500 μL de molibdato de amonio a 32.4 mM para detener la reacción, la cual se midió a una absorbancia de 405 nm.  De igual forma, se realizó la actividad de peroxidasa (POD) mediante el método de Hammerschmidt et al., en dónde la mezcla de reacción de 3 mL contenía 0.25% (v/v) de guaiacol en tampón de fosfato de sodio 10 mM (pH 6,0 que contenía peróxido de hidrógeno 10 mM). Se añadió un volumen de 100 μL de extracto enzimático para comenzar la reacción, la cual se midió a una absorbancia de 470 nm. Se utilizó la metodología de Bradford para la determinación de proteínas en dónde se añadieron 5 mL del reactivo de Bradford a 100 µL de la muestra vegetal en un tampón de fosfato de sodio 100 mM (pH 7,0), dichas muestras se incubaron durante 5 minutos y posteriormente se leyeron a una absorbancia de 595 nm. Para la actividad de Fenilalanina amonio liasa (PAL) se empleó el método de Beaudoin-Eagan y Thorpe, en dónde se emplearon 350 mg de muestras vegetales, las cuales fueron extraídas en 4 mL de tampón de Tris 50 mM, pH 8,5 y se centrifugaron a 6000 rpm durante 10 minutos a 4 °C. El volumen final de la mezcla de la reacción fue de 3 mL, el cuál consistió en 1.9 mL de tampón de Tris-HCL 50 mM (pH 8,0), 100 μL de extracto enzimático y 1 mL de L-fenilalanina 15 mM, después de incubar durante 60 minutos la reacción se detuvo adicionando 200 μL de HCl 6 N. La reacción se midió a una absorbancia de 290 nm. Posteriormente se hizo la cuantificación de fenoles totales mediante el método de Folin-Ciocalteu descrito por Singleton et al. A 20 μL de extracto metanólico se le añadieron 1.5 mL de agua destilada y 100 μL de reactivo de Folin-Ciocalteu, después de 5 minutos se agregaron 300 μL de solución de carbonato de sodio al 20%, se dejó en reposo en un lapso de 2 horas a temperatura ambiente y se determinó la absorbancia a 765 nm. Finalmente se realizó la cuantificación de flavonoides mediante el método colorimétrico de tricloruro de aluminio (Chang et al., 2002). A 250 μL de extracto metanólico se le añadieron 750 μL de etanol al 95%, 50 μL de AlCl3 al 10% en etanol, 50 μL de aceteto de potasio 1 M y 1.4 mL de agua destilada. La mezcla se incubó a temperatura ambiente durante 30 minutos y se determinó la absorbancia a 415 nm. Los resultados se compararon con una curva estándar de quercetina (0-0.1 mg mL 1).


CONCLUSIONES

Como resultado se observo que los tratamientos con Nps-ZnO presentaron un aumento en la longitud de brote con respecto al control, así también se obtuvo un aumento en el contenido de fenoles y flavonoides y en la actividad de la enzima peroxidasa, mientras que  en la actividad de  catalasa no hubo diferencia.  Estos resultados indican que el cebado con Nps-ZnO en cacahuate podría ser una alternativa prometedora para mejorar la germinación, el crecimiento y la tolerancia al estrés de las plantas de cacahuate, lo que puede llevar a un aumento en el rendimiento y la calidad del fruto.
Delgado Pérez Kathya Daniela, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla

SíNTESIS Y CARACTERIZACIóN DE CAPACITORES MOS Y MIM BASADOS EN PELíCULAS DE óXIDO DE CIRCONIO OBTENIDAS A 150˚C.


SíNTESIS Y CARACTERIZACIóN DE CAPACITORES MOS Y MIM BASADOS EN PELíCULAS DE óXIDO DE CIRCONIO OBTENIDAS A 150˚C.

Delgado Pérez Kathya Daniela, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los capacitores son componentes electrónicos esenciales en una amplia gama de circuitos, desde dispositivos electrónicos simples hasta sistemas complejos. Sin embargo, los capacitores tradicionales a menudo sufren limitaciones en cuanto a su rendimiento, confiabilidad y tamaño. Una de las principales limitaciones es la degradación dieléctrica, que puede ocurrir cuando se aplica un voltaje excesivo al capacitor, lo que da como resultado la ruptura del material dieléctrico y la falla del componente. La deposición de una película delgada de óxido de circonio sobre la superficie del dieléctrico de un capacitor puede ofrecer una solución eficaz a este problema. El óxido de circonio es un material cerámico con propiedades dieléctricas excepcionales, incluyendo alta constante dieléctrica, alta resistividad eléctrica y excelente resistencia a la degradación dieléctrica.



METODOLOGÍA

Preparar una solución precursora a una concentración .3 M de cloruro de circonilo hidratado (ZrOCl2·xH2O) y metanol, agitar durante 15 minutos, agregar NaOH para ajustar el pH hasta alcanzar uno de entre 9-10, agitar durante 10 minutos más, llevar a baño ultrasónico durante una hora y media. Para la fabricación de los capacitores MOS se utilizaron obleas de silicio tipo n y para los cpacitores MIM se utilizaron placas recubiertas de ITO. Los procesos de limpieza se realizaron con acetona (10 minutos) y 2-propanol (10 minutos) bajo vibración ultrasónica, se eliminó la capa de óxido nativo con solución de ácido fluorhídrico y finalmente se enjuagaron con agua tridestilada. La solución precursora se aplicó a los sustratos mediante spin-coating a 3000 rpm durante 30 segundos. Posteriormente se realizó el curado de la película con un tratamiento térmico a una temperatura de 150 ◦C durante 1 hora. Los cuales fueron llevadas a caracterizar a infrarrojo por transformada de Fourier (FT-IR) y caracterizacion electrica donde se obtuieron curvas C-V.  


CONCLUSIONES

Se fabricaron y caracterizaron dispositivos MOS y MIM con oxido de circonio a bajas temperaturas.  La obtención de películas delgadas de óxido de circonio se realizó mediante spin-coating con tratamiento térmico a 150◦C. Al recubrir MOS y MIM con óxido de circonio a bajas temperaturas, se espera obtener una mejora en la estabilidad, en donde el óxido de circonio podría actuar como una barrera adicional en los capacitores, la alta permisividad del óxido de circonio podría reducir el espesor de la capa aislante sin comprometer su capacidad de aislamiento, lo que a su vez disminuiría las corrientes de fuga. El análisis de las curvas C-V permitirá determinar si el óxido de circonio ha modificado la interfaz entre el electrodo y el semiconductor/aislante, y en qué medida.  Se espera que las corrientes de fuga sean menores en comparación con dispositivos sin el recubrimiento de óxido de circonio, lo que indicaría una mejor aislación, esto es un campo prometedor debido al uso de bajas temperaturas en comparación con los capacitores convencionales.
Delgado Reséndiz Arantxa, Instituto Tecnológico de Zitácuaro
Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América

FACTORES ASOCIADOS AL BAJO PORCENTAJE DE RECICLAJE TEXTIL EN MEXICO


FACTORES ASOCIADOS AL BAJO PORCENTAJE DE RECICLAJE TEXTIL EN MEXICO

Arriaga Sarabia Gisela, Tecnológico de Estudios Superiores de Valle de Bravo. Avila Argueta Naomi Michelle, Instituto Tecnológico de Zitácuaro. Cástulo Hernández Monserrat, Instituto Tecnológico de Zitácuaro. Delgado Reséndiz Arantxa, Instituto Tecnológico de Zitácuaro. Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Un estudio de Greenpeace señala que en México se generan alrededor de 1.1 millones de toneladas de residuos textiles al año, en la dimensión ambiental, sin embargo, hay que destacar, según la Secretaría de Medio Ambiente y Recursos Naturales, que tan solo en la Ciudad de México se desechan 3 mil 700 millones de toneladas de residuos textiles al año y tan sólo se recicla el uno por ciento. Aunque en los tianguis mexicanos sí se comercializa con ropa de reúso, parte del problema del tianguis es que lo que no se reutiliza termina en la basura (Martínez Equihua, 2023 Greentology) contribuyendo a la contaminación del suelo y del agua. Como consecuencia, se observa una baja participación en prácticas de reciclaje textil debido a los paradigmas del "Fast fashion", impuesto por las tendencias de los consumidores, lo que contribuye a impactos negativos en el medio ambiente, como la liberación de sustancias químicas tóxicas durante la descomposición de los textiles y un aumento en las emisiones de gases de efecto invernadero debido a la producción continua de nuevos materiales. También se generan problemas económicos, ya que los materiales textiles reciclables, que podrían ser reintegrados en la economía circular, se desperdician.  



METODOLOGÍA

Se utilizaron herramientas como la encuesta para analizar los resultados refelados en esta misma.  La encuesta se aplico a habitantes de los diversos Estados de la Republica Mexicana, con el fin de conocer su perspectiva con el tema de reciclaje textil.  Tipo de encuesta: Cuantitativa, con preguntas abiertas y cerradas. Seccion 1: Datos demograficos Seccion 2: Conocimiento sobre reciclaje textil Seccion 3: Comportamiento actual Seccion 4: Barerras percibidas Con estos resultados se pretende hacer un estudio y observacion del panorama que tiene la sociedad acerca de este tema; para asi poder fomentar la educacion del reciclaje textil. 


CONCLUSIONES

Durante la estancia de verano, se logro adquirir los conocimientos teoricos del reciclaje en la industria indumentaria, y ponerlos en practica con el objetivo de conocer la perspectiva de los usuarios encuestados sobre este tema.  A pesar de que aun no se encuentran terminados los analisis, se puede concluir que, esta investigacion  nos muestra que la mayoría de las personas encuestadas tienen cierto grado de familiarización con el concepto de reciclaje textil, aunque un porcentaje significativo indicó tener poca o ninguna familiaridad con este tema. Es importante seguir promoviendo la conciencia sobre el reciclaje textil para fomentar prácticas sostenibles en la sociedad. Los resultados de la encuesta indican que la falta de información es el principal obstáculo para el reciclaje textil en México, seguido por la ubicación de puntos de recolección y la falta de incentivos. Para mejorar el porcentaje de reciclaje textil, se deben implementar estrategias educativas efectivas, aumentar la accesibilidad de los puntos de recolección y establecer incentivos que motiven a la población a participar.  
Delgado Sanchez Silvia Fernanda, Universidad Pontificia Bolivariana
Asesor: Mg. Jessica Gissella Maradey Lázaro, Universidad Autónoma de Bucaramanga

¡BIKE-UP!: DEVELOPMENT OF E-BIKES FOR URBAN MOBILITY


¡BIKE-UP!: DEVELOPMENT OF E-BIKES FOR URBAN MOBILITY

Delgado Sanchez Silvia Fernanda, Universidad Pontificia Bolivariana. Asesor: Mg. Jessica Gissella Maradey Lázaro, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

Una de las problemáticas actuales más importantes es el uso de vehículos de combustión interna, que contaminan el aire y emiten gases de efecto invernadero, afectando la salud y contribuyendo al cambio climático. Además, el tráfico vehicular genera congestión, aumentando los tiempos de desplazamiento y causando molestias, especialmente cuando el transporte público no es eficiente, como ocurre en el área metropolitana de Bucaramanga. En las últimas décadas, el transporte urbano ha buscado alternativas para disminuir la contaminación. Una de estas innovaciones son las bicicletas eléctricas, o e-bikes, que combinan la comodidad de una bicicleta tradicional con la asistencia eléctrica, reduciendo la contaminación y siendo energéticamente eficientes. El área metropolitana de Bucaramanga cuenta con cierta adaptación para el uso de bicicletas como lo son las ciclo rutas, sin embargo son poco utilizadas debido al contexto social, donde no se inculca la cultura de transporte en bicicleta, o por factores económicos donde no todos los ciudadanos tienen acceso a ellas. Del mismo modo, Clobi es una alternativa propuesta por Metrolínea, una empresa que es encargada del transporte metropolitano que brinda acceso a bicicletas, desafortunadamente, este sistema se encuentra en pausa debido a que la empresa no se encuentra funcionando en este momento. El proyecto se centra en desarrollar una bicicleta eléctrica como una opción de transporte sostenible y ecológica. Las e-bikes, aceptadas por su bajo impacto ambiental, ayudan a reducir la dependencia de vehículos de combustión interna, disminuyendo las emisiones contaminantes y mejorando la calidad del aire. Además, pueden aliviar la congestión del tráfico, ofreciendo una alternativa rápida y eficiente para distancias cortas y medias, y promoviendo un estilo de vida más saludable al combinar la actividad física con la asistencia eléctrica.



METODOLOGÍA

La metodología utilizada en este proyecto es la DFMA, que significa "Design for Manufacturing and Assembly" (Diseño para Manufactura y Ensamblaje), es una metodología empleada para diseñar productos de manera que sean más fáciles y económicos de fabricar y ensamblar. Para la fabricación de las e-bikes es necesario tener un diseño en cuanto a chasis, el material mas viable para su producción y los diferentes accesorios que puede llevar todos, considerados para que cumplan las necesidades del consumidor, en este caso los ciudadanos que quieran implementar este sistema de transporte. Se debe tener en cuenta los costos que implica no solo los materiales sino también los procesos necesarios para llegar al modelo de e-bike  


CONCLUSIONES

Durante la estancia en el verano de investigación se adquirieron conocimientos muy relevantes en el desarrollo de la vida profesional, desde la estructuración de un proyecto y un artículo, hasta el aprendizaje de distintas metodologías usadas en la ingeniería, que se vieron aplicados en el transcurso del programa. Debido a la amplitud del proyecto aun se encuentra en la etapa de diseño y validación para una posterior fabricación, lo cual quiere lograr un impacto positivo en la ciudad mientras se promueve un transporte sostenible y saludable.
Desion Palacios Marichel, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Paulina Arellanes Lozada, Benemérita Universidad Autónoma de Puebla

EVALUACIóN DE INHIBIDORES DE CORROSIóN DEL ACERO APLICADOS EN LA INDUSTRIA PETROLERA


EVALUACIóN DE INHIBIDORES DE CORROSIóN DEL ACERO APLICADOS EN LA INDUSTRIA PETROLERA

Desion Palacios Marichel, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Paulina Arellanes Lozada, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La corrosión del acero constituye uno de los problemas más graves y costosos que enfrenta la industria petrolera, ocasionando daños estructurales, pérdidas económicas significativas y riesgos ambientales considerables. Con la expansión de las operaciones de extracción, transporte y procesamiento de petróleo y gas, la protección de las infraestructuras metálicas, especialmente las tuberías de acero, se vuelve imperativa. La utilización de inhibidores de corrosión se ha demostrado como una estrategia eficaz para mitigar estos efectos corrosivos. No obstante, la selección y evaluación de inhibidores de corrosión adecuados para las condiciones específicas de la industria petrolera, que incluyen alta presión, altas temperaturas, presencia de gases ácidos y altos niveles de salinidad, presentan un desafío considerable. Los inhibidores deben no solo ser eficaces en la prevención de la corrosión, sino también compatibles con los fluidos del proceso, económicos, seguros para el personal y el medio ambiente, y fáciles de aplicar. El problema radica en identificar inhibidores que cumplan con estos criterios de manera efectiva y sostenible. La falta de datos comparativos y estudios exhaustivos sobre el rendimiento de diferentes inhibidores bajo condiciones operativas reales limita la capacidad de la industria para tomar decisiones informadas. Por lo tanto, es necesario realizar una evaluación detallada y sistemática de los inhibidores de corrosión, considerando variables críticas como la concentración del inhibidor, la temperatura, el pH y la composición química de los fluidos. 



METODOLOGÍA

Los experimentos del presente trabajo de investigación se llevaron a cabo utilizando acero API 5L X60 como sustrato metálico. Las muestras de acero cilíndricas se embebieron en teflón y resina epoxi para asegurar un área de contacto de 0.1779 cm2. Las superficies metálicas se desgastaron antes de cada prueba utilizando diferentes grados de lija de SiC (de 600 a 1200). Posterior al proceso de desgaste, la superficie se limpió con etanol para eliminar las partículas adheridas a la superficie. Esta metodología se llevo a cabo antes de cada prueba. La solución acida fue de 1M H2SO4, que se preparó con ácido sulfúrico y agua desionizada. El líquido iónico (difenil-2,2'-dicarboxilato de teradeciltrimetilamonio [TTADC]) evaluado como inhibidor de corrosión se dosifico en el medio corrosivo en concentraciones de 50, 75, 100 y 150 ppm. Para la realización de los análisis electroquímicos se empleo un potenciostato/galvanostato PGSTAT302N, modelo Autolab. Los experimentos se llevaron a cabo con una celda estándar de tres electrodos: el electrodo de referencia era Ag/AgCl, que se adapto a un capilar Luggin para reducir la caída óhmica; un contraelectrodo de platino y el electrodo de trabajo de acero API 5L X60. Antes de cada experimento se conectó un recirculador para asegurar que las concentraciones fueran evaluadas a 25, 35 y 45°C. El electrodo de trabajo se mantuvo sumergido durante 30 minutos para obtener las pruebas de potencial de circuito abierto estable (OCP), polarización potenciodinámica (PDP) y espectroscopia de impedancia electroquímica (EIS). El intervalo para OCP oscilaba entre -25 y +25 mV, mientras que PDP el escaneo oscilaba entre -250 y +250 mV con una velocidad de escaneo de 0.1 mV/s. Los parámetros electroquímicos se obtuvieron utilizando el Software Nova versión 2.1.7 


CONCLUSIONES

Durante la estancia de verano se lograron adquirir conocimientos teóricos y prácticos sobre los inhibidores de corrosión aplicados en la industria petrolera y ponerlos en práctica mediante técnicas de evaluación de su eficacia en diversas condiciones. Sin embargo, debido a la amplitud del trabajo, se espera observar en el análisis de resultados una reducción significativa en la tasa de corrosión de acuerdo con el compuesto utilizado para ofrecer una mayor protección en las tuberías expuestas a condiciones de altas temperaturas.
Diaz Alcantara Maria del Carmen, Tecnológico de Estudios Superiores de Villa Guerrero
Asesor: Mg. Hernando Garzón Saenz, Fundación Universitaria Tecnológico Comfenalco

ANALISIS COMPARATIVO DE LA GESTION DE OPERACIONES EN SISTEMAS DE SERVUCCION EN LA INDUSTRIA DE LA HOSPITALIDAD EN MEXICO Y COLOMBIA


ANALISIS COMPARATIVO DE LA GESTION DE OPERACIONES EN SISTEMAS DE SERVUCCION EN LA INDUSTRIA DE LA HOSPITALIDAD EN MEXICO Y COLOMBIA

Diaz Alcantara Maria del Carmen, Tecnológico de Estudios Superiores de Villa Guerrero. Asesor: Mg. Hernando Garzón Saenz, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

La industria de la hospitalidad en Mexico y Colombia enfrenta retos y oportunidades unicos que se reflejan en metricas como la ocupacion, rentabilidad y estrategias operativas de los hoteles en ambos paises.Este analisis busca examinar como estos gactores varian entre Mexico y Colombia y como impactan la gestion y el desempeño en el sector hotelero.



METODOLOGÍA

  La metodología para este análisis se basa en una combinación de enfoques comparativos y descriptivos para optimizar la eficiencia en la prestación de servicios, garantizando la satisfacción del cliente y la sostenibilidad operativa. Esta metodología busca proporcionar una evaluación detallada y comparativa de la gestión de procesos en sistemas de servucción, utilizando una combinación de enfoques cuantitativos y cualitativos para mejorar la eficiencia operativa y la calidad del servicio en la industria de la hospitalidad. Se examinaran las diferencias y similitudes entre dos contextos distintos en la gestion de procesos en sistemas de servuccion, se detallaran las caracteristicas especificas en cada sistema para una comprension profunda de las practicas en cada contexto. Se abordara desde la perspectiva del marketing de servicios, desglosando conceptos fundamentales y elementos de proceso de prestacion de servicios. Ademas se realizara un enfoque en  metodologias como Lean  Service, Six sigma y La teoria de las restricciones, analizando como estas metodlogias atienen aspectos como calidad, rentabilidad y productividad. Se pretende proporcionar una evaluacion detallada y comparativa de la gestion de procesos en sistemas de servuccion, utilizando una combinacion de enfoques cuantitaivos y cualitativos para mejorar la eficiencia operativa y calidad del servicio en la industria de la hospitalidad.


CONCLUSIONES

El análisis comparativo entre la industria hotelera de México y Colombia revela diferencias notables en los desafíos y oportunidades que enfrenta cada país. En Colombia, a pesar de una mejora en la ocupación hotelera desde los niveles críticos de 2020, el sector sigue lidiando con una rentabilidad negativa y una disminución en las tarifas promedio. Los destinos con mayor ocupación, como San Andrés y Cartagena, destacan en un entorno que aún se recupera de las secuelas de la pandemia, con Bogotá mostrando una recuperación más lenta. Por otro lado, México presenta un panorama más positivo con una ocupación hotelera promedio significativamente superior, especialmente en centros de playa. El país ha experimentado un crecimiento en la infraestructura hotelera y una mejora en la ocupación, lo que refuerza su posición global en términos de capacidad hotelera. El aumento en el número de turistas y el crecimiento en la ocupación reflejan un sector en recuperación robusta, beneficiado por una política gubernamental que busca utilizar el turismo como herramienta de reconciliación social. Ambos países enfrentan la necesidad de una gestión eficiente de operaciones para optimizar la satisfacción del cliente y la rentabilidad. En este contexto, conceptos como servucción, Lean Service, Six Sigma y la Teoría de Restricciones ofrecen herramientas valiosas para mejorar la calidad del servicio y la eficiencia operativa. La servucción, en particular, destaca por su enfoque en la interacción entre el personal y los clientes, esencial para una experiencia satisfactoria. Mientras tanto, metodologías como Lean Service y Six Sigma proporcionan enfoques estructurados para eliminar desperdicios y defectos, optimizando procesos y elevando los estándares de calidad. El estudio de las prácticas y estrategias en cada país sugiere que una implementación efectiva de estas metodologías puede abordar las deficiencias y fortalecer las áreas de oportunidad en ambos mercados. Al identificar las brechas y oportunidades en la gestión de servicios turísticos, se pueden formular recomendaciones prácticas que potencien las fortalezas de cada destino, mejoren la eficiencia operativa y maximicen la satisfacción del cliente en la industria de la hospitalidad. Ambos países enfrentan desafíos y oportunidades únicas en su industria hotelera. En México, la expansión y alta ocupación en destinos clave contrastan con la situación en Colombia, donde la rentabilidad y tarifas aún no se han recuperado completamente a los niveles prepandemia. En ambos contextos, la gestión eficiente de operaciones es crucial para asegurar la satisfacción del cliente, optimizar recursos y mantener la competitividad.
Diaz Angel, Universidad de Guadalajara
Asesor: Ing. Alejandro Amaro Flores, Instituto Tecnológico de Morelia

SISTEMA WEB HíBRIDO PARA GESTIóN DE ENCUESTAS INSTITUCIONALES EN EL INSTITUTO TECNOLóGICO DE MORELIA: CUMPLIMIENTO DE NOM151-SCFI-2016 E ISO/IEC 25010:2011


SISTEMA WEB HíBRIDO PARA GESTIóN DE ENCUESTAS INSTITUCIONALES EN EL INSTITUTO TECNOLóGICO DE MORELIA: CUMPLIMIENTO DE NOM151-SCFI-2016 E ISO/IEC 25010:2011

Coronado Cabrera Bryan Axl, Universidad de Guadalajara. Diaz Angel, Universidad de Guadalajara. Martinez Hernandez Jesus Eduardo, Universidad de Guadalajara. Medina Guerrero Manuel Fernando, Universidad de Guadalajara. Mendoza Garcia Miguel Angel, Universidad de Guadalajara. Quintero Garcia Oliver Israel, Universidad de Guadalajara. Asesor: Ing. Alejandro Amaro Flores, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En el Tecnológico Nacional de México Campus Morelia, la gestión de encuestas dirigidas a los miembros de la institución presenta varios desafíos significativos. Actualmente, las encuestas no están homologadas ni integradas, lo que genera fragmentación y falta de consistencia en la recolección de datos. Algunas encuestas se administran a través del sistema escolar vigente, mientras que otras utilizan plataformas comerciales como Microsoft y Google. Esta diversidad de plataformas dificulta la centralización y el acceso a los resultados para todos los involucrados en los procesos de toma de decisiones. Además, muchas de estas encuestas no se han actualizado en más de una década, aunque las necesidades y circunstancias de la institución evolucionaron mucho en ese tiempo. Esta falta de actualización limita la relevancia y efectividad de las encuestas para abordar las necesidades actuales de estudiantes, docentes y administrativos. En consecuencia, la institución carece de un sistema unificado y moderno que permita una gestión eficiente y un análisis integral de los datos recolectados, afectando la capacidad para tomar decisiones informadas y mejorar continuamente la calidad educativa.



METODOLOGÍA

1. Análisis de Requerimientos Identificación de los requisitos funcionales y no funcionales. Estudio de la base de datos existente para integración con la tabla de usuarios. Determinación de roles y permisos necesarios para el acceso al sistema. 2. Diseño del Sistema · Arquitectura del Sistema: o MVC-Componentes. o Framework Laravel con Livewire. o Base de datos relacional PostgreSQL para la gestión de áreas, roles, permisos, usuarios y encuestas.   · Diseño de la Base de Datos: o Tablas para almacenar encuestas, preguntas, respuestas y resultados. o Integración con la tabla de usuarios existente. Interfaces de Usuario: Formularios para la creación y administración de encuestas. Interfaces para la participación de encuestas por parte de estudiantes, docentes y administrativos. Panel de administración para jefes de área con acceso a resultados y generación de reportes. 3. Desarrollo del Sistema: Desarrollo de formularios dinámicos para la creación de encuestas. Implementación de mecanismos de autenticación y autorización basados en roles. Interfaces amigables para la participación de encuestas. Lógica de negocio para la asignación de encuestas a roles específicos. Generación de reportes en PDF utilizando bibliotecas como DomPDF o jsPDF (JavaScript). 4. Pruebas: Pruebas Unitarias: Verificación de la funcionalidad individual de los componentes del sistema. Pruebas de Integración: Aseguramiento de la correcta interacción entre los componentes del sistema. Pruebas de Usuario: Evaluación de la usabilidad y efectividad del sistema mediante pruebas con usuarios finales. 5. Implementación y Despliegue: Despliegue del sistema en un entorno de producción. Capacitación a los usuarios (jefes de área) para la administración de encuestas y análisis de resultados. 6. Mantenimiento y Actualización: Monitoreo continuo del sistema para identificar y corregir errores. Actualización del sistema con nuevas funcionalidades según las necesidades de los usuarios. Resultados Esperados Sistema web funcional y seguro para la gestión de encuestas en la institución. Mejora en la eficiencia de recolección y análisis de datos. Facilidad para la evaluación individual de docentes y administrativos. Generación de reportes detallados en PDF para la toma de decisiones.


CONCLUSIONES

La implementación de este sistema web proporcionará una herramienta eficiente y robusta para la creación y gestión de encuestas dentro de la institución educativa. Facilitará la recolección de datos, mejorará la toma de decisiones y permitirá una evaluación más detallada de los docentes y administrativos, contribuyendo al desarrollo continuo de la calidad educativa.
Diaz Barriga Velasco Jaquelyn, Instituto Tecnológico Superior de Apatzingán
Asesor: Mg. Nelson Mora Calderon, Fundación Universitaria Empresarial

EXPLORAR EN FUENTES SECUNDARIAS EL PAPEL DE LA TECNOLOGíA Y LA INDUSTRIA 4.0 EN LA MEJORA DE LAS PRáCTICAS DE LEAN MANUFACTURING EN AMéRICA LATINA.


EXPLORAR EN FUENTES SECUNDARIAS EL PAPEL DE LA TECNOLOGíA Y LA INDUSTRIA 4.0 EN LA MEJORA DE LAS PRáCTICAS DE LEAN MANUFACTURING EN AMéRICA LATINA.

Aguilar Ramírez Monica, Instituto Tecnológico Superior de Apatzingán. Diaz Barriga Velasco Jaquelyn, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Nelson Mora Calderon, Fundación Universitaria Empresarial



PLANTEAMIENTO DEL PROBLEMA

La industria manufacturera enfrenta un cambio significativo con la incorporación de conceptos avanzados (Péter, 2023), como la Industria 4.0, enfocada en la automatización, inteligencia artificial, IoT, Big Data y computación en la nube, promoviendo la transformación hacia fábricas inteligentes (Péter, 2023). Y Lean Manufacturing enfocado en la minimización de desperdicios y la maximización a través de la mejora continua (Muchtaridi, 2023). La fusión de estos dos paradigmas, conocida como Lean-Industry 4.0 (Arey et al., 2021), representa una oportunidad significativa pero también desafíos únicos en América Latina (Juman, 2023). Por lo tanto, es fundamental fomentar una mayor comprensión en las empresas Latinoamericanas sobre los beneficios que brinda la adopción de tecnologías 4.0, tales como la reducción de costos, reducción de costos, desarrollo de nuevos modelos de negocio, flexibilidad y personalización de productos, así como aceleración del time-tomarket (R. Carmona, 2020). 



METODOLOGÍA

La investigación se centró en la integración de Lean Manufacturing e Industria 4.0 en América Latina, utilizando una revisión sistemática de la literatura para recolectar información. Se exploraron sitios web y bases de datos especializadas como Google, Google Scholar, Scopus, TDR, NDLTD, OpenThesis, Dialnet y OATD, empleando términos relevantes para las búsquedas como "Lean Manufacturing y Lean Manufacturing en América Latina," "Industria 4.0 e Industria 4.0 en América Latina," "Tecnología e Industria 4.0 en las prácticas Lean Manufacturing." "Lean-Industry 4.0," y "'Lean-Industry 4.0 en América Latina." Metodología: Se consultaron un total de 74 documentos. De los cuales, 37 (el 50%) se centraron en el tema Lean-Industry 4.0, y el 43% relacionados o provenientes específicamente de América Latina. De estos 37 documentos, 10 (el 27%) corresponden a casos de estudio, incluyendo algunos como "Caso práctico Lean Industria 4.0 en Audi" (Borja, 2022), "Influencia de Lean Manufacturing en la implementación de tecnologías de la Industria 4.0 en un estudio de caso múltiple en empresas manufactureras de la provincia de Pichincha" (Guzmán et al., 2023), e "Implementación de Lean Manufacturing e Industria 4.0 para mejorar el sistema de producción automatizado y semi-automatizado en la empresa Cilindros Company S.A.S," entre otros. Los 27 documentos restantes (el 73%), correspondieron a artículos tales como Estudio de la irrupción de la Industria 4.0 en la metodología Lean Manufacturing" (Arripol, 2020), "Lean Industry 4.0: Past, present and future" (Hines et al., 2023), y "Hacia la 'Industria Lean 4.0': Tendencias actuales y perspectivas futuras" (Ejsmont et al., 2020), entre otros. Del total de documentos consultados sobre Lean-Industry 4.0, el año 2023 destaca como el de mayor cantidad de publicaciones, representando el 32% del total, seguido de 2019 con un 27%. Estos resultados reflejan un creciente interés y un enfoque renovado hacia Lean-Industry 4.0, indicando que este tema está ganando relevancia en el ámbito académico y empresarial. Se optó por implementar una revisión sistemática de la literatura en esta investigación debido a varias razones clave. En primer lugar, este método proporciona una manera estructurada y reproducible de reunir y analizar la información existente, lo cual es esencial para garantizar la integridad y la validez de los hallazgos. A través de una revisión sistemática, es posible identificar de manera exhaustiva todas las investigaciones relevantes sobre un tema específico, lo que permite obtener una visión completa y actualizada del estado del conocimiento en el campo de estudio.  El primer paso en el plan de análisis de datos consistió en la identificación y categorización de temas. En esta fase, se examinaron los estudios y artículos disponibles sobre la adopción de Lean Manufacturing e Industria 4.0 en América Latina. La meta fue identificar y categorizar los temas, conceptos y patrones clave presentes en la información recopilada. Esto incluyó analizar los niveles de adopción de Lean Manufacturing e Industria 4.0 en diferentes países de América Latina, identificar las principales barreras y facilitadores para la implementación, y determinar cuáles fueron los sectores industriales más avanzados en la adopción de estas prácticas. El siguiente paso fue la organización de la información en categorías temáticas relevantes. En esta etapa, la información se agrupó en categorías tales como las tecnologías clave de la Industria 4.0 que habían sido implementadas, las estrategias de Lean Manufacturing adoptadas, y los casos de éxito y mejores prácticas de la implementación conjunta de Lean Manufacturing e Industria 4.0.   


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la integración de la Industria 4.0 con las prácticas de Lean Manufacturing en las empresas manufactureras de América Latina mediante una investigación exhaustiva de fuentes secundarias. Se comprobó que esta integración es viable y beneficiosa, permitiendo a las empresas mejorar su eficiencia, productividad y valor para el cliente, lo que resulta en una mayor competitividad y sostenibilidad en el mercado global. Sin embargo, se identificaron barreras significativas que deben superarse para una adopción efectiva, como la falta de infraestructura tecnológica, la resistencia al cambio organizacional, la escasez de habilidades técnicas y la necesidad de fomentar una cultura de innovación. Aunque el trabajo aún está en progreso, los conocimientos adquiridos a partir de esta investigación son fundamentales para avanzar en la implementación exitosa de estas metodologías.
Díaz Berdugo Manuel Jose, Corporación Universitaria Latinoamericana
Asesor: M.C. Daniel Alejandro Peréz de la Mora, Universidad Iberoamericana, Ciudad de México

INTERFAZ Y PROGRAMACION DEL SIMULADOR DE LABORATORIO DE ENERGIA INTELIGENTE. DASHBOARD Y RED DE SENSORES LORAWAN.


INTERFAZ Y PROGRAMACION DEL SIMULADOR DE LABORATORIO DE ENERGIA INTELIGENTE. DASHBOARD Y RED DE SENSORES LORAWAN.

Díaz Berdugo Manuel Jose, Corporación Universitaria Latinoamericana. Pugliese Cervantes Jesus Steven, Corporación Universitaria Latinoamericana. Asesor: M.C. Daniel Alejandro Peréz de la Mora, Universidad Iberoamericana, Ciudad de México



PLANTEAMIENTO DEL PROBLEMA

Desarrolllo de la interfaz para controlar un simulador solar. Conexión de una red de sensores LoRaWAN.



METODOLOGÍA

Se utilizó un dispositivo Keysight E4360A como simulador de un panel solar, y dispositivos Victron, como el MPPT 100 para optimizar la eficiencia de los paneles solares en sistemas de energía renovable y un inversor Victron MultiPlus para convertir la corriente continua en corriente alterna de alta calidad para alimentar dispositivos eléctricos. Se utilizó Python a través de Visual Studio Code para el desarrollo de la interfaz para controlar el simulador. Utilizamos las siguientes librerías: ​import os import sys import tkinter as tk from PIL import Image, ImageTk import math import random import matplotlib.pyplot as plt from matplotlib.backends.backend_tkagg import FigureCanvasTkAgg import numpy as np from conf_val import VOLTAGE_MAX, CURRENT_MAX, verificar_valores_maximos import signal import requests from datetime import datetime, timedelta import pytz import pyvisa import threading. Se implementaron 10 sensores Dragino LHT65 de temperatura y humedad LoRaWAN y un SenseCap M2, que ayudaba a que los sensores recibieran wifi. Los sensores se conectaron a través de The Things Network, que actuaba como un puente para que los sensores y la red pudieran comunicarse. Por medio de The Things Network, utilizamos la integración webhook para conectarnos con Ubidots y crear un dashboard que servía para monitorear los datos de temperatura y humedad ambiente y también la humedad de la tierra.


CONCLUSIONES

Se desarrolló una interfaz gráfica para controlar el simulador Keysight E4360A y un dashboard para monitorear la temperatura y humedad de los sensores.
Díaz Castro Alejandra Isabel, Universidad de Investigación y Desarrollo
Asesor: Dr. Jose Manuel Gutiérrez Moreno, Universidad Autónoma de Baja California

EVALUACIóN DEL USO DE RESIDUOS DE PET COMO AGREGADOS EN CONCRETO: UNA SOLUCIóN SOSTENIBLE PARA LA INDUSTRIA DE LA CONSTRUCCIóN


EVALUACIóN DEL USO DE RESIDUOS DE PET COMO AGREGADOS EN CONCRETO: UNA SOLUCIóN SOSTENIBLE PARA LA INDUSTRIA DE LA CONSTRUCCIóN

Barón Tavera Luisa Cristina, Universidad de Investigación y Desarrollo. Díaz Castro Alejandra Isabel, Universidad de Investigación y Desarrollo. Soberanes Ruiz Mariana Jaqueline, Universidad Politécnica de Atlautla. Asesor: Dr. Jose Manuel Gutiérrez Moreno, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El uso intensivo de plástico en la sociedad moderna ha generado una acumulación significativa de residuos plásticos, especialmente de tereftalato de polietileno (PET). Estos residuos representan un desafío ambiental considerable debido a su lenta degradación, la cual puede tardar cientos de años, y su impacto negativo en los ecosistemas. La acumulación de residuos plásticos afecta a la fauna marina y terrestre, causando daños físicos y químicos a los organismos que ingieren o quedan atrapados en estos desechos. Además, la descomposición del plástico libera sustancias tóxicas que pueden contaminar suelos y cuerpos de agua, afectando la calidad de los recursos naturales. Paralelamente, la industria de la construcción, que es una de las principales consumidoras de recursos naturales, demanda grandes cantidades de agregados naturales (arena, grava y piedra triturada) para la producción de concreto. Esta extracción masiva de agregados tiene consecuencias negativas significativas para el medio ambiente, incluyendo la erosión del suelo, la pérdida de biodiversidad y la alteración de los paisajes naturales. La explotación de canteras y ríos para obtener estos materiales también contribuye a la degradación de ecosistemas y a la reducción de la capacidad de estos ambientes para proporcionar servicios ecológicos esenciales. Existe, por lo tanto, una necesidad urgente de encontrar soluciones sostenibles que puedan mitigar ambos problemas: la acumulación de residuos plásticos y la explotación excesiva de recursos naturales.



METODOLOGÍA

Para evaluar el uso de residuos de PET como agregados en concreto, se llevó a cabo una revisión exhaustiva de artículos investigativos suministrados por el docente investigador. Posteriormente, se extrajeron y analizaron datos clave de cada estudio, enfocándose en las propiedades mecánicas. Los resultados se recopilaron y compararon para identificar tendencias, acuerdos y discrepancias, proporcionando una evaluación crítica de la viabilidad del uso de PET en concreto y sugiriendo áreas para futuras investigaciones.


CONCLUSIONES

En conclusión, la utilización de residuos plásticos de PET como agregados en el concreto representa una alternativa viable para reducir el impacto ambiental de la industria de la construcción y promover la economía circular. En cuanto a la resistencia a la compresión, se observó que esta propiedad generalmente disminuye con el aumento del nivel de reemplazo de PET, excepto para la mezcla con un 5% de PET, que mostró una resistencia a la compresión ligeramente mayor que la mezcla de referencia (0% PET) a los 28 días de curado. De manera similar, la resistencia a la flexión tendió a disminuir con mayores contenidos de PET, aunque la mezcla con un 5% de PET presentó un comportamiento atípico, con un valor de resistencia a la flexión superior al de la mezcla de referencia. No obstante, se requieren investigaciones adicionales para optimizar la dosificación de los agregados de PET, desarrollar tratamientos superficiales efectivos y evaluar el comportamiento a largo plazo de este tipo de concreto. Aspectos como la durabilidad, la resistencia al fuego y la permeabilidad del concreto con agregados de PET deben considerarse para garantizar su aplicación segura y eficiente en diferentes tipos de estructuras.
Díaz López Karla Angelica, Universidad de Guadalajara
Asesor: M.C. Hector Gerardo Nuñez, Universidad Tecnológica de Bahía de Banderas

NETWORKING Y REDES CONVERGENTES


NETWORKING Y REDES CONVERGENTES

Díaz López Karla Angelica, Universidad de Guadalajara. Asesor: M.C. Hector Gerardo Nuñez, Universidad Tecnológica de Bahía de Banderas



PLANTEAMIENTO DEL PROBLEMA

La evolución de la tecnología ha permitido que la interconexión de dispositivos y la gestión remota de sistemas sean cada vez más accesibles y eficientes. Este proyecto tiene como objetivo explorar y desarrollar un sistema que integre la plataforma Arduino con capacidades de conexión WiFi, una página web interactiva y una base de datos para IoT. La investigación se enfocará en entender cómo estas tecnologías pueden converger para crear un sistema funcional que permita el control y monitoreo remoto de dispositivos.



METODOLOGÍA

El proyecto se desarrollará en un período de 7 semanas, siguiendo un plan de trabajo estructurado que incluye investigación teórica, desarrollo práctico y la integración de los diferentes componentes del sistema. Semana 1: Introducción a Arduino y conceptos básicos Introducción a la plataforma Arduino: historia, aplicaciones y componentes básicos. Instalación del entorno de desarrollo (IDE) de Arduino y configuración inicial. Primeros pasos con Arduino: montaje de circuitos básicos y programación de sketches simples (ejemplo: encender y apagar un LED). Semana 2: Programación y utilización avanzada de Arduino Exploración de los diferentes sensores y actuadores compatibles con Arduino. Realización de proyectos intermedios que incluyan sensores y actuadores (ejemplo: sensor de temperatura y control de un motor). Uso de bibliotecas y gestión de proyectos más complejos en Arduino. Semana 3: Integración de WiFi con Arduino y protocolos inalámbricos Introducción a los módulos WiFi para Arduino (ejemplo: ESP8266, ESP32). Configuración y programación de Arduino para conectarse a una red WiFi. Estudio y aplicación de protocolos inalámbricos como MQTT y HTTP para la comunicación de datos. Semana 4: Desarrollo de una página web tipo IoT Introducción a HTML, CSS y JavaScript para la creación de páginas web básicas. Diseño y desarrollo de una página web que pueda interactuar con Arduino a través de la red (ejemplo: encender/apagar un LED desde la web). Implementación de AJAX para la comunicación asíncrona entre la web y Arduino. Semana 5: Integración avanzada de la página web con Arduino Implementación de seguridad en la comunicación entre la página web y Arduino. Desarrollo de una interfaz de usuario (UI) intuitiva y responsiva. Pruebas y depuración del sistema web-Arduino. Semana 6: Base de datos para Internet de las Cosas (IoT) Introducción a bases de datos: conceptos básicos y tipos (SQL vs NoSQL). Selección de una base de datos adecuada para IoT (ejemplo: Firebase, MongoDB). Integración de la base de datos con Arduino para almacenar y recuperar datos (ejemplo: datos de sensores). Semana 7: Finalización y presentación del proyecto Integración final de todos los componentes del proyecto: Arduino, WiFi, página web e IoT. Pruebas exhaustivas del sistema completo y resolución de problemas finales. Preparación y entrega de la documentación del proyecto. Presentación del proyecto y demostración en vivo.


CONCLUSIONES

Al finalizar el proyecto, se espera lograr los siguientes resultados: Desarrollo de un sistema funcional que permita la interacción remota con un dispositivo Arduino a través de una página web, utilizando WiFi y una base de datos para la gestión de datos. Creación de documentación detallada que describa el proceso de desarrollo, incluyendo los retos enfrentados y las soluciones implementadas. Generación de un conocimiento práctico y teórico sobre la integración de tecnologías de redes convergentes y IoT, que pueda ser utilizado como base para futuros proyectos e investigaciones. Presentación de un sistema demostrativo que evidencie la aplicación y beneficios de la tecnología IoT en la automatización y gestión remota de dispositivos.
Diaz Nava Humberto, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Lic. Kevin García Márquez, Instituto Tecnológico Superior de Huauchinango

ITSH: RECORRIDO INTERACTIVO EN REALIDAD VIRTUAL COMPATIBLE CON LAS META QUEST 2


ITSH: RECORRIDO INTERACTIVO EN REALIDAD VIRTUAL COMPATIBLE CON LAS META QUEST 2

Diaz Nava Humberto, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Lic. Kevin García Márquez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

La evolución tecnológica ha permitido el desarrollo de dispositivos y plataformas con funciones complejas y accesibles. La realidad virtual (RV) es una de las innovaciones más prometedoras, capaz de ofrecer inmersión total en entornos altamente interactivos. Inicialmente, la RV era costosa en términos de desarrollo y hardware. Sin embargo, hoy en día los recursos virtuales son accesibles desde dispositivos móviles, tablets y gafas de RV. La característica inmersiva de la RV permite a los usuarios sumergirse en escenarios tridimensionales y de 360º mediante un visor compatible, simulando una experiencia sensorial completa dentro de un ambiente artificial. En este contexto, uno de los principales intereses de la RV es la creación de recorridos virtuales, modelos de lugares reales accesibles desde cualquier lugar. Esto permite a las personas experimentar visitas casi reales sin estar físicamente presentes. En el ámbito universitario, los recorridos virtuales son beneficiosos para posibles estudiantes que desean conocer las instalaciones y servicios disponibles, ofreciendo la posibilidad de explorar remotamente y en detalle sin necesidad de estar en el lugar. Esto ayuda a los estudiantes a tener una mejor idea de lo que pueden esperar al estudiar en una institución educativa. La investigación se centra en la creación de un recorrido en RV para el Instituto Tecnológico Superior de Huauchinango (ITSH). El objetivo es describir el proceso de creación de un entorno de RV que permitirá a los usuarios explorar interactivamente las instalaciones del ITSH mediante gafas Meta Quest 2, un ordenador o un dispositivo móvil, detallando las tecnologías utilizadas en la creación del entorno.



METODOLOGÍA

Software para RV360 en web Para la creación del recorrido virtual del ITSH se evaluaron diversas alternativas de software, como 3D Vista, Kuula, Orbix360 y VirtualiTour. Estas opciones permiten acceder a los recorridos vía web, facilitando su disponibilidad y accesibilidad desde cualquier dispositivo con Internet. Todas las alternativas son compatibles con las gafas Meta Quest 2, permitiendo una experiencia interactiva y realista comparable con una visita física. Las alternativas se evaluaron según características adicionales que comparan la experiencia del usuario y facilitan el desarrollo del recorrido y su integración con otras tecnologías. Se seleccionó Orbix360 por sus características de usuario comparables y su sobresaliente desarrollo e integración, además de ofrecer licencias permanentes a un menor costo. Entorno de desarrollo Una vez seleccionado el software Orbix360, el siguiente paso fue configurar el entorno de desarrollo para la programación del sitio web. Se seleccionaron los Frameworks de desarrollo de software NextJs y TailwindCSS, la librería Framer Motion y la biblioteca de componentes de UI AceternityUI, para desarrollar el entorno desde el cual se puede acceder al recorrido. Además, se utilizó Vercel como el servicio de infraestructura en la nube para desplegar el sitio web, debido a la facilidad de integración  con NextJs. Las fotografías utilizadas a lo largo de todo el recorrido han sido tomadas utilizando el modo panorámico disponible en el iPhone 15 y han sido procesadas con Orbix360 para formar los entornos interactuables. Mientras que para los elementos interactivos o hotspots se han utilizado una serie de iconos que permiten identificar si el elemento corresponde con información adicional, o es un punto de conexión con otro lugar de la ruta.   Modelo de proceso de software Durante el desarrollo del proyecto se ha utilizado la metodología de desarrollo de software conocido como modelo incremental o por prototipos. Este modelo permite desarrollar versiones cada vez más completas del software a medida que se definen los requerimientos del proyecto y se entregan versiones incrementales del producto en cada iteración, hasta que se cumple la totalidad de  los requerimientos definidos. Durante la primera iteración del modelo incremental se realizaron 6 actividades, las cuales fueron: recolección de requerimientos funcionales y no funcionales, creación de un perfil de Meta para las gafas Meta Quest 2, configuración del entorno de desarrollo con NextJs y TailwindCSS, importación de las dependencias necesarias para el proyecto, importación y adaptación del componente hero-parallax de la biblioteca ActernityUI y despliegue del primer prototipo de manera local. Para la  segunda iteración se realizaron 6 actividades, las cuales fueron: creación del repositorio en Github, creación del proyecto en Vercel, captura de las imágenes para el recorrido, creación de un recorrido de prueba en Orbix360, exportación y despliegue del recorrido de prueba en formato web  como segundo prototipo. Mientras que en la tercera iteración se realizaron 5 actividades: integración del recorrido virtual con el entorno de desarrollo creado en la primera iteración, integración del repositorio en Github con el Proyecto en Vercel, carga del sitio desarrollado al repositorio en Github, despliegue del tercer prototipo en Vercel y evaluación del funcionamiento del modo VR del recorrido a través de las gafas Meta Quest 2. 


CONCLUSIONES

Durante la estancia de verano se logró crear una demostración técnica de un recorrido virtual del Instituto Tecnológico Superior de Huauchinango. Este proyecto permitió aplicar tecnologías web avanzadas como NextJs, TailwindCSS, Framer Motion y Orbix360, desarrollando una plataforma accesible que facilita la exploración detallada del campus desde cualquier ubicación. A pesar de que el recorrido virtual ofrece una experiencia inmersiva y práctica comparable con una visita real, el proyecto aún se encuentra en fases iniciales de implementación y optimización. Se espera que esta iniciativa no solo incremente la visibilidad del instituto, sino que también actúe como un recurso educativo valioso, mejorando el conocimiento y la percepción de la institución entre futuros estudiantes y visitantes.
Díaz Parra Ricardo Arath, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Georgina Castillo Valdez, Universidad Politécnica de Altamira

DETECCIóN DE CORROSIóN EN IMáGENES


DETECCIóN DE CORROSIóN EN IMáGENES

Díaz Parra Ricardo Arath, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Georgina Castillo Valdez, Universidad Politécnica de Altamira



PLANTEAMIENTO DEL PROBLEMA

  La corrosión es un defecto crítico en sistemas estructurales, con un impacto económico significativo y riesgos de seguridad si no se controla. Tradicionalmente, la inspección para detectar corrosión se realiza de forma visual por inspectores, un proceso que es lento, tedioso y subjetivo. Sin embargo, el uso de UAVs y algoritmos de visión computacional puede automatizar estas inspecciones, reduciendo el tiempo y aumentando la frecuencia y objetividad de las evaluaciones (Atha & Jahanshahi, 2018). En Estados Unidos, el costo anual directo de la corrosión asciende a aproximadamente 276 mil millones de dólares, equivalente al 3.1% del PIB (Koch et al., 2010). Los métodos no invasivos de inspección se han vuelto esenciales, especialmente con el avance de la visión computacional y el aprendizaje profundo, que ofrecen nuevas soluciones para este problema. Esta investigación se alinea con el Objetivo de Desarrollo Sostenible 9 de la Agenda 2030, promoviendo infraestructuras resilientes y una industrialización sostenible e inclusiva. La detección temprana y precisa de corrosión en estructuras críticas es vital para la seguridad y la integridad, facilitando el mantenimiento predictivo y preventivo. Al utilizar técnicas avanzadas como las redes neuronales convolucionales, se pueden reducir las inspecciones manuales y los costos, optimizando el uso de recursos, reduciendo el impacto ambiental y fomentando la innovación tecnológica. Así, se contribuye a un desarrollo industrial más sostenible y avanzado tecnológicamente



METODOLOGÍA

Se realizó una investigación exhaustiva en tres bases de datos principales: IEEE, ACM y Clarivate, cubriendo el periodo de 2019 a 2024. De 55 artículos revisados, se seleccionaron 36 que presentaban métodos específicos en visión computacional para la detección de corrosión. Estos artículos se categorizaron según las técnicas empleadas: 5 se enfocaron en segmentación de imágenes, 12 en detección de objetos, 12 en clasificación de imágenes, y 7 en la combinación de detección y clasificación. En el campo del aprendizaje profundo aplicado a la visión computacional, se utilizan métricas como precisión, recall, F1-score y la curva ROC-AUC para evaluar la eficacia de un modelo (Kamal et al., 2023). El objetivo es maximizar estas métricas para mejorar la precisión y eficiencia del modelo en tareas específicas. Para optimizar los modelos, se emplearon funciones composicionales que ajustan los modelos para minimizar los costos de predicción. Se eligió una librería para la optimización de estos modelos debido a su capacidad para resolver problemas de convergencia, destacándose por mejorar la estabilidad y eficiencia en el entrenamiento de modelos de aprendizaje profundo. En Google Colab, se realizaron pruebas y ajustes a un código de ejemplo proporcionado por esta librería, adaptándolo para su compatibilidad con otras herramientas utilizadas en la detección de características en imágenes médicas (Yuan et al., 2023). Este enfoque se utilizó como base para la detección de corrosión. Posteriormente, se buscaron datasets específicos para la clasificación binaria de imágenes de corrosión en plataformas como Github, Kaggle, Hugging Face y Google Datasets. Se aplicaron técnicas de aumentación de datos, como rotación, escalado, traslación y cambio de iluminación, para mejorar la diversidad y cantidad de datos de entrenamiento. Se entrenó un modelo de aprendizaje profundo con un conjunto de datos de 1273 imágenes, que incluían superficies con y sin corrosión. De estas, el 80% (1018 imágenes) se utilizó para el entrenamiento, y el 20% restante (255 imágenes) se reservó para pruebas y validación.


CONCLUSIONES

El modelo de visión computacional logró un Área Bajo la Curva (AUC) de 0.9910 en la curva ROC, lo cual indica una alta capacidad para distinguir entre imágenes de superficies con y sin corrosión, reflejando una precisión y sensibilidad robustas. Para validar la precisión y generalización del modelo, se utilizó un subconjunto de 99 imágenes que no formaban parte del entrenamiento. Este conjunto incluyó 83 imágenes de superficies sin corrosión y 16 imágenes de superficies con corrosión. El modelo clasificó correctamente 80 de las 83 imágenes sin corrosión, alcanzando una precisión del 96.39% en esta categoría, y clasificó correctamente todas las imágenes de superficies con corrosión, logrando un 100% de precisión en esta categoría. Es importante destacar que estos resultados son preliminares y se basan en una muestra del conjunto de datos, que puede no reflejar completamente la diversidad y complejidad de la población total de imágenes de superficies con y sin corrosión. Por lo tanto, se requiere una validación adicional con un conjunto de datos más amplio y diverso para confirmar la robustez y generalización del modelo. Además, debido a que la clase de superficies sin corrosión es significativamente mayor en número que la de superficies con corrosión, es crucial considerar el balance entre las clases en el conjunto de datos. Se podría explorar el uso de técnicas como la reponderación de clases o la generación de datos sintéticos para balancear el conjunto de datos y evitar que el modelo esté sesgado hacia la clase mayoritaria.
Díaz Rincón Dana Paola, Universidad Veracruzana
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

MEJORAMIENTO DE MORTEROS CON ADICIÓN DE CASCARILLA DE ARROZ


MEJORAMIENTO DE MORTEROS CON ADICIÓN DE CASCARILLA DE ARROZ

Díaz Rincón Dana Paola, Universidad Veracruzana. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La búsqueda de materiales de construcción más eficientes y sostenibles es crucial en la construcción moderna. La cascarilla de arroz, un subproducto agrícola abundante en México, ofrece un potencial significativo para mejorar las propiedades térmicas y acústicas de los morteros no estructurales. Con una producción anual de 250,000 toneladas de arroz, los residuos de cascarilla son frecuentemente desechados o quemados, causando problemas ambientales. El uso de la cascarilla de arroz en morteros no estructurales proporciona una solución para la gestión de residuos agrícolas y mejora la eficiencia energética y el confort acústico de los edificios. Estudios preliminares indican que la incorporación de cascarilla de arroz puede reducir la densidad del mortero y mejorar su capacidad de aislamiento térmico y acústico. Esta investigación analiza los efectos de la incorporación de cascarilla de arroz en morteros, con el objetivo de identificar las ventajas y desafíos de esta innovación sostenible y contribuir a la creación de materiales de construcción más eficientes y responsables con el medio ambiente.



METODOLOGÍA

Para la presente investigación, se desarrollaron cuatro mezclas distintas de mortero basadas en la norma NMX-C-061-ONNCCE-2015, utilizando una relación agua-cemento de 0.62 y una adición de cascarilla de arroz equivalente al 10% del peso del cemento. Se ajustaron diversos parámetros en cada mezcla para evaluar su impacto en las propiedades del mortero. La primera mezcla se elaboró con la adición de fibra en seco. La segunda mezcla incluyó la fibra en seco junto con 4 mililitros de aditivo reductor de agua. En la tercera mezcla, se incorporaron 4 mililitros de aditivo reductor de agua y 50 mililitros adicionales de agua en comparación con la mezcla base. Finalmente, la cuarta mezcla se preparó con fibra previamente saturada en agua durante 20 minutos, considerando el tiempo necesario para que las fibras liberaran el agua absorbida. La adición de cascarilla de arroz en cada una de las mezclas se realizó para evaluar su efecto en la fluidez del mortero. Para ello, se llevó a cabo una prueba de fluidez conforme a la NMX-C-061-ONNCCE-2015. Esta prueba es esencial para determinar la trabajabilidad del mortero y se realizó utilizando una mesa de fluidez. Cada muestra se colocó sobre la mesa y se sometió a 25 golpes en un lapso de 15 segundos. Posteriormente, se midió la expansión del mortero en cuatro puntos diferentes con una regleta, permitiendo así la evaluación de su fluidez. Esta prueba proporciona una medida de la capacidad del mortero para ser trabajado y compactado sin segregación. Adicionalmente, se realizaron pruebas de resistividad eléctrica en 6 especímenes de cada tipo de mezcla. En el contexto del mortero, esta prueba ayuda a evaluar la calidad del material en términos de su porosidad y la presencia de defectos internos que podrían afectar su durabilidad. La resistividad eléctrica es un indicador indirecto de la permeabilidad del mortero; materiales con alta resistividad suelen tener una menor permeabilidad y, por lo tanto, una mayor resistencia a la penetración de agentes agresivos, como agua y sales. Este análisis proporciona información crítica sobre la longevidad y la fiabilidad del mortero en aplicaciones prácticas, lo cual es fundamental para evaluar su desempeño en condiciones reales de servicio. Tras concluir las pruebas de fluidez y resistividad eléctrica, se seleccionó la mezcla que contenía fibra previamente saturada como la más adecuada. Se procedió al colado de especímenes, incluyendo cubos, briquetas, prismas y vigas. Para cada tipo de espécimen, se prepararon cuatro unidades y se evaluaron en cinco edades distintas: 7, 14, 28, 60 y 180 días. Esta metodología permite una evaluación exhaustiva de las propiedades del mortero a lo largo del tiempo, proporcionando una visión integral de su desempeño en diferentes condiciones de curado. Después de un período de 7 días de curado por inundación, se llevaron a cabo pruebas de compresión simple en los 6 especímenes de cada tipo de mezcla, así como en los especímenes testigo, con el objetivo de evaluar su resistencia mecánica. Estas pruebas fueron fundamentales para determinar las prestaciones del mortero al momento de ser utilizado en obra.    


CONCLUSIONES

Los resultados de las pruebas de fluidez revelaron que la cuarta mezcla, que incorporaba cascarilla de arroz previamente saturada, presentó la mejor trabajabilidad, con un promedio de desplazamiento de (). En comparación, las mezclas 1, 2 y 3 mostraron valores de (), respectivamente. En cuanto a la prueba de resistividad eléctrica, la mezcla 4 nuevamente demostró los mejores resultados, con un promedio de 29.76 KΩ/cm. Las mezclas 1, 2 y 3 presentaron resistividades de 28.50 KΩ/cm, 23.67 KΩ/cm, y 21.37 KΩ/cm, respectivamente, mientras que la muestra testigo tuvo una resistividad de 21.15 KΩ/cm. Finalmente, en las pruebas de resistencia mecánica, la mezcla 4 sobresalió con una resistencia promedio de 1315.83 kg/cm². Las mezclas 1, 2 y 3 obtuvieron resistencias de 1250.43 kg/cm², 921.10 kg/cm² y 419.73 kg/cm², respectivamente, mientras que la muestra testigo alcanzó una resistencia de 2964.9 kg/cm². En base a los resultados se concluye que la adición de cascarilla de arroz en el mortero mejora significativamente los criterios de durabilidad. Según la tabla 3 de Resistencia a la compresión de morteros de la N-CMT-2-01-004/02, el mortero resultante de la adición puede clasificarse como tipo I. Además, debido a sus características de porosidad y ligereza en comparación con las muestras testigo, el mortero con cascarilla de arroz no solo es adecuado como mortero no estructural, sino que también puede considerarse para su aplicación en bloques aligerados para muros divisorios. Estas propiedades otorgan al material una baja absorción térmica y un excelente aislamiento acústico, ampliando su potencial uso en la construcción sostenible y eficiente.
Díaz Salazar Kened Yair, Universidad Autónoma de Baja California
Asesor: Dr. Arturo Abúndez Pliego, Centro Nacional de Investigación y Desarrollo Tecnológico

EFECTOS DE LA HIBRIDACIóN SOBRE LA RESPUESTA MECáNICA DE MATERIALES COMPUESTOS ESTRUCTURALES


EFECTOS DE LA HIBRIDACIóN SOBRE LA RESPUESTA MECáNICA DE MATERIALES COMPUESTOS ESTRUCTURALES

Díaz Salazar Kened Yair, Universidad Autónoma de Baja California. Asesor: Dr. Arturo Abúndez Pliego, Centro Nacional de Investigación y Desarrollo Tecnológico



PLANTEAMIENTO DEL PROBLEMA

En el ámbito de los materiales compuestos estructurales, existe una creciente demanda por mejorar las propiedades mecánicas de estos materiales, especialmente en aplicaciones donde se requiere alta resistencia y capacidad de deformación sin fallo catastrófico. La fibra de carbono es conocida por su alta resistencia y rigidez, pero presenta una baja ductilidad, lo que limita su capacidad de deformación antes de la fractura. Por otro lado, la fibra de vidrio ofrece mayor ductilidad pero menor resistencia en comparación con la fibra de carbono. La combinación de ambas fibras en una matriz de resina epóxica, proceso conocido como hibridación, busca aprovechar las ventajas de cada material para lograr un compuesto con propiedades mejoradas. En particular, se pretende aumentar la pseudoductilidad del material compuesto, es decir, su capacidad de absorber energía y deformarse antes de alcanzar la falla, lo cual es crucial para aplicaciones en estructuras que deben soportar cargas dinámicas y condiciones extremas sin fallar de manera abrupta. Este estudio aborda la problemática de la baja ductilidad en materiales compuestos de alta resistencia y propone la hibridación como una solución para mejorar el rendimiento mecánico y la seguridad estructural.



METODOLOGÍA

Se inició con una exhaustiva investigación bibliográfica para comprender los antecedentes y bases teóricas de la hibridación de materiales compuestos. Basado en esta información, se diseñó un material compuesto hibridado utilizando fibra de carbono y fibra de vidrio, con resina epóxica como matriz. La configuración del material compuesto fue [±45°/0°₅/±45°], donde las capas orientadas a ±45° correspondieron a la fibra de vidrio y las capas orientadas a 0° (orientadas a máquina) correspondieron a la fibra de carbono tipo velo. Para evaluar la respuesta mecánica del material hibridado, se realizaron pruebas de tensión en 8 probetas. De estas, solo 4 fueron consideradas para el análisis comparativo debido a que las otras 4 presentaron fracturas fuera del área de estudio. Las pruebas se llevaron a cabo siguiendo los estándares ASTM, y se midieron las relaciones de esfuerzo-deformación para cada probeta.


CONCLUSIONES

Los resultados de las pruebas de tensión indican que la hibridación permite alcanzar una mayor pseudoductilidad en comparación con los materiales no hibridados, logrando una mejor absorción de energía antes de la fractura. Esto sugiere que el material compuesto hibridado puede ofrecer un mejor rendimiento en aplicaciones estructurales críticas donde se requiere alta resistencia y capacidad de deformación. El análisis detallado de las curvas de esfuerzo-deformación muestra que las probetas hibridadas exhiben un comportamiento más ductil antes de la falla, lo cual es beneficioso para prevenir fallas catastróficas en estructuras sometidas a cargas dinámicas. Este hallazgo confirma que la hibridación con fibra de carbono y fibra de vidrio utilizando resina epóxica como matriz es una estrategia efectiva para mejorar las propiedades mecánicas de los materiales compuestos. Participar en el Verano de Investigación Científica ha sido una experiencia invaluable para mi formación académica. Este proyecto me permitió aplicar conocimientos teóricos en un entorno práctico, desarrollar habilidades en técnicas de caracterización de materiales y profundizar en el análisis de resultados experimentales. Además, trabajar bajo la supervisión de expertos en el campo me brindó una perspectiva más amplia sobre la investigación en materiales compuestos y su importancia en la ingeniería moderna. Este programa ha reforzado mi interés en la investigación y me ha proporcionado herramientas fundamentales para mi futuro desarrollo académico y profesional.
Díaz Vargas Ximena, Universidad de Guadalajara
Asesor: M.C. José Francisco Reinaga Camacho, Universidad de Guadalajara

DESARROLLO DE UNA PAGINA WEB COMO GLOSARIO BOTáNICO DEL CUC COSTA


DESARROLLO DE UNA PAGINA WEB COMO GLOSARIO BOTáNICO DEL CUC COSTA

Díaz Vargas Ximena, Universidad de Guadalajara. Espinoza Torres Karen, Universidad Autónoma del Estado de México. Garcia Martinez Maria Teresa, Universidad de Guadalajara. Pérez Serrano Edmundo Angel, Universidad Autónoma del Estado de México. Asesor: M.C. José Francisco Reinaga Camacho, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En el mundo moderno, la accesibilidad a la información es crucial para satisfacer las necesidades de conocimiento y aprendizaje instantáneo. En este contexto, la creación de una página web dedicada a proporcionar información detallada sobre diversas especies de plantas que se encuentran dentro del CUC costa, facilitada mediante el escaneo de códigos QR a través de Google Lens, se convierte en un proyecto innovador y funcionalmente enriquecedor. Este proyecto tiene como objetivo principal desarrollar una plataforma web intuitiva y accesible que permita a los usuarios explorar y aprender sobre diferentes plantas simplemente utilizando la tecnología de escaneo de QR proporcionada por Google Lens. Al escanear un código QR asociado con una planta específica, los usuarios podrán acceder de manera instantánea a detalles relevantes como características físicas, hábitat natural, frutos y más información útil sobre la planta en cuestión. La página web está diseñada utilizando tecnologías modernas como React para la interfaz de usuario dinámica, MySQL Workbench para la base de datos con la información de cada planta y Node.js para el backend, asegurando así un rendimiento óptimo y una experiencia de usuario fluida tanto en dispositivos móviles como de escritorio. Además, se implementarán funcionalidades adicionales como la capacidad de búsqueda avanzada y filtros para facilitar la navegación dentro del catálogo de plantas, asegurando que los usuarios puedan encontrar fácilmente la información que están buscando. A lo largo de las semanas de desarrollo, nuestro equipo trabajo siguiendo una metodología basada en el Método RUP (Rational Unified Process), lo cual garantizará una planificación estructurada y una implementación iterativa y adaptativa del proyecto. Cada fase, desde la investigación inicial de requisitos hasta las pruebas finales y el despliegue del sitio web, será cuidadosamente gestionada para asegurar la calidad y la efectividad del producto final.



METODOLOGÍA

Metodología RUP para el Proyecto de Desarrollo de una Página Web como glosario del CUC costa Esta metodología RUP fue adaptada para proporcionar una estructura robusta para el desarrollo del proyecto de página web de información de plantas, asegurando una implementación ordenada y eficiente de las funcionalidades requerida Fase de Inicio Investigación y Recopilación de Requisitos: Identificar las necesidades y expectativas de los usuarios al escanear códigos QR de plantas. Definir los requisitos funcionales y no funcionales del sistema. Definición de la Funcionalidad del Escaneo de QR: Detallar cómo interactuará el usuario con el sistema al escanear un código QR. Diseño de la Base de Datos: Especificar la estructura de la base de datos para almacenar información detallada de las plantas (nombre, especificaciones, hábitat, etc.). Fase de Elaboración Desarrollo del Esqueleto de la Página Web: Utilizar React y Node.js para crear la estructura inicial de la página web. Implementar diseño responsivo para asegurar compatibilidad con dispositivos móviles y de escritorio. Configuración Inicial de Google Lens: Crear una cuenta de Google si aún no se tiene. Configurar y verificar la integración con Google Lens para el escaneo de códigos QR. Creación de Páginas y Secciones Iniciales: Desarrollar la página principal, "Inicio", y la sección "Contenido de Plantas". Agregar contenido básico como texto de bienvenida y navegación inicial. Fase de Construcción Configuración del Servidor Web (Node.js): Implementar un servidor web para manejar solicitudes HTTP y servir contenido dinámico. Desarrollo de la Lógica del Backend: Desarrollar la lógica necesaria para consultar y actualizar datos en la base de datos desde el backend. Integración de QR en la Página Web: Seleccionar y configurar un servicio de generación de códigos QR compatible con Google Lens. Generar códigos QR para cada planta y vincularlos a las páginas correspondientes en la web. Implementación de Funciones de Búsqueda y Filtros: Agregar funciones de búsqueda y filtros para facilitar la navegación y la búsqueda de plantas en el catálogo. Fase de Transición Pruebas de Integración y Usabilidad: Realizar pruebas exhaustivas del sitio web para verificar la funcionalidad del escaneo de QR y la navegación. Realizar ajustes en el diseño y contenido según el feedback obtenido de las pruebas. Optimización del Sitio Web: Mejorar el SEO (Optimización para Motores de Búsqueda) y la accesibilidad del sitio web. Fase de Despliegue y Mantenimiento Despliegue del Sitio Web: Configurar el sitio web para ser desplegado públicamente y asegurar su correcto funcionamiento. Documentación y Entrega: Documentar el proceso de desarrollo, incluyendo la gestión y mantenimiento del sitio web. Revisión General del Proyecto: Realizar una revisión final del sitio web y la aplicación de escaneo de QR. Realizar ajustes finales según el feedback final obtenido antes de la entrega del proyecto.


CONCLUSIONES

En conclusión, el desarrollo de la página web para proporcionar información sobre las plantas del CUC Costa representa una integración innovadora de tecnología y educación. Al utilizar códigos QR y Google Lens, el proyecto facilita el acceso instantáneo a detalles botánicos, promoviendo un aprendizaje interactivo y accesible tanto para estudiantes como para visitantes.  Además, esta herramienta no solo enriquecerá el conocimiento sobre la biodiversidad del campus, sino que también contribuirá a la conservación y apreciación de las especies botánicas presentes en el CUC Costa.
Dioncio Rincón Karol, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Cristian Giovanny Gomez Marin, Instituto Tecnológico Metropolitano

ANÁLISIS BIBLIOMETRICO DEL USO DE LAS TECNOLOGÍAS CONVERGENTES EN LA EFICIENCIA, TRANSPARENCIA Y SOSTENIBILIDAD DE LA CADENA DE SUMINISTRO


ANÁLISIS BIBLIOMETRICO DEL USO DE LAS TECNOLOGÍAS CONVERGENTES EN LA EFICIENCIA, TRANSPARENCIA Y SOSTENIBILIDAD DE LA CADENA DE SUMINISTRO

Dioncio Rincón Karol, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Cristian Giovanny Gomez Marin, Instituto Tecnológico Metropolitano



PLANTEAMIENTO DEL PROBLEMA

  La digitalización y las tecnologías convergentes han estado transformando significativamente las cadenas de suministro, el conjunto de estas tecnologías promete tener una eficiencia operativa y aumentar la transparencia para la contribución a la sustentabilidad de los procesos. Sin embrago los procesos no han tenido un análisis profundo ni una implementación cuantificada, es decir no han sido comprendidos en su totalidad, en la actualidad las empresas recurren a distintos métodos de optimización enfrentándose así a distintos desafíos y obstáculos para la unificación de las tecnologías convergentes que existen en la actualidad, debido a la resistencia al cambio.  En términos de sustentabilidad la presión que existe debido a que ha incrementado el cuidado del medio ambiente es de vital importancia para ejercer una transparencia en los procesos de la cadena de suministro, la falta de información y aplicación sobre el impacto real que están teniendo las tecnologías convergentes en la eficiencia, transparencia y sostenibilidad de las cadenas de suministro dificulta su adopción y optimización, las industrias, organizaciones y empresas necesitan ejercer una integración y generar un impacto a largo plazo.



METODOLOGÍA

  Tema de estudio y objeto de investigación La primera fase del análisis bibliométrico delimita claramente el objeto de estudio, en el cual se enfoca en resaltar los artículos de investigación de los artículos más sobresalientes de la evaluación del impacto de las tecnologías convergentes en la eficiencia, transparencia y sostenibilidad de la cadena de suministro. Selección y consulta de base de datos En la segunda fase del análisis se seleccionaron y se consultaron bases de datos de Scopus y Web of Science que se consideran fuentes importantes en la temática de la investigación, los criterios de búsqueda se enfocaron en los resultados más sobresalientes que han aportado directamente a la red de cadenas de suministro unificándose con las tecnologías convergentes Para el análisis bibliométrico se introdujo una ecuación en ambos sitios: Ecuación de Scopus (logistics OR supply AND network ) AND ( advanced AND technologies OR merged AND techn( ologies ) AND ( sustainability OR sustainable AND development ), en donde se obtuvieron un mínimo de 186 resultados. Ecuación de Web of cience: ( logistics OR supply AND network ) AND ( advanced AND technologies OR merged AND technologies ) AND ( sustainability OR sustainable AND development ), en donde se obtuvieron un máximo de 540 resultados. Se realizo una normalización de ambos sitios para que se unificaran los datos obtenidos al juntarlos nos dio un total de 726 datos, en donde nuevamente se realizó una depuración de archivos duplicados, en donde quedo un total de 706 documentos recopilados. En la tercera fase se desarrollaron rastreo de indicadores bibliométricos en donde se evalúo la cantidad de trabajos publicados, su distribución a lo largo del tiempo, y la productividad de autores, instituciones y países. Obteniendo así indicadores de calidad y de cantidad tomando como rango: año, autor, revista y país. Se cuantificaron y se determinaron filtros para que se unificaran los diez mejores resultados de cada rango. Para la última fase se realizó un mapeo apoyándonos del software de VOsviewer donde se estableció un análisis y visualización de los datos bibliométricos que anteriormente fueron normalizados. Se establecieron los siguientes criterios para obtener el mapeo: Análisis de Co-autores. Mapeo de Palabras Clave. Organizaciones. Países. En donde se lograra visualizar los que destacan para transformar datos complejos en visualizaciones intuitivas y accesibles, facilitando así la interpretación y análisis de grandes volúmenes de información científica.


CONCLUSIONES

El mundo se encuentra en un constante cambio y con ello la unificación de las tecnologías convergentes en  los procesos de la cadena de suministro han generado un impacto relevante para que la industria en general busque su implementación, aunque existe información limitada ya que es un tema que está surgiendo como una nueva alternativa de automatización es complicado ya que la resistencia al constante cambio es lo que impide que nuevas organizaciones se sumen y contribuyan, en pocos años será una realidad inmediata, como bien se muestra en el análisis bibliométrico es un tema que en la actualidad ha ido tomando fuerza para su implementación, el estudio de la influencia es crucial para entender cómo estas herramientas pueden ser utilizadas para la optimización.    
Dominguez Arce Kuiy Pao Keren, Universidad Autónoma de Baja California
Asesor: Dr. Celso Cortes Romero, Universidad de Guadalajara

TRANSCRIPTóMICA DEL PROCESO DE PRODUCCIóN DE RESINA EN MIROXYLON BALSAMUN


TRANSCRIPTóMICA DEL PROCESO DE PRODUCCIóN DE RESINA EN MIROXYLON BALSAMUN

Dominguez Arce Kuiy Pao Keren, Universidad Autónoma de Baja California. Asesor: Dr. Celso Cortes Romero, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Miroxylon balsamum es un árbol tropical nativo ampliamente distribuido en bosques tropicales perennifolios y semiperennifolios del sur de México, Centroamérica y los países del oeste de Sudamérica.  La madera es de buena calidad y altamente resistente, el árbol es considerado una importante fuente comercial de madera, los destilados de su resina son utilizados en perfumería, su bálsamo es utilizado como expectorante y para el tratamiento del asma, y tópicamente es utilizado en la medicina tradicional en el tratamiento de la leishmaniasis. La producción de resina es un proceso complejo que involucra una serie de respuestas fisiológicas y moleculares. La transcriptómica, que estudia el conjunto de ARN mensajeros producidos en una célula, puede ofrecer información valiosa sobre los mecanismos moleculares que regulan la producción de resina en esta especie. Objetivos:  Identificar los genes expresados durante el proceso de producción de resina en Miroxylon balsamum. Analizar las vías metabólicas involucradas en la biosíntesis de compuestos resinosos. Aplicar herramientas bioinformáticas que permitan la evaluación de la calidad de la calidad del transcriptoma y así facilitar la identificación y análisis de los genes implicados en la producción de resina en Miroxylon balsamum.  Justificación: La producción de resina en Miroxylon balsamum es un proceso biológico de gran relevancia económica y ambiental, dado que la resina es un producto utilizado en diversas industrias, incluyendo la farmacéutica, cosmética y de perfumería. Sin embargo, a pesar de su importancia, el conocimiento sobre los mecanismos moleculares y los factores que regulan la producción de resina en esta especie sigue siendo limitado. La transcriptómica ofrece una ventana única para investigar la expresión génica y las vías metabólicas implicadas en la biosíntesis de resinas. Este proyecto permitirá identificar los genes y las rutas metabólicas que son activas durante el proceso de producción de resina, aportando al conocimiento científico sobre la biología de Miroxylon balsamum y ampliando la base de datos genómica de especies vegetales con producción de resina.



METODOLOGÍA

Instalación de BUSCO. - Organizar y filtrar los archivos para la correcta ejecución del programa BUSCO. - Adecuar los sistemas computacionales adecuados para la instalación de BUSCO, de tal forma que cuente con los recursos de memoria RAM y memoria en el dispositivo, además de asegurarse que se tiene acceso completo a las bases de datos de ortólogos.  Ejecutar BUSCO: - Utilizar el comando de BUSCO para analizar el transcriptoma ensamblado - Para la utilización del comando BUSCO y asi obtener mejores resultados,  es necesario conocer algunas características principales del organismo analizado (por ejemplo: tipo de organismo, género taxonómico, etc.) y asi elegir el conjunto de ortólogos adecuado.  Interpretación de resultados:  Analizar los resultados generados por BUSCO, que incluirán estadísticas sobre el número de ortólogos completos, parciales y faltantes. Determinar la completitud del transcriptoma y su adecuación para análisis posteriores.


CONCLUSIONES

La evaluación con BUSCO mostró que el transcriptoma ensamblado de Miroxylon balsamum tiene una completitud mayor al 50%, lo que respalda la calidad de los datos obtenidos y proporciona una base sólida para para estudios posteriores Además, se realizó el análisis comparativo con otras especies utilizando ortólogos identificados. Esto puede ayudar a situar Miroxylon balsamum dentro del contexto filogenético de otras especies productoras de resina, sugiriendo mecanismos evolutivos compartidos. Los hallazgos de este estudio pueden ser utilizados para desarrollar estrategias de mejoramiento genético en Miroxylon balsamum con el objetivo de aumentar la producción de resina. La identificación de genes relevantes puede facilitar el diseño de enfoques biotecnológicos para optimizar la producción de compuestos valiosos. Comprender los mecanismos moleculares detrás de la producción de resina puede contribuir a la implementación de prácticas de manejo sostenible para Miroxylon balsamum. Esto es especialmente relevante dada la preocupación por la conservación de esta especie, que enfrenta amenazas por la explotación y la pérdida de hábitat. Este estudio amplía el conocimiento sobre los mecanismos de producción de resina en plantas. Los datos generados pueden servir como referencia para investigaciones futuras en otras especies de interés económico, industrial y ecológico, además  tiene aplicaciones prácticas en biotecnología y conservación, lo que podría tener un impacto positivo en el manejo sostenible de los recursos naturales.
Dominguez Lopez Indri Merlin, Universidad Autónoma de Chiapas
Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla

TARJETAS PARA CARACTERIZAR DISPOSITVOS MICROLECTRóNICOS.


TARJETAS PARA CARACTERIZAR DISPOSITVOS MICROLECTRóNICOS.

Dominguez Lopez Indri Merlin, Universidad Autónoma de Chiapas. Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La caracterización de dispositivos microelectrónicos como diodos, resistencias, capacitores y transistores MOSFET es muy importante para el diseño y desarrollo de circuitos electrónicos eficientes, sin embargo la caracterización de los dispositivos mencionados pueden resultar algo difícil, ya que pueden presentarse algunas desventajas, por ejemplo la falta de herramientas que sean adecuadas para llevar a cabo las caracterizaciones de los dispositivos de manera precisa lo que puede resultar fallos en la implementación de los circuitos. El objetivo principal es realizar mediciones precisas utilizando el equipo de laboratorio para caracterizar diodos, capacitores y transistores MOSFET. Actualmente, se necesitan soluciones prácticas que permitan llevar a cabo estas mediciones de forma precisa en un entorno de laboratorio que permita la caracterización fácil de estos dispositivos utilizando equipos de laboratorio básicos. 



METODOLOGÍA

Para llevar a cabo el objetivo del trabajo, primeramente se investigaron algunos circuitos básicos para diodos, capacitores y transistores MOSFET para después implementarlos en un protoboard con ello se hicieron prácticas en el laboratorio de electrónica para después analizar el comportamiento de la funcionalidad de los circuitos con el equipo disponible en el laboratorio, como un generador de funciones, osciloscopio, multímetro y fuente de alimentación. Ya que se verificaron que los circuitos funcionan correctamente, se realizaron ajustes necesarios para optimizar el diseño. Con los circuitos verificados y ajustados, se continuará con el diseño de las tarjetas de circuito impreso (PCBs).  


CONCLUSIONES

Este método permitirá crear tarjetas para la caracterización de dispositivos microelectrónicos, mejorando la precisión y eficiencia de las mediciones en el laboratorio. Con el diseño de las PCBs se espera una solución eficiente y reutilizable, facilitando la integración de las pruebas en las actividades diarias del laboratorio.
Dominguez Mendoza Luisa Fernanda, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Luis Carlos Arraut Camargo, Universidad Tecnológica De Bolívar

RETOS EN EL SECTOR PORTUARIO EN CARTAGENA, COLOMBIA QUE INTERVIENEN EN LA EFICIENCIA Y SOSTENIBILIDAD DE LA CADENA DE SUMINISTROS.


RETOS EN EL SECTOR PORTUARIO EN CARTAGENA, COLOMBIA QUE INTERVIENEN EN LA EFICIENCIA Y SOSTENIBILIDAD DE LA CADENA DE SUMINISTROS.

Arrieta Solorio Maria de los Angeles, Instituto Tecnológico de Ciudad Juárez. Dominguez Mendoza Luisa Fernanda, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Luis Carlos Arraut Camargo, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

Investigar las mejores prácticas internacionales de responsabilidad sostenible de cadenas de suministro, analizarlas en el contexto de Cartagena, y proponer recomendaciones para fortalecer su eficiencia relacionando las prácticas de los mismos. Los puertos de Cartagena de Indias, Colombia, enfrenta un desafío crucial en materia de optimización de la cadena de suministros y la logística portuaria. Como uno de los principales puertos del país, la eficiencia de las operaciones y la gestión de la cadena de suministros tienen un impacto directo en la competitividad del sector, la economía regional y el desarrollo sostenible.



METODOLOGÍA

Se utilizará una metodología mixta que combine elementos cualitativos y cuantitativos: Revisión de literatura (cualitativo): Revisión exhaustiva de la literatura académica y de informes de organismos internacionales sobre mejores prácticas en puertos sostenibles y cadena de suministros. Análisis de casos de estudio (cualitativo): Se seleccionarán puertos internacionales líderes en sostenibilidad y en logística, y se analizarán en detalle sus estrategias, proyectos e impactos, para identificar lecciones aprendidas aplicables a Cartagena. Análisis de datos (cuantitativo): Se recopilan y analizan datos cuantitativos sobre optimización de tiempos, recursos y cuestiones de almacenamiento del puerto de Cartagena y de los casos de estudio internacionales.


CONCLUSIONES

Los resultados esperados son proponer mejoras en la gestión de las actividades del puerto, alineada con la normativa internacional, para lograr un desarrollo sostenible y aprovechar la capacidad de optimizar tiempo y recursos en la actividad portuaria en Cartagena; con el fin de beneficiar y mejorar la calidad de vida marítima y local. De acuerdo al proyecto se determinó que el principal reto del sector portuario en Cartagena, Colombia, en materia de cadena de suministros es adaptar la infraestructura y operaciones para reducir significativamente los tiempos muertos y el desperdicio de recursos. 
Domínguez Pérez Pamela Isabel, Instituto Tecnológico de Morelia
Asesor: Dra. Nereyda Alcantar Mondragón, Instituto Tecnológico de Morelia

EFECTO DE LA AMPLITUD DE OSCILACIóN EN EL PROCESO DE SOLDADURA LáSER SOBRE LA PENETRACIóN EN UNA ALEACIóN AA6061


EFECTO DE LA AMPLITUD DE OSCILACIóN EN EL PROCESO DE SOLDADURA LáSER SOBRE LA PENETRACIóN EN UNA ALEACIóN AA6061

Domínguez Pérez Pamela Isabel, Instituto Tecnológico de Morelia. Asesor: Dra. Nereyda Alcantar Mondragón, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La soldadura por láser es una técnica avanzada que ofrece numerosas ventajas, como alta precisión, mínima distorsión térmica y capacidad para soldar materiales difíciles. Sin embargo, también presenta varios problemas y desafíos que es importante considerar:  1. Calidad del haz láser 2. Control de parámetros 3. Alineación y preparación de las piezas 4. Residuos y salpicaduras Todos estos factores pueden influir en nuestra soldadura al momento de utilizarla, por lo cual analizaremos las diferencias que existen entre dos valores distintos de wobble, el primero será de 0.1 y el segundo de 2.5; también tenemos parámetros como frecuencia y velocidad, los cuales también estaremos variando de forma aleatoria. Analizando y atacando con un reactivo especial para el aluminio 6061 los cordones de acuerdo a su macro y microestructura y observando de forma estética; todo esto con el motivo de encontrar las diferencias precisas y saber diferenciar entre un cordón y otro.



METODOLOGÍA

  1. Soldadura láser Durante esta práctica contamos con 16 placas de aluminio 6061, como primer paso tuvimos que utilizar una pulidora para eliminar impurezas o restos de óxido que hayan podido quedar en cada una de ellas. Contamos con distintas corridas, cada una de ellas teníamos distintos parámetros como wobble que en mi caso era de 2.5, velocidad y frecuencia. Como siguiente paso, utilizamos una herramienta de corte para poder dividir cada una de las 16 piezas de trabajo en 3, una división cerca del keyhole y la otra a la mitad de la pieza restante. Una vez realizado el paso anterior, apartamos las piezas centrales, es decir, la que no contiene el keyhole ni la que nos señala el número de corrida que corresponde. Cada quien contaba con 8 muestras, las cuáles debíamos de compactar con ayuda de una máquina de prensado de baquelita. Para lo cual necesitamos una medida de baquelita y un polvo para evitar la adherencia de esta en la prensa. Al momento de terminar el proceso de desbaste, lo consiguiente era pulir cada muestra con la ayuda de un equipo de pulido, la cual contenía un disco giratorio sobre el cual mojábamos con bastante alúmina. Después de tener nuestra muestra con el efecto espejo, lo siguiente es atacar, en este caso utilizamos el reactivo Tueker´s, con el propósito de visualizar la macroestructura de cada una. Dejamos reposar la muestra sobre el reactivo aproximadamente 20 segundos para que se efectuara de manera correcta. Posterior al haber realizado el ataque químico, necesitamos utilizar el microscopio OPTIKA para analizar cada cordón dependiendo de su microestructura. El microscopio cuenta con aumento de 5X,10X,20X y 50X.   2. Oxicorte Contamos con un tanque de gas acetileno y otro de oxígeno; al utilizar la máquina éstos se combinaban para formar la llama que necesitábamos para poder realizar el corte de manera eficiente. 1.- Colocamos el EPP 2.- Primero regulamos la llama mediante el flujo de los gases, a manera que tomara un color azul. 3.- Después debíamos quitar la humedad que tuviera la placa de acero. 4.- Una vez realizado esto, se empieza a cortar la pieza teniendo en cuenta que la llama debe estar lo suficientemente cerca del material para poder cortar de forma correcta pero no tan cerca porque la flama se ahoga y se tiene que repetir el proceso de regular la flama.    3. Proceso Arcair En este proceso ocupamos electrodos de grafito consumibles, como se sabe el grafito es un buen conductor de electricidad por lo que nos facilitará al momento de hacer el arco eléctrico sobre la pieza. Mi experiencia en este procedimiento fue algo cansado, pues necesitábamos colocarnos aparte del equipo de protección personal una escafandra; que después del tiempo sentías mucho calor, pero es parte de para tener una mayor protección al momento de estar practicando el proceso. 4. Corte por plasma  El arco de plasma corta la pieza de trabajo, primero derritiéndola y, luego, expulsando el metal fundido. 1.- Como primer paso, debemos utilizar EPP. 2.- Posterior en este proceso fue prender el compresor con el que contamos para crear la corriente del plasma. 3.- Después ya que nos colocamos los guantes especializados, tomamos el soplete el cual es la parte del equipo de corte por plasma que realmente entra en contacto con el metal que se está cortando. Incluye el electrodo, la boquilla, el anillo giratorio o un solo cartucho. Con esto manipularemos para realizar el corte a considerar.   5. Arco Sumergido Antes de empezar a utilizar este proceso, fue necesario que nos explicaran los elementos que lo conforman, para que sirven y como los podemos ejecutar.  Lo primero que realizamos fue verificar si teníamos una placa de acero, con la finalidad de dividirla en placas con 18 cm de largo cada una; en total debíamos sacar 16 placas. El motivo de cortar las 16 placas fue realizar en cada una de ellas un cordón de 15 cm, a los cuales les cambiamos los distintos valores de parámetros con los que contamos. Estos cordones los ejecutamos con el electrodo en negativo. De igual manera realizamos el mismo procedimiento con el electrodo en positivo.    


CONCLUSIONES

Al haber tenido la oportunidad de haber realizado el verano de investigación, pude reforzar y complementar los conocimientos previos con los que contaba. Más que nada en cuanto a los tipos de soldadura que se tienen en la institución y los procesos de corte. Respecto a la soldadura láser como sabemos tenemos distintos parámetros, pero desde mi perspectiva uno de los más importantes es el wobble ya que, debido a la experimentación realizada el wobble 0.1 al momento de atacar el cordón se forma en forma V y en mi caso me tocó trabajar con wobble 2.5 que atacándolo se formaban unas líneas tenues en el cordón; al visualizarlo con el microscopio se pudo observar que el aluminio 6061 contenía otros elementos en su microestructura.
Dominguez Rocha Aline Jamileth, Instituto Tecnológico de Acapulco
Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional

PRONOSTICANDO LA REDUCCIóN EN LA DISPONIBILIDAD DE AGUA DULCE PER CáPITA A NIVEL MUNDIAL


PRONOSTICANDO LA REDUCCIóN EN LA DISPONIBILIDAD DE AGUA DULCE PER CáPITA A NIVEL MUNDIAL

Dominguez Rocha Aline Jamileth, Instituto Tecnológico de Acapulco. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Actualmente, una de las principales problemáticas que amenaza el bienestar humano es la disminución de la disponibilidad de agua dulce a nivel per cápita. En muchos lugares, los recursos hídricos están siendo explotados más rápido de lo que pueden renovarse, lo que plantea serias preocupaciones sobre la sostenibilidad a largo plazo. Se revisaron los datos del banco mundial, encontrando que la cantidad de agua disponible en cada país se mantiene estable, en una tabla de datos de número de habitantes por país se encontró que la cantidad de personas está aumentando continuamente, por lo que la cantidad de agua se tiene que repartir en un mayor número de personas. Un análisis visual de la distribución de la población mundial nos permitió detectar que donde hay agua, hay más personas, esto ocurre en las laderas del himalaya, de los andes y de los Alpes.



METODOLOGÍA

Elección del tema: El investigador solicito registrar las observaciones, hallazgos y otros datos importantes durante la investigación. En este caso el tema a investigar es Tendencias en la disponibilidad de agua potable per cápita, el trabajo se delimito a los países más poblados del mundo debido a su relevancia con el factor más importante en los seres vivos, donde las personas resultan de primordial importancia. Recolección de datos: Los datos necesarios para la investigación se obtuvieron de dos fuentes principales: el Banco Mundial y un catálogo de países. Del banco mundial de obtuvieron 2 archivos de datos en formato CSV, relacionados con la disponibilidad de agua por país. El catálogo se obtuvo mediante la técnica de Scraping. Análisis exploratorio de datos: Se realizó un análisis exploratorio de datos utilizando técnicas de estadística descriptiva. Se calcularon medidas de tendencia central: media, mediana y moda; medidas de dispersión: desviación estándar y varianza; medidas de forma: sesgo y curtosis; y medidas de posición: cuartiles y distribución de frecuencias. Estos cálculos permitieron obtener una comprensión inicial de las características de los datos. Se calculó la correlación lineal en la variable de disponibilidad de agua dulce en los países con mayor población. Minería de datos: Se aplicaron técnicas de minería de datos con el propósito de encontrar patrones y tendencias en la disponibilidad de agua dulce en el futuro. Esto incluyó la aplicación de algoritmos de clustering, en este caso el algoritmo k-means, para agrupar países con características similares y la implementación de modelos predictivos, en este caso la regresión lineal y la regresión cuadrática, para prever tendencias futuras en la disponibilidad del agua. Resultados Obtenidos: Se llevó a cabo un análisis de los valores obtenidos, se encontró que la disponibilidad de agua en los países más poblados se mantiene estable, es decir sin variaciones significativas. Se encontró también que la población de estos países esta aumentando, por lo tanto, la disponibilidad de agua dulce per cápita está disminuyendo.  Documentación y presentación: Se elaboraron varias presentaciones y documentos como parte del trabajo de investigación. Las personas del programa Delfín expusimos a un grupo de docentes algunos de los conocimientos adquiridos, apoyados con una presentación.


CONCLUSIONES

Los hallazgos encontrados en esta investigación es motivo de preocupación, al mismo tiempo se tienen oportunidades para mejorar la gestión del uso del agua y establecer políticas de distribución equitativa del agua, ya que generalmente se favorece a un grupo de personas en detrimento de otras, esto es que en algunos lugares se tiene albercas mientras que en otros lugares cercanos no se cuenta con agua suficiente para cubrir las necesidades básicas. Lo anterior se puede enumerar como sigue: La disminución en la disponibilidad de agua potable per cápita es un problema causado principalmente por el aumento de la población en los diferentes países. Los datos que encontramos sobre el total de agua disponible se han mantenido estables, según lo indican los datos disponibles de los últimos 40 años. Los modelos visuales utilizados en esta investigación proporcionan una herramienta que permite detectar las tendencias en la disponibilidad de agua que indican una reducción de agua dulce conforme aumente la población. Esto datos resultan útiles para los responsables de la toma de decisiones quienes deberán implementar estrategias efectivas para mitigar el impacto de la reducción en la disponibilidad de agua per cápita. Este estudio muestra la necesidad de una adecuada gestión a futuro de uno de los recursos más importantes para la vida humana, de las plantas y de los animales.  
Doporto Galindo Bryan Rubicel, Instituto Politécnico Nacional
Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua

SISTEMAS DE TRATAMIENTO DE AGUAS RESIDUALES MEDIANTE HUMEDALES ARTIFICIALES Y BIOFILTROS.


SISTEMAS DE TRATAMIENTO DE AGUAS RESIDUALES MEDIANTE HUMEDALES ARTIFICIALES Y BIOFILTROS.

Doporto Galindo Bryan Rubicel, Instituto Politécnico Nacional. Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

La gestión del agua en México enfrenta un desafío crítico: la inoperancia de muchas de sus plantas de tratamiento de aguas residuales. Según Rubén Gregorio Muñoz, presidente de la Comisión de Recursos Hídricos, Agua Potable y Saneamiento de la Cámara de Diputados, el país cuenta con 3,960 plantas de tratamiento, de las cuales 1,330 están fuera de servicio. Esto se debe principalmente a la incapacidad de los municipios para cubrir los costos de operación, especialmente el consumo de energía eléctrica. (Cervantes, 2023; N.R., 2024) La inoperancia de estas plantas tiene consecuencias graves para el medio ambiente y la salud pública. Se encuentran microorganismos patógenos (bacterias, virus, parásitos) que producen enfermedades como hepatitis, cólera, disentería y diarreas. La materia orgánica (materia fecal, papel higiénico, restos de alimentos, jabones y detergentes) consume el oxígeno del agua y produce malos olores. Los nutrientes propician el desarrollo desmedido de algas y malezas acuáticas en arroyos, ríos y lagunas. Otros contaminantes como aceites, ácidos, pinturas y solventes alteran el ciclo de vida de las comunidades acuáticas. La descarga de aguas residuales sin tratar contamina ríos, lagos y acuíferos, poniendo en riesgo la biodiversidad y el suministro de agua potable para millones de mexicanos, y contribuye al deterioro de los ecosistemas costeros, agravando problemas como la eutrofización y la proliferación de algas nocivas. (CONAGUA, 2019) Es imperativo desarrollar e implementar soluciones innovadoras y sostenibles para el tratamiento de aguas residuales. El presente proyecto de investigación se centra en la evaluación de humedales artificiales y biofiltros como tecnologías prometedoras. Se busca generar conocimiento científico para optimizar su diseño y operación, y promover su implementación a mayor escala, especialmente en comunidades donde la infraestructura convencional resulta costosa o difícil de mantener.



METODOLOGÍA

El estudio se llevó a cabo en la Planta de Tratamiento y Calidad del Agua del Instituto Mexicano de Tecnología del Agua (IMTA). Se realizó un muestreo de aguas residuales proveniente del Estado de México, específicamente de la Cañada. Las muestras fueron sometidas a una caracterización fisicoquímica siguiendo las normas mexicanas. Parámetros analizados: pH: Un indicador de la acidez o alcalinidad del agua. La muestra de la Cañada obtuvo un pH de 8.80, ligeramente alcalino. Conductividad electrolítica: La capacidad de una solución para transportar corriente eléctrica. La muestra de la Cañada presentó 388 mS/cm. Temperatura: Se registró una temperatura promedio de 25°C. Sólidos totales: Se determinó una concentración de 200 mg/L. Demanda química de oxígeno (DQO): La muestra de la Cañada presentó 149 mg/L. Alcalinidad: Se obtuvo un valor de 168 mg/L. Nitrógeno amoniacal: La concentración fue de 43 mg/L. Carbono orgánico total (COT): La muestra presentó 1030 mg/L. Fósforo total y fosfatos: Se determinó una concentración de 82 mg/L de fósforo total y 2.9 mg/L de fosfato. Comparando estos resultados con los límites establecidos en la NOM-001-SEMARNAT-2021, se observa que las concentraciones de sólidos totales, COT y fósforo total son superiores a los límites permisibles. Esto indica una alta carga contaminante en las aguas residuales de la Cañada, lo que podría tener un impacto negativo en los ecosistemas acuáticos si no se tratan adecuadamente. Para reducir la concentración de estos contaminantes, se evaluó la eficiencia de tres biofiltros. Los resultados preliminares indican que los biofiltros lograron disminuir significativamente los niveles de sólidos totales, COT, nitrógeno amoniacal y fósforo total, acercándolos a los valores permisibles establecidos en la normatividad.


CONCLUSIONES

Eficiencia de los biofiltros: Los biofiltros demostraron ser una tecnología prometedora para el tratamiento de estas aguas residuales, logrando reducir significativamente los niveles de los principales contaminantes. Implicaciones para la problemática nacional: La situación de las plantas de tratamiento de aguas residuales en México es alarmante. La inoperancia de un tercio de estas plantas evidencia la necesidad urgente de soluciones innovadoras y sostenibles. ​Propuestas para mejorar la situación: Escalamiento de tecnologías como los biofiltros: Los resultados sugieren que los biofiltros pueden ser una alternativa viable para el tratamiento de aguas residuales en comunidades pequeñas y medianas. Promoción de la reutilización del agua: El agua tratada en los biofiltros puede ser reutilizada para riego agrícola, industrial o recargar acuíferos. Fortalecimiento de las políticas públicas: Es necesario implementar políticas públicas que incentiven la inversión en tecnologías de tratamiento de aguas residuales y promuevan la participación de la sociedad civil. Investigación continua: Se requiere continuar investigando y desarrollando nuevas tecnologías de tratamiento de aguas residuales. Monitoreo y control: Es fundamental establecer sistemas de monitoreo y control para garantizar el cumplimiento de la normatividad ambiental y la eficiencia de las plantas de tratamiento.
Duarte Enciso Leidy Yulieth, Fundación Universitaria Cafam
Asesor: Dr. Freddy Segundo Navarro Pineda, Universidad Autónoma de Yucatán

SOSTENIBILIDAD Y ENERGíA EN COLOMBIA: EXPLORANDO SOLUCIONES PARA UN FUTURO VERDE


SOSTENIBILIDAD Y ENERGíA EN COLOMBIA: EXPLORANDO SOLUCIONES PARA UN FUTURO VERDE

Duarte Enciso Leidy Yulieth, Fundación Universitaria Cafam. Navarrete Navarrete Jhoan Stiven, Universidad de Pamplona. Asesor: Dr. Freddy Segundo Navarro Pineda, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

Colombia depende en gran medida de la energía hidroeléctrica, que representa entre el 63% y el 70% de la generación total de electricidad del país. Esta fuente renovable ha sido históricamente dominante gracias a la abundancia de recursos hídricos. Las plantas térmicas, que utilizan combustibles fósiles como el carbón y el gas natural, constituyen entre el 28% y el 35% de la generación eléctrica. Estas plantas se emplean principalmente como respaldo durante períodos de baja disponibilidad hídrica. Aunque aún en desarrollo, las fuentes de energía renovable no convencionales, como la solar y la eólica, están ganando importancia. En 2023, la participación de estas energías en la matriz energética era baja, pero con un crecimiento notable en proyectos y capacidad instalada, como el Parque Eólico de Vientos de La Guajira, que se espera tenga una capacidad total de aproximadamente 200 MW.Colombia depende en gran medida de la energía hidroeléctrica, que representa entre el 63% y el 70% de la generación total de electricidad del país. Esta fuente renovable ha sido históricamente dominante gracias a la abundancia de recursos hídricos. Las plantas térmicas, que utilizan combustibles fósiles como el carbón y el gas natural, constituyen entre el 28% y el 35% de la generación eléctrica. Estas plantas se emplean principalmente como respaldo durante períodos de baja disponibilidad hídrica. Aunque aún en desarrollo, las fuentes de energía renovable no convencionales, como la solar y la eólica, están ganando importancia. En 2023, la participación de estas energías en la matriz energética era baja, pero con un crecimiento notable en proyectos y capacidad instalada, como el Parque Eólico de Vientos de La Guajira, que se espera tenga una capacidad total de aproximadamente 200 MW.



METODOLOGÍA

Producción de Combustibles Fósiles Colombia es un importante productor de petróleo, con una producción de entre 750,000 y 800,000 barriles por día. El petróleo es crucial para el transporte y la industria. Además, el país produce gas natural, que se usa tanto para la generación de electricidad como para consumo industrial y residencial, con una producción de aproximadamente 1,000 millones de pies cúbicos por día. En cuanto al carbón, Colombia es uno de los principales exportadores del mundo, aunque su uso interno para la generación de electricidad es limitado. Consumo de Energía El consumo de electricidad en Colombia está en aumento debido a la expansión urbana y el desarrollo económico. Según la UPME, la demanda total de electricidad es de aproximadamente 70,000 a 80,000 GWh anuales. En los sectores más consumidores, el transporte es el mayor consumidor de combustibles fósiles, principalmente gasolina y diésel, y representa una parte significativa de las emisiones de CO₂. Le sigue el sector industrial, que incluye minería, manufactura y producción de cemento, con un alto consumo de combustibles fósiles, especialmente carbón. El sector residencial y comercial también ha visto un aumento en el consumo energético con la expansión urbana, utilizando principalmente electricidad, pero también combustibles fósiles para calefacción y cocción. En cuanto a los datos obtenidos en la investigación, se puede evidenciar que el balance energético de Colombia en cuanto a consumo es de 1130 PJ , esta información fue tomada respecto del sector de transporte; incluyendo el transporte aéreo, maritimo y terrestre y por otro lado el sector de No transporte donde se incluye información del sector residencial, industrial, comercial y otros sectores, donde el 71% de las fuentes de energía son de combustibles fósiles, seguido de un 23,25% de hidroeléctricas, los biocombustibles ocupan el 2,49%, le sigue las fuentes de Biomasa en 1,65% y por ultimo las fuentes fotovoltaicas con un 0,83% y las fuentes eólicas con el 0,71%. Es importante mencionar que el sector de transporte actualmente funciona principalmente con fuentes fósiles las cuales ocupan entre el 70% y 90% de uso en los tres sectores de transporte investigadas. En el caso de No transporte las fuentes de energía principales están entre las fósiles y las hidroeléctricas, en el caso de las fósiles van desde aproximadamente el 36% y el 84% donde su uso mayor es en el sector residencial y en el caso de las hidroeléctricas van desde aproximadamente el 15% y el 63% donde su uso mayor es en el sector comercial.


CONCLUSIONES

La transición a tecnologías eficientes en Colombia es un proceso complejo pero esencial para enfrentar los desafíos energéticos y ambientales. Implica promover energías renovables, mejorar la eficiencia energética, electrificar el transporte, desarrollar políticas adecuadas e invertir en infraestructura. Estas estrategias pueden llevar a un futuro energético más sostenible y resiliente para el país.
Duarte Martinez Clara Verónica, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dra. Norma Julieta Salazar López, Universidad Autónoma de Baja California

REVALORIZACIóN DEL SUBPRODUCTO DE ZARZAMORA (RUBUS FRUTICOSUS) COMO FUENTE DE áCIDO CAFEICO CON POTENCIAL ANTIINFLAMATORIO: UN ANáLISIS IN SILICO


REVALORIZACIóN DEL SUBPRODUCTO DE ZARZAMORA (RUBUS FRUTICOSUS) COMO FUENTE DE áCIDO CAFEICO CON POTENCIAL ANTIINFLAMATORIO: UN ANáLISIS IN SILICO

Duarte Martinez Clara Verónica, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dra. Norma Julieta Salazar López, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

La población mundial alcanzó los 8 mil millones de personas en el año 2022 y se proyecta que será de 9.7 mil millones para 2050, lo cual intensificará la demanda de alimentos. Se estima que el 10% de la población mundial sufre de hambre crónica. Por otra parte, la FAO estima que cada año se desperdicia un tercio de los alimentos producidos globalmente, por lo tanto, si se lograra reducir un cuarto de estos desperdicios, se podría alimentar a todas las personas que padecen hambre crónica en el mundo. Dentro de los productos agrícolas que generan un alto volumen de desperdicio se encuentran las frutas y hortalizas. Particularmente, durante el procesamiento de la zarzamora para la producción de jugos, se genera un subproducto del 20-30%, compuesto por piel, semillas, bagazo y ocasionalmente tallos, los cuales contienen compuestos de valor que podrían ser aprovechados.  A pesar de su potencial, estos subproductos son subutilizados, perpetuando un ciclo de desperdicio que no solo afecta la seguridad alimentaria, sino también el medio ambiente. Revalorizar estos subproductos podría no solo reducir el desperdicio, sino también contribuir a la creación de alimentos funcionales que ofrecen beneficios adicionales para la salud, alineándose con la creciente demanda de alimentos que van más allá de la nutrición básica.  



METODOLOGÍA

Se realizó una revisión bibliográfica  para identificar los subproductos generados en la cadena alimentaria, seleccionando la zarzamora y sus compuestos bioactivos con potenciales beneficios para la salud. Se consultaron bases de datos científicas como PubMed y Google Scholar. Los estudios relevantes se seleccionaron y analizaron para resumir la información sobre los compuestos presentes en los subproductos de zarzamora. Posteriormente, se realizó un análisis teórico de la composición química de los subproductos de zarzamora, centrado en identificar los compuestos bioactivos. Se utilizó la información bibliográfica para detallar los compuestos presentes, como el ácido cafeico, y se evaluaron sus propiedades. Se revisaron estudios previos para comprender cómo estos compuestos pueden afectar procesos biológicos relevantes, como la inflamación y el estrés oxidativo, y se formularon hipótesis sobre sus posibles beneficios para la salud. A continuación, se llevó a cabo un análisis in silico para predecir las interacciones entre los compuestos bioactivos y la fosfolipasa A2, la cual es una enzima clave en el proceso inflamatorio. Se descargaron las estructuras moleculares del ácido cafeico desde PubChem y de la fosfolipasa A2 desde el Protein Data Bank (PDB). Con estas estructuras, se utilizó el software MOE 2022 para preparar las moléculas para simulaciones de docking molecular. El docking se realizó para predecir cómo el ácido cafeico podría interaccionar con la fosfolipasa A2, evaluando las posiciones de unión y las energías de interacción. Finalmente, se evaluaron y discutieron los resultados del análisis in silico. Se discutieron las implicaciones de los hallazgos para el desarrollo de productos con beneficios para la salud, y se sugirieron posibles direcciones para investigaciones futuras.   


CONCLUSIONES

Se identificó que el ácido cafeico es un compuesto fenólico presente en los subproductos de zarzamora y presenta 5 afinidades de acoplamiento con la fosfolipasa A2 donde particularmente las interacciones se realizaron con los aminoácidos, tirosina-20, isoleucina-29, lisina-61, glicina-28, histidina-46, ácido aspártico-47, fenilalanina-5, cisteína-2, presentándose la principal con un score  -4.6867. La posible interacción del ácido cafeico con la fosfolipasa A2 resulta relevante, ya que la fosfolipasa A2 es una enzima implicada en la degradación de fosfolípidos de la membrana celular y en la producción de mediadores inflamatorios, lo que sugiere que esta interacción podría ser inhibidora y explotada para efectos antiinflamatorios.  Lo anterior permite proponer la revalorización de los subproductos de zarzamora para su aplicación en el desarrollo de alimentos funcionales con potencial antiinflamatorio, con lo cual se estaría proponiendo una estrategia para contribuir en los objetivos de desarrollo sostenible de producción y consumo responsable y de bienestar y salud.  Sin embargo, esta predicción computacional debe ser complementada con estudios experimentales para confirmar su relevancia biológica y terapéutica. 
Duarte Pinto Felix Dario, Universidad Simón Bolivar
Asesor: Mg. Clara Sarith Amaya Marmol, Universidad de la Guajira

DISEÑO DE UN SISTEMA DE DESALINIZACIÓN DE AGUA POR OSMOSIS INVERSA EN LA COMUNIDAD INDÍGENA CHONCHONPRIS #2 EN ZONA RURAL DEL DISTRITO DE RIOHACHA


DISEÑO DE UN SISTEMA DE DESALINIZACIÓN DE AGUA POR OSMOSIS INVERSA EN LA COMUNIDAD INDÍGENA CHONCHONPRIS #2 EN ZONA RURAL DEL DISTRITO DE RIOHACHA

Arias Aguiñaga Jorge, Instituto Tecnológico de San Luis Potosí. Duarte Pinto Felix Dario, Universidad Simón Bolivar. Morales Galván Irvin Rosendo, Instituto Tecnológico de San Luis Potosí. Asesor: Mg. Clara Sarith Amaya Marmol, Universidad de la Guajira



PLANTEAMIENTO DEL PROBLEMA

El problema que se plantea se centra en la escasez de agua que afecta a más del 40% de la población mundial, un fenómeno que no solo provoca dificultades en el acceso a agua potable, sino que también conlleva graves consecuencias, como la muerte de alrededor de 1000 niños al día debido a enfermedades diarreicas relacionadas con la falta de higiene (Naciones Unidas, 2018). A nivel global, el vertido del 8% de las aguas residuales sin tratamiento y la falta de acceso a servicios modernos de electricidad para 3000 millones de personas agravan la situación, especialmente en las zonas rurales aisladas que carecen de servicios básicos. En el contexto de Colombia, el 52% del territorio pertenece a Zonas No Interconectadas (ZNI), lo que dificulta el acceso constante y de calidad a la energía eléctrica para sus habitantes. Además, el 29% de la población colombiana reside en zonas rurales, donde el 48% no tiene acceso a una red de suministro de agua; dentro del 52% restante que sí cuenta con el acceso de agua, solo el 12% tiene suministro seguro para el consumo humano (Viceministerio de Ambiente, 2010; Mantilla, 2016; Bustos, 2014). El problema se agrava en el departamento de La Guajira, donde se han registrado un preocupante número de muertes en niños, asociadas a la desnutrición y enfermedades derivadas de ella. Además, La Guajira enfrenta una pobreza extrema, con una brecha significativa entre su situación regional y la nacional, de aproximadamente 4:1 (Departamento Administrativo Nacional de Estadística [DANE], 2020). Por lo tanto, es esencial abordar la falta de acceso a agua potable en comunidades indígenas que dependen de pozos subterráneos con agua salobre. Una solución viable podría ser la implementación de tecnologías de desalinización, como la osmosis inversa, para mejorar la calidad de vida de estas comunidades y mitigar este grave problema.



METODOLOGÍA

Durante el periodo del 17 de junio al 2 de agosto de 2024, se lleva a cabo el Programa Delfín, un programa orientado al desarrollo y la potenciación de la investigación en jóvenes de México, Colombia, Perú, Costa Rica, entre otros países latinos. Este programa busca acercar a los estudiantes de pregrados a experiencias de interculturalidad y crecimiento académico mediante la colaboración con docentes investigadores. El papel principal es apoyar en los proyectos que se vienen desarrollando a lo largo de un periodo determinado de tiempo, con el objetivo de publicar un artículo de investigación. En este caso, se trabajó en el diseño de un sistema de ósmosis inversa para una comunidad indígena en norte de Colombia, en el departamento de La Guajira, el desarrollo de esta parte del proyecto se realizó a través de una planificación semanal, la cual tiene una duración de casi dos meses, e inició con la caracterización de la comunidad a través del análisis estadístico de 3 encuestas; así mismo, se caracterizó el agua a la que tienen acceso por medio de 15 muestras, posteriormente con la información recopilada se continuó con el diseño de la planta mediante el modelado en los software WAVE y Fusion 360. Finalmente, se realizó una evaluación del impacto socioeconómico de la implementación de la planta en dicha población con la ayuda de un sondeo que busca determinar las intenciones de negocio de la comunidad a partir del agua potable.  Escogimos esta línea de investigación basándonos en nuestros conocimientos y en los requerimientos solicitados por la Maestra Clara Amaya, docente e investigadora de la Universidad de La Guajira, en Riohacha, Colombia. Así pues, comenzó una de las aventuras académicas más interesantes de nuestras vidas. Otro propósito fue compartir los conocimientos adquiridos a lo largo de dos años y medio de estudio, con los colegas de la Universidad de La Guajira, en Colombia, quienes también estudian ingeniería mecánica y al mismo tiempo nos fuimos adaptando a un nuevo contexto sociocultural, con el único objetivo del desarrollo constante de nuestro perfil como ingenieros.


CONCLUSIONES

La instalación de una planta de ósmosis inversa en Chonchonpris #2 no solo proporcionará acceso a agua potable, sino que también tendrá un impacto positivo en el contexto socioeconómico de la comunidad. Con un suministro constante y seguro de agua potable, se mejorará la salud general de los habitantes, especialmente de los niños, quienes son más vulnerables a las enfermedades transmitidas por el agua. Además, la reducción del gasto en la compra de agua potable liberará recursos económicos que pueden ser utilizados en otras áreas importantes como la educación, la alimentación y el desarrollo comunitario. Se espera que la implementación de una planta de ósmosis inversa en la comunidad indígena Chonchonpris #2 sea una medida esencial que atienda las necesidades críticas de agua potable, mejorando la salud pública y fortaleciendo el desarrollo socioeconómico de la comunidad.
Duarte Quintero Maria Fernanda, Universidad Cooperativa de Colombia
Asesor: Mtro. Horacio Alejandro Ulloa López, Universidad Nacional Autónoma de Nicaragua, Managua

SUSCEPTIBILIDAD A MOVIMIENTOS EN MASA EN SANTA MARTA CON BASE EN EL ANALISIS JERARQUICO DE PROCESO


SUSCEPTIBILIDAD A MOVIMIENTOS EN MASA EN SANTA MARTA CON BASE EN EL ANALISIS JERARQUICO DE PROCESO

Araujo Barros Juan Pablo, Universidad Cooperativa de Colombia. Duarte Quintero Maria Fernanda, Universidad Cooperativa de Colombia. Asesor: Mtro. Horacio Alejandro Ulloa López, Universidad Nacional Autónoma de Nicaragua, Managua



PLANTEAMIENTO DEL PROBLEMA

La ciudad de Santa Marta, ubicada en un entorno geográfico de relevancia y belleza natural, enfrenta un desafío permanente en lo relacionado con la estabilidad de sus taludes ante la susceptibilidad de movimientos en masa. Para abordar esta problemática con rigor y eficacia, se propone realizar un estudio que incorpore tecnologías avanzadas,  información proveniente de imágenes de satélite y los sistemas de información geográfica con el fin de evaluar múltiples criterios para el área de abarca el municipio de Santa Marta con el fin de determinar las zonas más susceptibles a estos tipos de fenómenos.   Los procesos de movimientos en masa se producen en ciertas condiciones en los que algunos variables actúan como condiciones y otras como detonantes, como es el caso de las precipitaciones o la sismicidad de la zona, o en el peor escenario los dos al mismo tiempo. Es por ello por lo que surge la propuesta de hacer este análisis para el municipio de Santa Marta con base en las condiciones naturales en que se encuentra. Así mismo este estudio se lleva a cabo en línea con los Objetivos de Desarrollo Sostenibles, especialmente con el ODS 11, relacionado con la construcción de ciudades más resilientes y sostenibles (ODS 11), el que busca prevenir riesgos y garantizar la seguridad de los habitantes de Santa Marta.



METODOLOGÍA

Enfoque multidisciplinario e innovador tiene como propósito no solo comprender a fondo las condiciones actuales movimientos en masa en Santa Marta, sino también sentar las bases para la implementación de medidas preventivas y correctivas que contribuyan a preservar la seguridad y sostenibilidad del entorno urbano y natural en esta región costera.   Este estudio sobre la susceptibilidad a movimientos en masa se ha llevado a cabo siguiendo una metodología rigurosa y estructurada. Esta metodología se ha diseñado para abordar de manera integral los diversos aspectos del problema, desde la recopilación inicial de datos hasta la elaboración de conclusiones y recomendaciones finales. El proceso comenzó con una fase de preparación y revisión documental. Durante esta etapa, se realizó una revisión detallada de la literatura existente el análisis de la susceptibilidad a movimientos en masa y  el uso de fuentes de información geoespacial como Modelos de Elevación Digital (DEM por sus siglas en ingles). Paralelamente, se recopilaron y procesamiento de las capas de información disponibles sobre geología, sismicidad, precipitaciones, pendientes, uso de suelo, unidades geomorfológicas y drenajes de la zona de estudio. Esta fase también incluye la capacitación del equipo de investigación en herramientas y técnicas esenciales, como el uso de QGIS, el Método de Análisis Jerárquico de Procesos (AHP) y el manejo de Modelos de Elevación Digital (DEM). Estos datos se procesaron inicialmente mediante georreferenciación, ajuste de proyecciones, recorte al área de estudio, extracción y reclasificación según las necesidades del análisis.   El análisis de los datos y la elaboración de cartografía preliminar. Esto se logra con la aplicación del método de Análisis Jerárquico de Proceso para ponderar los factores condicionantes y detonantes con una alta certeza garantizada a través de la matriz de consistencia y que se materializa utilizando el software para análisis espacial gratuito QGIS. Este análisis incluye comparación y análisis multicriterio con el fin de determinar las zonas más susceptibles a la ocurrencia de movimientos en masa en el municipio de Santa Marta. El producto final deberá ser un mapa de susceptibilidad de movimientos en 5 niveles: muy alta, alta, moderada, baja y muy baja.


CONCLUSIONES

Durante nuestra pasantía de verano se lograron adquirir conocimientos sobre la estabilidad de taludes en Santa Marta, los tipos de movimientos en masa, el uso información provenientes de información satelital, una herramienta poderosa para la gestión de riesgos de desates al igual que el uso de los sistemas de información geográfica, en este caso QGIS.   Entre las conclusiones obtenidas hasta el momento se pueden mencionar que el municipio de Santa Marta presenta elevaciones por encima de los 5000 m s. n. m., lo que trae consigo pendientes muy inclinadas y una densidad de drenaje considerable que pueden considerarse propicios para los procesos de movimientos en masa. Sin embargo la sismicidad es considerada baja debido a que no se encuentra en una zona de subducción ni vulcanismo activo.  En cuanto a las precipitaciones son moderadas, sin embargo, el efecto de cambio climático y la variabilidad climática traen consigo un comportamiento inesperado de estas.   Entre las perspectivas tenemos contemplada el análisis completo de todos los criterios o variables que intervienen en la activación de un movimiento en masa para el que se estarán proponiendo estudios específicos y medidas de mitigación. Estamos convencidos de que la implementación de nuestras recomendaciones y el uso continuo de esta metodología contribuirán significativamente a mejorar la seguridad y la resiliencia de Santa Marta, protegiendo tanto a sus habitantes como a su invaluable patrimonio natural y cultural.
Dueñas Alvarez Karen, Universidad de Sonora
Asesor: Dr. Erick Eduardo Guzmán Quezada, Universidad Autónoma de Guadalajara

DESARROLLO DE INTERFACES HUMANO COMPUTADORA Y WEARABLES


DESARROLLO DE INTERFACES HUMANO COMPUTADORA Y WEARABLES

Calles Sánchez Diana Carolina, Universidad de Sonora. Dueñas Alvarez Karen, Universidad de Sonora. Asesor: Dr. Erick Eduardo Guzmán Quezada, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Un accidente cerebrovascular (ACV), conocido también como derrame cerebral, se produce cuando el flujo sanguíneo hacia una parte del cerebro se interrumpe o se reduce significativamente, lo que impide que el tejido cerebral reciba oxígeno y nutrientes esenciales, pudiendo llevar a la muerte celular en cuestión de minutos. Las consecuencias de un ACV pueden ser severas y duraderas, incluyendo parálisis (hemiplejía) o debilidad (hemiparesia), que afectan la movilidad y las actividades diarias del paciente. La rehabilitación post-ACV es crucial para recuperar el movimiento, el habla y las habilidades necesarias para la vida diaria, mejorando así la calidad de vida y la independencia del paciente. Entre las terapias más comunes se encuentran la fisioterapia y la Estimulación Eléctrica Funcional (FES).  Este estudio propone utilizar una terapia basada en la neuroplasticidad con el apoyo de un electroencefalograma (EEG) y un exoesqueleto. La neurorehabilitación basada en la neuroplasticidad explota la capacidad del cerebro para reorganizarse y formar nuevas conexiones neuronales, lo cual puede ser más efectivo para la recuperación motora. Las interfaces cerebro-computadora (BCI) permiten la comunicación directa entre el cerebro y una computadora, interpretando la actividad eléctrica cerebral y traduciéndola en comandos para controlar dispositivos. En este proyecto, las BCI se aplican a la rehabilitación motora de pacientes con parálisis en las extremidades superiores causadas por un ACV. Los pacientes entrenan con una BCI realizando movimientos o simulando mentalmente dichos movimientos, facilitados por un exoesqueleto.



METODOLOGÍA

Participantes: Se reclutaron 40 voluntarios sanos y sin experiencia previa en BCI, con edades entre 18 y 29 años, para participar en el estudio en el Laboratorio de Dispositivos Médicos de la Universidad Autónoma de Guadalajara. Todos los participantes firmaron un consentimiento informado. EEG: Se utilizó un gorro EEG inalámbrico de 32 canales (FLEX 2 Saline) de EMOTIV con 34 electrodos para registrar la actividad cerebral. Los electrodos se colocaron según el sistema internacional 10/20. Los datos se procesaron mediante la interfaz de programación Cortex de Emotiv, usando software para sincronizar los electrodos y verificar la detección de señales. EMG: Se emplearon señales de electromiografía (EMG) para corroborar el inicio de los Potenciales Corticales Relacionados con el Movimiento (MRCP). El sistema EMG, diseñado por el laboratorio, incluía amplificación y filtrado según estándares de Arduino UNO. Protocolo de Registro: Los registros se realizaron en un entorno controlado para minimizar interferencias. Los participantes, después de prepararse adecuadamente, realizaron movimientos de cerrar la mano siguiendo una interfaz en pantalla desarrollada en Python. El experimento duró entre 45 y 50 minutos, con 5 series de 10 movimientos. Procesamiento de Datos: Los datos de EEG y EMG se guardaron en archivos Excel y se filtraron para minimizar el ruido. Se aplicaron filtros CAR y antilaplacianos, y se utilizó un filtro pasa bandas Butterworth de 0.1 a 1 Hz. Se extrajeron características de los datos de EEG en Python usando 9 electrodos, y los datos fueron organizados para análisis con inteligencia artificial (IA). Los modelos de IA evaluados incluyeron Support Vector Machine (SVM), Naive Bayes (NB), Decision Trees (DT), k-nearest neighbors (KNN), y Random Forest (RF). Se realizó una cross-validation para determinar el modelo más preciso.


CONCLUSIONES

Las interfaces cerebro-computadora (BCI) ofrecen numerosas aplicaciones, entre las cuales destaca su capacidad para mejorar la calidad de vida de personas que, debido a un accidente cerebrovascular, han perdido la movilidad. El uso de BCI en la rehabilitación motora permite a estos pacientes recuperar la movilidad de manera más rápida y mejorar su independencia. Estas interfaces permiten controlar dispositivos externos como un exoesqueleto, detectando y codificando la actividad cerebral cuando el usuario intenta realizar un movimiento.  Durante la realización de los registros, se planteó una hipótesis sobre si la fatiga tras múltiples repeticiones del movimiento podría afectar la precisión de la inteligencia artificial. Para investigar esto, se analizaron los 50 trials de 5 sujetos en dos grupos, los primeros 25 y los últimos 25, posteriormente se procesaron los datos según el método mencionado anteriormente y obtuvimos el acurracy utilizando dos inteligencias artificiales, con el fin de identificar posibles diferencias indicativas de fatiga. Dicha investigación será enviada al Congreso Nacional de Ingeniería Biomédica de la SOMIB.
Duque Blanco Karol Ximena, Universidad de Investigación y Desarrollo
Asesor: Dra. Perla Rodríguez Salinas, Universidad Tecnológica Fidel Velázquez

LíNEA DE MOBILIARIO PARA EL HOGAR ADAPTADO AL CAMBIO CLIMáTICO(TEMPERATURAS ELEVADAS Y RIESGOS DE INUNDACIONES)


LíNEA DE MOBILIARIO PARA EL HOGAR ADAPTADO AL CAMBIO CLIMáTICO(TEMPERATURAS ELEVADAS Y RIESGOS DE INUNDACIONES)

Duque Blanco Karol Ximena, Universidad de Investigación y Desarrollo. Asesor: Dra. Perla Rodríguez Salinas, Universidad Tecnológica Fidel Velázquez



PLANTEAMIENTO DEL PROBLEMA

A nivel global, el cambio climático representa un problema significativo que se enfrenta en la actualidad. Se muestra a través de cambios abruptos en el clima, estos fenómenos son en gran parte provocados por las emisiones de gases de efecto invernadero y esto, a su vez, por malas decisiones que ha tomado el ser humano en la historia, dando paso a eventos como temperaturas elevadas e inundaciones. Centrándonos específicamente en los hogares latinoamericanos, una gran parte de la población se ve afectada por estos fenómenos.  Las altas temperaturas provocan riesgos para la salud de las personas, las inundaciones impactan sus hogares causando pérdidas materiales y, por lo tanto, teniendo un impacto económico y en la calidad de vida de las familias al tener que reemplazar o desechar sus pertenencias. Los muebles, siendo una de las pérdidas significativas para estas familias, no están diseñados para afrontar estas condiciones, ni se investiga si sus materiales y procesos productivos aportan o afectan aún más la problemática del cambio climático. Teniendo en cuenta la problemática y cómo esta afecta los hogares de las personas, se llega a la idea de proponer un mobiliario capaz de adaptarse a todos estos desafíos y cómo este puede contribuir al cambio climático. A través de esta investigación, se expondrán características que un buen mobiliario, capaz de proporcionar estabilidad a las familias y ser amigable con el medio ambiente, debería tener en cuenta. El objetivo propuesto para esta investigación es principalmente el desarrollo de una línea de mobiliario minimalista adaptado al cambio climático, teniendo en cuenta el confort, materiales y procesos de bajo impacto ambiental. Otros objetivos específicos a cumplir: Elaborar un catálogo, que sirva como base para el desarrollo de la línea de mobiliario adaptado al cambio climático. Definir las características de la línea de mobiliario adaptado al cambio climático. Investigar materiales resistentes a altas temperaturas, humedad, otros riesgos y siempre con un fin ecológico y sostenible. Investigar procesos productivos que logren reducir el impacto ambiental, con técnicas de fabricación donde su generación de residuos sea menor, al igual que el uso de recursos no renovables. Diseñar un mobiliario pensado para contribuir en la economía de las personas a largo plazo. Mobiliarios duraderos, donde su ciclo de vida sea lo más extenso posible y no necesite de reparaciones constantes o costosas.



METODOLOGÍA

Este proyecto se llevó a cabo con la realización de un cronograma de actividades, donde se cumplía una investigación y desarrollo de las actividades propuestas semanalmente. Se inició con el adentramiento al contexto del proyecto, por medio de clases, documentos y noticias, donde se iba informando cada uno de los temas a tratar. Se desarrolló un catálogo de mobiliario del comedor, sala y dormitorio de un hogar. En este catálogo se tomaron como referentes mobiliarios ya existentes, se analizaron sus materiales, formas, partes, estructuras, composición y toda la parte de diseño que se podía tener en cuenta y que cumpliera con los objetivos de un mobiliario minimalista adaptado al cambio climático y con materiales de bajo impacto ambiental, llevándolo al desarrollo de representaciones gráficas de ideas de diseños para los prototipos. Se continuó con la realización de los diseños, estos representados de la forma más minimalista y funcional posible, teniendo en cuenta un mobiliario atemporal, se desarrollaron con la ayuda de una herramienta de diseño buscando representar formas, estructuras y materiales ya pensados de la mejor forma, sin dejar de lado el análisis ergonómico aplicado para la obtención de medidas y mayor confort al ser usados. Por último, se definieron las características en cuanto a materiales y procesos productivos de bajo impacto ambiental, parte fundamental donde se plantearon materiales previamente investigados, que fueran sostenibles, reciclables, biodegradables, etc., siempre buscando contribuir al cambio climático. Los materiales fueron comparados por medio de métodos que ayudaron a la selección de los más aptos para el mobiliario, al igual que teniendo en cuenta los procesos productivos de fabricación del mobiliario final. 


CONCLUSIONES

Algunos de los resultados obtenidos en esta investigación son los siguientes: Realización de una línea de mobiliario representada mediante prototipos digitales. Se hizo el diseño de una sillas y mesa, un sofá y una cama. A su vez, se fueron realizando los diseños técnicos de cada uno de los objetos, sus vistas con medidas de las partes y el listado de piezas. Planteamiento de características como: Un mobiliario capaz de resistir la corrosión y rápido deterioro por largos periodos de tiempo, expuesto a factores ambientales. Pensado con materiales resistentes y de bajo impacto ambiental, siendo reciclados, biodegradables o reutilizados. Que sea fácil de limpiar y reparar. Que en sus procesos productivos se pueda evidenciar la contribución al cambio climático. Y por medio de este mobiliario se tenga en cuenta el confort de las personas y su salud. selección de materiales teniendo en cuenta las características. Selección de procesos productivos, pensando desde los procesos iniciales de obtención de la materia prima, hasta sus procesos de fabricación, su paso a paso y todo lo que conlleva. Buscar adaptar el mobiliario en los hogares latinoamericanos es una necesidad debido a los crecientes acontecimientos de los fenómenos ambientales. Por medio de esta investigación y el desarrollo de las soluciones propuestas, con materiales sostenibles y procesos productivos más conscientes, se espera poder contribuir en el desarrollo de un mobiliario que pueda ofrecer durabilidad, reducción de frecuentes reemplazos, reducción de costos, confort, entre otros. Además, se espera poder disminuir los impactos negativos que tienen los fenómenos ambientales en los hogares y avanzar hacia soluciones más sostenibles que aporten al cambio climático.
Duque Olivera Kevin Gerardo, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

EFECTO DEL USO DE NANOPARTíCULAS DE SIO2 MESOPOROSAS SOBRE LAS PROPIEDADES DE DURABILIDAD DE MUESTRAS DE CONCRETO REFORZADO


EFECTO DEL USO DE NANOPARTíCULAS DE SIO2 MESOPOROSAS SOBRE LAS PROPIEDADES DE DURABILIDAD DE MUESTRAS DE CONCRETO REFORZADO

Duque Olivera Kevin Gerardo, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

El concreto se ha vuelto el material más importante en la industria de la construcción. Tiene una amplia capacidad de resistir fuerzas mecánicas a excepción de las fuerzas de tracción. Este material es constituido por ser una mezcla aglutinante, sus principales componentes son el cemento Portland, agua, arena, grava y algún otro tipo de aditivo. Para compensar la deficiencia que tienen los concretos a ciertas fuerzas mecánicas, se busco la manera de darle un mayor soporte, resultando en la técnica del concreto reforzado; la cual consiste en introducir acero embebido en concreto, durante el colado. Gracias a la adición de este refuerzo, los esfuerzos de corte y de tracción son absorbidos por el acero embebido. Se busca que con la adición de nanopartículas MCM-41-TEOS de SiO2 en la mezcla formen una alta área superficial que busca incrementar la durabilidad del concreto.



METODOLOGÍA

Se realizó una revisión bibliográfica de trabajos previos, normas AST y NMX-ONNCCE. La relación para el diseño de mezcla se empleó con agregados de la zona, los cuales provienen de un banco de materiales de la ciudad de Campeche, correspondientes a grava (Proveniente de la roca caliza de la península de Yucatán); agregados finos, los cuales se les conoce como polvo de piedra, cemento Portland (CPC-30R), agua y un dispersante superfluidizante de fraguado de marca comercial DISPERCOL NL-SF. Para esta estancia de verano, se realizaron un tota de 69 muestras con cilindros de diferentes volúmenes, se obtuvieron 3 tipos de muestras: Muestras de prueba (MP), testigo (T) y con Nanopartículas (NPs MCM-41). En la dosificación del diseño con un f¨c= 280 kg/cm2; el valor de volumen total se calculó en 0.0803 m3 teniendo 30.44 kg de cemento, 62.75 kg de arena, 66.75 kg de grava, 17.15 L y 0.122 L de aditivo por colada.  Las nanopartículas de MCM-41-TEOS se sintetizaron mediante el método sol-gel. Pare realizar la colada de muestras, los cilindros se limpiaron en las caras internas de los moldes y se engrasaron para facilitar el desmoldo después de 6 horas de fraguado. Se corroboró que las tuercas estuvieran completamente fijadas y de esta manera evitar fugas, posteriormente se hizo el rectificado de los cilindros para que estos obtuvieran una superficie plana. Todo el procedimiento se realizó de manera manual en el Centro de Investigación de Corrosión (CICORR) de la Universidad Autónoma de Campeche, esta mezcla fue realizada con palas metálicas, después se llenaron los moldes de acero con la mezcla; la metodología para realizar este procedimiento fue establecido de la norma NMX-C-159-ONNCCE-2004. La metodología fue le siguiente: Los cilindros se llenaron a 1/3 de su capacidad hasta llegar a su máxima capacidad. En cada uno de los 3 niveles se varilló con una varilla metálica de punta redonda 25 veces, después de varillar, la muestra fue golpeada con un mazo de hule para eliminar los huecos de aire que pueden ser producidas por la varilla y de esta manera el aire puede ser liberado de la mezcla. En la colada se llevaron a cabo ensayos de revenimiento, siguiendo los lineamientos de la norma NMX-C-156-ONNCCE-2010. Este ensayo es necesario para determinar la caída del concreto fresco. Se trabajo con la relación agua/cemento (a/c) obtenida = 0.56. Al final de la prueba se obtuvo un promedio de 7.5 cm en las muestras testigo y 6.47 en las muestras que fueron agregadas las nanopartículas de SiO2. Las muestras para pruebas electroquímicas son preparadas embebiendo una barra de acero de refuerzo de 20 cm de longitud, cubriendo en cada extremo con cinta, dejando un área de trabajo que sobresale a 5 cm de la muestra Las muestras elaboradas se procedieron a desmoldar 6 horas después de su fabricación, posteriormente se colocaron en una solución saturada de Ca(OH)2 para su colado para realizar las pruebas de compresión a los 7, 14, 28 y 90 días.


CONCLUSIONES

En mi tiempo en la estancia de investigación pude adquirir los conocimientos teóricos-prácticos acerca de materiales, concretos, diseño de mezcla, la elaboración y adición de nanopartículas como material aditivo y la corrosión de los metales cuando son expuestos a ambientes agresivos. Además, aprendí acerca del análisis de pruebas de mecánicas de compresión. Los resultados preliminares de las pruebas de resistencia a compresión de 7 y 14 días en las muestras Testigo, y pruebas de 7 días a las muestras con el nanomaterial sintetizado durante la estadía, es información suficiente para hacer un análisis inicial para estimar si la presencia de MSN puede favorecer la resistencia del concreto.
Duran de la Rosa Ailed Citlalli, Instituto Politécnico Nacional
Asesor: Dr. Edgar Gonzalo Cossio Franco, Universidad del Valle de Atemajac

DESARROLLO DE SOFTWARE PARA LA VISUALIZACIóN DE BIOMARCADORES COMO APOYO A ENTREVISTAS CLíNICAS REALIZADAS A JóVENES CON TENDENCIAS SUICIDAS


DESARROLLO DE SOFTWARE PARA LA VISUALIZACIóN DE BIOMARCADORES COMO APOYO A ENTREVISTAS CLíNICAS REALIZADAS A JóVENES CON TENDENCIAS SUICIDAS

Betancourt Soto Roberto, Universidad Autónoma de Sinaloa. Duran de la Rosa Ailed Citlalli, Instituto Politécnico Nacional. Martinez Hernandez Jorge, Instituto Tecnológico Superior de Ciudad Hidalgo. Melendez Bustamante Luis Fernando, Instituto Politécnico Nacional. Ramírez Estrada Julio César, Universidad de Guadalajara. Tovar Morales Tania Carolina, Instituto Politécnico Nacional. Asesor: Dr. Edgar Gonzalo Cossio Franco, Universidad del Valle de Atemajac



PLANTEAMIENTO DEL PROBLEMA

La depresión y el suicidio son problemas graves de salud mental que afectan a un número creciente de jóvenes en todo el mundo, según datos de la OMS.  El manejo y tratamiento de la depresión y la prevención del suicidio requieren un enfoque multifacético, que incluya la monitorización y análisis de indicadores biométricos y comportamentales. Sin embargo, existe una falta de herramientas integradas que permitan a los profesionales de la salud mental correlacionar datos biométricos con respuestas emocionales y psicológicas en tiempo real. En respuesta a esta necesidad, nuestro proyecto tiene como objetivo desarrollar un software que interprete los datos de wearables y los relacione con audios de entrevistas a estudiantes con problemas de depresión que han intentado suicidarse. El software generará una base de datos que permitirá a los usuarios observar los cambios en las respuestas biométricas ante preguntas que puedan causar incomodidad. Este análisis proporcionará una visión integral de las interacciones entre las respuestas fisiológicas y emocionales, facilitando la identificación de patrones de riesgo y posibles intervenciones. Durante el periodo de investigación, estudiaremos las respuestas biométricas, tales como la acelerometría, giroscopio, actividad electrodermal (EDA), temperatura, frecuencia cardíaca (BVP) y picos sistólicos, correlacionándolas con las respuestas emocionales extraídas de los audios de las entrevistas. Esto permitirá un análisis predictivo de los trastornos, las formas de actuar de las personas y los cambios físicos del cuerpo, proporcionando una herramienta valiosa para la prevención y el tratamiento de la depresión y el comportamiento suicida en estudiantes.



METODOLOGÍA

Para el desarrollo de nuestro proyecto, seguimos una metodología estructurada basada en la investigación científica, inteligencia artificial aplicada a tendencias suicidas y principios de ingeniería de software. A continuación, se detallan los pasos seguidos: Recolección de Información: Se realizó una revisión exhaustiva de artículos científicos y bases de datos relevantes sobre metodologías de investigación, el método científico, tendencias suicidas y el uso de IA en este contexto. Se recopilaron datos sobre el diseño y desarrollo de software utilizando wearables, así como los aspectos biométricos que estos dispositivos pueden registrar. Diseño de Requerimientos Funcionales: Con base en la información recolectada, se definieron los requerimientos funcionales del software. Se elaboraron distintos tipos de diagramas para la representación de estos requerimientos: de estados, de secuencia, de clases, de casos de uso, de componentes, de nodos, de comunicación y de flujo. Documentación: Se prepararon documentos siguiendo los estándares IEEE 1016 y 830, que incluyen especificaciones de diseño y requisitos del software. Búsqueda y Selección de Herramientas y Librerías: Se investigaron y seleccionaron aplicaciones y librerías que facilitaran la creación de repositorios de código y la conversión de archivos. Para el manejo de datos biométricos, se optó por utilizar librerías de Python que permitan convertir archivos .avro (formato de los wearables) a .csv. Para la transcripción de entrevistas, se seleccionaron herramientas que conviertan archivos de audio .m4a a texto (.txt). Recolección de Datos: Con la colaboración de estudiantes de psicología de la Universidad del Valle de Atemajac (UNIVA), se realizaron entrevistas a estudiantes con problemas de depresión que han intentado suicidarse. Los datos biométricos se obtuvieron mediante el uso de wearables que registran cambios físicos como acelerometría, giroscopio, actividad electrodermal (EDA), temperatura, frecuencia cardíaca (BVP) y picos sistólicos. Desarrollo del Software: Se desarrollaron códigos y scripts en Python para la conversión de los datos recolectados y la creación de un sistema de correlación. Se diseñaron y programaron las estructuras de datos necesarias para almacenar y procesar la información biométrica y las transcripciones de las entrevistas. Se generaron archivos JSON y otros formatos de datos necesarios para el funcionamiento del software. Implementación y Validación: Se implementó el software de correlación que relaciona las respuestas biométricas con las transcripciones de las entrevistas. Se están desarrollando modelos de IA para la predicción del riesgo de suicidio basado en los datos obtenidos, utilizando técnicas avanzadas de análisis predictivo y machine learning. Próximos Pasos: Continuar con el desarrollo del software de predicción utilizando IA. Validar y mejorar los modelos predictivos con más datos y pruebas. Integrar el sistema completo y realizar pruebas exhaustivas para asegurar su precisión y efectividad en la identificación de patrones y riesgos asociados con tendencias suicidas. Con estas investigaciones y desarrollo se dió lugar a los inicios de los artículos para poder plasmar el análisis de este proyecto para futuros estudiantes e investigadores.


CONCLUSIONES

Durante la estancia de verano se logró el estudio y la interpretación en la logística y el desarrollo del software indicado, de factores que se relacionan a respuestas físicas y mentales con algún estímulo externo como son preguntas y/o personas en una entrevista, y de patrones sociales en estudiantes respecto a la forma de actuar ante la depresión, el estrés y la ansiedad con la finalidad de deducir signos de suicidio. Hasta este momento sólo se pueden mostrar las correlaciones físicas en el software de las entrevistas, aún faltan las predicciones respecto a estas pruebas.
Duran Guillen Elliot, Instituto Tecnológico de Nuevo Laredo
Asesor: Dr. Dainet Berman Mendoza, Universidad de Sonora

FABRICACIóN DE TRANSISTORES DE EFECTO DE CAMPO CON SULFURO DE CADMIO


FABRICACIóN DE TRANSISTORES DE EFECTO DE CAMPO CON SULFURO DE CADMIO

Duran Guillen Elliot, Instituto Tecnológico de Nuevo Laredo. Asesor: Dr. Dainet Berman Mendoza, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Los transistores de efecto de campo de película delgada (TFT) son componentes esenciales en diversas aplicaciones electrónicas, especialmente en pantallas de cristal líquido (LCD), dispositivos fotosensibles, celdas solares y sensores. Sin embargo, la eficiencia y el rendimiento de estos dispositivos dependen en gran medida de los materiales semiconductores utilizados. El sulfuro de cadmio (CdS) ha emergido como un material prometedor debido a sus propiedades fotosensibles y electrónicas superiores. A pesar de sus ventajas, la implementación de CdS en TFT enfrenta desafíos significativos, como la optimización de las técnicas de deposición y la mejora de la estabilidad y uniformidad del material. Este estudio se propone investigar y abordar estos desafíos, con el objetivo de desarrollar TFT de alto rendimiento basados en CdS, que puedan ser integrados eficientemente en aplicaciones electrónicas avanzadas.



METODOLOGÍA

El sulfuro de cadmio (CdS) es un compuesto semiconductor que se forma mediante la combinación de cadmio y azufre. Este material es conocido por sus propiedades fotosensibles y electrónicas, lo que lo hace adecuado para diversas aplicaciones electrónicas y optoelectrónicas. El CdS se puede cristalizar en estructuras hexagonales (wurtzita) o cúbicas (blenda de zinc), lo que influye en sus propiedades electrónicas y ópticas. En su forma pura, el CdS es de color amarillo y tiene una banda prohibida de aproximadamente 2.4 eV en su forma cúbica y 2.5 eV en su forma hexagonal, permitiendo la absorción y emisión de luz visible. El CdS es un semiconductor tipo n, lo que significa que su conductividad puede ser modificada mediante el dopaje con otros elementos. Además, muestra efectos fotoeléctricos significativos, cambiando su conductividad eléctrica en respuesta a la exposición a la luz, lo que es útil en aplicaciones de detección de luz. El método de síntesis por depósito de baño químico (CBD) es particularmente efectivo para depositar películas delgadas de CdS sobre sustratos. Este método permite un control preciso sobre la formación y cristalización del material, asegurando la calidad y uniformidad de las películas delgadas. Para la fabricación de Transistores FET de película delgada (TFT), se seleccionó el método de depósito de baño químico debido a sus bajos costos y requerimientos mínimos de equipos de laboratorio. Este proceso se inicia con la preparación del sustrato, que puede ser de vidrio o plástico flexible. El sustrato se limpia meticulosamente con soluciones químicas para eliminar cualquier impureza y, en algunos casos, se somete a un tratamiento superficial con plasma de oxígeno para mejorar la adhesión de las capas subsecuentes. El siguiente paso es el depósito de la película semiconductora de sulfuro de cadmio (CdS). Para ello, se prepara una solución acuosa que contiene sales de cadmio y una fuente de azufre, como la tiourea. El sustrato se sumerge en esta solución y se mantiene a una temperatura controlada entre 60 y 90°C, lo que permite la reacción química que forma el CdS en la superficie del sustrato. Posteriormente, el sustrato se seca y se somete a un proceso de calcinación para cristalizar la película de CdS, asegurando así sus propiedades semiconductoras. Una vez depositada la película de CdS, se procede a la aplicación de la capa dieléctrica. Se prepara una solución con los precursores del material dieléctrico, como el óxido de silicio (SiO2), y el sustrato con la película de CdS se sumerge en esta solución. La temperatura se controla cuidadosamente para formar una capa dieléctrica delgada y uniforme. Después de la inmersión, el sustrato se seca y se somete a un tratamiento térmico para mejorar las propiedades dieléctricas de la capa. El siguiente paso es el depósito de los contactos metálicos. Se utiliza una solución que contiene los iones metálicos necesarios para formar los contactos, como oro o aluminio. El sustrato se sumerge en esta solución y se controla la reacción para depositar una capa metálica delgada en las áreas deseadas. Posteriormente, se emplea una técnica de fotolitografía para definir y grabar los patrones de los contactos metálicos, asegurando una precisión en la disposición de los mismos. Finalmente, los TFT se ensamblan en el dispositivo final y se encapsulan para protegerlos de factores ambientales como la humedad y el oxígeno. Este encapsulado es crucial para garantizar la durabilidad y el rendimiento del dispositivo en condiciones operativas.


CONCLUSIONES

El estudio de los transistores de efecto de campo de película delgada (TFT) basados en sulfuro de cadmio (CdS) ha demostrado que este material posee propiedades fotosensibles y electrónicas que lo hacen adecuado para diversas aplicaciones electrónicas y optoelectrónicas. La metodología de depósito de baño químico (CBD) ha sido efectiva para la fabricación de películas delgadas de CdS, permitiendo un control preciso sobre la formación y cristalización del material. A pesar de las ventajas en términos de costo y flexibilidad, el uso de CdS presenta desafíos significativos debido a su toxicidad y estabilidad a largo plazo. Las investigaciones futuras deben centrarse en mejorar la estabilidad de los TFT de CdS y explorar alternativas menos tóxicas para mitigar los riesgos ambientales y de salud. En conclusión, los TFT de CdS tienen un gran potencial en aplicaciones de displays, celdas solares y dispositivos electrónicos, pero es crucial abordar los desafíos asociados con su uso para maximizar su eficiencia y sostenibilidad.
Duran Partida Carlos Emilio, Universidad Politécnica de Sinaloa
Asesor: Dra. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa

IMPLEMENTACIóN Y DESARROLLO DE UN ROBOT BIOLOID: MONTAJE, PROGRAMACIóN Y EXPERIMENTACIóN


IMPLEMENTACIóN Y DESARROLLO DE UN ROBOT BIOLOID: MONTAJE, PROGRAMACIóN Y EXPERIMENTACIóN

Aranzubia Acosta Fidel Ignacio, Universidad Politécnica de Sinaloa. Duran Partida Carlos Emilio, Universidad Politécnica de Sinaloa. Asesor: Dra. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del Problema Los robots Bioloid, desarrollados por la empresa coreana ROBOTIS, son plataformas robóticas flexibles y personalizables, ampliamente utilizadas en educación e investigación en el área de la robótica. El objetivo de este proyecto es montar, programar y añadir sensores a un robot Bioloid para aumentar su capacidad de realizar tareas.



METODOLOGÍA

Metodología Investigación Inicial y Planificación Se realizó una revisión de los componentes y funciones de los robots Bioloid, consultando manuales técnicos en línea para comprender el sistema. Se identificaron y reunieron todos los recursos disponibles, incluyendo software especializado como RoboPlus y manuales de usuario. Montaje y Configuración del Robot El robot Bioloid fue ensamblado siguiendo el manual del usuario, asegurando que todas las piezas estuvieran correctamente colocadas y ajustadas. Se instalaron y configuraron el software necesario, incluyendo RoboPlus Motion y otros programas para la programación y control del robot, y se realizaron pruebas básicas para verificar el funcionamiento del hardware y software. Programación Básica Se exploraron las herramientas de programación del Bioloid para la creación de movimientos y comportamientos. Se cargaron programas simples para controlar movimientos básicos del robot, como caminar hacia adelante y girar, para observar su comportamiento. Desarrollo de Funciones Avanzadas Se investigaron funciones avanzadas como la capacidad del robot para caminar de manera autónoma y evitar obstáculos. Se desarrollaron y probaron estas funcionalidades, realizando ajustes para optimizar el funcionamiento del robot. Integración de Sensores y Control Remoto Se investigaron sensores compatibles con el robot y se programaron para interactuar con su sistema. Se configuró y probó un sistema de control remoto utilizando un controlador, permitiendo el manejo del robot a distancia. Experimentación y Recolección de Datos Se realizaron experimentos para evaluar el rendimiento del robot en diferentes escenarios. Durante la fase de experimentación, se recolectaron y analizaron datos sobre el desempeño del robot para realizar ajustes en la programación y configuración.


CONCLUSIONES

Conclusiones El proyecto ha completado con éxito la fase de montaje y configuración básica del robot, así como la programación de movimientos básicos. Las pruebas iniciales indican que el hardware y el software funcionan correctamente. La investigación de funciones avanzadas ha comenzado y se espera que su desarrollo mejore significativamente la capacidad operativa del robot. Los próximos pasos incluyen la integración de sensores y la implementación de control remoto, seguidos de experimentación para evaluar el rendimiento del robot en escenarios específicos.
Duran Partida Jose Jhovany, Universidad Autónoma de Sinaloa
Asesor: Dr. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente

DISEñO DE PLATAFORMA WEB PARA EL APRENDIZAJE DE TECNOLOGíAS DE LA INFORMACIóN BASADA EN CURSOS


DISEñO DE PLATAFORMA WEB PARA EL APRENDIZAJE DE TECNOLOGíAS DE LA INFORMACIóN BASADA EN CURSOS

Duran Partida Jose Jhovany, Universidad Autónoma de Sinaloa. Asesor: Dr. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

El crecimiento del mundo digital ha traído bastantes cambios conforme la forma en que los estudiantes aprenden, tendiendo además de las clases en las escuelas, recursos donde se pueden acceder a través de diferentes plataformas, tales como YouTube, foros de búsqueda, así como también es posible acceder a contenido proporcionado por plataformas de certificaciones como lo es Udemy, Coursera, Platzi, Dev/Talles, entre otros, siendo medios adquiridos por medio de un pago. También otras de las plataformas donde se pueden adquirir conocimientos es por medio de plataformas de universidades, contenido avalado por la misma universidad, como es el caso de la universidad de Harvard. Que los estudiantes cuenten con una plataforma enfocada al aprendizaje puede ser beneficioso para los mismos, aunado a esto conforme evoluciona la tecnología los requisitos para poder encontrar un trabajo destinado al área también aumentan, por eso mismo tener una herramienta que ayude a los discentes en su formación profesional se plantea como una opción más de aprendizaje.



METODOLOGÍA

Para el manejo de los datos de la aplicación se plantea el uso de la base de datos de PostgreSQL, haciendo una integración correcta de la normalización de la base de datos, así como aprovechando las ventajas que trae consigo este motor de base de datos. Para el manejo del backend se propone el uso de ASP.Net (C#) con un enfoque de API donde se manejan las diferentes operaciones por medio de rutas especificas a cada módulo del desarrollo. Enfocado con el frontend del proyecto se propone el uso de Angular, un framework de JavaScript para el desarrollo de interfaces web, el cual facilita el desarrollo de la interfaz de usuario por parte web, así como su enfoque por medio de componentes facilita la reutilización de código lo cual garantiza la limpieza en el desarrollo y su enfoque en peticiones a API lo hace perfectamente compatible con el servidor planteado en el backend. Se planteo el uso de C# ya que este con este enfoque es posible poder realizar también el desarrollo de aplicaciones de escritorio en caso de que se requiera el planteamiento de una aplicación de escritorio. Para tener un manejo adecuado de estas tecnologías se planteo el uso de Docker para el manejo de imágenes, volúmenes y contenedores, de modo que se pueden realizar orquestaciones de forma sencilla con lo que es Docker Compose o Kubernetes, herramientas que son usadas para facilitar el despliegue de las aplicaciones de una forma más sencilla.


CONCLUSIONES

Que los estudiantes cuenten con una herramienta que les permita llegar a sus metas y tener un aprendizaje de calidad es de suma importancia, es por esto mismo que se plantea el desarrollo de una plataforma donde los estudiantes tengan una opción más para prepararse continuamente y que el aprendizaje obtenido sea avalado por la universidad por la cual se desarrollo la plataforma planteada.
Duran Zarate Luis Miguel, Universidad de Investigación y Desarrollo
Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana

INGENIERIA SISMICA


INGENIERIA SISMICA

Duran Zarate Luis Miguel, Universidad de Investigación y Desarrollo. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

La ingeniería sísmica enfrenta el desafío de diseñar y construir estructuras capaces de resistir los efectos de los terremotos, minimizando daños y pérdidas humanas. En áreas propensas a sismos, la falta de infraestructuras adecuadamente diseñadas puede resultar en desastres significativos. El problema radica en desarrollar métodos y tecnologías avanzadas que permitan prever, evaluar y mitigar los impactos sísmicos en edificaciones e infraestructuras críticas, garantizando su estabilidad y seguridad durante y después de un evento sísmico.



METODOLOGÍA

Inicialmente, se desarrollaron secciones dedicadas a explicar la teoría y la conceptualización de la ingeniería sísmica. En esta fase, se abordaron los principios fundamentales y se examinaron algunos de los eventos sísmicos más catastróficos de la historia. Se analizó cómo estos eventos han influido en el desarrollo de las normas y prácticas actuales en la ingeniería sísmica. Posteriormente, se realizó una investigación detallada de la zona que sería objeto de estudio. Esta investigación incluyó la recopilación de datos clave, tales como: Magnitud del evento sísmico: Se determinó la intensidad de los terremotos que han afectado la región. Duración del sismo: Se registró el tiempo durante el cual se sintió el movimiento sísmico. Profundidad del hipocentro: Se identificó la profundidad a la cual se originó el sismo. Estado del suelo: Se analizó la composición y características del suelo de la zona, ya que esto afecta la forma en que las ondas sísmicas se propagan. Composición de las estructuras: Se examinó el tipo de edificaciones y materiales utilizados en la construcción local. Otros factores relevantes también fueron considerados, como las condiciones climáticas y geológicas específicas de la región. Una vez recopilados estos datos, se procedió a la descarga de un programa especializado en la procesación de información sísmica. Este software permitió analizar y modelar los datos obtenidos, facilitando una comprensión más profunda de los riesgos y comportamientos sísmicos de la zona en estudio. Gracias a esta metodología, se pudo realizar una evaluación precisa de las amenazas sísmicas y diseñar estrategias de mitigación adecuadas para proteger las estructuras y las vidas humanas en caso de futuros eventos sísmicos.


CONCLUSIONES

Relevancia de la Recopilación de Datos Detallados: La obtención de datos precisos sobre la magnitud, duración, profundidad, estado del suelo y composición de las estructuras es crucial para evaluar correctamente el riesgo sísmico en una zona específica. Estos datos son la base para cualquier análisis y diseño sísmico efectivo. Análisis de Factores Multifacéticos: La ingeniería sísmica requiere una consideración integral de múltiples factores, incluyendo condiciones geológicas y climáticas. Este enfoque holístico permite una mejor predicción del comportamiento sísmico y una planificación más efectiva de las medidas de mitigación. Utilización de Software Especializado: El uso de programas especializados para procesar y analizar datos sísmicos es esencial para transformar la información recopilada en modelos y simulaciones útiles. Estas herramientas facilitan una comprensión más profunda y precisa de los riesgos sísmicos. Evaluación y Mitigación de Riesgos: La combinación de un análisis teórico sólido, datos detallados y herramientas de procesamiento avanzadas permite una evaluación precisa de las amenazas sísmicas. Esto, a su vez, facilita el diseño de estrategias y estructuras que pueden resistir los efectos de los terremotos, protegiendo tanto a las edificaciones como a las personas.
Echeverría Blanco Geny Alejandra, Universidad Autónoma de Yucatán
Asesor: Dra. Adriana Hernández Sánchez, Benemérita Universidad Autónoma de Puebla

ARQUITECTURA COMO REFERENTE DE DIVERSIDAD Y RESIGNIFICACIóN DEL ESPACIO A TRAVéS DE LA ELABORACIóN DE MAQUETAS HABTICáS Y TALLERES DE ADOBE EN CONTEXTOS PATRIMONIALES


ARQUITECTURA COMO REFERENTE DE DIVERSIDAD Y RESIGNIFICACIóN DEL ESPACIO A TRAVéS DE LA ELABORACIóN DE MAQUETAS HABTICáS Y TALLERES DE ADOBE EN CONTEXTOS PATRIMONIALES

Echeverría Blanco Geny Alejandra, Universidad Autónoma de Yucatán. Espinoza Valdez Daniela Fernanda Karina, Instituto Tecnológico de Tepic. Mondragón Hernández Octavio, Instituto Tecnológico de Tepic. Pioquinto Martha Adan, Universidad Autónoma de Guerrero. Asesor: Dra. Adriana Hernández Sánchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Durante la estancia comprendida del 17 de junio hasta el 2 de agosto, en el marco del XXIX Verano de la Investigación Científica y Tecnológica del Pacífico, se llevó a cabo la estancia de investigación del Verano Delfín en la Facultad de Arquitectura de la Benemérita Universidad Autónoma de Puebla (BUAP). El objetivo principal del programa fue fortalecer las capacidades investigativas de los estudiantes participantes, al tiempo que se daba continuidad a investigaciones previamente iniciadas. Para ello, los estudiantes se sumergieron en dos líneas de investigación clave relacionadas con el patrimonio arquitectónico y cultural de la ciudad de Puebla: "Accesibilidad, inclusión social y proyectos educativos en el espacio público y el patrimonio" y "Accesibilidad al patrimonio para débiles visuales y ciegos en el centro histórico de Puebla IV". Este trabajo se llevó a cabo bajo la experta guía del Dr. Christian Enrique de la Torre Sánchez y la Dra. Adriana Hernández Sánchez, quienes han liderado estas investigaciones en años anteriores y poseen una amplia trayectoria en estudios relacionados con el patrimonio cultural de Puebla. El grupo de participantes estuvo conformado por estudiantes de las carreras de arquitectura y ciencias de la educación, provenientes de diversas instituciones tanto de México como de Colombia. Esta diversidad académica y cultural dio lugar a un equipo multidisciplinario y eficiente, capaz de abordar de manera integral los desafíos planteados en las investigaciones.



METODOLOGÍA

Se implementó una metodología estructurada que combinó el estudio teórico con la investigación de campo, la colaboración interdisciplinaria y la participación comunitaria. Enfoque y Diseño de la Investigación: La metodología adoptó un enfoque cualitativo con un diseño de investigación-acción, que permitió a los estudiantes no solo analizar y comprender las problemáticas relacionadas con la conservación del patrimonio, sino también intervenir de manera práctica a través de talleres y propuestas de diseño. Procedimientos y Actividades: El programa fue organizado en una serie de actividades distribuidas a lo largo de las siete semanas, siguiendo un esquema flexible que permitió ajustes según las necesidades y contratiempos que surgieron. A continuación, se detalla el desarrollo semanal: Semana 1: Los estudiantes fueron introducidos a las temáticas de investigación y al contexto histórico de Puebla mediante recorridos guiados por el Centro Histórico y visitas a instituciones clave como el Laboratorio de Arqueología Urbana de la BUAP y el Archivo Histórico Municipal. Semana 2: Se presentaron los proyectos de investigación de los profesores anfitriones, se realizaron recorridos por los barrios de La Luz y Xanenetla para identificar actores relevantes, y se invitó a los vecinos a participar en talleres comunitarios. Además, se exploraron proyectos de investigación sobre la arquitectura tradicional en la región. Semana 3: Se elaboraron los planes de trabajo para los talleres de vivienda con niños en los barrios de Xanenetla y La Luz. También se realizó un levantamiento arquitectónico y diagnóstico de daños en un comedor comunitario de la parroquia de Analco, como parte de una solicitud de la comunidad local. Semana 4: Se llevaron a cabo entrevistas con la Asociación Leyers Puebla sobre la creación de maquetas táctiles y se continuó la búsqueda de información en archivos históricos. Además, se organizaron y ejecutaron talleres de adobe en el barrio de Analco, enfocados en la recuperación de saberes tradicionales. Semana 5: El equipo trabajó en colaboración con la Asociación Leyers Puebla en proyectos de maquetas táctiles y participó en un diseño repentino de mobiliario urbano para el Parque Jerusalem, en colaboración con estudiantes de arquitectura de la BUAP. Semana 6: Se realizaron sesiones de trabajo para la presentación de resultados preliminares tanto a la Asociación Leyers como a la comunidad académica de la BUAP. Se continuó con el levantamiento de deterioros en el comedor comunitario de Analco. Semana 7: Se revisaron los reportes finales y se concluyó el programa con un convivio. Análisis de Datos y Resultados: Los datos recolectados a lo largo de la estancia fueron analizados utilizando un enfoque cualitativo. Las observaciones de campo, fueron sistematizadas para identificar patrones y temas recurrentes relacionados con la accesibilidad, la inclusión social y la preservación del patrimonio. Estos hallazgos fueron presentados y discutidos en sesiones de trabajo, donde se generaron propuestas concretas para la mejora y preservación de los espacios estudiados.


CONCLUSIONES

La estancia permitió a los participantes enfrentar importantes desafíos y contribuir efectivamente a la preservación del patrimonio de Puebla. Un logro destacado fue la creación de maquetas hápticas para mejorar la accesibilidad del patrimonio para personas con discapacidad visual, que demostraron la capacidad de los estudiantes para aplicar conocimientos teóricos y ofrecieron soluciones innovadoras con un impacto duradero. Las pruebas confirmaron la eficacia de estas maquetas en hacer el patrimonio más inclusivo. Asimismo, la realización de talleres infantiles y actividades educativas en los barrios fundacionales de Puebla promovió la socialización del patrimonio y la recuperación de saberes tradicionales, ofreciendo a los estudiantes una valiosa experiencia práctica en investigación y conservación. La metodología combinó investigación teórica y práctica con colaboración interdisciplinaria, permitiendo a los estudiantes desarrollar competencias avanzadas. La flexibilidad y adaptación del equipo fueron clave para superar desafíos y cumplir con los objetivos del programa. En resumen, el programa avanzó significativamente en la preservación del patrimonio y brindó a los estudiantes un aprendizaje valioso, evidenciando el éxito y la importancia de continuar con iniciativas similares.
Elias Balandran Oscar Emmanuel, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Carolina Herrera Solera, Universidad del Sinú

RETOS DE LA INTELIGENCIA ARTIFICIAL Y LA TRANSFORMACIóN ENERGéTICA EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA INDUSTRIA MANUFACTURERA EN LA CIUDAD DE CARTAGENA-COLOMBIA


RETOS DE LA INTELIGENCIA ARTIFICIAL Y LA TRANSFORMACIóN ENERGéTICA EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA INDUSTRIA MANUFACTURERA EN LA CIUDAD DE CARTAGENA-COLOMBIA

Elias Balandran Oscar Emmanuel, Instituto Tecnológico Superior de Irapuato. Martínez Ibarra José Aarón, Instituto Tecnológico Superior de Irapuato. Asesor: Mg. Carolina Herrera Solera, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

En la última década, la inteligencia artificial (IA) y la transformación energética han emergido como motores clave de innovación y competitividad en la industria manufacturera. La IA tiene el potencial de optimizar procesos, mejorar la eficiencia y reducir costos operativos, mientras que la adopción de energías renovables y la implementación de prácticas sostenibles pueden disminuir el impacto ambiental y reducir la dependencia de fuentes de energía no renovables. Cartagena, como una de las ciudades industriales más importantes de Colombia, alberga una significativa cantidad de PYMES en el sector manufacturero. Estas empresas enfrentan un entorno competitivo y dinámico, donde la adopción de nuevas tecnologías y prácticas sostenibles se presenta no solo como una ventaja competitiva sino como una necesidad para su supervivencia y crecimiento. A pesar de los beneficios potenciales de la IA y la transformación energética, las PYMES de la industria manufacturera en Cartagena enfrentan diversos retos para su implementación efectiva. Estos retos incluyen barreras tecnológicas, financieras, de conocimiento y de infraestructura, que limitan su capacidad para aprovechar plenamente estas innovaciones. Las siguientes estrategias podrían ser efectivas: Capacitación y Educación: Programas de formación y talleres para directivos y empleados sobre las ventajas y usos de la IA y energías renovables. Acceso a Financiamiento: Creación de fondos y programas de subsidios o préstamos con condiciones favorables para la inversión en tecnologías innovadoras. Desarrollo de Infraestructura: Inversiones en infraestructura tecnológica y redes de energía que faciliten la adopción de estas tecnologías. Políticas Públicas: Desarrollo de políticas gubernamentales que incentiven la adopción de IA y energías renovables, incluyendo beneficios fiscales y apoyo técnico. Colaboración: Fomentar alianzas entre PYMES, instituciones educativas y centros de investigación para compartir conocimientos y recursos. Implementar estas estrategias contribuirá significativamente a la modernización y sostenibilidad del sector manufacturero en Cartagena, ayudando a las PYMES a superar las barreras actuales y a aprovechar plenamente las oportunidades que ofrecen la IA y la transformación energética.



METODOLOGÍA

Para abordar los objetivos de este estudio, se ha diseñado una metodología exhaustiva que incluye la recolección de datos cualitativos y cuantitativos, así como el análisis de diversas fuentes secundarias y primarias. Diseño de la Investigación Este estudio adopta un enfoque mixto que combina métodos cualitativos y cuantitativos para proporcionar una visión integral de los retos que enfrentan las PYMES manufactureras en Cartagena en la implementación de tecnologías de inteligencia artificial (IA) y estrategias de transformación energética. Recolección de Datos Fuentes: •    Revisión de Literatura: Se realizó una revisión exhaustiva de artículos académicos, informes técnicos, y publicaciones en revistas especializadas sobre IA y transformación energética en el contexto de las PYMES manufactureras. •    Análisis de Políticas y Normativas: Se analizaron las políticas gubernamentales relevantes, incluyendo la Ley 1715 de 2014, para comprender el marco regulatorio y los incentivos fiscales disponibles. Análisis de Datos •    Análisis de Contenido: Se llevó a cabo un análisis de contenido de la revisión de literatura y las políticas para sintetizar los hallazgos clave y contextualizar los resultados en el marco teórico.      Otros Hallazgos Percepción de Beneficios: Aunque los directivos reconocen los beneficios potenciales de la IA y la transformación energética, muchos expresan incertidumbre sobre el retorno de inversión. Apoyo Gubernamental: Existe una percepción de falta de apoyo y subsidios por parte del gobierno para facilitar la implementación de estas tecnologías.      Discusión Los resultados subrayan la necesidad de políticas y programas de apoyo específicos para PYMES que desean adoptar tecnologías de IA y estrategias de transformación energética. Las barreras económicas y de capacitación deben abordarse mediante incentivos fiscales, subsidios y programas de formación técnica. Estos resultados se obtuvieron total y únicamente del sector industrial de Cartagena.


CONCLUSIONES

Para que las PYMES manufactureras en Cartagena puedan integrar tecnologías de inteligencia artificial y energías renovables de manera efectiva, es esencial que exploren diversas opciones de financiamiento, como préstamos a bajo interés, subsidios gubernamentales y asociaciones público-privadas. Además, deben invertir en la capacitación y el desarrollo de habilidades técnicas de su personal a través de programas de formación y colaboración con instituciones educativas. Aprovechar los incentivos fiscales y programas de apoyo del gobierno también es crucial para reducir los costos de implementación y mejorar la viabilidad económica de sus proyectos. Fomentar la colaboración y la creación de redes con otras empresas, instituciones de investigación y organizaciones gubernamentales les permitirá compartir conocimientos, recursos y mejores prácticas. Finalmente, es importante que desarrollen una planificación estratégica a largo plazo que incluya la adopción de tecnologías avanzadas y prácticas sostenibles como parte integral de su estrategia empresarial. Siguiendo estas recomendaciones, las PYMES pueden mejorar su competitividad, eficiencia y sostenibilidad.
Elizalde Olivares Alma Paulina, Universidad de Guadalajara
Asesor: Dra. Adriana del Carmen Gallegos Melgar, Centro de Tecnología Avanzada (CONACYT)

SíNTESIS Y CARACTERIZACIóN DE CERáMICOS FERROELéCTRICOS LIBRES DE PLOMO DEL SISTEMA BNT DOPADOS CON MN (0.3% Y 1%)


SíNTESIS Y CARACTERIZACIóN DE CERáMICOS FERROELéCTRICOS LIBRES DE PLOMO DEL SISTEMA BNT DOPADOS CON MN (0.3% Y 1%)

Elizalde Olivares Alma Paulina, Universidad de Guadalajara. Asesor: Dra. Adriana del Carmen Gallegos Melgar, Centro de Tecnología Avanzada (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Actualmente, los materiales ferro-piro-piezoeléctricos se utilizan en una amplia gama de aplicaciones en diversas áreas. Los compuestos de plomo (Pb), como el titanato de plomo, titanato zirconato de plomo, o del titanato de plomo modificado con calcio, entre otros, están restringidos en productos de consumo debido a su alta toxicidad [1]. Por lo que la creciente preocupación ambiental se ha impulsado la búsqueda de materiales ferroeléctricos alternativos libres de Pb, debido a su toxicidad y efectos perjudiciales que puede traer para el medio ambiente.  Es por ello que los cerámicos basados en (Bi0.5Nao.5)TiO3 (BNT) han emergido como candidatos prometedores debido a sus propiedades ferroeléctricas y piezoeléctricas comparables sin los riesgos asociados al plomo. Además, el dopaje con materiales de transición como el manganeso (Mn) ha llegado a demostrar que mejora las propiedades funcionales de estos cerámicos. 



METODOLOGÍA

La cerámicos (Bi0.5Nao.5)TiO3 (BNT) se prepararon utilizando una técnica de síntesis de estado sólido convencional. Para la síntesis de los cerámicos se partió de los precursores Bi2O3, TiO2, Na2CO3 y MnO2 como materias primas con pureza del 99.9% (Sigma Aldrich y Supelco) y se pesaron estequiométricamente. Los polvos fueron sometidos a un proceso de molienda en un molino Spex durante 3 horas, utilizando bolas de zirconio de diámetros que oscilaban entre 2 y 10 mm como medio de molienda. Posteriormente, los polvos se calcinaron en un crisol, primero a 750°C durante 3 horas y luego a 900°C durante otras 3 horas. La temperatura se incrementó de 50°C a 900°C a una velocidad de10°C/min. Tras la calcinación, los polvos se molieron nuevamente durante 3 horas para reducir el tamaño de grano. El polvo resultante de la remolienda se prensó para formar pastillas de aproximadamente 1 cm de diámetro. Para ello, se utilizó alrededor de 0.5 g de BNT y alcohol polivinílico por pastilla. Después, las pastillas se sinterizaron a 950°C, 1000°C y 1050°C a una velocidad promedio de 20°C/min durante 5 horas, con el objetivo de alcanzar la mayor densidad posible en el material. Se realizó un análisis termogravimétrico (TGA)/ calorimetría diferencial de barrido (DSC) en la muestra utilizando un analizador térmica modelo DST 650 marca TA Instruments para evaluar las propiedades térmicas del material, como su estabilidad térmica y las transiciones de fase que ocurren durante la calcinación.


CONCLUSIONES

Como se mencionó, el presente estudio se llevó a cabo con el objetivo de encontrar una alternativa viable para sustituir el Pb dentro de materiales principalmente piezoeléctricos por su alta toxicidad. Uno de los hallazgos clave fue la influencia del dopaje de Mn en las propiedades de sinterización de los cerámicos BNT, ya que lo que se pudo observar es que al añadir Mn en bajos porcentajes se modificó claramente la temperatura de sinterización. Esto se puede relacionar también como un beneficio en el ahorro de energía y costos durante el proceso de fabricación, además de reducir la posibilidad de degradación térmica del material. Además, es importante señalar que se llevarán a cabo caracterizaciones adicionales para evaluar las propiedades estructurales y mecánicas de los cerámicos sintetizados, por lo que por medio de la caracterización proporcionará una comprensión mas completa del comportamiento de estos materiales.   Supriya, S., dos santos-García, A. J., de Frutos, J., & Fernández-Martinez, F. (2015). Estudio de fases simples y binarias en BNT puro y dopado con cerio Na0,5Bi(0,5-x)CexTiO3. Boletín de La Sociedad Española de Cerámica y Vidrio, 54(6), 225-230. doi:10.1016/j.bsecv.2015.11.00
Enríquez Torres Diego, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dra. Wei Wei, Wichita State University

EXPLORING THE IMPACT OF DEPOSITION PROCESS ON PEROVSKITE SOLAR CELLS PERFORMANCE.


EXPLORING THE IMPACT OF DEPOSITION PROCESS ON PEROVSKITE SOLAR CELLS PERFORMANCE.

Enríquez Torres Diego, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dra. Wei Wei, Wichita State University



PLANTEAMIENTO DEL PROBLEMA

The development of high-efficiency, low-cost solar cells is crucial for the advancement of sustainable energy technologies. Currently, more than 90% of the global photovoltaic (PV) market depends on Silicon-based solar cells. However, over the years, improvements in the efficiency of silicon solar cells have stagnated. In this situation, Perovskite-based solar cells have rapidly gained attention in the field of photovoltaics due to their high efficiency potential, relatively low production costs due to simpler manufacturing processes and greater flexibility in terms of weight, form factor, and tunability compared to traditional silicon-based solar cells. These cells significantly benefit from innovations in manufacturing methods, which are crucial for enhancing their performance and economic viability. One of the most promising methods for depositing thin films of perovskite is Spin Coating, a process that offers control over the homogeneity and thickness of the layers, key determinants in the effectiveness of solar cells. This project focuses on exploring how different Spin Coating speeds affect the characteristics and efficiency of perovskite solar cells. By comparing these speeds, the study aims to identify the optimal conditions that maximize solar energy conversion efficiency, thus contributing to the existing literature and offering practical insights for future industrial applications of this technology.



METODOLOGÍA

The fabrication of the perovskite solar cells was carried out in five main steps, each crucial for the development of the final device. Substrate Cleaning: The substrates were cleaned using an ultrasonic bath. Electron Transport Layer Deposition: The electron transport layer was deposited using the Spin Coating method at a speed of 1800 rpm. The materials used for this layer were Titanium Oxide and Titania Paste. Perovskite Layer Deposition: The active layer of Methylammonium Lead Iodide was deposited via Spin Coating at three diferent speeds of 4000 rpm, 5000 rpm, and 6500 rpm. Hole Transport Layer Deposition: Subsequently, the hole transport layer was deposited using Spin Coating also at speeds of 4000 rpm, 5000 rpm, and 6500 rpm. The material used was P3HT. Final Assembly: The final step involved the application of a mesoporous carbon electrode.  Every fabricated solar cell was tested using a LED Solar Simulator. With the data obtained in the tests, Pmax, Isc, Voc, Fill Factor and Efficiency of each solar cell developed were calculated and the results obtained with the different spin coating speeds proposed were compared.


CONCLUSIONES

Three different spin speeds were used in this project: 6500 rpm was the best achieving an efficiency of 4.6% compared to the speeds of 5000 rpm and 4000 rpm which achieved 1.9% and 1.2% respectively. A considerable improvement in efficiency is observed by increasing the spin speed so we can confirm that increasing the spin speed in the spin coating process usually results in thinner and more uniform layers with faster solvent evaporation rates thereby obtaining better efficiency in a perovskite-based solar cell.
Epifanio Ruiz Nazareth, Universidad Politécnica de Atlacomulco
Asesor: Dr. Fabrielo Jimenez Bolivar, Corporación Politécnico de la Costa Atlántica

EL CONOCIMIENTO Y LA PERCEPCIóN DE LA INTELIGENCIA ARTIFICIAL EN LA SEGURIDAD LABORAL DE LA INDUSTRIA COLOMBIANA


EL CONOCIMIENTO Y LA PERCEPCIóN DE LA INTELIGENCIA ARTIFICIAL EN LA SEGURIDAD LABORAL DE LA INDUSTRIA COLOMBIANA

Epifanio Ruiz Nazareth, Universidad Politécnica de Atlacomulco. Asesor: Dr. Fabrielo Jimenez Bolivar, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

La industria colombiana tiene un conocimiento básico sobre los beneficios y desafíos que la IA puede aportar. A pesar del interés en Colombia por adoptar la IA en varios sectores industriales, incluida la seguridad laboral, aún existen desafíos significativos que afectan la implementación efectiva de esta tecnología en el ámbito de la seguridad laboral en el país. Uno de los problemas clave es la necesidad de una mayor educación y concienciación sobre cómo la IA puede mejorar la seguridad en el lugar de trabajo. Muchas empresas y trabajadores en la industria colombiana pueden no estar informados sobre cómo la IA puede automatizar tareas peligrosas, reducir riesgos para los empleados y mejorar la vigilancia de la seguridad laboral. Esta falta de conocimiento puede llevar a una desmotivación de los empleados y no saber aprovechar las herramientas de la IA en la prevención de accidentes y la promoción de entornos laborales seguros.Además, la percepción errónea de que la IA puede reemplazar por completo a los trabajadores en lugar de complementar sus habilidades y mejorar la seguridad laboral también puede ser un problema. Esta percepción incorrecta puede generar resistencia a la adopción de la IA en la seguridad ocupacional y obstaculizar su implementación efectiva en la industria colombiana.



METODOLOGÍA

Recopilación de datos: - Diseño de un formulario en línea: Se diseñó un formulario en línea con 15 preguntas que abordaban diversos aspectos relacionados con el conocimiento y la percepción de la IA en la seguridad laboral. - Distribución del formulario: El formulario fue distribuido a través de diferentes canales a una muestra representativa de la industria colombiana, incluyendo administrativos, operativos, supervisores y directivos. - Recopilación de respuestas: Se recopilaron las respuestas del formulario durante un período de una semana, obteniendo un total de 42 respuestas. Análisis de datos: - Análisis descriptivo: Se realizó un análisis descriptivo de los datos recopilados para determinar las tendencias generales en el conocimiento y la percepción de la IA. - Análisis de las respuestas a cada pregunta: Se analizaron las respuestas a cada pregunta individualmente para identificar las principales barreras y oportunidades para la implementación de la IA en la seguridad laboral. - Análisis de las relaciones entre las variables: Se analizaron las relaciones entre las diferentes variables para determinar cómo el conocimiento y la percepción de la IA están relacionados con otros factores, como la edad, el género, el puesto de trabajo y los años de experiencia en la industria. Interpretación de resultados: - Identificación de las principales conclusiones: Se identificaron las principales conclusiones del estudio, incluyendo los niveles de conocimiento y percepción de la IA, las principales barreras para la implementación de la IA y las oportunidades para mejorar la seguridad laboral a través de la IA. - Recomendaciones para la industria colombiana: Se formularon recomendaciones para la industria colombiana basadas en los resultados del estudio, incluyendo la necesidad de invertir en la capacitación de los empleados en IA, la importancia de abordar la resistencia al cambio y la necesidad de desarrollar políticas y regulaciones claras para la implementación de la IA en la seguridad laboral. Presentación de los resultados: - Elaboración de un informe: Se elaboró un informe que presenta los resultados del estudio de forma clara y concisa, incluyendo gráficos y tablas para visualizar los datos. - Presentación de los resultados a la industria colombiana: Se presentaron los resultados del estudio a la industria colombiana a través de diferentes canales, incluyendo conferencias, publicaciones y presentaciones en línea. Seguimiento y evaluación: - Evaluación de la implementación de las recomendaciones: Se evaluó la implementación de las recomendaciones del estudio para determinar su impacto en la seguridad laboral de la industria colombiana.  


CONCLUSIONES

El estudio realizado sobre el conocimiento y la percepción de la inteligencia artificial en la seguridad laboral de la industria colombiana, muestra un panorama positivo, donde la mayoría de los encuestados reconocen el potencial de la IA para mejorar la seguridad en el trabajo. Sin embargo, es importante destacar que la IA no es una solución mágica y que se necesita implementar medidas de seguridad adecuadas para garantizar que se utiliza de forma segura y responsable. Se identificaron varias barreras para la implementación de la IA, como la falta de conocimiento o habilidades técnicas, la resistencia al cambio por parte de los empleados, la incompatibilidad con los sistemas existentes y el costo de la implementación. Para superar estas barreras, es necesario invertir en la capacitación y el desarrollo de los empleados, abordar la resistencia al cambio, considerar el costo de la inversión y asegurarse de que la IA sea compatible con los sistemas existentes. Es importante destacar que la IA puede ser una herramienta complementaria a la formación en seguridad laboral para los empleados, y que puede adaptarse y mejorar continuamente su capacidad para prevenir riesgos laborales. Sin embargo, todavía hay mucho margen de mejora en la implementación de la IA en este ámbito. Se necesita seguir investigando y desarrollando nuevas tecnologías de IA para mejorar su eficacia en la prevención de accidentes laborales, y es importante invertir en la capacitación y el desarrollo de los empleados para que puedan comprender y utilizar la IA de forma efectiva.
Equihua Cervantes Jovany Alexander, Instituto Tecnológico de Morelia
Asesor: Mg. Carolina Herrera Solera, Universidad del Sinú

RETOS DE LA INTELIGENCIA ARTIFICIAL Y LA TRANSFORMACIóN ENERGéTICA EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA INDUSTRIA MANUFACTURERA EN LA CIUDAD DE CARTAGENA - COLOMBIA


RETOS DE LA INTELIGENCIA ARTIFICIAL Y LA TRANSFORMACIóN ENERGéTICA EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA INDUSTRIA MANUFACTURERA EN LA CIUDAD DE CARTAGENA - COLOMBIA

Equihua Cervantes Jovany Alexander, Instituto Tecnológico de Morelia. Martínez Gutiérrez Agui Judith, Instituto Tecnológico de Morelia. Asesor: Mg. Carolina Herrera Solera, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

El proyecto de investigación: Retos de la Inteligencia Artificial y la Transformación Energética en PYMES de la Industria Manufacturera en Cartagena, se enfoca en cómo la inteligencia artificial y la transición energética impactan a las pequeñas y medianas empresas (PYMES) de la industria manufacturera en Cartagena; de igual manera, se busca identificar los retos, amenazas y las oportunidades de estas tecnologías emergentes y cómo buscan mejorar la eficiencia, reducir costos y promover la sostenibilidad en el sector manufacturero local. Entre los principales objetivos está identificar los retos y oportunidades de las PYMES en Cartagena con la integración de la inteligencia artificial; y también se busca evaluar la adopción de energías renovables y proponer estrategias para la transformación digital y energética de las PYMES a nivel local. Para el desarrollo del proyecto de investigación utilizamos una metodología documental, ya que recopilamos y seleccionamos información de diversos documentos, revistas, etc. La mayoría de los datos estadísticos los obtuvimos del Departamento Administrativo Nacional de Estadística (DANE) y de la Cámara de Comercio de Cartagena; aunado a esto y aplicando un enfoque exploratorio-descriptivo, nos permitió comprender la aplicación de estas tecnologías de las PYMES en Cartagena.Además, se dan propuestas de solución ante los desafíos encontrados, implementando inteligencias artificiales que actualmente están en el mercado y que se encuentran en auge.  



METODOLOGÍA

El presente proyecto se enmarca dentro de una investigación de tipo documental, técnica del tipo cualitativo que consiste en recopilar y seleccionar información de lecturas de documentos, revistas, libros, periódicos, artículos y resultados de investigaciones, entre otros. Por otra parte, los datos estadísticos en su mayoría los obtuvimos del Departamento Administrativo Nacional de Estadística (DANE) y en la jurisdicción de la Cámara de Comercio de Cartagena. Se adoptó un enfoque exploratorio-descriptivo para comprender la aplicación de la inteligencia artificial (IA) y la transición energética en las PYMES de la industria manufacturera en Cartagena, Colombia.


CONCLUSIONES

Colombia se caracteriza por la predominancia de micro, pequeñas y medianas, así como grandes empresas (MiPYMES), todas jugando un papel fundamental en la economía. Según un artículo de El Universal (2021), algunas de sus principales amenazas y desafíos son la falta de conocimientos tecnológicos y la resistencia para invertir en la tecnología, lo que reduce su eficiencia y rendimiento. En particular, la industria manufacturera en Cartagena, que ha evolucionado significativamente, constituye una parte considerable de la producción industrial de la región. De acuerdo con El Universal (2021), Cartagena está posicionada como el cuarto centro industrial de Colombia, conocida por su turismo y su puerto, con un fuerte enfoque en la industria petroquímica y plástica y una estructura empresarial dominada por microempresas. A pesar de su importancia, las PYMES en Cartagena enfrentan desafíos significativos, como la alta carga tributaria con una presión fiscal del 25% (Vergara, 2024), la más alta de Colombia, así también la falta de conocimientos tecnológicos. Ante estos desafíos, es crucial considerar la implementación de tecnologías avanzadas como la inteligencia artificial (IA). Es por esto que algunos autores como Duque (2021), Mora & Valencia (2022) y documentos clave del gobierno como el CONPES (3975-2019), la Ley 1753-2015 y el Plan Nacional de Desarrollo 2018-2022 destacan la idea de utilizar IA para aumentar eficiencia en las industrias manufactureras, reducir costos al predecir fallos en maquinaria y optimizar la producción, mejorando tanto el rendimiento económico como el impacto ambiental. La adopción de estas tecnologías puede ser un factor clave para superar las debilidades actuales y aprovechar las oportunidades de crecimiento y desarrollo sostenible en la región. La propuesta de implementar una inteligencia artificial (IA), como el Machine Learning, en las PYMES se enfoca en mejorar la eficiencia. A través de ella, se puede realizar un análisis predictivo para la gestión financiera, como predecir flujos de caja e identificar patrones de gastos. Además, puede predecir fallos en maquinaria antes que ocurran, reduciendo así los tiempos de inactividad, al igual que GE Predix una plataforma industrial desarrollada por General Electric, instalando sensores en la maquinaria y equipos, puede recopilar datos en tiempo real sobre el estado y rendimiento, lo que se traduce en beneficios para las empresas manufactureras, pues reduce costos, optimiza operaciones y mejora la productividad. En cuanto a la atención al cliente, se propone implementar chatbots, como Voiceflow, para reducir la carga sobre el personal de la empresa, ofreciendo soporte continuo y mejorando la experiencia del cliente. Esta tecnología permite automatizar respuestas a consultas frecuentes, agilizando el proceso de servicio y manteniendo altos niveles de satisfacción. Para la gestión de recursos humanos, Workday es una IA que ofrece capacidades avanzadas de análisis predictivo. Esto ayuda a identificar potenciales líderes dentro de la empresa y así diseñar estrategias para la retención de talento.
Escalante Rodríguez Anett Michell, Instituto Tecnológico de Tepic
Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia

AQUAGUARDIAN: SISTEMA INTELIGENTE DE GESTIóN DE AGUA


AQUAGUARDIAN: SISTEMA INTELIGENTE DE GESTIóN DE AGUA

Escalante Rodríguez Anett Michell, Instituto Tecnológico de Tepic. Espericueta Cervantes Ania Priscila, Instituto Tecnológico de Tepic. Gonzalez Rodriguez Carmen Guadalupe, Instituto Tecnológico de Tepic. Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

La falta de un control adecuado en el suministro y almacenamiento de agua puede llevar a problemas significativos, como el desperdicio de agua, la sobreexplotación de recursos hídricos y la falta de disponibilidad en momentos críticos. En muchas comunidades, la gestión del agua se realiza de manera manual, lo que puede ser ineficiente y propenso a errores humanos. La implementación de un sistema automatizado de gestión de agua puede ofrecer una solución eficaz a estos problemas, asegurando una distribución equitativa y el uso óptimo del recurso.



METODOLOGÍA

RESUMEN El proyecto "AquaGuardian: Sistema Inteligente de Gestión de Agua" tiene como objetivo diseñar e implementar un sistema automatizado para el control eficiente del agua en comunidades con escasez de este recurso. El sistema utiliza sensores para monitorear el nivel del agua en dos tanques y controla dos motores y una alarma para gestionar el llenado y vaciado de los tanques. Esta solución pretende optimizar el uso del agua y garantizar su disponibilidad en las comunidades que más lo necesitan. Como primera parte dentro del desarrollo se trabajó en la plataforma tinkercad el diseño para la simulación con el cual identificamos las conexiones de sensores, actuadores y el controlado así mismo saber los elementos que necesitaríamos para la realización del sistema mecánico de manera física. Para continuar se recopilaron cada uno de los elementos que se utilizarían (motobombas, cables, repientes, etc.) se seleccionaron de acuerdo a la necesidad del prototipo y con el diseño antes realizado. Para la realización del prototipo se inició con la realización de la base para posteriormente colocar las motobombas al igual que los recipientes a los cuales se les hicieron unos orificios para la colocación de las mangueras. Dentro del recipiente que sería llenado se colocaron los cables correspondientes para la indicación de cada nivel (nivel bajo, nivel medio y nivel alto) el cual daría la indicación de la detención del llenado. Posteriormente se colocaron las mangueras conectando los recipientes a las motobombas en el cual se absorbe el agua y de la motobomba al otro recipiente para que este pueda ser llenado. Se realizaron las pruebas para corroborar que el sistema funcionaba correctamente para que posteriormente pudiera ser sustituido en el prototipo.


CONCLUSIONES

El proyecto "AquaGuardian: Sistema Inteligente de Gestión de Agua" ha demostrado ser una solución efectiva para optimizar la gestión del agua en comunidades con escasez de este recurso vital. A través de la automatización y el control preciso del llenado y vaciado de los tanques de almacenamiento, se ha logrado reducir significativamente el desperdicio de agua y garantizar un suministro continuo y eficiente. La implementación de sensores de nivel, motores eléctricos y una alarma sonora ha permitido un monitoreo constante y una operación confiable del sistema, cumpliendo con los objetivos específicos planteados. Este proyecto no solo mejora la calidad de vida de los habitantes de las comunidades afectadas, sino que también promueve la sostenibilidad y la conservación de los recursos hídricos. Previamente se estructuro un articulo con las diferentes tematicas Video funcional, sistema control de nivel:  https://youtu.be/v6vXGqSaFm0?si=Xbx4o5ZeKYfCO7GS  Documento (Proyecto):  https://docs.google.com/document/d/1jgYWPXMf6E2U-Izjr2BByhtkB-M12r4t/edit?usp=sharing&ouid=111129496335601325388&rtpof=true&sd=true
Escamilla Villa Lidia Janet, Instituto Tecnológico de Tepic
Asesor: Dr. Filiberto Candia García, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE LA INCERTIDUMBRE DIMENSIONAL UNA APLICACIóN DEL MéTODO DE LOS ELEMENTOS FINITOS


ANáLISIS DE LA INCERTIDUMBRE DIMENSIONAL UNA APLICACIóN DEL MéTODO DE LOS ELEMENTOS FINITOS

Barragán Zepeda Carlos, Instituto Tecnológico de Tepic. Escamilla Villa Lidia Janet, Instituto Tecnológico de Tepic. Asesor: Dr. Filiberto Candia García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la industria metal mecánica (automotriz, aeronáutica y aeroespacial) la gestión de la calidad y la agenda 2030, objetivo 9 del desarrollo sustentable, promueven técnicas, estrategias y herramientas de la ingeniería industrial, como: Core Tools, Lean Manufacturing, Mentefactura, entre otras. En pro de minimizar la variabilidad o incertidumbre dimensional en el desarrollo de nuevos productos.  Debido a que la exactitud de las dimensiones geométricas de cualquier tipo de pieza (alambre, lámina o sólido) es una garantía de la repetitividad de los procesos de ensamble. Sin embargo, la principal limitación y alcance de estas tecnologías y filosofías se encuentra limitadas a la información que se genera hasta el final de los procesos cuando un producto o insumo es fabricado, tanto en sus partes como en el ensamble completo de estas. Entendiendo que un cambio de dimensión, mayor o menor; longitud, área o volumen, es un factor determinante, para determinar por observación la falta de calidad en un producto terminando. Asimismo, esta condición de genera en el ensamble del producto condiciones de esfuerzos internos (axial, cortante y torsión) y falta de equilibrio externo (simetría o axisimetría). Siendo el propósito de este trabajo documentar una guía didáctica que aprovecha el Método de los Elementos Finitos (MEF) como un recurso estratégico de digital-virtual, que permite la predicción de los desplazamientos ante condiciones mecánicas de esfuerzo y carga, generados por baja precisión de las tolerancias geométricas.



METODOLOGÍA

El desarrollo es experimental por simulación en software libre (open source), en elementos estructurales simples y complejos en geometrías 1D, 2D y 3D. El siguiente procedimiento ilustra la secuencia de validación de las simulaciones y las actividades instruccionales que derivan un proceso de enseñanza-aprendizaje. Primer paso se determinan los ejercicios y sus características (dimensiones y tolerancias geométricas y condiciones frontera) en base a la normativa DG&T. Segundo paso se resuelven los ejercicios por métodos convencionales exactos. Tercer paso se realiza la solución por medio del software libre basado en el MEF, para ello se define el preprocesamiento (tipo de geometría y malla), procesamiento (condiciones frontera) y postprocesamiento (extracción de datos geométricos y numéricos). Cuarto paso se comparan los resultados de la solución exacta versus la solución aproximada. Quinto paso se determina la variación de las dimensiones geométricas iniciales y se estima el porcentaje de incertidumbre para determinar la variabilidad de geométrica final. Quinto paso es la organización del documento guía mediante los apartados: Descripción del problema y diagrama esquemático; Diagrama de cuerpo libre; descripción de la solución por el método exacto, coordenadas de la malla, código de procesamiento, figura del comportamiento de la variable desplazamiento, tabla comparativa, interpretación cualitativa, reflexiones de las dimensiones y tolerancias geométricas en base a la norma DG&T.


CONCLUSIONES

Los valores de las simulaciones se validan de manera comparada mediante una batería de ejercicios resueltos de manera manual en el software Excel, mediante diversas formulaciones analíticas que proporcionan una solución exacta a los problemas Hipostáticos, Isostáticos e Hiperestáticos. Una tabla comparativa muestra en porcentaje el grado de exactitud de la simulación versus la solución exacta. Asimismo, los valores de los esfuerzos internos, fuerzas externas, deformaciones y desplazamientos, se cualifican como a través de las tolerancias propuestas, tanto de forma como de posición. La batería de ejercicios propuesta y resuelta por un software libre basado en el MEF como guía didáctica, es una estrategia educativa de alto impacto como complemento de la formación de los ingenieros dedicados a la gestión de la calidad de los procesos. La experiencia como usuario final de esta propuesta educativa es una formación integradora de las hard skill y soft skill, para la gestión de la calidad y mejora de los procesos en el diseño de nuevos productos y de los procesos productivos.
Escobar Candelaria Francisco Damián, Universidad Autónoma de Chiapas
Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional

APRENDIZAJE AUTOMáTICO PARA ANALIZAR EL COMPORTAMIENTO DEL MERCADO FINANCIERO.


APRENDIZAJE AUTOMáTICO PARA ANALIZAR EL COMPORTAMIENTO DEL MERCADO FINANCIERO.

Arredondo Armenta Luis Alberto, Instituto Tecnológico de Culiacán. Escobar Candelaria Francisco Damián, Universidad Autónoma de Chiapas. Proa Arias Alejandro, Instituto Tecnológico de Culiacán. Tapia Pérez Fernando, Instituto Tecnológico de Culiacán. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el mundo moderno, los temas financieros tienen una importancia crucial; las inversiones representan una gran oportunidad para quienes poseen los conocimientos adecuados. Sin embargo, en México, estos son poco explorados y la población muestra escaso interés en aprender siquiera las bases de este ámbito. Por ello, consideramos que este proyecto es una excelente oportunidad para aumentar su visibilidad y fomentar el interés por aprender más sobre ellos entre un mayor número de personas. Asimismo, actualmente el uso del aprendizaje automático se encuentra en su mayor auge, permitiendo realizar procesos sin la intervención directa de una persona. Nuestro proyecto se propone integrar ambos aspectos: la educación financiera y el aprendizaje automático; siendo sus principales objetivos resaltar la importancia de ambos, y demostrar cómo su combinación puede generar un proyecto de muy alta relevancia. El objetivo es desarrollar herramientas y métodos avanzados de predicción aplicados a la bolsa de valores para estimar los valores que tomará en el futuro y ser capaces de llevar a cabo recomendaciones de inversiones. Esto último siendo valioso tanto para usuarios experimentados como para principiantes, fomentando la cultura de la inversión, como medio de crecimiento financiero paralelo.



METODOLOGÍA

Se utilizó la biblioteca de funciones Yfinance para descargar los datos históricos de las acciones de Apple© desde 1980 hasta 2024 con el objetivo de usarlos como datos de entrenamiento para la red neuronal. Del conjunto de datos presentados anteriormente se utilizó únicamente la columna High, que representa los valores más altos que alcanzaron sus acciones cada día. Se hicieron dos subdivisiones para ajustar la red neuronal: Desde 1980 hasta el 2019 para los datos de entrenamiento y desde 2020 hasta 2024 para hacer predicciones. Desde 1980 hasta el 2021 para los datos de entrenamiento y desde 2022 hasta 2024 para hacer predicciones. La primera esperando probar su funcionamiento ante la cambiante situación de la bolsa de valores en la pandemia, y la segunda para el entorno posterior a esta. Primero que nada, se hace un preprocesamiento de los datos primero haciendo una normalización de 0 a 1 para que la función de activación pueda usar los datos de mejor manera y después de esto se mide la longitud de los datos para hacer secuencias de entrenamiento y con estos mismos entrenar la red neuronal, por último, se remoldan los datos para que así sean más compatibles con el modelo de red neuronal recurrente o en este caso con el modelo LSTM. Posteriormente se diseñó una red neuronal de 1 entrada, 1 capa de 50 neuronas y 1 salida, entrenando a la red por 100 épocas con un tamaño de lote de 32. Finalmente, se utilizaron los datos destinados a realizar predicciones para este mismo propósito, con el fin de verificar la precisión y la eficiencia de la red neuronal, obteniendo una serie de resultados que intentaron predecir los valores de la acción en ambos periodos de tiempo, dados sus datos de entrenamiento; estos resultados fueron utilizados para calcular su error cuadrático medio, y a su vez fueron graficados con relación a los valores reales para su comparación visual.


CONCLUSIONES

Al desarrollar la metodología de nuestro proyecto se obtuvieron un par de gráficas en la que se observó que la predicción de nuestra red neuronal es muy parecida al precio real, únicamente presentando un leve desfase por usar solo el valor más alto de el set de datos de entrenamiento y no tomar en cuenta las fechas de estos precios, por lo que después de sacar el error cuadrático medio, y comparando la predicción con el valor real, obtuvimos que nuestra red neuronal tiene una eficiencia de alrededor de 78.79%, siendo un valor bastante positivo para nuestro objetivo, ya que es capaz de dar una noción de los valores que la acción tomará en el futuro, algo que le brinda una cualidad de consejero en el área de las inversiones. Es así como se logró desarrollar una versión temprana del proyecto, la cual consiste en un sistema que utiliza una red neuronal entrenada con datos históricos de la empresa Apple©. Este sistema predice los futuros movimientos financieros de la empresa en la bolsa de valores. La predicción se presenta en una gráfica para facilitar su visualización por parte del usuario. La precisión de la predicción es bastante buena dentro de lo posible, aunque no es perfecta debido a la complejidad y volatilidad del mercado bursátil. No obstante, es capaz de ofrecer al usuario una orientación sobre qué empresas podrían experimentar subidas o bajadas en su valor. Se tiene previsto que en futuras versiones del proyecto se desarrolle una interfaz de usuario, algo que permitirá que la herramienta sea utilizada como una aplicación en diferentes dispositivos. De este modo, tras las exhaustivas investigaciones realizadas por el equipo para llevar a cabo este proyecto, se ha adquirido un conocimiento considerable sobre el mercado de las inversiones y el aprendizaje automático. Dado que los miembros del equipo no contaban con formación profesional en finanzas ni en el uso de inteligencia artificial, todos han adquirido nuevos conocimientos en estas áreas. Estos conocimientos serán valiosos no solo para continuar con este, sino también para futuros proyectos, y potencialmente, para quienes decidan adentrarse en el campo de las finanzas o la inteligencia artificial.
Esperanza López Andrea Beatriz, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Jairo Luis Martínez Ventura, Corporación Universitaria Latinoamericana

LOGíSTICA Y GERENCIA DE PROYECTOS


LOGíSTICA Y GERENCIA DE PROYECTOS

Esperanza López Andrea Beatriz, Instituto Tecnológico Superior de Irapuato. Asesor: Mg. Jairo Luis Martínez Ventura, Corporación Universitaria Latinoamericana



PLANTEAMIENTO DEL PROBLEMA

El tema de la presente revisión bibliográfica es Logística y Gerencia de Proyectos; centrado en como la gerencia de proyectos impacta dentro del ámbito de la logística; estos impactos pueden ser positivos o negativos para cualquiera de los tres sectores social, ambiental y económico. Es importante mencionar como la gerencia de proyectos en conjunto con la logística trabajan de manera estrecha y permiten el desarrollo de diversas actividades.



METODOLOGÍA

Enfoque de la investigación: La investigación se realizará utilizando un enfoque cualitativo, centrado en el análisis y síntesis de la literatura existente sobre el impacto que tiene la gerencia de proyectos en la logística.   Etapas de la investigación: 1. Definición del tema las preguntas de investigación: Formular un tema de investigación claro y especifico acerca del impacto que tiene la gerencia de proyectos en la logística. Desarrollar preguntas de investigación que guíen la búsqueda, análisis y revisión de la literatura.   2. Búsqueda y selección de fuente de información: Identificar y seleccionar fuentes de información relevantes y confiables incluyendo artículos científicos, libros, informes académicos y sitios web especializados como las bases de datos. Utilizar bases de datos académicas, repositorios de investigación y motores de búsqueda para localizar literatura relevante (Web Of Science). Aplicar criterios de selección estrictos para garantizar la calidad y pertinencia de las fuentes.   3. Recolección y análisis de datos: Leer y analizar cuidadosamente las fuentes seleccionadas, tomando notas y extrayendo información relevante. Organizar la información recopilada utilizando un sistema de gestión de referencias o fichas bibliográficas. Identificar patrones, temas y conceptos clave emergentes a partir del análisis de la literatura.   4. Síntesis de la información: Sintetizar la información recopilada en un formato coherente y organizado. Identificar las principales conclusiones y hallazgos de la revisión bibliográfica. Discutir las implicaciones de los hallazgos para la teoría y la práctica.   5. Redacción del informe de revisión bibliográfica: Redactar un informe de revisión bibliográfica claro, conciso y bien estructurado. Incluir una introducción que presente el tema de investigación y las preguntas de investigación. Desarrollar un cuerpo principal que presente la síntesis de la literatura y los hallazgos de la investigación. Concluir con una discusión de las implicaciones, limitaciones y recomendaciones para futuras investigaciones. Recursos: Para realizar esta revisión bibliográfica se necesitarán los siguientes recursos: Acceso a recursos de información: Computadora con acceso a internet, suscripción a bases de datos académicas y repositorios de investigación. Habilidades de investigación y análisis: Capacidad para identificar, evaluar y sintetizar información de diversas fuentes. Habilidades de escritura: Capacidad para redactar un informe claro, conciso y bien estructurado.   Cronograma: La revisión bibliográfica se llevará a cabo en las siguientes etapas: Etapa Duración 1. Definición del tema y preguntas de investigación | 1 semana 2. Búsqueda y selección de fuentes | 2 semanas 3. Recolección y análisis de datos | 3 semanas 4. Síntesis de la información | 2 semanas 5. Redacción del informe de revisión bibliográfica | 2 semanas   Posibles limitaciones: Algunas de las posibles limitaciones de esta revisión bibliográfica incluyen: La disponibilidad de recursos de información. La capacidad de identificar y seleccionar fuentes relevantes y confiables. La capacidad de sintetizar y analizar la información de manera objetiva y rigurosa. A pesar de estas limitaciones, se espera que esta revisión bibliográfica proporcione una visión completa y actualizada del impacto de la Gerencia de Proyectos en la Logística. Los hallazgos de la revisión pueden ser útiles para investigadores, profesionales y tomadores de decisiones interesadas en este tema.   Condiciones adicionales: Es importante mantener un registro detallado del proceso de búsqueda y selección de fuentes. Se deben utilizar herramientas de gestión de referencias para organizar y citar las fuentes de manera adecuada. Se deben realizar revisiones periódicas de la literatura


CONCLUSIONES

En muchos de los casos revisados, no fue estudiado a detalle el paso a paso dentro de los proyectos; esto genera impactos positivos o negativos a distintos sectores. Principalmente los impactos positivos son para el sector económico, mientras que los impactos negativos son para la sociedad o el medio ambiente. La gerencia de proyectos dentro del sector de la logística es muy importante desarrollarla de manera correcta y completa, para de esta forma no afectar al medio ambiente y a la sociedad. Además, otro factor involucrado es el crecimiento económico del país, ya que de esto dependen otros factores como la oferta y demanda de trabajo, infraestructura, movilidad dentro del país, así como actividades dentro de la cadena de suministro, gestión del inventario, mejora de rutas de distribución y optimización de recursos.
Espericueta Cervantes Ania Priscila, Instituto Tecnológico de Tepic
Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia

AQUAGUARDIAN: SISTEMA INTELIGENTE DE GESTIóN DE AGUA


AQUAGUARDIAN: SISTEMA INTELIGENTE DE GESTIóN DE AGUA

Escalante Rodríguez Anett Michell, Instituto Tecnológico de Tepic. Espericueta Cervantes Ania Priscila, Instituto Tecnológico de Tepic. Gonzalez Rodriguez Carmen Guadalupe, Instituto Tecnológico de Tepic. Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

La falta de un control adecuado en el suministro y almacenamiento de agua puede llevar a problemas significativos, como el desperdicio de agua, la sobreexplotación de recursos hídricos y la falta de disponibilidad en momentos críticos. En muchas comunidades, la gestión del agua se realiza de manera manual, lo que puede ser ineficiente y propenso a errores humanos. La implementación de un sistema automatizado de gestión de agua puede ofrecer una solución eficaz a estos problemas, asegurando una distribución equitativa y el uso óptimo del recurso.



METODOLOGÍA

RESUMEN El proyecto "AquaGuardian: Sistema Inteligente de Gestión de Agua" tiene como objetivo diseñar e implementar un sistema automatizado para el control eficiente del agua en comunidades con escasez de este recurso. El sistema utiliza sensores para monitorear el nivel del agua en dos tanques y controla dos motores y una alarma para gestionar el llenado y vaciado de los tanques. Esta solución pretende optimizar el uso del agua y garantizar su disponibilidad en las comunidades que más lo necesitan. Como primera parte dentro del desarrollo se trabajó en la plataforma tinkercad el diseño para la simulación con el cual identificamos las conexiones de sensores, actuadores y el controlado así mismo saber los elementos que necesitaríamos para la realización del sistema mecánico de manera física. Para continuar se recopilaron cada uno de los elementos que se utilizarían (motobombas, cables, repientes, etc.) se seleccionaron de acuerdo a la necesidad del prototipo y con el diseño antes realizado. Para la realización del prototipo se inició con la realización de la base para posteriormente colocar las motobombas al igual que los recipientes a los cuales se les hicieron unos orificios para la colocación de las mangueras. Dentro del recipiente que sería llenado se colocaron los cables correspondientes para la indicación de cada nivel (nivel bajo, nivel medio y nivel alto) el cual daría la indicación de la detención del llenado. Posteriormente se colocaron las mangueras conectando los recipientes a las motobombas en el cual se absorbe el agua y de la motobomba al otro recipiente para que este pueda ser llenado. Se realizaron las pruebas para corroborar que el sistema funcionaba correctamente para que posteriormente pudiera ser sustituido en el prototipo.


CONCLUSIONES

El proyecto "AquaGuardian: Sistema Inteligente de Gestión de Agua" ha demostrado ser una solución efectiva para optimizar la gestión del agua en comunidades con escasez de este recurso vital. A través de la automatización y el control preciso del llenado y vaciado de los tanques de almacenamiento, se ha logrado reducir significativamente el desperdicio de agua y garantizar un suministro continuo y eficiente. La implementación de sensores de nivel, motores eléctricos y una alarma sonora ha permitido un monitoreo constante y una operación confiable del sistema, cumpliendo con los objetivos específicos planteados. Este proyecto no solo mejora la calidad de vida de los habitantes de las comunidades afectadas, sino que también promueve la sostenibilidad y la conservación de los recursos hídricos. Previamente se estructuro un articulo con las diferentes tematicas Video funcional, sistema control de nivel:  https://youtu.be/v6vXGqSaFm0?si=Xbx4o5ZeKYfCO7GS  Documento (Proyecto):  https://docs.google.com/document/d/1jgYWPXMf6E2U-Izjr2BByhtkB-M12r4t/edit?usp=sharing&ouid=111129496335601325388&rtpof=true&sd=true
Espinosa Casillas Diego, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Mg. Kelly Stefanny Moreno Cortés, Universidad La Gran Colombia

ESTRATEGIAS DE GESTIóN PARA EL MANEJO DEL RECURSO HíDRICO Y ENERGéTICO EN EDIFICACIONES RURALES, CASO DE ESTUDIO FILANDIA QUINDIO


ESTRATEGIAS DE GESTIóN PARA EL MANEJO DEL RECURSO HíDRICO Y ENERGéTICO EN EDIFICACIONES RURALES, CASO DE ESTUDIO FILANDIA QUINDIO

Espinosa Casillas Diego, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Herrera Sanchez Julian, Universidad Vizcaya de las Américas. Asesor: Mg. Kelly Stefanny Moreno Cortés, Universidad La Gran Colombia



PLANTEAMIENTO DEL PROBLEMA

  La vivienda campesina en Colombia enfrenta desafíos significativos para garantizar condiciones adecuadas de habitabilidad y calidad de vida, entre los principales problemas se destacan la falta de acceso a servicios básicos como electricidad, y agua potable, así como la perdida de conocimientos tradicionales de construcción, sustituidos por técnicas modernas que no se adaptan al contexto y clima local. Esto afecta el bienestar y desarrollo económico y social de las comunidades. Las construcciones vernáculas, proporcionan un confort ideal, pero están siendo reemplazadas por nuevos materiales que no son adecuados al lugar. Por ende, se sugieren alternativas tecnológicas para mejorar la sostenibilidad energética en la vivienda rural, como sistemas energéticos alternos de bajo costo, iluminación Led y envolvente.  



METODOLOGÍA

En el presente estudio de investigación es mixto, ya que se utilizó los distintos tipos de investigación, donde en el estudio cuantitativo nos llevó a tener un análisis estadístico más preciso tales como las encuestas, experimentos, observación de los fenómenos entre otros. Y la cualitativa nos llevó una información mediante experiencias, historias y la observación dentro del estudio de investigación en las diferentes edificaciones (Viviendas tradicionales, en transición y modernas).


CONCLUSIONES

La investigación sobre el tema de "Hábitat y arquitectura sostenible" implica un estudio y análisis arduo en las edificaciones (tradicionales, en transición y modernas) en diferentes aspectos y puntos para comprender como es que impacta de forma directa e indirecta los materiales, la habitabilidad y la energía en sus habitantes. Gracias a los diferentes puntos de investigación dentro de las edificaciones tales como, las patologías, materialidad, medición de vientos y energía, entre otros, notamos un significativo cambio dentro de las viviendas donde se puntualiza las nuevas tecnologías de construcción y materiales dentro de estas, perdiendo su valor intrínseco tradicional como parte de su historia y patrimonio, alterando las formas de vida, condiciones de bienestar y salud de las comunidades campesinas.
Espinosa Pérez Daniela Abigail, Instituto Tecnológico de Matamoros
Asesor: Dr. Jose Luis Tristancho Reyes, Universidad Tecnológica de Pereira

CORROSIÓN: CARACTERIZACIÓN DE RECUBRIMIENTOS BASE HIERRO Y BASE ALUMINIO OBTENIDOS MEDIANTE ADICIÓN DE MATERIAL EN FRIO SOBRE CULATAS DE MOTORES DE COMBUSTIÓN INTERNA Y ELECTROQUÍMICA DE MUESTRAS COBRE-BERILIO


CORROSIÓN: CARACTERIZACIÓN DE RECUBRIMIENTOS BASE HIERRO Y BASE ALUMINIO OBTENIDOS MEDIANTE ADICIÓN DE MATERIAL EN FRIO SOBRE CULATAS DE MOTORES DE COMBUSTIÓN INTERNA Y ELECTROQUÍMICA DE MUESTRAS COBRE-BERILIO

Espinosa Pérez Daniela Abigail, Instituto Tecnológico de Matamoros. Asesor: Dr. Jose Luis Tristancho Reyes, Universidad Tecnológica de Pereira



PLANTEAMIENTO DEL PROBLEMA

Se ha desarrollado en la Universidad Tecnológica de Pereira un procedimiento que pretende innovar la forma de realizar transformaciones de motores Diésel a motores Otto que operan con gas combustible (GNV o GLP). Esta transformación es una alternativa viable para mitigar el impacto contaminante debido al material particulado hasta en un 99%, especialmente en zonas urbanas, producido por el ACPM usado en los motores de combustión interna tradicional. La investigación tiene como objetivo, caracterizar las capas sugeridas de recubrimiento base hierro y base aluminio, mediante la técnica de adición de material en frío (arc spray), sobre culatas de motores de combustión interna. De la misma manera, se estudia la electroquímica de muestras de aleación cobre-berilio de diferentes temperaturas sometidas a normalización y temple. La normalización homogeneiza la estructura interna mejorando la tenacidad y la uniformidad de la respuesta del material, mientras que el temple por otro lado, aumenta la dureza y resistencia al cambiar la estrctura del material. 



METODOLOGÍA

Se realiza una completa revisión del estado del arte en cuanto a la aplicación de recubrimientos metálicos, base hierro y base aluminio, mediante deposición en frío (arc spray) y su análisis mediante técnicas mecánicas de adherencia pull - off, determinación de espesor por ultrasonido y técnicas de microscopia óptica y microscopía electrónica de barrido (SEM) Por otra parte, con acompañamiento del CENTRO DE INNOVACIÓN Y DESARROLLO TECNOLÓGICO - CIDT de la Universidad Tecnológica de Pereira, se hará un análisis sistemático del entorno empresarial y científico que permitirá sumar un valor estratégico e identificar las tendencias que existen con referencia a la tecnológica del proyecto. Electroquímica: la electroquímica aplicada a muestras permite medir la corrosión mediante la evaluación de reacciones electroquímica en una celda, donde la transferencia de electrones causa el deterioro del metal. Se utilizará el método LPR (Linear Polarization Resistance) y la técnica de curvas de Tafel para determinar la densidad de corriente de corrosión que se relaciona con la pérdida de material. Ensayo Pull - Off: la adherencia de los recubrimientos depositados por adición de material en frío (arc spray) será evaluada por la técnica de Pull - off. Mediante se determinará la medida del esfuerzo y tracción necesaria para desprender o romper la capa de recubrimiento aplicado en dirección al substrato. Ensayo de Ultrasonido: para determinar el valor del espesor de película de los recubrimientos, depositados por arc spray (deposición del material en frio) se hará uso de ensayo por ultrasonido que funciona enviando una vibración ultrasónica al recubrimiento, mediante una sonda (transductor) con la ayuda de un acoplante aplicado a la superficie. Microscopia óptica: para analizar las características microestructurales de los recubrimientos se realizarán análisis metalográficos de las probetas en microscopio óptico y para las culatas se hará uso de microscopio óptico portátil.


CONCLUSIONES

Debido a que la investigación sigue en curso, aún no se obtienen resultados de la caracterización de recubrimientos base hierro y base aluminio obtenidos mediante la adición de material en frío sobre culatas de motores de combustión interna. Actualmente se encuentra en una fase de recolección y análisis de datos en ensayos Pull-Off y Microscopía óptica los cuales son fundamentales para asegurar que los resultados finales sean precisos y completos.  Se realizó un estudio comparativo de las propiedades y características microestructurales de recubrimientos base Fe y base Ni depositados por rociado térmico por arco eléctrico (Arc Spray) y por proyección térmica por oxígeno combustible a alta velocidad (HVOF) sobre tuberías de acero ASME-SA210C, determinando que el recubrimiento base Fe presentó una mayor porosidad que el recubrimiento base Ni y esto se tradujo en que el recubrimiento base Ni fuera menos abrasivo que el recubrimiento base Fe. Los valores de dureza obtenidos en los dos recubrimientos fueron muy similares 200,15HV para el recubrimiento base Fe y 201,36HV para el recubrimiento base Ni. Concluyen que un buen sustito de la aplicación de recubrimientos base Ni por HVOF es la aplicación de recubrimientos base Fe por medio de arc spray (Widjajanto, Damardi, Surya Irawan, & Gapsari, 2023). Se cuenta con los resultados de la velocidad de corrosión de las pruebas electroquímica del material cobre-berilio, sin embargo, aún se encuentra en fase de análisis y comparación de datos.  
Espinosa Pulido Brando de Jesús, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Mg. Victor Manuel Garrido Arévalo, Universidad de Pamplona

DISEñO DE UN MóDULO DE ENTRENAMIENTO EN ENERGíA SOLAR FOTOVOLTAICA


DISEñO DE UN MóDULO DE ENTRENAMIENTO EN ENERGíA SOLAR FOTOVOLTAICA

Chávez Reyes Carolina, Instituto Politécnico Nacional. Espinosa Pulido Brando de Jesús, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. García Vázquez Immer, Universidad Autónoma de Guerrero. Asesor: Mg. Victor Manuel Garrido Arévalo, Universidad de Pamplona



PLANTEAMIENTO DEL PROBLEMA

El "Diseño de un módulo de entrenamiento en energía solar fotovoltaica" aborda la problemática de los altos costos de los kits fotovoltaicos, que oscilan entre $2000 USD y $5000 USD, lo cual dificulta a los estudiantes acceder a una formación práctica en energía solar fotovoltaica (FV). A pesar de la abundancia de recursos teóricos, la falta de entrenamiento práctico impide el desarrollo de habilidades necesarias para la instalación y operación de sistemas FV. Para solucionar esta deficiencia, se propone el desarrollo de un módulo de entrenamiento en FV, que permita a los estudiantes aplicar la teoría aprendida en un entorno práctico y reducir los costos asociados a la adquisición de equipos. Este módulo facilitaría que los egresados sean más competitivos en el mercado laboral.



METODOLOGÍA

La metodología por seguir para desarrollar un módulo de entrenamiento en sistemas de energía solar fotovoltaica que facilite la formación práctica de los estudiantes se compuso de cuatro etapas: 1. Evaluación inicial del sitio: Se evaluaron las características específicas del sitio para la correcta ubicación de los paneles solares, considerando las sombras proyectadas por árboles y estructuras circundantes en el techo. Los paneles solares se posicionaron en la ubicación ideal determinada, trasladándolos al área seleccionada sobre el techo del edificio Simón Bolívar de la Universidad de Pamplona. 2. Modelado: Se simularon los ángulos de inclinación y el ángulo azimut requeridos para captar la mayor cantidad de luz solar utilizando el lenguaje de programación Python y la librería PvLib. Se realizaron estudios de caracterización de las celdas solares para recopilar datos estructurales de la red cristalina del silicio monocristalino de los paneles solares propuestos, mediante espectroscopia de dispersión de energía de rayos X. Esto permitió determinar la calidad y eficiencia de los patrones periódicos en la red cristalina. Se proporcionaron ejemplos de indicadores energéticos aplicables en Colombia y se analizó el caso específico del indicador de emisiones de CO₂ equivalente en la central inversora de la Unipamplona. Esto ayudó a estimar las emisiones de gases de efecto invernadero y la energía ahorrada al utilizar energía solar en comparación con la energía eléctrica convencional. 3. Diseño: Se plantearon los ángulos necesarios para el aprovechamiento óptimo de la luz solar en los paneles solares, incluyendo el ángulo azimut y los ángulos de inclinación. Se justificó la importancia de estos ángulos para el diseño del sistema fotovoltaico adecuado para el contexto del edificio Simón Bolívar. 4. ​Verificación: Se llevaron a cabo pruebas de rendimiento del módulo de entrenamiento en condiciones reales de operación para asegurar su correcto funcionamiento y detectar posibles mejoras en su diseño


CONCLUSIONES

Se diseñó un módulo de entrenamiento en energía solar fotovoltaica utilizando el software Python, determinando que los paneles solares deben orientarse hacia el sur-suroeste (ángulo azimut de 190º) y tener un ángulo de inclinación fijo de 12º para optimizar la captación de energía solar en el edificio Simón Bolívar de la Universidad de Pamplona. La verificación de su funcionamiento con estas características arrojó una potencia máxima registrada de 298.98 W a las 12:00 hrs. Este módulo no solo proporciona una herramienta educativa valiosa y accesible para los estudiantes, sino que también sienta las bases para futuros proyectos en la universidad.
Espinoza Franco Sofia, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE PROTOTIPOS: HORNO DE VITROFUSIóN, EXPRIMIDOR DE PIñAS Y EXTRUSOR DE FILAMENTO


DESARROLLO DE PROTOTIPOS: HORNO DE VITROFUSIóN, EXPRIMIDOR DE PIñAS Y EXTRUSOR DE FILAMENTO

Carlos Patricio Isaac Emmanuel, Universidad Autónoma de Ciudad Juárez. Chab Contreras Diana Elizabeth, Universidad Autónoma de Yucatán. Espinoza Franco Sofia, Universidad Autónoma de Ciudad Juárez. Haro Bustamante Ana Laura, Universidad de Guadalajara. Leon Cancino Jesus Eduardo, Instituto Tecnológico de Tuxtla Gutiérrez. Martinez Cerino Paola Yosabeth, Instituto Tecnológico de Pachuca. Rodríguez Hernández Evelyn, Universidad de Guadalajara. Suriano Natarén Amairany, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La innovación tecnológica en el desarrollo de dispositivos industriales es fundamental para mejorar la eficiencia y calidad de los procesos productivos. Sin embargo, en muchas industrias, la adopción de tecnologías avanzadas se ve limitada por la falta de herramientas adecuadas que respondan a necesidades específicas de producción. En particular, se observa una carencia de soluciones efectivas en el ámbito de la vitrofusión, el procesamiento de frutas (como la extracción de jugo de piñas), y la fabricación de filamentos para impresión 3D. Cada prototipo presenta desafíos específicos en términos de diseño, integración de componentes electrónicos y optimización de funcionalidad. Este trabajo se centra en la cotización de materiales, diseño detallado, pruebas de componentes, programación y armado, con el objetivo de producir prototipos eficientes y funcionales



METODOLOGÍA

El desarrollo del primer prototipo de un horno de vitrofusión incluyó el diseño de una estructura con apertura en el plano (X, Z). La cápsula metálica, sin considerar la altura de las patas y tomando en cuenta la tapa superior e inferior, tiene dimensiones de 140 cm x 90 cm x 60 cm, y permite un rango de temperatura operativa de 80°C a 1300°C. Definieron las especificaciones técnicas, se elaboraron los planos correspondientes en el software SolidWorks. Con estos planos y especificaciones técnicas, se procedió a la cotización y adquisición de los materiales necesarios. Con los materiales, se realizaron pruebas exhaustivas de los componentes electrónicos para asegurar su funcionalidad y compatibilidad con el diseño del horno, estos componentes fueron integrados en la estructura del horno. Finalmente, se procedió al ensamblaje de la estructura del horno, utilizando principalmente soldadura y herramientas de medición, corte y esmeril. El segundo prototipo desarrollado es un exprimidor de piñas, el cual genera jugo por presión mecánica entre la base y un mazo fijado al techo de su soporte del exprimidor. La estructura esta diseñada para acomodar diversos tamaños de fruta. El proceso de desarrollo comenzó con el diseño del exprimidor en el software SolidWorks, donde se elaboró un esquema detallado del dispositivo, incluyendo todas las partes mecánicas y su ensamblaje. Este diseño permitió definir claramente las especificaciones y requerimientos técnicos. Una vez completado el diseño con los materiales disponibles, se realizaron pruebas para asegurar la operatividad, a diferencia de sistemas automatizados, este prototipo utiliza una manivela que permite a una persona ejercer la fuerza necesaria para operar el gato hidráulico. Finalmente, se armó la estructura del exprimidor utilizando técnicas de ensamblaje como soldadura y herramientas de precisión. El desarrollo del tercer prototipo, un extrusor de filamento, consiste en un motor que impulsa un husillo conectado a una tolva que transporta los restos del material de las impresoras 3D como PLA hacia un tubo caliente para fusionar los restos y por medio de una boquilla obtener filamento de un diámetro específico. El prototipo se diseñó en SolidWorks, los componentes que necesitamos fueron integrados en el diseño, seguido por el armado de su estructura y ensamblando todas las piezas, por último, se llevaron a cabo pruebas generales para verificar el correcto funcionamiento.


CONCLUSIONES

Se logró diseñar y desarrollar tres prototipos, enfrentando y superando diversos desafíos técnicos como la identificación de los materiales adecuados para cada prototipo, técnicas de soldadura, corte, desbaste y golpe, así como la implementación de los componentes electrónicos para el horno y el extrusor de filamento. Los resultados obtenidos indican que el prototipo del horno de vitrofusión cuenta con una estructura más grande a comparación de los hornos caseros, el sistema de aislamiento es funcional e innovador y el circuito electrónico es eficiente al controlar la temperatura. Asimismo, el exprimidor de piñas cuenta con una estructura que funciona manualmente y el extrusor de filamento fue adaptado para el uso y manejo del laboratorio. Los tres prototipos cuentan con potencial para mejoras futuras, una vez completados y refinados, estos dispositivos contribuyan significativamente a sus respectivas áreas de aplicación y abran la puerta a futuras investigaciones.
Espinoza Partida José Alejandro, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Jian Wang Wang, Wichita State University

DISCOVERING INORGANIC THIOCYANATE AS MAGNETIC MATERIALS


DISCOVERING INORGANIC THIOCYANATE AS MAGNETIC MATERIALS

Espinoza Partida José Alejandro, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Jian Wang Wang, Wichita State University



PLANTEAMIENTO DEL PROBLEMA

Magnetic materials are essential for numerous applications in modern technology, including data storage, magnetic sensors, and medical diagnostics. The ongoing search for new magnetic materials is crucial to improving the performance and efficiency of these applications. Inorganic thiocyanates, which are compounds containing the thiocyanate ion (SCN-), have recently gained attention due to their potential magnetic properties. However, there is limited understanding of their magnetic behavior and how their structural properties influence their magnetism.



METODOLOGÍA

Thiocyanic acid was synthesized using 11 grams of . It was then completely dissolved in ionized water. The resulting solution was placed in an ice bath at a temperature of 5 to 10°C. 2 mL of sulfuric acid () was added slowly, making sure that the reaction temperature did not exceed 10°C. After the addition of the acid, the mixture was kept under constant stirring for 30 minutes. After this time, the solution was centrifuged to separate the liquid from the solid. The liquid obtained, which corresponds to thiocyanic acid (HSCN), was used to dissolve the different metal oxides, including BaBi(SCN)5 SrBi(SCN)5 Zn(SCN)2 Gd(SCN)2 Ce(SCN)2 La(SCN)2 and Cd(SCN)2 The following compounds Zn(SCN)2 Gd(SCN)2 Ce(SCN)2 La(SCN)2 and Cd(SCN)2 were synthesized by two synthesis methods: one with KSCN and another with NaSCN, in order to evaluate their magnetic properties, determine the relationship between their structure and magnetic behavior. Additionally, to synthesize and analyze BaBi(SCN)5 and SrBi(SCN)5 to complete the comparative study of their magnetic and structural properties. The dissolution of the metal oxides in the thiocyanic acid was left to stand for 4 weeks to allow the formation of crystals. Once the crystals were obtained, they were characterized by X-ray diffraction (XRD) and the results obtained were analyzed to determine the structural and magnetic properties of the compounds formed.


CONCLUSIONES

The synthesis of inorganic thiocyanates with potential magnetic properties was successful. Although the measurement of their magnetic properties are planned for future work, the preliminary results are promising. These advances lay the groundwork for further exploration of magnetic interactions of thiocyanates with transition metals, opening the door to technological applications in data storage and sensors.
Espinoza Rincón Adan Alfredo, Instituto Tecnológico Superior de Cajeme
Asesor: Dra. María de la Luz Merino Solís, Colegio de Michoacán (CONACYT)

CARACTERIZACIóN DE LA CALIDAD DE AGUA DEL MEANDRO DEL RIO LERMA EN TEMPORADA DE LLUVIAS E IDENTIFICACIóN DE SUS PRINCIPALES DESCARGAS


CARACTERIZACIóN DE LA CALIDAD DE AGUA DEL MEANDRO DEL RIO LERMA EN TEMPORADA DE LLUVIAS E IDENTIFICACIóN DE SUS PRINCIPALES DESCARGAS

Espinoza Rincón Adan Alfredo, Instituto Tecnológico Superior de Cajeme. Asesor: Dra. María de la Luz Merino Solís, Colegio de Michoacán (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El meandro del río Lerma que pasa por la ciudad de la Piedad de Cabadas, Michoacán, es una parte aislada por una redirección del flujo del río para evitar el pase por la ciudad. El meandro por lo tanto no tiene el flujo del río, y solamente se llena en tiempo de lluvias. A lo largo de este meandro se descargan aguas residuales de diversas fuentes, dependiendo de los alrededores de la zona de descarga. Pueden ser aguas provenientes de casas de la cercania, o agua que haya fluido desde los cerros aledaños. La falta del flujo natural del río ha causado que estas aguas residuales se estanquen, generando un crecimiento de descontrolado de lirio en la zona. Otras consecuencias que se han determinado son el aumento de la cantidad de mosquitos, relacionado directamente al aumento de padecimientos de Dengue o enfermedades similares a lo largo de las zonas urbanas de la Piedad. Es por estas justificaciones que se planteo este proyecto, el cual busca identificar las zonas de descargas de aguas residuales a lo largo del meandro y caracterizarlas en base a la NOM-001-SEMARNAT-2021 (Y en caso de la demanda bioquímica de oxígeno, NOM-001-SEMARNAT-1996) de limites máximos permisibles en aguas resiuales, con objetivo de presentar las propiedades de estas aguas y se puedan generar propuestas futuras que puedan encargarse de estos problemas. 



METODOLOGÍA

Muestreo Se recolectaron 20 muestras en total, siendo 5 de ellas remuestreos debido a que pasaron el limite de tiempo maximo de almacenamiento, y material faltante en el laboratorio. Para ello se siguió la metodología de la NMX-AA-003-1980, que establece los procedimientos para muestreos en aguas residuales. ​Material de muestreo Se preparó el material adecuado para cada parametro a analizar, siendo los requeridos por la NOM-001-SEMARNAT-2021, y NOM-001-SEMARNAT-1996, los cuales son: Demanda Química de Oxígeno, Demanda Bioquímica de Oxígeno, Sólidos Suspendidos Totales, Cloruros Totales, Fosfatos Totales, Nitrogenos Totales Escherichia coli. Se establecieron 3 zonas de muestreo y durante 4 semanas fuimos a recolectar 5 muestras en cada una. Para los parámetros de Fosforo Total, Cloruros Totales, Solidos Suspendidos Totales y DQO se utilizaron frascos de vidrio, debido a que no requerían frascos de recolección específicos. Para el parámetro de DBO se utilizaron botellas Winkler cubiertas con parafina para la medición posterior del Oxígeno Disuelto. La metodología basada en la Incubación y Electrometría requería una comparación del Oxigeno Disuelto medido el día de la recolección y 5 días después de la incubación de las botellas Winkler. Para el parámetro de Escherichia coli se requería material esterilizado, por lo que se opto por utilizar bolsas estériles para muestreo de material microbiológico. Cabe resaltar que, debido a falta de materiales y reactivos necesarios, el parámetro de Nitrógeno Total tuvo que ser omitido del análisis de laboratorio. Así mismo, se tuvo que posponer la medición de DQO debido a la falta de material para su procesamiento, es por ello que se separo y guardo una cantidad de muestra aparte de cada una de las muestras tomadas, bajando su pH a menos de 2, según indica la metodología HACH method 8000 20 to 1500 mg/L COD (HR) Standard Method 5220 D, para su almacenamiento. Análisis en laboratorio Una vez recolectados, las muestreas se les medía el pH y se almacenaban. Se utilizaron las siguientes metodologias:  Para DBO, la metodología de la NMX-AA-028-SCFI-2001 y NMX-AA-012-SCFI-2001 Para DQO, la metodología HACH method 8000 20 to 1500 mg/L COD (HR) Standard Method 5220 D. Para Escherichia coli, la metodología de la NMX-AA-042-SCFI-2015 Para Fosfóro Total, la metodología de la NMX-AA-029-SCFI-2001 Para Cloruros Totales, la metodología de la NMX-AA-073-SCFI-2001 Para Solidos Suspendidos Totales, la metodología de la NMX-AA-034-SCFI-2015


CONCLUSIONES

Las muestras se tomaron en temporada de lluvias, siendo unicamente las muestras 3, 7 y 9 las tomadas directamente de un sitio de descarga de agua residual, por lo que para las otras 12, se toma en cuenta que el agua tomada se encuentra diluida por agua fluvial, afectando asi las concentraciones finales. A su vez en el menadro se identificó un exceso de lirio, y siendo esta planta un depurador natural, se toma como una interferencia en los resultados. Para Solidos Suspendidos Totales, los resultados en las muestras 1,2,3,5,8,9 y 14 presentaron una concentración superiores a los límites de la norma, lo cual indica una alta carga de materia orgánica. Para Cloruros Totales, ninguna de las muestras supero el límite establecido por la norma. Para Escherichia coli, las muestras1,2,37,8,11.12.13.14 y 15 superaron la concentración máxima permitida por la norma, confirmando la presencia de esta bacteria y por lo tanto, material fecal. Para Fosfóros Totales, ninguna de las muestras superó el límite permitido. Para Demanda Química de Oxigeno, las muestras 3 y 7 superaron el limite permitido por la norma, indicando altas concentraciones de materia orgánica y que las muestras fueron tomadas directamente en agua residual sin dulución por agua de lluvia. Para Demanda Bioquímica de Oxígeno, la muestra 8 fue la única que superó el límite permitido.
Espinoza Torres Karen, Universidad Autónoma del Estado de México
Asesor: M.C. José Francisco Reinaga Camacho, Universidad de Guadalajara

DESARROLLO DE UNA PAGINA WEB COMO GLOSARIO BOTáNICO DEL CUC COSTA


DESARROLLO DE UNA PAGINA WEB COMO GLOSARIO BOTáNICO DEL CUC COSTA

Díaz Vargas Ximena, Universidad de Guadalajara. Espinoza Torres Karen, Universidad Autónoma del Estado de México. Garcia Martinez Maria Teresa, Universidad de Guadalajara. Pérez Serrano Edmundo Angel, Universidad Autónoma del Estado de México. Asesor: M.C. José Francisco Reinaga Camacho, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En el mundo moderno, la accesibilidad a la información es crucial para satisfacer las necesidades de conocimiento y aprendizaje instantáneo. En este contexto, la creación de una página web dedicada a proporcionar información detallada sobre diversas especies de plantas que se encuentran dentro del CUC costa, facilitada mediante el escaneo de códigos QR a través de Google Lens, se convierte en un proyecto innovador y funcionalmente enriquecedor. Este proyecto tiene como objetivo principal desarrollar una plataforma web intuitiva y accesible que permita a los usuarios explorar y aprender sobre diferentes plantas simplemente utilizando la tecnología de escaneo de QR proporcionada por Google Lens. Al escanear un código QR asociado con una planta específica, los usuarios podrán acceder de manera instantánea a detalles relevantes como características físicas, hábitat natural, frutos y más información útil sobre la planta en cuestión. La página web está diseñada utilizando tecnologías modernas como React para la interfaz de usuario dinámica, MySQL Workbench para la base de datos con la información de cada planta y Node.js para el backend, asegurando así un rendimiento óptimo y una experiencia de usuario fluida tanto en dispositivos móviles como de escritorio. Además, se implementarán funcionalidades adicionales como la capacidad de búsqueda avanzada y filtros para facilitar la navegación dentro del catálogo de plantas, asegurando que los usuarios puedan encontrar fácilmente la información que están buscando. A lo largo de las semanas de desarrollo, nuestro equipo trabajo siguiendo una metodología basada en el Método RUP (Rational Unified Process), lo cual garantizará una planificación estructurada y una implementación iterativa y adaptativa del proyecto. Cada fase, desde la investigación inicial de requisitos hasta las pruebas finales y el despliegue del sitio web, será cuidadosamente gestionada para asegurar la calidad y la efectividad del producto final.



METODOLOGÍA

Metodología RUP para el Proyecto de Desarrollo de una Página Web como glosario del CUC costa Esta metodología RUP fue adaptada para proporcionar una estructura robusta para el desarrollo del proyecto de página web de información de plantas, asegurando una implementación ordenada y eficiente de las funcionalidades requerida Fase de Inicio Investigación y Recopilación de Requisitos: Identificar las necesidades y expectativas de los usuarios al escanear códigos QR de plantas. Definir los requisitos funcionales y no funcionales del sistema. Definición de la Funcionalidad del Escaneo de QR: Detallar cómo interactuará el usuario con el sistema al escanear un código QR. Diseño de la Base de Datos: Especificar la estructura de la base de datos para almacenar información detallada de las plantas (nombre, especificaciones, hábitat, etc.). Fase de Elaboración Desarrollo del Esqueleto de la Página Web: Utilizar React y Node.js para crear la estructura inicial de la página web. Implementar diseño responsivo para asegurar compatibilidad con dispositivos móviles y de escritorio. Configuración Inicial de Google Lens: Crear una cuenta de Google si aún no se tiene. Configurar y verificar la integración con Google Lens para el escaneo de códigos QR. Creación de Páginas y Secciones Iniciales: Desarrollar la página principal, "Inicio", y la sección "Contenido de Plantas". Agregar contenido básico como texto de bienvenida y navegación inicial. Fase de Construcción Configuración del Servidor Web (Node.js): Implementar un servidor web para manejar solicitudes HTTP y servir contenido dinámico. Desarrollo de la Lógica del Backend: Desarrollar la lógica necesaria para consultar y actualizar datos en la base de datos desde el backend. Integración de QR en la Página Web: Seleccionar y configurar un servicio de generación de códigos QR compatible con Google Lens. Generar códigos QR para cada planta y vincularlos a las páginas correspondientes en la web. Implementación de Funciones de Búsqueda y Filtros: Agregar funciones de búsqueda y filtros para facilitar la navegación y la búsqueda de plantas en el catálogo. Fase de Transición Pruebas de Integración y Usabilidad: Realizar pruebas exhaustivas del sitio web para verificar la funcionalidad del escaneo de QR y la navegación. Realizar ajustes en el diseño y contenido según el feedback obtenido de las pruebas. Optimización del Sitio Web: Mejorar el SEO (Optimización para Motores de Búsqueda) y la accesibilidad del sitio web. Fase de Despliegue y Mantenimiento Despliegue del Sitio Web: Configurar el sitio web para ser desplegado públicamente y asegurar su correcto funcionamiento. Documentación y Entrega: Documentar el proceso de desarrollo, incluyendo la gestión y mantenimiento del sitio web. Revisión General del Proyecto: Realizar una revisión final del sitio web y la aplicación de escaneo de QR. Realizar ajustes finales según el feedback final obtenido antes de la entrega del proyecto.


CONCLUSIONES

En conclusión, el desarrollo de la página web para proporcionar información sobre las plantas del CUC Costa representa una integración innovadora de tecnología y educación. Al utilizar códigos QR y Google Lens, el proyecto facilita el acceso instantáneo a detalles botánicos, promoviendo un aprendizaje interactivo y accesible tanto para estudiantes como para visitantes.  Además, esta herramienta no solo enriquecerá el conocimiento sobre la biodiversidad del campus, sino que también contribuirá a la conservación y apreciación de las especies botánicas presentes en el CUC Costa.
Espinoza Valdez Daniela Fernanda Karina, Instituto Tecnológico de Tepic
Asesor: Dra. Adriana Hernández Sánchez, Benemérita Universidad Autónoma de Puebla

ARQUITECTURA COMO REFERENTE DE DIVERSIDAD Y RESIGNIFICACIóN DEL ESPACIO A TRAVéS DE LA ELABORACIóN DE MAQUETAS HABTICáS Y TALLERES DE ADOBE EN CONTEXTOS PATRIMONIALES


ARQUITECTURA COMO REFERENTE DE DIVERSIDAD Y RESIGNIFICACIóN DEL ESPACIO A TRAVéS DE LA ELABORACIóN DE MAQUETAS HABTICáS Y TALLERES DE ADOBE EN CONTEXTOS PATRIMONIALES

Echeverría Blanco Geny Alejandra, Universidad Autónoma de Yucatán. Espinoza Valdez Daniela Fernanda Karina, Instituto Tecnológico de Tepic. Mondragón Hernández Octavio, Instituto Tecnológico de Tepic. Pioquinto Martha Adan, Universidad Autónoma de Guerrero. Asesor: Dra. Adriana Hernández Sánchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Durante la estancia comprendida del 17 de junio hasta el 2 de agosto, en el marco del XXIX Verano de la Investigación Científica y Tecnológica del Pacífico, se llevó a cabo la estancia de investigación del Verano Delfín en la Facultad de Arquitectura de la Benemérita Universidad Autónoma de Puebla (BUAP). El objetivo principal del programa fue fortalecer las capacidades investigativas de los estudiantes participantes, al tiempo que se daba continuidad a investigaciones previamente iniciadas. Para ello, los estudiantes se sumergieron en dos líneas de investigación clave relacionadas con el patrimonio arquitectónico y cultural de la ciudad de Puebla: "Accesibilidad, inclusión social y proyectos educativos en el espacio público y el patrimonio" y "Accesibilidad al patrimonio para débiles visuales y ciegos en el centro histórico de Puebla IV". Este trabajo se llevó a cabo bajo la experta guía del Dr. Christian Enrique de la Torre Sánchez y la Dra. Adriana Hernández Sánchez, quienes han liderado estas investigaciones en años anteriores y poseen una amplia trayectoria en estudios relacionados con el patrimonio cultural de Puebla. El grupo de participantes estuvo conformado por estudiantes de las carreras de arquitectura y ciencias de la educación, provenientes de diversas instituciones tanto de México como de Colombia. Esta diversidad académica y cultural dio lugar a un equipo multidisciplinario y eficiente, capaz de abordar de manera integral los desafíos planteados en las investigaciones.



METODOLOGÍA

Se implementó una metodología estructurada que combinó el estudio teórico con la investigación de campo, la colaboración interdisciplinaria y la participación comunitaria. Enfoque y Diseño de la Investigación: La metodología adoptó un enfoque cualitativo con un diseño de investigación-acción, que permitió a los estudiantes no solo analizar y comprender las problemáticas relacionadas con la conservación del patrimonio, sino también intervenir de manera práctica a través de talleres y propuestas de diseño. Procedimientos y Actividades: El programa fue organizado en una serie de actividades distribuidas a lo largo de las siete semanas, siguiendo un esquema flexible que permitió ajustes según las necesidades y contratiempos que surgieron. A continuación, se detalla el desarrollo semanal: Semana 1: Los estudiantes fueron introducidos a las temáticas de investigación y al contexto histórico de Puebla mediante recorridos guiados por el Centro Histórico y visitas a instituciones clave como el Laboratorio de Arqueología Urbana de la BUAP y el Archivo Histórico Municipal. Semana 2: Se presentaron los proyectos de investigación de los profesores anfitriones, se realizaron recorridos por los barrios de La Luz y Xanenetla para identificar actores relevantes, y se invitó a los vecinos a participar en talleres comunitarios. Además, se exploraron proyectos de investigación sobre la arquitectura tradicional en la región. Semana 3: Se elaboraron los planes de trabajo para los talleres de vivienda con niños en los barrios de Xanenetla y La Luz. También se realizó un levantamiento arquitectónico y diagnóstico de daños en un comedor comunitario de la parroquia de Analco, como parte de una solicitud de la comunidad local. Semana 4: Se llevaron a cabo entrevistas con la Asociación Leyers Puebla sobre la creación de maquetas táctiles y se continuó la búsqueda de información en archivos históricos. Además, se organizaron y ejecutaron talleres de adobe en el barrio de Analco, enfocados en la recuperación de saberes tradicionales. Semana 5: El equipo trabajó en colaboración con la Asociación Leyers Puebla en proyectos de maquetas táctiles y participó en un diseño repentino de mobiliario urbano para el Parque Jerusalem, en colaboración con estudiantes de arquitectura de la BUAP. Semana 6: Se realizaron sesiones de trabajo para la presentación de resultados preliminares tanto a la Asociación Leyers como a la comunidad académica de la BUAP. Se continuó con el levantamiento de deterioros en el comedor comunitario de Analco. Semana 7: Se revisaron los reportes finales y se concluyó el programa con un convivio. Análisis de Datos y Resultados: Los datos recolectados a lo largo de la estancia fueron analizados utilizando un enfoque cualitativo. Las observaciones de campo, fueron sistematizadas para identificar patrones y temas recurrentes relacionados con la accesibilidad, la inclusión social y la preservación del patrimonio. Estos hallazgos fueron presentados y discutidos en sesiones de trabajo, donde se generaron propuestas concretas para la mejora y preservación de los espacios estudiados.


CONCLUSIONES

La estancia permitió a los participantes enfrentar importantes desafíos y contribuir efectivamente a la preservación del patrimonio de Puebla. Un logro destacado fue la creación de maquetas hápticas para mejorar la accesibilidad del patrimonio para personas con discapacidad visual, que demostraron la capacidad de los estudiantes para aplicar conocimientos teóricos y ofrecieron soluciones innovadoras con un impacto duradero. Las pruebas confirmaron la eficacia de estas maquetas en hacer el patrimonio más inclusivo. Asimismo, la realización de talleres infantiles y actividades educativas en los barrios fundacionales de Puebla promovió la socialización del patrimonio y la recuperación de saberes tradicionales, ofreciendo a los estudiantes una valiosa experiencia práctica en investigación y conservación. La metodología combinó investigación teórica y práctica con colaboración interdisciplinaria, permitiendo a los estudiantes desarrollar competencias avanzadas. La flexibilidad y adaptación del equipo fueron clave para superar desafíos y cumplir con los objetivos del programa. En resumen, el programa avanzó significativamente en la preservación del patrimonio y brindó a los estudiantes un aprendizaje valioso, evidenciando el éxito y la importancia de continuar con iniciativas similares.
Esquivel Constantino Leonardo, Universidad Politécnica de Sinaloa
Asesor: Dra. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa

PROGRAMACIóN DE MOTORES DESDE ARDUINO


PROGRAMACIóN DE MOTORES DESDE ARDUINO

Esquivel Constantino Leonardo, Universidad Politécnica de Sinaloa. Ibarra Medina Luis David, Universidad Politécnica de Sinaloa. Asesor: Dra. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Desarrollar competencias y habilidades en el ámbito de la robótica, específicamente en el manejo y programación de servomotores AX-12 y un Robot Humanoide, es fundamental para avanzar en la creación de sistemas robóticos avanzados y eficientes. Este desarrollo incluye el aprendizaje del lenguaje de programación específico para el control de estos dispositivos, lo cual permite una mayor precisión y funcionalidad en sus movimientos y tareas. Además, la implementación de un sistema Arduino para el control de los servoactuadores y el robot humanoide facilita una integración más flexible y accesible de estas tecnologías. Este enfoque no solo mejora la comprensión teórica y práctica de los sistemas robóticos, sino que también fomenta la innovación y la creatividad en la solución de problemas complejos en el campo de la robótica.



METODOLOGÍA

Para la programación de los servomotores Dynamixel AX-12A a través de arduino lo primero que se realizó fue buscar una librería capaz de controlar un servomotor y así poder manipularlo con un arduino uno, hubo dificultades en encontrar una librería capaz de poder realizar lo que se buscaba trabajar pero después fue posible encontrar la librería AX12A la cual al realizar un ejemplo se pudo comprobar que si era compatible para trabajar con ella.  Los servomotores Dynamixel AX-12A cuentan con una conexión Half-duplex pero era necesaria una conexión Full-duplex, por esta razón se implementó un buffer (74LS241) para poder realizar lectura y escritura de los servos. La forma para poder tener comunicación con los servomotores es a través de los puertos seriales, que en el caso de Arduino UNO son los puertos nombrados TX para escribir y RX para leer. Para poder comunicar los servos con el arduino a través del buffer se realizó un circuito necesario para esto. El servomotor Dynamixel AX-12A cuenta con 6 pines, 2 de ellos de voltaje (VCC), 2 para tierra (GND) y 2 para los datos. Al utilizar el Arduino UNO se notó que se podía escribir en los servos pero no era posible leer sus datos debido a que este cuenta con un solo puerto serial y eran necesarios 2, uno para la computadora y otro para los dispositivos, por esta razón se optó por utilizar una placa Arduino MEGA 2560, ya que al investigar se observó que esta contaba con 4 puertos seriales.  Para poder poner en funcionamiento los servomotores en el Arduino MEGA se conectaron los puertos de los dispositivos en el serial 1 que en la placa son los pines 18 y 19 que sería los puertos TX1 Y RX1 respectivamente y de esta manera utilizar el serial para que la computadora pueda imprimir y leer los datos enviados por los servos.


CONCLUSIONES

Se logró identificar y comprender el funcionamiento del robot BIOLOID, compuesto por 18 servomotores DYNAMIXEL AX-12A, los cuales fueron manipulados utilizando el software RoboPlus de Robotis. El uso de este software es crucial, ya que su interfaz intuitiva facilita que los estudiantes de robótica se familiaricen con el control de los servomotores, permitiendo crear rutinas personalizadas de movimiento, controlando velocidad, posición y fuerza. Además, se consiguió manipular los servomotores DYNAMIXEL AX-12A a través de la interfaz de Arduino, permitiendo el envío y recepción de datos entre el servomotor y la computadora. Esto es de gran utilidad, ya que abre la puerta a futuros proyectos en los que se pueda implementar Arduino para el control de estos servomotores. Resultados a obtener a futuro: Implementación de sistemas inalámbricos para el control de servomotores DYNAMIXEL AX-12A mediante Arduino, utilizando tecnologías como Bluetooth o WiFi.
Esquivel Fernández Renata Guadalupe, Instituto Politécnico Nacional
Asesor: M.C. Auro Andres Gonzalez Hernandez, Universidad Tecnológica de Nayarit

DISEñO PARAMéTRICO CAD/CAM APLICADO AL DESARROLLO DE PROTOTIPOS DIDáCTICOS PARA EL áREA ELéCTRICA.


DISEñO PARAMéTRICO CAD/CAM APLICADO AL DESARROLLO DE PROTOTIPOS DIDáCTICOS PARA EL áREA ELéCTRICA.

Esquivel Fernández Renata Guadalupe, Instituto Politécnico Nacional. Hernández García Jorge Ricardo, Instituto Politécnico Nacional. Muciño Infante Valeria Angelica, Instituto Politécnico Nacional. Asesor: M.C. Auro Andres Gonzalez Hernandez, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

En muchos centros educativos, especialmente con recursos limitados, la falta de material didáctico en los laboratorios o talleres representa un gran obstáculo para adquirir un aprendizaje efectivo y de calidad sobre unidades de aprendizaje prácticas, particularmente en el área eléctrica/ electrónica. Por otro lado, la educación ha evolucionado en los últimos años gracias a la introducción de nuevas tecnologías como CAD/CAM, que tienen diversas aplicaciones en la educación, como la fabricación digital y la programación CNC, estableciendo un sistema de parámetros variables y restricciones para la creación de objetos versátiles.  Con relación a esto, el uso de CAD/CAM para la elaboración de prototipos didácticos que puedan contribuir a la enseñanza en el área eléctrica/electrónica resultaría benéfico y útil para los estudiantes.



METODOLOGÍA

1. Primeramente se requiere un diseño en CAD del prototipo o pieza, este es realizado con el software de Autodesk Inventor para crear un modelado paramétrico de un sólido en 3D, y después obtener los archivos .stl a partir de los realizados.   2. Posterior, el diseño realizado pasa al proceso de CAM, donde se utiliza una maquina CNC para realizar cortes. Para esto, obtenemos los archivos .g (gerber) desde Autodesk Inventor, previamente se tiene que configurar los parámetros necesarios para el CNC, seleccionar las herramientas de corte, definir trayectorias y establecer parámetros de maquinación.   3. Asimismo, a partir de los archivos .stl, se utiliza una impresora 3D (Ender 3Pro) para la fabricación de las piezas, previamente se realiza una investigación sobre los distintos tipos de filamento que pueden ser compatibles con la impresora (PLA, ABS, TPU, etc.) y posterior se utiliza un software para la impresión en 3D, UltiMaker Cura. En este software se modifican los parámetros de impresión, como la calidad, relleno, material, temperatura, velocidad, altura de las capas, etc. Y después se transforma a código G, para que la impresora pueda fabricar la pieza.   4. Finalmente se obtienen las piezas impresas y cortadas, posterior se realiza el ensamblaje junto con los componentes electrónicos contemplados para cada prototipo.


CONCLUSIONES

El uso de CAD/CAM se ha convertido en una herramienta de suma importancia en varias áreas, sin embargo, en el área de la educación ha tenido un gran impacto. Dadas las posibilidades que brindan estos softwares para el desarrollo de proyectos, haciendo posible los modelados, ensambles, proyecciones en dos y tres dimensiones, y sobre todo el manejo del dibujo paramétrico, así como también la fabricación de piezas en 3D. Es por esto por lo que al usar estos softwares se obtuvo un resultado positivo al poder fabricar prototipos didácticos, que presentan múltiples beneficios, incluyendo la mejora del rendimiento académico, una mayor comprensión de los conceptos y el desarrollo de habilidades prácticas. En conclusión, gracias a uso de CAD/CAM para la fabricación de prototipos resulto beneficioso y eficaz para los estudiantes del área eléctrica/electrónica.
Estefes Cantú Brisa, Universidad Autónoma del Estado de México
Asesor: Dr. Alfonso Talavera López, Universidad Autónoma de Zacatecas

TRATAMIENTO DE AGUAS RESIDUALES GANADERAS POR ELECTROCOAGULACIÓN Y GENERACIÓN DE HIDRÓGENO POR MEDIO DE UN PROCESO FOTOCATALÍTICO


TRATAMIENTO DE AGUAS RESIDUALES GANADERAS POR ELECTROCOAGULACIÓN Y GENERACIÓN DE HIDRÓGENO POR MEDIO DE UN PROCESO FOTOCATALÍTICO

Correa Pichardo Fanny, Universidad Autónoma del Estado de México. Estefes Cantú Brisa, Universidad Autónoma del Estado de México. Asesor: Dr. Alfonso Talavera López, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Durante este verano de investigación 2024, se asignó el tema de ¨Tratamiento de aguas residuales ganaderas por electrocoagulación y generación de hidrógeno por medio de un proceso fotocatalítico¨ con el objetivo de degradar contaminantes presentes en el agua residual ganadera produciendo a su vez hidrógeno a través de fotocatalizadores, sin embargo; la problemática a la que nos enfrentamos fue la coloración muy pigmentada del agua residual que obstruía el paso de luz a través del agua evitando por consecuencia la activación del catalizador. De esta forma, se incorporó previamente un proceso de electrocoagulación al agua residual esperando un aclaramiento del agua por precipitación de materia orgánica. Por otro lado, la elaboración de los catalizadores TiO2/Pd se realizó a diferentes porcentajes de paladio (1%, 2% y 4% respectivamente), con el objetivo de observar el mejor rendimiento en la producción de hidrógeno, además de variar entre dos métodos de síntesis. Se utilizaron artículos para obtener los métodos de síntesis de catalizadores, de los cuales sabemos que hasta el momento se ha realizado experimentación con un agente de sacrificio y con agua residual controlada en donde han obtenido resultados favorables. En este proyecto se desea lograr el tratamiento de agua residual ganadera a través de fotocatálisis que no necesite un agente de sacrificio, sin embargo, se ha replicado este tipo de experimentación con agua controlada (en nuestro caso el agente de sacrificio fue el etanol) para solucionar paso a paso la problemática a la que nos enfrentamos.



METODOLOGÍA

Para realizar catalizadores con Pd a 1%, 2% y 4% por método Sol-Gel: Se comenzó con la mezcla de 70 mL de isopropanol y 7.5 mL de isopropóxido de titanio con burbujeo de nitrógeno en agitación a 400 rpm sin calentamiento durante 20 minutos. Posteriormente, con ayuda de una bureta, se agrega por goteo 10 mL de una solucion con acetilacetonato de paladio (AcAcPd) en isopropanol para obtener las cargas de Pd al 1,2 y 4% en peso. Después se agrega por goteo 10 mL de una solución de NaBH4 0.03M en agua desionizada. Finalmente se agregan 50 mL de agua desionizada por goteo, manteniendo en agitación hasta esperar una mezcla uniforme. Posteriormente, se deja en reposo en ambiente oscuro por una noche.  Se procede con la filtración y secado al vacío antes de introducir el material a la mufla para la etapa de calcinado de 25°C hasta 110°C por 8 horas, de 110°C hasta 250°C por 2 horas y de 250°C hasta 450°C por 5 horas, con una rampa de calentamiento para cada temperatura de 1°C/min. Para realizar la experimentación de captación de hidrógeno por fotocatálisis  Se colocan 7 L de agua desionizada al reactor. Con ayuda de una probeta medir 140 mL de etanol y adicionarlos al agua. Pesar en un vidrio de reloj 1.05 g de TiO2 comercial (catalizador) y agregarlos al agua, encender la bomba que hace circular el contenido. Con ayuda del medidor de pH (calibrado) y del ácido sulfúrico a 1M, verificar que el pH se encuentre en 4.0 Sellar el reactor y colocarle una atmósfera de N2 a una presión de 6 atm. Comprobar que no existan fugas en el reactor. Tomar la línea base con la jeringa al vacío e introducirla al cromatógrafo.   Comenzar la reacción encendiendo la lámpara. Para tomar la muestra de gas es necesario purgar la jeringa 3 veces para evitar la contaminación de la muestra. Tomar muestra de gas cada 30 minutos durante 6 hrs. Para terminar la reacción es necesario apagar la lámpara y la bomba de circulación. Para realizar la electrocoagulación del agua residual ganadera  Se colocó 8L del agua residual ganadera en el recipiente colocando 2 electrodos de aluminio. Se inició con un voltaje de 8.3 Volts y una intensidad de 1 A haciendo uso de la fuente de poder durante 3 horas aproximadamente. Posteriormente se fue incrementando el voltaje y amperaje gradualmente hasta obtener mejores resultados.


CONCLUSIONES

Análisis de resultados  Durante el proceso de electrofloculación no se observaron cambios representativos en el agua residual al menos durante las 2 primeras horas de tratamiento.  Posteriormente se llevó a cabo una segunda prueba con 4 amperes aproximadamente durante 24 horas aproximadamente. Sin embargo, no se observaron cambios evidentes en la colorimetría del agua, por otro lado, sí se observó la presencia de espuma.  Al realizar pruebas de cromatografía para determinar el tiempo de retención del H2 para la columna utilizada, se encontró que el tiempo de retención determinado para la molécula de Hidrógeno en el sistema de cuantificación CG es de 1.95 minutos. En el experimento 1, se observa la producción de hidrógeno con respecto al tiempo de la reacción usando el catalizador comercial TiO2/Pluronic F-127 únicamente con agua desionizada adicionando 140 mL de etanol como agente de sacrificio y a las condiciones ya establecidas. Este experimento se realizó con el objetivo de obtener experimentos blancos para poder comparar posteriormente con las pruebas de los catalizadores sintetizados. A diferencia del experimento 3, el experimento se llevó a cabo variando la lámpara, proporcionando otra intensidad en el proceso de fotocatálisis, por lo que en este caso se observa que la producción de hidrógeno disminuyó.  Los catalizadores elaborados durante el verano de investigación, aún serán sometidos a experimentación para corroborar su eficiencia.
Esteva Sánchez Azalea Deifilia, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

CORRELACIÓN DE DATOS DE SENSORES DOMÓTICOS PARA EL ANÁLISIS DE NIVELES DE CO2


CORRELACIÓN DE DATOS DE SENSORES DOMÓTICOS PARA EL ANÁLISIS DE NIVELES DE CO2

Esteva Sánchez Azalea Deifilia, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La correlación, consiste en asociar dos o más variables numéricas, con el objetivo de evaluar las tendencias crecientes o decrecientes de los datos. De ésta forma, es posible comparar el comportamiento de los datos en diferentes entornos específicos. Aplicado en un espacio domótico, como un hogar con cinco habitantes, éste enfoque permite determinar si la calidad del aire es adecuada para garantizar un entorno seguro y saludable. En espacios cerrados, la calidad del aire a menudo no es óptima ni recomendable para la salud. El dióxido de carbono (CO2) y el monóxido de carbono (CO) son gases invisibles que pueden acumularse en éstos espacios, provocando problemas de salud como dificultad para respirar, dolores de cabeza y el riesgo de enfermedades respiratorias.   Por otro lado, el monitoreo de la humedad y temperatura es crucial para mantener las condiciones ideales de operación de las máquinas y equipos en el hogar. Niveles de humedad relativa demasiado bajos resecan el entorno, mientras que niveles altos, cercanos al 100%, pueden transferir humedad a las superficies, causando deterioro en materiales o electrodomésticos el hogar. Además, las personas expuestas a una elevada temperatura pueden perder agua y electrolitos, esenciales para el funcionamiento de sus órganos, mientras que las bajas temperaturas pueden disminuir las defensas y aumentar el riesgo de enfermedades respiratorias, además de agravar condiciones crónicas cardiovasculares y respiratorias.  



METODOLOGÍA

Durante la primera etapa de desarrollo, se comenzó por hacer una investigación completa de los requisitos técnicos para la monitorización de variables de contaminación en una casa inteligente. Lo posterior fué establecer las especificaciones funcionales y técnicas del sistema, además de la adquisición de los componentes con los que se llevaría a cabo el trabajo. Una vez que los componentes fueron adquiridos, se establecieron las condiciones en las que el sistema trabajaría y haría los análisis correspondientes. Posteriormente, se crearon y montaron los circuitos electrónicos de prueba en Thonny, con los que se verificó el correcto funcionamiento de los sensores y la obtención de una lectura de los mismos. Para la segunda etapa de desarrollo, se elaboró el algoritmo programado en Pycharm como editor de Python, cuyo objetivo fué comparar los niveles de dióxido de carbono (CO2) en el interior y el exterior de un entorno a lo largo del tiempo. Para hacerlo, se utilizaron dos archivos de datos (datasets) que contienen mediciones de CO2 y otras variables que procesa y los combina para crear un gráfico comparativo que permite visualizar cómo varían los niveles de CO2 en el interior y el exterior. Éstos datos, fueron medidos en un ambiente interior y exterior de un hogar de cinco habitantes con condiciones climatológicas en las que se predecía lluvia y poca ventilación en el espacio interior. La medición fué de aproximadamente cinco horas (dos horas y media). Obteniendo un total de 100 datos para cada dataset Se realizó un análisis de correlación entre los niveles de CO2 en el interior y el exterior del hogar con el método de Pearson. Utilizando datos del sensor de CO2, se identificaron patrones y tendencias en diferentes condiciones de ventilación. Se encontró que los niveles de CO2 en el interior eran significativamente más altos que en el exterior, especialmente durante períodos de baja ventilación. Esto indica una acumulación de CO2 en espacios cerrados que puede afectar la salud de los ocupantes.  


CONCLUSIONES

El proyecto ha demostrado que la monitorización y el análisis de CO2, temperatura y humedad son esenciales para mantener un ambiente interior saludable y confortable. La capacidad de ajustar estos parámetros en función de los datos recopilados mejora significativamente el bienestar de los ocupantes y protege los activos del hogar. En resumen, el proyecto ha alcanzado sus objetivos al ofrecer un análisis integral de los factores que afectan la calidad del aire y sugerir soluciones prácticas para mejorar el entorno domótico, contribuyendo así a la salud y el confort de sus ocupantes.
Estrada Atilano Cristina, Universidad de Guadalajara
Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara

METODOLOGíA DE ANáLISIS QUíMICO POR TéCNICA XPS Y SU INTERPRETACIóN DE ESTADOS DE OXIDACIóN EN AG3D


METODOLOGíA DE ANáLISIS QUíMICO POR TéCNICA XPS Y SU INTERPRETACIóN DE ESTADOS DE OXIDACIóN EN AG3D

Estrada Atilano Cristina, Universidad de Guadalajara. Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La espectrofotometría de electrones excitados por rayos-X (XPS) es una técnica muy precisa para analizar la composición de una superficie tanto cualitativa como cuantitativamente, además que nos permite determinar el estado de oxidación de sus elementos.   En la literatura se puede observar que la energía de enlace de un elemento depende de su estado de oxidación. Se espera que cuando un elemento se oxide, provoque un mayor aumento de energía; esto es debido a que la oxidación provoca una carga positiva por la pérdida de electrones, haciendo que el núcleo atraiga a los electrones restantes con mayor fuerza, necesitando mayor cantidad de energía para liberarlos. Pero, la plata no suele tener este comportamiento, al aumentar su estado de oxidación la energía de enlace tiende a disminuir. En la literatura se encuentran diversos datos sobre la energía de enlace de los diferentes estados de oxidación de la plata, como lo son el estado Ag(0), Ag(I) y Ag(II). Por lo que, durante la estancia de investigación se prepararon soluciones estandarizadas de sales de plata, con el fin de analizar los espectros y determinar las energías de enlace de distintos estados de oxidación, y su composición, con ayuda de espectrofotometría de electrones excitados por rayos-X.  



METODOLOGÍA

Primero se inició con la preparación de los porta muestras, se lavaron obleas de silicio con ayuda de equipo ultrasónico, se limpiaron con acetona y alcohol etílico por 15 minutos. Para predisponer de soluciones de plata, se aforan 3 diferentes sales de nitrato de plata de diferentes marcas como lo son Fermont y Golden bell y 1 solución de sulfato de plata en matraces de 100 mL con una concentración de 20 mM. Cuando las obleas de silicio que fueron lavadas estuvieron completamente secas, se añadieron gotas de las soluciones de plata hasta formar una capa o película de soluto; ya que el XPS solo analiza sólidos y detecta alrededor de los primeros 10 nm de la superficie. Una vez formada la película en las obleas de silicio, se introdujeron en la precámara del XPS, con el objetivo de obtener los espectros de la película y poder analizar los datos con el programa AAnalyzer obtenido de www.xpsoasis.org. Los datos adquiridos del XPS se conforman por un espectro de toda la muestra y además se separan por elemento (alta resolución). El tratamiento de los espectros en alta resolución ayuda a determinar los estados de oxidación y la composición de la muestra más fácilmente. Gracias al programa AAnalizer se logra determinar los tipos de enlace que tiene cada elemento, ya que cuenta con un programa iterativo donde se determina el área bajo la curva y con ella la composición de la muestra. La utilización de tablas en Excel ayudó a organizar mejor los datos, se enlisto cada muestra por número siendo 4 en total, 3 de AgNO3 y una de Ag2SO4. En cada tabla aparecen los siguientes datos: ·         Energía cinética de los fotoelectrones. ·         El área total de cada pico en el espectro. ·         Porcentaje atómico de cada elemento. ·         Energía de enlace. Antes de hacer la comparación de los datos, se ajustó el espectro con el fin que todas las muestras presentaran un shift en el carbono de 285 eV, ya que este dato es usado como referencia para determinar el estado químico de los demás elementos en la muestra a analizar.  Cuando se ajustaron todos los espectros, se hizo la comparación de la energía de enlace de cada elemento en alta resolución; observando que tanta diferencia en el desplazamiento hubo en cada muestra, así como los diferentes estados de oxidación que presentaron. Se comenzó a hacer una comparación de los espectros hechos en el laboratorio de XPS con los encontrados en la literatura. Para esta comparación se utilizó un programa llamado http://Automeris.io/wpd/ el cual obtiene las coordenadas (x, y) del espectro y analizarlas dentro del programa AAnalizer.  


CONCLUSIONES

Durante la estancia de investigación en este programa delfín se logró tener conocimientos teóricos y prácticos de la técnica XPS, desde cómo preparar una muestra, hasta cómo analizar los espectros en alta resolución. Se observó que efectivamente, a medida que la plata se va oxidando la energía de enlace va disminuyendo. Llegando a la conclusión que esto puede ser debido a que cuando aumenta el estado de oxidación de la plata de Ag(0) a Ag(I) o Ag(II), los electrones que quedan están muy alejados del núcleo provocando que su energía de enlace sea menor. Según los datos obtenidos de gráficos hechos a partir de la comparación hay un rango determinado para cada energía de enlace: Para Ag(0) es 368.3 eV, para Ag(I) es 367.9 eV y para Ag(II) es 367.5 eV.  
Estrada Gonzalez Samantha, Universidad de Guadalajara
Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos

ANáLISIS DE LOS ESTILOS DE LIDERAZGO PARA GENERAR ESTRATEGIAS DE MEJORA EN LAS MIPYMES


ANáLISIS DE LOS ESTILOS DE LIDERAZGO PARA GENERAR ESTRATEGIAS DE MEJORA EN LAS MIPYMES

Estrada Gonzalez Samantha, Universidad de Guadalajara. Hernández Medrano Mariandrea, Universidad Nacional de Ingeniería. Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

El liderazgo es un componente esencial para la competitividad y el desarrollo sostenible de las organizaciones, particularmente en las MiPymes, que representan el 99.8% de las unidades económicas y generan el 72% del empleo formal en México (INEGI, 2020). En este contexto, el liderazgo influye en la moral de los empleados, la capacidad de innovación, adaptación a cambios del mercado y productividad empresarial. El municipio de Balancán, con su emergente actividad industrial, ofrece un entorno ideal para evaluar la influencia de los estilos de liderazgo en las MiPymes. Estas empresas enfrentan desafíos únicos, como limitaciones de recursos y la necesidad de adaptarse a un mercado en evolución. La implementación de estilos de liderazgo adecuados podría ser clave para superar estos desafíos y mejorar la productividad.



METODOLOGÍA

Esta investigación empleará un enfoque mixto, combinando métodos cuantitativos y cualitativos para obtener una comprensión integral de cómo los estilos de liderazgo afectan las estrategias de mejora en las MiPymes de Balancán, Tabasco. El enfoque mixto permite explorar tanto la extensión del impacto de los estilos de liderazgo (cuantitativo) como la profundidad de las experiencias y percepciones de los líderes y empleados (cualitativo).   Se distribuirán cuestionarios estructurados a una muestra representativa de líderes y empleados de MiPymes en Balancán. Estas encuestas estarán diseñadas para recopilar datos sobre las percepciones de los estilos de liderazgo predominantes y su impacto en aspectos clave como la motivación, la productividad y la cohesión del equipo. Los datos cuantitativos permitirán medir la extensión del impacto de los estilos de liderazgo.


CONCLUSIONES

Los resultados de la Investigación muestran una fuerte inclinación hacia el liderazgo democraticio por un 40% en las MiPymes de Balancán, Tabasco,teniendo como resultados A demás del liderazgo democrático en un 40%, tenemos el liderazgo transformacional en un 30%, el liderazgo autocrático en un 15%, el liderazgo liberal en un 5% y el liderazgo situación al un 10%. Por lo cual se destaca la comunicación abierta, la participación de los empleados, y el fomento de la participación activa y el consenso entre los miembros del equipo y el reconocimiento del esfuerzo individual. Este estilo de liderazgo fomenta un ambiente de trabajo positivo y motivador, lo cual es crucial para la innovación y la adaptabilidad en un mercado en constante cambio. Para mejorar aún más el impacto de este liderazgo, se recomiendan varias estrategias: Capacitación en Liderazgo Programas de Mentoría Evaluaciones Continuas Estas acciones no solo fortalecerán el liderazgo existente, sino que también asegurarán una adaptación constante a los cambios del entorno, mejorando la competitividad y la sostenibilidad de las MiPymes en Balancán.
Estrada Manriquez José Ramón, Universidad Politécnica de Sinaloa
Asesor: Dra. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa

REPROGRAMACIóN DE MOTORES DYNAMIXEL Y REPARACIóN


REPROGRAMACIóN DE MOTORES DYNAMIXEL Y REPARACIóN

Estrada Manriquez José Ramón, Universidad Politécnica de Sinaloa. Noverola Cardenas Ingrid Sherlyn, Universidad Politécnica de Sinaloa. Asesor: Dra. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los servoactuadores AX-12 combinan un motor DC con un sistema de control y sensores, permitiendo un movimiento preciso de hasta 300 grados, ideales para aplicaciones robóticas y de automatización. Estos dispositivos utilizan un sistema de engranajes para convertir la rotación del motor en un movimiento controlado, ofreciendo alta precisión y fuerza. La programación de los servoactuadores AX-12 se realiza mediante el protocolo de comunicación TTL y lenguajes como C/C++ o Python, utilizando bibliotecas como DynamixelSDK. A través de la programación, se establecen comandos para controlar la posición, velocidad y par del servo, enviando y recibiendo paquetes de datos para obtener retroalimentación sobre su estado. La calibración inicial incluye la configuración de límites de posición, ajustes de torque y parámetros PID para optimizar la respuesta del servoactuador. Los ajustes finos, realizados en tiempo real, aseguran que el movimiento sea preciso y eficiente, adaptando los parámetros a las necesidades específicas de la aplicación. La resolución de problemas técnicos implica la capacidad de diagnosticar y solucionar problemas relacionados con la programación, comunicación y hardware del servoactuador. Esto incluye la corrección de errores de código, ajustes en los parámetros de control y reparaciones de hardware, garantizando así un funcionamiento óptimo del sistema.



METODOLOGÍA

En los primeros días se dio a conocer a los robots con los que se trabajan además de un resumen de las tareas a realizar, se estuvo investigando acerca de cómo funcionan, conocer la manera en que se mueven y conectan los robots Bioloid. De igual manera se instaló el programa de Bioloid para poder controlar el robot, dicho programa brindó mayor facilidad para controlar dichos robots. Asimismo al momento de intentar hacer funcionar los robots se encontraron fallas mecánicas y eléctricas, por esa razón antes de seguir entendiendo el programa y manejo primero se ocupó en hacer los ajustes correspondientes. Los arreglos realizados fueron primeramente la unión de una de las extremidades para reemplazar, el reemplazo de cables dañados que ocasionaron cortocircuito los cuales provocan notorias fallas. De igual manera fue necesario cambiar tornillos y partes dañadas que se encontraron. Una de las tareas más complicadas fue el cambio de motores ya que para ella se requirió desarmar en distintas ocasiones, y en algunos casos casi en su totalidad. Estas mejoras eran realizadas después de cada  prueba que se hacía para verificar que el robot funcionara a la perfección.   Paralelamente se inició la construcción de un robot Bioloid desde el inicio, esto para poseer a cuatro robots en funcionamiento. Esto requirió buscar y separar las piezas necesarias que se encontraban en almacenamiento, se tuvo que verificar el funcionamiento correcto de los motores existentes para su selección, posteriormente se tuvo que reprogramar cada uno de los motores, con el ID necesario así como situarlo en su punto inicial. Una vez de lograr lo anterior se continuó con el  armado de cada extremidad. lo que conllevo a verificar los cables de conexión que disponíamos dado que algunos están en malas condiciones lo que después provocan cortocircuitos. De la misma manera fue necesario separar los distintos tornillos, tuercas y empaques que se requieren.  


CONCLUSIONES

En conclusión, el uso de servoactuadores en el contexto de este proyecto de robótica ha demostrado ser tanto estimulante como desafiante. A lo largo de su implementación, se ha destacado la necesidad de realizar reparaciones periódicas en algunos de estos actuadores debido al desgaste natural derivado de su uso continuado. Estas experiencias han proporcionado valiosas lecciones sobre el mantenimiento y la durabilidad de los componentes, subrayando la importancia de un enfoque proactivo en la gestión de hardware en entornos robóticos.
Estrada Villanueva María Cruz, Instituto Tecnológico de Querétaro
Asesor: Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas

DISEñO FACTORIAL BASADO EN SIMULACIóN


DISEñO FACTORIAL BASADO EN SIMULACIóN

Estrada Villanueva María Cruz, Instituto Tecnológico de Querétaro. Asesor: Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La empresa se ha tomado como referencia para este estudio, debido a los requerimientos y demanda en el mercado. De tal manera se utilizaron simulaciones para poder interpretar los factores que son más recurrentes con el fin de mostrar cuales son esos factores que afectan el proceso y satisfacer la demanda del cliente en tiempo y forma. El problema consiste en conocer cuál es el impacto de las fuentes de variabilidad controlables en el proceso de ensamblado de arneses, con el fin de mejorar la eficiencia del ensamblaje y aumentar la productividad de arneses para la línea de producción MABE específicamente la línea Centauro.



METODOLOGÍA

Simulación Se realizó un estudio de los diferentes factores en las distintas áreas de trabajo teniendo en cuenta al personal, los tableros de montaje, tableros de pruebas eléctricas, las condiciones de trabajo, de manera que se pueda observar cuales han sido los factores que retrasan la productividad. Se implementó un modelo de simulación, adaptado de acuerdo a las características especificas de la línea de producción Mabe que trabaja en Querétaro, utilizando el software Arena. Con el objetivo de analizar a mayor profundidad, se simulo la situación actual de la línea de producción.  Los tipos de congestión varean según el material que allá en existencia en almacén. Los tiempos en los que el auxiliar lleva el material de almacén a la línea de producción varían según se ocupe cada uno de ellos, el tiempo promedio de servicio es de alrededor 5 y 10 minutos. Debe de tomarse en cuenta que en casos específicos la demora puede ser de hasta 1 hora, ya que la llegada de la materia prima tuvo algún retraso, considerando el tiempo que se lleva en la descarga. Se puede observar de una manera más clara cuantas ordenes de circuitos están llegando en este caso están llegando el 0.6690 de partes, en el tercer punto se puede visualizar que el 0.01032 partes estuvieron esperando. En la ultima orden de circuito se puede ver que el 0.07722 fue el total del tiempo que se tardo en llegar la orden de circuito. En el proceso de ensamble se puede apreciar que existe una gran diferencia en el tiempo de ensamblado, de manera que en el ensamblado uno está produciendo 65 ensambles, mientras que en el ensamblado dos solo están produciendo 43 ensambles. La utilización de los tableros para los ensambles se puede observar una diferencia de 0.00228, siendo el tablero de ensamble 1 el que se utiliza más para la producción. Verificamos con los datos nuevamente para la utilización de los tableros de encintado que el que se utiliza con mayor frecuencia es el encintado dos con una diferencia de 0.00224. En el sub departamento de ruteo la utilización con mayor frecuencia es la del ruteador uno con una diferencia de 0.0021 al ruteador dos. Se puede observar cuantas ordenes de circuito llegaron, de manera más específica se puede observar que el número de partes que realizo hasta el ruteo dos fue de 43 arneses, mientras que el ruteador uno realizo 65 arneses. DOE El problema consiste en conocer cuál es el impacto de las fuentes de variabilidad controlables en el proceso de ensamblado de arneses, con el fin de mejorar la eficiencia del ensamblaje y aumentar la productividad de arneses para la línea de producción MABE específicamente la línea Centauro. El experimento considera una sola variable de respuesta. Es una variable de tipo continua, la unidad de medida es en minutos (tiempo). VR: Desviación promedio de tiempo por arnés (en minutos). Con ayuda de MINITAB se creó el diseño aleatorio. Se puede observar de una manera más clara que el factor de falta de personal es positivo ya que en medida que aumenta el nivel de estos factores aumenta la desviación, a excepción de la llegada del circuito mientras que esta pasa del 20 al 35 la desviación baja de estar de un 2.4 a 1.2, en el caso de la falta de personal pasa de menos de cero hasta 3.3 de desviación siendo un factor que en mayor medida afecta, mientras que en el tiempo ocio pasa de una desviación de 1.6 a 1.9 En las graficas de interacción se puede visualizar de una manera más dinámica que ninguna de las interacciones fue significativa, de tal manera que no existe tal efecto, por lo que el efecto de cada variable es independiente. El modelo explica el 49.51% de variabilidad. Con esta explicación podemos controlar la falta de personal. Se puede observar de una manera más detallada el Valor P donde vemos que los tres factores son significativos ya que son mayores a alfa, donde nos podemos dar cuenta que el más importante es la falta de personal ya que explica el 13.88% de la variabilidad, seguida de la llegada del circuito que explica el 2.28%  y el tiempo ocio que explica el 0.19% de la variabilidad. El factor más importante para poder determinar el tiempo de ensamblado es controlar la falta del personal, después la llegada del circuito y al final el tiempo ocio.    


CONCLUSIONES

Con la aplicación de la simulación en el proceso de manufactura para arneses de línea blanca, se pudo observar cual es la diferencia que existe entre un ensamblado y otro, así como se pudo verificar cuales son las ordenes de llegadas que se tienen, por otro lado, pudimos observar y analizar que ensamblaje se utiliza más y en donde hay un poco más de retardo, con este modelo podemos tomar en cuenta los factores y poder realizar la toma de decisiones. Con la tabla ANOVA indica que los tres factores no tienen un impacto significativo (p-valor < 0.05) sobre la variable de respuesta (en conjunto con las gráficas de los efectos principales, podemos observar que el impacto es positivo). Donde confirmamos que no existe interacción entre los tres factores en los diferentes niveles. El ANOVA explica el 49.51% de la variabilidad con estos tres factores. El factor A (La falta de personal) explica el 13.88% El factor B (Llegada del circuito) explica el 2.28% El factor C (Tiempo ocio) explica el 0.19% Las interacciones explican el 33.16% logrando así el 49.51% En conjunto estos tres factores explican el 49.51% de la variabilidad. El 50.49% restante no pudo ser explicado por estos tres factores, por lo que su efecto se atribuye a la variabilidad inherente del proceso.
Estrella Rangel Lorenzo Antonio, Instituto Tecnológico Superior de Tacámbaro
Asesor: Mtra. Elizet Ibarra Limas, Instituto Tecnológico Superior de Tacámbaro

SISTEMA WEB PARA AGENDAR CITAS, RECORDATORIOS Y SEGUIMIENTO DE EXPEDIENTE CLíNICO


SISTEMA WEB PARA AGENDAR CITAS, RECORDATORIOS Y SEGUIMIENTO DE EXPEDIENTE CLíNICO

Alcala Alba Abel, Instituto Tecnológico Superior de Tacámbaro. Estrella Rangel Lorenzo Antonio, Instituto Tecnológico Superior de Tacámbaro. Asesor: Mtra. Elizet Ibarra Limas, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

El spa Mina Lim enfrenta varios desafíos significativos debido a su método actual de gestión de citas a través de WhatsApp. Aunque esta herramienta ha proporcionado una solución accesible y de bajo costo para manejar la agenda de citas, presenta múltiples problemas que afectan la eficiencia operativa y la satisfacción del cliente. La administración de citas mediante WhatsApp es un proceso manual que consume una cantidad considerable de tiempo y esfuerzo del personal. Cada solicitud de cita, confirmación y recordatorio debe ser gestionada individualmente, lo que no solo es ineficiente, sino que también aumenta la posibilidad de errores humanos. Por ejemplo, es común que se produzcan errores como la doble reserva o la omisión de mensajes importantes. Estos errores no solo generan inconvenientes para los clientes, sino que también afectan la reputación del spa. Además, el seguimiento manual de confirmaciones y recordatorios de citas requiere una atención constante del personal, lo que desvía recursos humanos que podrían ser mejor empleados en otras áreas críticas del servicio al cliente. Este enfoque laborioso y propenso a errores es insostenible a medida que la clientela del spa crece.



METODOLOGÍA

Para el diseño y documentación del sistema web destinado a la gestión de citas, recordatorios y seguimiento de expedientes clínicos en un spa, se siguieron varias fases metodológicas esenciales. Aunque el sistema aún no ha sido desarrollado, se ha realizado una planificación y documentación detallada para su futura implementación. Se llevó a cabo una investigación preliminar para comprender las necesidades del spa y establecer un marco teórico adecuado. Este proceso incluyó: Revisión de la Literatura: Se investigaron estudios y documentos relevantes sobre sistemas de gestión de citas y expedientes clínicos para identificar mejores prácticas y tecnologías adecuadas. Entrevistas y Encuestas: Se realizaron entrevistas con el personal del spa y encuestas a clientes para recopilar información sobre sus necesidades y expectativas respecto al sistema. Análisis de Sistemas Existentes: Se evaluaron sistemas similares en el mercado para identificar fortalezas y debilidades, lo que ayudó a definir los requisitos del nuevo sistema. Con la información recopilada en la fase preliminar, se llevó a cabo un análisis detallado de los requisitos del sistema. Este análisis incluyó: Requisitos Funcionales: Se identificaron las funciones esenciales que el sistema debía cumplir, como la gestión de citas, recordatorios automáticos y seguimiento de expedientes clínicos. Requisitos No Funcionales: Se definieron criterios de rendimiento, seguridad, usabilidad y escalabilidad del sistema. Especificación de Requisitos: Se elaboró un documento de especificación de requisitos que sirvió como guía para el diseño del sistema. El diseño del sistema se centró en crear una arquitectura robusta y una interfaz de usuario intuitiva. Las actividades clave en esta fase incluyeron: Modelo Entidad-Relación (E-R): Se diseñó un modelo E-R para representar la estructura de la base de datos, identificando entidades principales como pacientes, citas, recordatorios y expedientes clínicos, y las relaciones entre ellas. Diagramas de Casos de Uso: Se desarrollaron diagramas de casos de uso para describir las interacciones entre los usuarios y el sistema, asegurando que todas las funcionalidades requeridas fueran cubiertas. Prototipos de Interfaz de Usuario (UI): Se crearon prototipos de la interfaz utilizando herramientas de diseño como Balsamiq, permitiendo la simulación y evaluación del diseño antes de su implementación. Aunque el sistema aún no ha sido desarrollado, se realizó una selección de tecnologías que se utilizarán en la futura implementación. Las tecnologías seleccionadas incluyen: HTML/CSS: Para la estructura y el diseño de la interfaz. JavaScript: Para la interactividad y funcionalidades dinámicas. PHP: Para la lógica del servidor y manejo de datos. MySQL: Para la gestión de la base de datos. Bootstrap: Framework para asegurar un diseño responsivo y compatible con dispositivos móviles. XAMPP: Plataforma de desarrollo local que incluye un servidor web y un sistema de gestión de bases de datos. Se elaboró un plan de pruebas detallado que será utilizado una vez que el sistema sea desarrollado. Este plan incluye: Pruebas Unitarias: Verificación de que cada componente individual del sistema funcione correctamente. Pruebas de Integración: Aseguramiento de que los diferentes módulos del sistema trabajen juntos sin problemas. Pruebas de Sistema: Evaluación del sistema en su totalidad para verificar que cumpla con todos los requisitos especificados. Pruebas de Usuario: Pruebas con usuarios reales para obtener retroalimentación directa y hacer los ajustes necesarios. Mediante esta metodología, se ha documentado y diseñado un sistema web robusto, seguro y eficiente, que está preparado para ser desarrollado en el futuro y utilizado para mejorar la gestión de citas, recordatorios y expedientes clínicos en el spa.


CONCLUSIONES

El proyecto de investigación se centró en la documentación y diseño preliminar de un sistema web para la gestión de un spa. Aún no se ha desarrollado el sistema web, pero se ha establecido una base sólida para su futura implementación. El sistema propuesto busca optimizar la gestión del spa mediante una plataforma accesible, segura y eficiente, mejorando la experiencia tanto de los administradores como de los clientes. La implementación de estas tecnologías permitirá al spa mantenerse competitivo en un mercado exigente, mejorar la satisfacción del cliente y aumentar la eficiencia operativa.
Feliciano Pioquinto Jorge Osvaldo, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

ESTACIóN NIMBUS, SISTEMA DE MONITOREO AMBIENTAL


ESTACIóN NIMBUS, SISTEMA DE MONITOREO AMBIENTAL

Cortes Facio Juan Diego, Instituto Tecnológico de Morelia. de Jesús Martínez Carlos Alberto, Instituto Politécnico Nacional. Feliciano Pioquinto Jorge Osvaldo, Instituto Tecnológico Superior de Ciudad Hidalgo. Piceno Reyes Guillermo Eduardo, Instituto Tecnológico de La Piedad. Pineda Ibarra Alexandra, Instituto Tecnológico Superior de Ciudad Hidalgo. Rosales Gómez Adrian, Instituto Politécnico Nacional. Vargas Castro Jonathan Antonio, Instituto Tecnológico de Morelia. Vidal Gómez Yessica Gisel, Instituto Politécnico Nacional. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la región de los Valles, Jalisco, la agricultura enfrenta desafíos significativos debido a la variabilidad climática y la falta de datos meteorológicos precisos y actualizados. Estos problemas afectan la planificación de cultivos y la gestión de recursos hídricos, esenciales para la producción agrícola sostenible. Según el Instituto Nacional de Estadística y Geografía (INEGI), la región de Jalisco ha experimentado fluctuaciones en temperatura y precipitaciones que impactan directamente en la productividad agrícola. La falta de estaciones meteorológicas eficientes en la región agrava esta situación, limitando la capacidad de los agricultores para tomar decisiones informadas y oportunas. La problemática principal está en el ingenio azucarero de la región, estos desafíos son particularmente pronunciados. La producción de caña de azúcar requiere condiciones climáticas específicas y una gestión adecuada del agua. La falta de datos precisos dificulta la planificación y optimización de las actividades agrícolas, resultando en pérdidas económicas y una menor eficiencia en la producción.



METODOLOGÍA

Para el desarrollo de la estación de monitoreo ambiental, se siguió un proceso sistemático que involucró diversas fases de diseño, implementación y pruebas. A continuación, se detallan los pasos específicos llevados a cabo: Fase de Diseños Selección de Sensores: Se eligieron sensores adecuados para medir temperatura, humedad, precipitación pluvial, altitud, presión atmosférica, velocidad y dirección del viento, índice UV, calidad de aire (partículas), luminosidad, CO2. Los sensores seleccionados fueron DHT11 para temperatura y humedad, BMP180 para presión atmosférica, y anemómetros y veletas para medir velocidad y dirección del viento. Diseño de la estructura: Utilizando SolidWorks, se diseñaron los soportes y la carcasa para los sensores y las placas electrónicas Raspberry Pi y la Arduino Nano. Se realizaron varias iteraciones del diseño para asegurar estabilidad y protección contra condiciones climáticas adversas. FORTALECIMIENTO DE LA Fase de Implementación Montaje de Hardware: Los componentes físicos fueron hechos utilizando una impresora 3D con filamento PLA. Los sensores fueron montados en sus respectivos soportes y conectados a la Raspberry Pi y Arduino Nano. Configuración de la Raspberry Pi: Se configuró la Raspberry Pi con Raspbian OS y se instalaron las bibliotecas necesarias para la lectura de los sensores (Adafruit_DHT, BMP180, y PySerial para el anemómetro y la veleta). Así mismo con la Nano. Desarrollo de la Interfaz: Se desarrolló una interfaz de usuario utilizando Flask, un microframework de Python, para permitir la visualización en tiempo real de los datos recopilados. La interfaz incluye gráficos y alertas para condiciones climáticas extremas. Fase de Pruebas. Pruebas en Campo: La estación de monitoreo ambiental fue instalada en el Centro Universitario de los Valles de la Universidad de Guadalajara, ya que está rodeado de zonas agrícolas. Se realizaron pruebas durante un periodo de tres semanas para recolectar datos y ajustar la calibración de los sensores. Validación de Datos: Los datos recolectados fueron comparados con los registros de estaciones meteorológicas oficiales para validar la precisión de las mediciones. Se encontraron discrepancias menores que fueron ajustadas mediante calibración adicional.


CONCLUSIONES

Durante el desarrollo de la estación de monitoreo ambiental, se logró adquirir conocimientos teóricos y prácticos en el diseño e implementación de sistemas de monitoreo medio ambientales utilizando tecnologías accesibles como la Raspberry Pi, Ardunio Nano y la impresión 3D. La integración de sensores y el desarrollo de una interfaz de usuario intuitiva permitieron la recolección y visualización de datos meteorológicos en tiempo real. Los resultados obtenidos durante el periodo de pruebas demostraron que la estación de monitoreo ambiental proporciona datos precisos y confiables, la cual contribuirá esencialmente para la planificación agrícola en región de los Valles, Jalisco. La comparación de los datos recolectados con los registros de estaciones meteorológicas oficiales validó la precisión de las mediciones, y los ajustes realizados mejoraron aún más su exactitud. En el contexto del ingenio azucarero, la estación de monitoreo ambiental permitiría ajustar las prácticas de riego y manejo de cultivos, mejorando la eficiencia y reduciendo pérdidas. Esto subraya la importancia de contar con datos climáticos precisos para optimizar la producción agrícola y enfrentar los desafíos específicos de la región. A pesar de los avances logrados, el proyecto aún se encuentra en fases de prototipado. Se espera continuar con la recolección de datos a largo plazo para analizar patrones climáticos y su impacto en la agricultura local. Futuras mejoras en la calibración de sensores y la expansión de la red de estaciones de monitoreo ambiental podrían proporcionar una cobertura más amplia y datos aún más precisos. Además, se prevé que el uso continuo de esta tecnología contribuirá a incrementar la sostenibilidad y productividad agrícola en la región. El conocimiento adquirido y las técnicas desarrolladas pueden ser aplicadas en otros contextos y regiones, proporcionando una herramienta valiosa para enfrentar los desafíos del cambio climático y la variabilidad meteorológica en la agricultura. Desarrollo del proyecto "ESTACIÓN NIMBUS” Video: https://drive.google.com/file/d/1awq5EhNIY7j6gRyHKIEVdf6mNa2rBiaP/view?usp=sharing  
Feliciano Romero Edgar, Universidad Tecnológica de Zinacantepec
Asesor: Dr. Esteban Alberto Correa Bedoya, Universidad de Medellín

ALMACENAMIENTO DE HIDRóGENO: PEQUEñAS PARTíCULAS, GRAN IMPACTO.


ALMACENAMIENTO DE HIDRóGENO: PEQUEñAS PARTíCULAS, GRAN IMPACTO.

Feliciano Romero Edgar, Universidad Tecnológica de Zinacantepec. Asesor: Dr. Esteban Alberto Correa Bedoya, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

Las energías generadas a partir de recursos fósiles emiten grandes cantidades de contaminantes que dañan continuamente al medio ambiente, provocando alteraciones a los ecosistemas y la vida dentro de ellos. El hidrogeno es un vector de energía cuyo uso propone una disminución de contaminantes, dejando como residuo agua. El problema del hidrogeno recae en su medio de almacenamiento, las formas tradicionales de almacenamiento de hidrogeno son ineficaces, de costo elevado y potencialmente peligrosas; para dar una solución se estudian los hidruros metálicos, capaces de almacenar el hidrogeno en forma solida. Se estudia al hidruro de magnesio como material de almacenamiento de hidrogeno, un material que se destaca sobre otros hidruros debido a alta capacidad de almacenar hidrogeno, su abundancia y bajo costo, sin embargo, su cinética de absorción y desorción frenan su aplicación práctica. Se propone solucionar los problemas de cinética del hidruro de magnesio a través de la molienda y la adición de níquel, se evalúa la capacidad de absorción/desorción del material con pruebas tipo sieverts y caracterización por técnicas SEM-EDS y DSC.



METODOLOGÍA

Se requiere de una atmosfera libre de oxígeno y agua, para poder manipular al hidruro de magnesio debido a que se oxida fácilmente al estar en contacto con el ambiente, lo que genera que el material se degrade. Se pesa 1 g de hidruro de magnesio y 31mg de ácido esteárico, este tiene la función de evitar que el hidruro de magnesio se funda a las paredes del recipiente al momento de aplicar la molienda, ambos se colocan dentro de un recipiente para molienda junto con cuerpos moledores. Apoyándose de un molino de bolas de alta energía, la muestra se lleva a molienda con una configuración de 3 ciclos de 20 minutos que constan de 10 minutos de molienda y 10 minutos que enfriamiento necesario, esto debido a que la molienda genera grandes cantidades de energía que pueden sobrecalentar y dañar el equipo; dentro de los parámetros también se somete a una potencia de 800 revoluciones por minuto. Esto con el objetivo de reducir el tamaño de partícula hasta un tamaño de partícula de 700 nm o 0.7 micras aproximadamente.   Al hidruro de magnesio molido se le adiciona 10% de níquel, lo que se busca con el níquel es desestabilizar al hidruro de magnesio, ya que el MgH2 presenta gran estabilidad, para así facilitar su cinética, para esto de agregan 45 mg de Ni sobre 400 mg de MgH2, Se coloca sobre un recipiente para molienda, sin acido ni cuerpos moledores, se lleva al molino de bolas bajo los mismos parámetros que la molienda del MgH2, lo que se busca es conseguir una mezcla uniforme de MgH2 y Ni. Una vez obtenido el MgH2-10 Ni, el material se somete a pruebas de hidrogenación y deshidrogenación, se requiere de un equipo tipo sieverts, en donde se tienen dos líneas de gas, una de argón y otra de hidrogeno, ambas conectadas a un reactor (lugar del material). Se ingresa el material al reactor, se purga la tubería con argón, realizar ciclos de activación al material; en donde se ingresa hidrogeno al material durante pocos segundos para después ponerlo a desorber, un proceso que se repite 3 veces. Se realizan las pruebas de absorción y desorción, donde se libera hidrogeno y esperar 12 minutos a que el material lo absorba, terminado el tiempo de espera, se eleva la temperatura del reactor hasta llegar a 350°C, para que el material inicie con la fase de deshidrogenación. A través de una diferencia de presiones se determina la absorción y desorción, misma que es posible observar por medio de un software instalado al equipo. Haciendo los cálculos correspondientes se puede determinar la cantidad de hidrogeno absorbido por el material. Se visualiza que se obtiene una absorción del 6% de hidrogeno sobre su peso a una temperatura mínima de 350 °C. Para la caracterización SEM-EDS se toman varias muestras del material, la primera del MgH2 sin moler y otra del MgH2 ya molido, en donde se observó la diferencia del tamaño de los granos para comprobar que se logró una disminución en el tamaño de la partícula. De igual forma se toma una muestra del material antes de las pruebas de hidrogenación y deshidrogenación y otra después de las pruebas; en esta caracterización se visualiza como las partículas sufren un cambio morfológico después someterse a la absorción y desorción del hidrogeno.   Se visualiza que las partículas sufren un cambio morfológico cuando se someten a pruebas sieverts, debido a la energía, la excitación a la que se someten las partículas, estas tienden a explotar. El mapeo químico elemental nos ayuda a comprobar que nuestro material no tiene elementos ajenos a los utilizados y que efectivamente tiene 10% de Ni en su composición. La caracterización DSC tiene como objetivo señalar el pico que nos indica a que temperatura nuestro material es capaz de desorber el hidrogeno, en este caso señalando una temperatura de 350 °C.


CONCLUSIONES

El material presenta mejora en la cinética de absorción y desorción del hidrogeno, se toma como referencia al hidruro de magnesio comercial con el MgH2 -10 Ni molido, las pruebas nos arrojan resultados que comparando tenemos los siguientes datos: El hidruro de magnesio comercial da un 3% de absorción de hidrogeno sobre su peso, en cambio el MgH2 - 10 Ni es capaz de absorber 7% de hidrogeno de su el peso total. La cantidad de energía necesaria para desorber el hidrogeno en el hidruro de magnesio comercial es de más de 40°C, en cambio el MgH2 - 10, desorbe a partir de 350 °C. Con esto podemos ver que se obtiene un material mas seguro y eficiente, en donde su abundancia en la tierra es buena por lo que su costo es accesible y barato en comparación con otros materiales de almacenamiento.
Félix Félix Rogelio, Instituto Tecnológico de Culiacán
Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez

AJUSTE DE UN MODELO BASADO EN áRBOLES DE DECISIóN PARA LA PREDICCIóN DEL RENDIMIENTO EN LA PRUEBA SABER T&T


AJUSTE DE UN MODELO BASADO EN áRBOLES DE DECISIóN PARA LA PREDICCIóN DEL RENDIMIENTO EN LA PRUEBA SABER T&T

Félix Félix Rogelio, Instituto Tecnológico de Culiacán. Soto Geraldo Fabricio, Universidad de Guadalajara. Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez



PLANTEAMIENTO DEL PROBLEMA

En Colombia, la prueba Saber T&T es un examen estándar que evalúa las competencias y conocimientos de los estudiantes en diversas áreas académicas. Sin embargo, los resultados de esta prueba a menudo reflejan profundas desigualdades en el sistema educativo, influenciadas por factores socioeconómicos, geográficos y académicos. Entre las principales causas que afectan el rendimiento en la prueba Saber T&T se encuentran la calidad de la infraestructura escolar, la formación de los docentes, el acceso a recursos educativos y la situación económica de las familias. Estas causas se manifiestan en síntomas como la disparidad en los resultados entre diferentes regiones del país, el bajo rendimiento general en áreas críticas como matemáticas y lenguaje, y una alta tasa de deserción escolar.   Para abordar este problema, se propone desarrollar un modelo de predicción basado en árboles de decisión que permita identificar los factores más determinantes en el rendimiento de los estudiantes en la prueba Saber T&T. Los árboles de decisión son especialmente adecuados para esta tarea debido a su capacidad para manejar datos categóricos y numéricos, su interpretabilidad y su eficacia en la detección de interacciones no lineales entre variables. El modelo ayudará a prever el rendimiento de los estudiantes con base en variables como el nivel socioeconómico, el desempeño académico previo, la asistencia a clases, y otros factores contextuales. Esta herramienta de predicción permitirá a los educadores y responsables de políticas educativas diseñar intervenciones específicas y focalizadas para mejorar el rendimiento académico y reducir las desigualdades.   Para asegurar la validez y precisión del modelo de predicción, se implementará un proceso riguroso de validación cruzada y ajuste de hiperparámetros. Además, se utilizarán técnicas de análisis de sensibilidad para evaluar la robustez del modelo frente a variaciones en los datos de entrada. Los resultados del modelo serán comparados con datos históricos para verificar su capacidad predictiva. Una vez validado, el modelo será una herramienta valiosa para la toma de decisiones informadas en el ámbito educativo, permitiendo identificar de manera proactiva a los estudiantes en riesgo de bajo rendimiento y diseñar estrategias de apoyo personalizadas. De esta forma, se podrá intervenir de manera efectiva para mejorar el desempeño en la prueba Saber T&T y, en última instancia, contribuir a la equidad y calidad del sistema educativo colombiano.



METODOLOGÍA

En un reciente proyecto de investigación que adopta un enfoque metodológico mixto, se emplea la metodología CRISP-DM para explorar, describir y correlacionar variables clave que influyen en la eficacia de los programas de intervención educativa. El estudio inicialmente aplica un diseño exploratorio para identificar factores poco conocidos que podrían afectar los resultados de dichos programas. Utilizando técnicas de minería de datos junto con encuestas cualitativas, el proyecto busca descubrir nuevas relaciones y patrones que no han sido ampliamente documentados en la literatura existente.   En la fase descriptiva, el proyecto utiliza la recopilación y el análisis de datos para ofrecer un panorama detallado de las características observadas en la muestra estudiada. Este análisis descriptivo ayuda a establecer un perfil claro de los variables como el rendimiento académico y la eficacia del docente dentro del programa. A través de la metodología CRISP-DM, se estructura la recopilación y preparación de los datos, garantizando que la interpretación de los mismos sea adecuada para formular conclusiones precisas sobre el estado actual de los programas evaluados.   Finalmente, la fase correlacional del estudio se centra en identificar y cuantificar las relaciones entre las variables descriptas. Utilizando técnicas estadísticas avanzadas dentro del marco de CRISP-DM, el estudio no solo confirma relaciones conocidas, sino que también explora conexiones emergentes, proporcionando insights valiosos para futuras intervenciones y políticas educativas. Este enfoque integrado asegura que el análisis sea exhaustivo y que los hallazgos puedan aplicarse para mejorar prácticas y resultados en contextos educativos similares.


CONCLUSIONES

Se logró una comprensión integral de la prueba Saber T&T, identificando sus componentes clave y el contexto educativo en el que se aplica. Esto permitió una base sólida para definir y modelar los conceptos pertinentes a la evaluación. La exploración de datos permitió identificar las variables más significativas y detectar problemas de calidad, como valores nulos o inconsistencias. Se realizó una limpieza exhaustiva de los datos, eliminando errores y completando valores faltantes, lo cual mejoró la calidad del conjunto de datos. Posteriormente, se transformaron y seleccionaron las variables relevantes. Se implementaron algoritmos de árboles de decisión combinados con técnicas de ensamble, como el bagging y boosting, para construir modelos robustos y precisos. Estas técnicas mejoraron significativamente la capacidad predictiva y la generalización del modelo. Los modelos fueron evaluados exhaustivamente utilizando métricas de rendimiento, destacándose en términos de exactitud y ROCAUC. Los resultados indicaron un alto nivel de precisión y una excelente capacidad discriminativa, validando la efectividad del enfoque adoptado.
Fernández Gómez Jessica Nicole, Universidad de Guadalajara
Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara

DETERMINACIÓN DE LA CONCENTRACIÓN MÍNIMA INHIBITORIA Y CARACTERIZACIÓN DE LOS ESTADOS DE OXIDACIÓN DEL NITRATO DE PLATA (AGNO3)


DETERMINACIÓN DE LA CONCENTRACIÓN MÍNIMA INHIBITORIA Y CARACTERIZACIÓN DE LOS ESTADOS DE OXIDACIÓN DEL NITRATO DE PLATA (AGNO3)

Fernández Gómez Jessica Nicole, Universidad de Guadalajara. Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La creciente resistencia bacteriana a los antibióticos convencionales plantea un grave desafío para la salud pública, lo que ha llevado a la búsqueda de nuevos agentes antimicrobianos. Entre los materiales investigados, el nitrato de plata (AgNO3) ha suscitado interés debido a sus potenciales propiedades antimicrobianas. El uso de compuestos de plata en la medicina no es nuevo, históricamente la plata ha sido utilizada en diversas formas para tratar infecciones y prevenir el crecimiento microbiano en heridas. Aunque el nitrato de plata es reconocido por sus propiedades antimicrobianas, hay escasez de datos sobre su efectividad en diferentes concentraciones y su impacto en diversas bacterias, información que limita su posible aplicación en tratamientos clínicos mediante el uso de la concentración mínima inhibitoria (CMI). La CMI es la medida que determina cuál es la menor concentración de un agente antimicrobiano necesaria para inhibir el crecimiento visible de un microorganismo. Conocer la CMI de AgNO3 no solo es relevante para optimizar su uso en aplicaciones médicas, sino también para minimizar el desarrollo de resistencia y posibles efectos secundarios. Este estudio se enfoca en determinar la CMI de AgNO3 mediante la aplicación de diferentes diluciones en cepas bacterianas. Además, se investigará la influencia de los diferentes estados de oxidación de la plata presente en el AgNO3 sobre su efectividad antimicrobiana buscando así contribuir al desarrollo de nuevas estrategias para combatir la resistencia bacteriana.



METODOLOGÍA

En primer lugar, se prepara una solución 20mM de AgNO3 con el compuesto del proveedor FERMONT, cuya pureza es de 99.1%. Posteriormente, para el desarrollo del análisis antimicrobiano, en un ambiente estéril se agregan 100 µl de caldo de cultivo líquido (LM) Mueller Hinton a una microplaca de 96 pocillos, dejando la primera columna libre para evaluar la solución sin diluir. Luego, se agregan 200 µl de la solución de AgNO3 en la primera columna para llevar a cabo las 11 diluciones sucesivas, las cuales se realizan tomando 100 µl del primer pocillo y depositándolos en el segundo, después 100 µl del segundo y depositándolos en el tercero, así sucesivamente hasta terminar las columnas. Este procedimiento es repetido por triplicado. Enseguida, a cada pocillo se añaden 10 µl de una suspensión bacteriana de Salmonella y la microplaca se lleva a incubar durante 24 horas. Después de la incubación, se mide el crecimiento bacteriano mediante la absorción de luz UV con un espectrofotómetro lector de microplacas. Los datos obtenidos se grafican para con esto identificar la concentración cuya absorción tiende a cero, lo que sugiere la concentración mínima inhibitoria (CMI) probable. Con la finalidad de confirmar la hipótesis, se siembran en agar sangre las diluciones cuya absorción tiende a cero, y se incuban por 24 horas adicionales. Transcurrido este período de tiempo, se analiza si la hipótesis era correcta. Posteriormente, para el análisis en el XPS, se forma una película de la solución sobre una placa de silicio (Si) colocada en un portamuestras, mediante la adición de gotas. La película formada en la placa de silicio es secada completamente en un horno a una temperatura controlada de 60°C con la finalidad de evaporar el líquido de la solución y obtener así el analito de la respectiva sal. Una vez que la película se encuentra seca, la placa de silicio se introduce en el equipo de espectroscopía de fotoelectrones emitidos por rayos X (XPS), donde se determina mediante el uso del software especializado AAnalyzer, la composición, el grado de impureza y el estado de oxidación de la plata presente en el analito. 


CONCLUSIONES

Durante la estancia de verano, se adquirieron diversos conocimientos sobre el funcionamiento del equipo de espectroscopía de fotoelectrones emitidos por rayos X (XPS) y técnicas microbiológicas para determinar la CMI, aprendizajes que sin duda resultan útiles en el transcurso de la vida profesional. Una vez llevado a cabo el análisis antimicrobiano, se identificó cuál es la concentración mínima inhibitoria de la solución 20 mM de AgNO3 la cual resultó ser la novena dilución, con una concentración 3.91x10-2 mM, determinando así su efectividad antimicrobiana. Los resultados obtenidos plantean nuevas incógnitas, como las variables que incidieron en la precipitación de plata, que serán objeto de análisis en futuras investigaciones. De la solución preparada, por medio de la técnica de XPS, se identificaron diferentes porcentajes de plata en diversos estados de oxidación: 4.015% de Ag2+, 8.816% de Ag+ y 14.551% de Ag0, dando así un total de 27.382% de plata. También fue posible identificar distintos componentes de la solución y las que podrían resultar impurezas, tales como: 29.950% de carbono (C), 28.893 % de oxígeno (O), 6.173% de nitrógeno (N), 4.981% de azufre (S), 1.949% de calcio (Ca) y 0.671% de magnesio (Mg).
Fernández Lopez Jacinto José Luis, Universidad Tecnológica de Tecamachalco
Asesor: Dr. Hugo Gaspar Hernández Palma, Corporación Universitaria Latinoamericana

DOCUMENTACIóN CIENTíFICA DEL IMPACTO AMBIENTAL DE LAS ENERGíAS SOLARES FOTOVOLTAICAS DENTRO DE LOS HOSPITALES


DOCUMENTACIóN CIENTíFICA DEL IMPACTO AMBIENTAL DE LAS ENERGíAS SOLARES FOTOVOLTAICAS DENTRO DE LOS HOSPITALES

Fernández Lopez Jacinto José Luis, Universidad Tecnológica de Tecamachalco. Mendoza Castañeda Monserrat, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dr. Hugo Gaspar Hernández Palma, Corporación Universitaria Latinoamericana



PLANTEAMIENTO DEL PROBLEMA

Las energías renovables del tipo solar fotovoltaico en la actualidad han tenido un mayor impacto en distintos sectores, su introducción al mercado energético ha contribuido al medio ambiente. Es una fuente constante de energía y genera como resultado energía eléctrica, que representa para los hospitales un bien de consumo que debe mantener ciertos estándares de calidad que afecta de forma directa o indirecta al equipamiento médico que se esté empleando. Se espera que en Latinoamérica y áreas del Caribe la introducción de la energía eléctrica sea mayor a partir del año 2050 (García Tamayo, J. G., & Herrera Fernández, F. B., 2023), planteado proyectos como una matriz de energía fotovoltaica (FV), proponiendo marcos regulatorios capaces de ofrecer incentivos que proporcionen una reducción del precio de la electricidad. Dentro de las estrategias novedosas que se han empleado para mejorar el uso de la energía FV están el uso de Python mediante un algoritmo llamado K-means usando generalmente para procesar datos de aprendizaje que analiza los datos de consumo eléctrico como las medidas de los medidores o de los registros de factura. Como una forma de poder obtener una máxima potencia eléctrica en mejores condiciones económicas posibles. El problema es la alta demanda energética por parte del sector Salud (Hospitales), se pretende analizar el impacto ambiental que genera la energía convencional en comparación con sistemas Fotovoltaicos.



METODOLOGÍA

La investigación documental de tipo científica se realizó mediante la búsqueda de 25 artículos relacionados al tema de investigación impacto ambiental de las energías solares fotovoltaicas dentro de los hospitales, en su mayoría los trabajos de apoyo se recopilaron de bases de datos como: Dialnet, SciELO, Google Scholar, habiendo trabajos de tesis, artículos, capítulos de libros especializados, etc. resultando los más apropiados para esta documentación Los filtros aplicados para la búsqueda de información consistieron en el planteamiento de una lista de palabras clave: Eficiencia energética, Energía Fotovoltaica, Sistemas de Evaluación, Impacto Ambiental, ISO 50001, Hospitales, utilizándolas como base de búsqueda de los documentos y descartar los que menos coincidencias tuvieran, las bases de datos empleadas permiten modificar los rangos de búsqueda determinando el idioma, el rango de años de la búsqueda, los pises, y las áreas donde pueden aplicar los filtros, entre otros más.   Los temas que más destacan fueron los sistemas energéticos, los sistemas fotovoltaicos y su previa implementación en las instalaciones eléctricas de los hospitales para optimizar la vida útil de los equipos médicos y su impacto ambiental con respecto a las energías convencionales. En los documentos se exponen metodologías variadas que proporcionan información de los sistemas fotovoltaicos y su aplicación en algunos hospitales. Una vez hecha la investigación correspondiente se vaciaron datos calve de estos documentos y bases de datos dentro de una matriz en Excel, dentro de los apartados más relevantes a destacar que contiene son el título del trabajo, el año, la bibliografía, el resumen, conclusiones propias, base de datos de procedencia y palabras clave de los documentos, entre otros.  


CONCLUSIONES

A lo largo de esta estancia de investigación se desarrolló una documentación científica relacionada a energías renovables más específicamente en las energías solares fotovoltaicas, dentro de esta investigación se pudo observar cómo es que las energías solares fotovoltaicas han tenido una enorme influencia en la innovación y adopción de las energías renovables en la industria energética para sectores de salud como los son los hospitales de forma que el ahorro energético sea un factor clave, el económico a largo plazo, e incentivar a la reducción de las emisiones de dióxido de carbono entre otros gases a la atmosfera. En el análisis bibliográfico se identificaron áreas de oportunidad para poder realizar trabajos futuros siguiendo la misma línea de investigación anexando aún más innovaciones ofreciendo un trabajo más fundamentado a futuro.
Fernández Pérez Perla Maricela, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Dra. Claudia Carolina Vaca García, Universidad de Guadalajara

ANÁLISIS BIOMECÁNICO PARA PREVENIR RIESGOS ERGONÓMICOS EN LA MARCHA CON MOCHILA.


ANÁLISIS BIOMECÁNICO PARA PREVENIR RIESGOS ERGONÓMICOS EN LA MARCHA CON MOCHILA.

Fernández Pérez Perla Maricela, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Dra. Claudia Carolina Vaca García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El Instituto Mexicano del Seguro Social (IMSS) ha reportado un aumento en problemas de salud causados por malas posturas y movimientos repetitivos en la última década, especialmente en casos de morbilidad osteoarticular entre 2011 y 2015. La manipulación de cargas es responsable del 34% de los trastornos musculoesqueléticos (TME), afectando principalmente la espalda, brazos y manos, mientras que las posturas forzadas causan el 45% de estos trastornos. El análisis de la biomecánica de la marcha es crucial para identificar desajustes en el aparato locomotor que podrían causar lesiones a medio o largo plazo. La marcha es un proceso aprendido y no innato, pero cada persona desarrolla características propias en su patrón de marcha, que debe ser eficiente y funcional. Estudios recientes han examinado alteraciones en la marcha bajo tres condiciones: natural sin peso, con mochila en ambos hombros y con mochila en un solo hombro. Transportar cargas puede modificar el patrón de marcha y causar lesiones. La investigación se centró en las fases del ciclo de la marcha, particularmente la fase de apoyo, observando alteraciones en la caída pélvica y la aducción y abducción de cadera. Llevar una mochila de peso medio en la espalda mantiene la movilidad y compensación escapular, pero una carga mayor provoca inclinación hacia adelante, afectando la postura. La pelvis y la cadera realizan movimientos específicos para estabilizar el cuerpo durante la marcha. Por lo que, es fundamental analizar la biomecánica de la marcha en diferentes condiciones para prevenir riesgos ergonómicos asociados al uso incorrecto de mochilas y la carga de elementos innecesarios.



METODOLOGÍA

Se realizó un estudio con 50 sujetos, 27 mujeres y 23 hombres, de entre 15 y 57 años, con estaturas entre 1.50 m y 1.89 m, y pesos entre 68.8 kg y 111.3 kg. Todos los participantes voluntariamente realizaron la prueba y aseguraron no tener enfermedades que complicaran su participación. Se aplicó un cuestionario para evaluar el uso cotidiano de la mochila, revelando que el 40% de los voluntarios eran estudiantes, el 38% académicos, el 14% trabajaban en administración y el 8% eran técnicos. El 70% usaba la mochila de manera adecuada, ajustando ambas correas al centro de la espalda, mientras que el 28% la cargaba en el hombro derecho y el 2% en el izquierdo. Además, el 64% llevaba más artículos de los necesarios en la mochila. Se utilizó un sistema de análisis biomecánico 360° con 6 cámaras infrarrojas para registrar las curvas biomecánicas de las articulaciones. La prueba consistió en caminar sobre una caminadora a 2 km/h durante 1 minuto. Cada sesión duró aproximadamente 40 minutos y se colocaron 22 marcadores en los miembros superiores e inferiores. La captura de datos se realizó en tres etapas: marcha natural sin cargas, marcha con una mochila de 6 kg ajustada al centro de la espalda, y marcha con la mochila en el hombro izquierdo para evaluar cambios posturales al transportar cargas en un solo hombro.


CONCLUSIONES

El estudio demuestra que transportar cargas en la espalda o en un solo hombro modifica la postura, afectando los ángulos de caída pélvica y de aducción/abducción de la cadera. Se recomienda usar la mochila correctamente, ajustando ambas correas al centro de la espalda y evitando cargas innecesarias. Es importante no sobrecargar un solo lado y mantener la mochila a una altura adecuada para prevenir alteraciones posturales a largo plazo, que pueden causar trastornos musculoesqueléticos como lesiones lumbares, luxaciones y problemas en los flexores.
Fernanedz Hernandez Yamiled Alexandra, Universidad de Guadalajara
Asesor: Dr. Diego Alfredo Tlapa Mendoza, Universidad Autónoma de Baja California

APLICACIóN DE INTELIGENCIA ARTIFICIAL Y LEAN HEALTHCARE EN LABORATORIOS CLíNICOS PúBLICOS Y CALIDAD 4.0 PARA LA MEJORA DE PROCESOS DE EMPAQUE EN LA INDUSTRIA VINíCOLA


APLICACIóN DE INTELIGENCIA ARTIFICIAL Y LEAN HEALTHCARE EN LABORATORIOS CLíNICOS PúBLICOS Y CALIDAD 4.0 PARA LA MEJORA DE PROCESOS DE EMPAQUE EN LA INDUSTRIA VINíCOLA

Fernanedz Hernandez Yamiled Alexandra, Universidad de Guadalajara. Asesor: Dr. Diego Alfredo Tlapa Mendoza, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

A pesar del avance significativo de la tecnología en los últimos años, sectores como el de la salud y la industria vinícola aún enfrentan desafíos críticos que impactan su eficiencia y calidad. La implementación de simulación de procesos y deep learning en estas áreas, poco exploradas en México, tiene el potencial de revolucionar la manera en que se gestionan los desafíos que presentan estos sectores, proporcionando soluciones tecnológicas avanzadas que optimizan los procesos y mejoran significativamente la calidad y la sostenibilidad.   En los laboratorios clínicos públicos, uno de los principales retos es la inspección de muestras de sangre, la cual está sujeta a errores humanos que pueden generar retoma de muestras, retrasos en el análisis y riesgos de contaminación. La falta de tecnología adecuada y la ausencia de guías sobre posibles errores y acciones de mejora agravan estos problemas. La necesidad de incrementar la inspección de muestras mediante tecnología avanzada, generar un análisis de riesgos y contar con información precisa sobre el nivel de inspección actual son áreas críticas que demandan soluciones innovadoras. Además, se requiere realizar un análisis detallado de la cadena de valor y desarrollar simulaciones del proceso actual para implementar mejoras en el flujo de pacientes y materiales.   En la industria vinícola, la calidad del empaque es fundamental para proteger el producto y asegurar la satisfacción del cliente. Sin embargo, el proceso de empaque de vino enfrenta distintos problemas que pueden llevar a cuestiones de calidad, como errores de etiquetado y la falta de una botella en las cajas enviadas. Además, el empaque del vino es uno de los mayores desafíos de sostenibilidad en el sector, ya que involucra diversos niveles, desde los materiales y formatos utilizados hasta la logística de comercialización y las percepciones y actitudes de los consumidores. La aplicación de inteligencia artificial (IA) y herramientas avanzadas de análisis de datos tiene el potencial de mejorar significativamente la calidad, flujo de trabajo y eficiencia de los procesos de manufactura. Sin embargo, la información sobre el uso de la ciencia de datos en los procesos industriales en México es escasa, lo que plantea un desafío adicional para la implementación efectiva de estas tecnologías.   Ambos proyectos requieren un enfoque integral que combine el desarrollo de tecnologías avanzadas, como modelos de deep learning (DL) para la inspección de muestras de sangre y la mejora de procesos de empaque en la industria vinícola, con la implementación de metodologías de mejora continua como lean healthcare y Calidad 4.0. La colaboración entre instituciones de educación superior y centros de investigación fue esencial para abordar estos desafíos, generando soluciones que no solo mejoren la precisión y eficiencia de los procesos, sino que también promuevan la sostenibilidad y satisfacción del cliente.



METODOLOGÍA

Determinar técnicas y métodos de inspección apoyados por tecnologías de Industria 4.0, aplicables tanto en laboratorios clínicos como en la industria vinícola. Revisión de literatura científica en bases de datos. Etiquetado y Balanceo de imágenes para entrenamiento de los modelos de Deep Learning para el sector salud como el sector vinícola. Evaluar los modelos de Deep Learning desarrollados y definir el equipo necesario para el proceso de inspección en ambos entornos. Analizar los resultados del modelo, indicando valores de precisión por encima del 95%. Probar y validar el modelo de análisis para estimar los impactos económicos, ambientales y sociales, utilizando una base de datos exhaustiva. Programar módulo de Raspberry Pi 5 con modelos pre-cargados y cámaras para la detección de objetos. Creación de carcasas de montaje mediante diseño por computadora e impresión 3D para módulos de Raspberry Pi 5 y cámaras. Elaboración de simulación de procesos del estado actual mediante software para el análisis de flujo de la cadena de suministro. Evaluar la simulación de procesos mediante los distintos tipos de distribución, logrando una comparativa de resultados entre escenarios propuestos. Determinamos las variables en la calidad del vino, y con la utilizamos Python y la biblioteca scikit-learn se construyó un árbol de decisión. Para determinar las variables mas influyentes en la calidad. Curso de Introducción a Lean Six Sigma y Análisis al Sistema de Medición. 


CONCLUSIONES

Durante esta estancia de investigación se trabajó en el análisis y la búsqueda de la literatura que respalda los temas de investigación. Se desarrollo un producto, un Raspberry Pi 5 con una cámara, cuyo objetivo es la detección de objetos con inteligencia artificial, a través de modelos pre-cargados. Estos modelos fueron diseñados y entrenados con la ayuda de los estudiantes y la orientación de los investigadores. Además, se trabajó en la construcción de bases de datos robustas para estos modelos, asegurando la precisión y eficiencia del sistema. El proyecto también incluyó el diseño e impresión 3D de componentes necesarios, integrando tecnología avanzada para mejorar la funcionalidad del dispositivo. Es importante destacar que este proyecto aún se encuentra en fase de desarrollo y no ha sido concluido. Aunque queda mucho trabajo por hacer, como implementar mejoras, perfeccionar la base de datos y optimizar el modelo, el potencial del proyecto es significativo. Sin embargo, estoy satisfecha con los avances logrados, la colaboración efectiva y los resultados obtenidos, a pesar de las dificultades y contratiempos enfrentados
Ferruzca Velazquez Yosseline Jackeline, Instituto Tecnológico de Querétaro
Asesor: Dra. Maria Blanca Becerra Rodriguez, Instituto Tecnológico de Querétaro

FACTORES CRíTICOS PARA IMPLEMENTAR LEAN MANUFACTURING Y ECONOMíA CIRCULAR EN LOS PARQUES INDUSTRIALES QUERéTARO, AERO TECH Y BENITO JUáREZ


FACTORES CRíTICOS PARA IMPLEMENTAR LEAN MANUFACTURING Y ECONOMíA CIRCULAR EN LOS PARQUES INDUSTRIALES QUERéTARO, AERO TECH Y BENITO JUáREZ

Ferruzca Velazquez Yosseline Jackeline, Instituto Tecnológico de Querétaro. Asesor: Dra. Maria Blanca Becerra Rodriguez, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

El estado de Querétaro ha experimentado un notable crecimiento en el sector industrial, se encuentra actualmente en un punto donde la competitividad industrial global exige una constante evolución en los procesos productivos. Implementar modelos de producción más eficientes y sustentables se ha convertido en una prioridad para las empresas ubicadas en los parques industriales  en los parques industriales Querétaro, Aero Tech y Benito Juárez. En este contexto, Lean Manufacturing y Economía Circular surgen como dos metodologias de gestión que, al complementarse, muestran una opción para optimizar los procesos, reducir el impacto ambiental y generar valor en cada producto.La implementación conjunta de estas dos metodologías en las empresas presenta un gran potencial para, mejorar la eficiencia operativa, incrementar la competitividad, reducir el impacto ambiental, fomentar la innovación. 



METODOLOGÍA

El primer tipo de investigación que se aplico es la investigación documental, donde se recabo información mediante distintos articulos cienificos informes industriales y casos de estudio, donde nos muestran las aplicaciones, desarrollo y exito de estas metodologias, ademas se realizo una investigacion de campo con el proposito de recopilar datos mediante un formulario, este instrumento se utilizará con la finalidad de conocer información sobre los factores que afectan nuestro caso de estudio, dirigidas a los colaboradores  en cada área del sector industrial de Querétaro, se presenta a los entrevistados el propósito de la investigación y por lo que se ha de requerir de su testimonio respecto al tema central del proyecto, recabando la información de las entrevistas. Finalmente, a modo de interpretación y conclusión se expresarán los puntos más relevantes obtenidos de las entrevistas que contribuyen al logro de los objetivos, estos recursos son los que nos permiten, tener una investigación estructurada proporcionándonos información detallada.


CONCLUSIONES

El presente proyecto tuvo como objetivo analizar los factores críticos que influyen en la implementación de Lean Manufacturing y Economía Circular en  en los parques industriales Querétaro, Aero Tech y Benito Juárez. Los resultados obtenidos muestran que, existe un creciente interés por la aplicación de estas prácticas y seguimiento de estos modelos, sin embargo, aún persisten desafíos relacionados con la cultura organizacional, la resistencia al cambio y la falta de capacitación. La implementación de Lean Manufacturing y Economía Circular en las empresas representa una oportunidad para mejorar la competitividad y reducir el impacto ambiental y tener infraestructuras sostenibles.
Fierro Juárez Sarahi, Instituto Tecnológico de Pachuca
Asesor: M.C. Johann Mejías Brito, Instituto Tecnológico de Colima

DISEñO CONCEPTUAL DE DISPOSITIVOS DE REHABILITACIóN PARA PERSONAS CON ENFERMEDADES MUSCULOESQUELéTICAS


DISEñO CONCEPTUAL DE DISPOSITIVOS DE REHABILITACIóN PARA PERSONAS CON ENFERMEDADES MUSCULOESQUELéTICAS

Fierro Juárez Sarahi, Instituto Tecnológico de Pachuca. Gallegos Márquez Vanya Karla, Instituto Tecnológico de Pachuca. Asesor: M.C. Johann Mejías Brito, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

A través de la historia el propósito principal del estudio de las enfermedades incapacitantes, como lo es la atrofia muscular se ha centrado en la elaboración de protocolos, dispositivos y manuales que permitan que las personas que padecen de este tipo de enfermedad puedan mantener un nivel óptimo de independencia, teniendo en cuenta la evolución de la misma enfermedad y proporcionando alternativas de prevención de alteraciones que afecten la funcionalidad de los individuos que la padecen. Es crucial que la sociedad sea consciente de esta problemática y que se investiguen alternativas integrales que mejoren la calidad de vida y promuevan la interacción social de las personas afectadas.  La discapacidad no sólo afecta a la persona con limitaciones físicas en la realización de sus actividades, también muestran un desajuste psicológico, una limitación en su desarrollo socio económico, educativo y cultural (Nordin & Frankel, 2001). En México, de acuerdo a las estadísticas del Censo Nacional de Población y Vivienda proporcionado por el Instituto Nacional de Estadística, Geografía e Informática (INEGI), existen más de dos millones de personas que cuentan con una discapacidad, es decir, representa el 2.31% de la población nacional, siendo la discapacidad motriz la más representativa por encima de la auditiva y visual (Sandoval et al., 2017). En su vida diaria el ser humano está expuesto a sufrir lesiones en las diferentes articulaciones del cuerpo. Lo anterior se debe al desgaste natural a causa de la edad, accidentes o lesiones por actividades deportivas, esto puede causar diferentes tipos de discapacidades o atrofias (López et al., 2014). Las rodillas no están exentas de ello, sin importar el tipo de lesión presente en esta articulación, la deformación y la limitación en el movimiento de esta son evidentes según Bouri et al., (2001), haciendo necesarios tratamientos fisioterapéuticos y de rehabilitación. Para estos tratamientos se pueden emplear diferentes elementos tales como prótesis, sillas de ruedas, muletas, ortesis, exoesqueletos que ayudan a superar la limitación en ciertos niveles, que abarcan la reducción del dolor, normalizar la movilidad, aumentar la musculatura, etc.; y de esta forma mejorar la calidad de vida del ser humano que las presenta. En algunos casos se aplican únicamente tratamientos de rehabilitación, pero si la lesión es más grave, se requieren tratamientos de intervención quirúrgica. Se hace necesario inicio de un programa de rehabilitación que garantice el éxito de la misma mediante una ejercitación controlada de la musculatura, que permita, primero, recuperar la fuerza muscular que básicamente es la capacidad del músculo para contraerse y segundo, recuperar la resistencia que es la capacidad de realizar el mismo movimiento repetidas veces. La mayoría de estos procesos son realizados de forma manual por el fisioterapeuta, quien no puede adquirir datos exactos de cuánta tensión requieren los músculos en ese momento (Hoppenfeld, S. and V. L. Murthy, 2001). El objetivo del presente trabajo es recabar elementos que permitan mejorar las características de diseño del dispositivo de rehabilitación propuesto, desde la perspectiva de los usuarios y los especialistas.  



METODOLOGÍA

La metodología propuesta se basa en la combinación de dos metodologías; la ingeniería concurrente; metodología integradora (Molina,2006)   y el Modelo de cinco etapas del proceso de diseño (Villanueva, 2017), en las cuales se destacaron etapas importantes a aplicar, cuenta con las siguientes fases estratégicas: Vigilancia tecnológica del prototipo de dispositivo de rehabilitación de rodilla para determinar las características base para su funcionamiento correcto. La etapa corresponde a la revisión bibliográfica sobre enfermedades músculo esqueléticas, dispositivos mecánicos y no mecánicos de rehabilitación, así como tipos de ejercicios de rehabilitación, todo ello a través de fuentes formales, tales como tesis, artículos y patentes con el fin de actualizar el conocimiento obtenido sobre los dispositivos de rehabilitación ya existentes.  En la segunda etapa correspondiente a la ideación, la cual se centra en hacer una definición del problema que existe, así como las necesidades del mercado (Molina,2006), se definen los requerimientos del producto, haciendo uso de la vigilancia tecnológica, para identificar las variables en estos diseños. Asimismo, la parte del diseño preliminar básico se divide en dos partes, la primera es el análisis de ventajas y desventajas de dispositivos propuestos (Villanueva, 2017), previamente por otros autores y diseñadores, existentes alrededor del mundo. Y la segunda parte de propuestas de diseño personales, en las que se plasman mediante bocetos ideas similares, pero con mejoras significativas.  En la última etapa, la tercera es donde se propone un diseño final, asegurando que cumplan con las características definidas en las etapas anteriores para satisfacer las necesidades del problema, seleccionado así los materiales y la tecnología necesaria para el desarrollo del diseño propuesto.    


CONCLUSIONES

Durante el verano, se adquirieron conocimientos teóricos sobre el diseño de dispositivos de rehabilitación para personas con enfermedades musculoesqueléticas en extremidades inferiores, enfatizando la ergonomía y la seguridad. Se consideraron nuevas tecnologías, recomendándole la integración de sistemas de monitoreo para personalizar la experiencia del usuario. Se realizó una vigilancia tecnológica, obteniendo versiones funcionales de dispositivos existentes, identificando áreas de mejora como materiales, accesibilidad y diseño. Se propuso un nuevo diseño para un dispositivo de rehabilitación de rodilla utilizando CAD para controlar las terapias. En conclusión, el dispositivo representa un avance importante en la rehabilitación de rodilla, con potencial para mejorar la calidad de vida de los pacientes y convertirse en una herramienta esencial en fisioterapia con futuras mejoras.    
Fierros Reyes Selene Joana, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. César Alberto Roldán Cruz, Universidad Veracruzana

RECICLAJE DE RESIDUOS DE PAN DURO COMO INGREDIENTE PARA BUDíN CON MANZANA Y PASAS


RECICLAJE DE RESIDUOS DE PAN DURO COMO INGREDIENTE PARA BUDíN CON MANZANA Y PASAS

Fierros Reyes Selene Joana, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. César Alberto Roldán Cruz, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

La presente investigación se refiere a la elaboración y consumo de un budín con residuos de pan duro principalmente, además de la adición de manzana y pasas, esto con fundamento en que dichos residuos impactarán positivamente en el ambiente. Los residuos de pan representan una parte importante del desperdicio alimentario. Entre los alimentos que se desperdician en los supermercados, los que tienen una mayor huella ambiental son la carne y los productos de panadería (Brancoli et al., 2017). El elevado desperdicio de productos horneados puede estar relacionado con la escasa vida útil de algunos tipos de pan fresco (no mayor de 24 horas). Otro factor que también puede estar relacionado con la elevada cantidad de desperdicio de pan es el frescor, puesto que hay consumidores que prefieren que el pan sea lo más fresco posible (recién horneado) en el momento de la compra (Ostergaard y Hanssen, 2018). Aunque determinar la cantidad exacta de pan que se desperdicia durante su ciclo de vida es difícil, algunos autores estiman que se desperdician cientos de toneladas diarias en todo el mundo (Melikoglu y Webb, 2013). Actualmente, y debido en gran parte a la mayor concienciación de la población, hay un incremento de las investigaciones sobre la posible reintroducción de los restos de pan para alimentación humana, y su inclusión en la elaboración de distintos productos alimentarios (Guerra, 2021). Por otra parte, la adición de manzana y pasas en el budín se consideró debido a que es una buena manera de consumir fruta y también frutos secos, alimentos que en ocasiones se deja de lado y que son buenos para el corazón (Rostrán et al., 2015). La investigación de esta problemática se realizó por el interés de comprobar que el producto cumple con lo prometido y en pro de la población en general, para de esta manera poder gestionar exitosamente los residuos de pan duro mediante la elaboración de dicho budín.



METODOLOGÍA

El pan blanco mexicano comercial (bolillo) fue comprado después de haber sido retirado del horno de cocción en un supermercado Bodega Aurrera (Zamora, Michoacán). El pan se compró dos veces, en días distintos, con un día de diferencia, para tener dos muestras representativas. Los bolillos se cortaban en rodajas de 1 cm de ancho, aproximadamente y se colocaban en recipientes metálicos y así lograr un endurecimiento adecuado para su posterior preparación. Los ingredientes básicos para la elaboración de un budín con manzana y pasas  se mencionan enseguida. La leche entera (750 ml), fue adquirida a través de la empresa Las Moras (Zamora, Michoacán). Los 90 g de pan (bolillo tradicional mexicano), los 300 g de huevo, los 240 g de azúcar (refinada), los 360 g de manzana amarilla (Golden), la canela (Cassia) y los 50 g de uvas pasas (Thompson) se adquirieron en un supermercado Bodega Aurrerá (Zamora, Michoacán).  La preparación del budín se basaba en la tradicional receta mexicana (www.juliaysusrecetas.com).  Primeramente se preparó el caramelo, donde se colocó 150 g de azúcar y 15 ml de agua en un recipiente de acero inoxidable al fuego hasta alcanzar  170°C y posteriormente se colocó en el fondo del refractario donde se preparó el budín. Después, se pelaron las manzanas con un pelador de hoja lisa y se cortaron en rodajas finas con un cuchillo de puntilla, se les añadió 15 g de azúcar para después introducirlas al microondas durante 7 minutos a 800 W. Posteriormente, en un bowl se colocó el pan duro en rodajas, también se añadió la leche, el azúcar, la canela y las uvas pasas, se dejó reposar durante 5 minutos para que el pan estuviera blando, luego se agregó el huevo y todo esto fue mezclado con una varilla manual, después se colocó la manzana previamente cocida al microondas. Toda la mezcla se colocó en el refractario donde previamente se había introducido el caramelo, se cubrió con papel aluminio y se horneó a baño maría durante 1 hora con el horno precalentado a 175°C. Finalmente, se retiró del horno para su enfriamiento a temperatura ambiente, se cubrió con film y se dejó en el refrigerador hasta el día siguiente. Se tomaron en cuenta distintos parámetros durante la elaboración del budín, tales como mediciones reológicas, parámetros del color, contenido de humedad, volumen y textura, análisis infrarrojo por tansformada de Fourier (FTIR), digestibilidad in vitro del almidón y análisis sensorial.


CONCLUSIONES

Según los resultados obtenidos de los distintos análisis aplicados, la mayoría fueron positivos, por lo que utilizar los residuos de pan duro en la elaboración de un budín con manzana y pasas es una opción viable para reducir el desperdicio de pan, sin alterar las propiedades físicas y químicas del budín tradicional, considerando así el budín obtenido como un alimento funcional que pueda a ayudar en la reducción del desperdicio de pan, y con ello, disminuya el impacto ambiental y económico principalmente. Dicho lo anterior es importante resaltar que un solo alimento no puede hacer la diferencia total en los hábitos de las personas, sin embargo, se muestra como una buena opción para gestionar de manera positiva el desperdicio de pan en el ámbito ambiental y económico. Se concluyó de manera exitosa el objetivo a partir de los métodos expuestos en la investigación, puesto que se muestra como línea de oportunidad para seguir en el aspecto alimentario. 
Figueroa Aranda Javier Antonio, Universidad de Guadalajara
Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez

CARDIOLOGíA DIGITAL: MODELO PREDICTIVO CON ENFOQUE EN PRONóSTICO Y TRATAMIENTO


CARDIOLOGíA DIGITAL: MODELO PREDICTIVO CON ENFOQUE EN PRONóSTICO Y TRATAMIENTO

Figueroa Aranda Javier Antonio, Universidad de Guadalajara. González Robles Sofia Arizbé, Universidad de Guadalajara. Jimenez Olivares Laura Yazbeth, Universidad de Guadalajara. Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez



PLANTEAMIENTO DEL PROBLEMA

El aumento de las incidencias de insuficiencia cardíaca (IC) se debe a causas multifactoriales, incluyendo disfunción diastólica y daño cardíaco por comorbilidades como obesidad, enfermedad renal crónica (CKD), enfermedad pulmonar obstructiva crónica (EPOC) y amiloidosis cardíaca. Esta condición afecta a 64 millones de personas en todo el mundo. Una métrica crucial para su diagnóstico es la fracción de eyección ventricular izquierda (LVEF), que evalúa la capacidad del corazón para bombear sangre adecuadamente según las demandas metabólicas. Las causas del mal funcionamiento del corazón están asociadas con un mayor riesgo en personas mayores. Los síntomas de la IC incluyen alta morbilidad posterior al padecimiento. Si no se aborda adecuadamente, puede llevar a la muerte o problemas cardíacos recurrentes, obligando a los pacientes a cambiar sus hábitos de vida, consumir medicamentos y realizar visitas constantes al médico. Los tratamientos pueden volverse invasivos, incluyendo marcapasos, cirugías, trasplantes o equipos de asistencia ventricular, imponiendo una carga significativa tanto a los pacientes como a los sistemas de salud. Para mejorar el pronóstico de los pacientes, se plantea un modelo de aprendizaje automático (ML) para predecir el evento de muerte por IC basado en un historial clínico enfocado en biomarcadores y factores de riesgo. Este modelo permitiría un control y monitoreo exhaustivo posterior a un evento cardíaco, mejorando las estadísticas sobre la recurrencia de estos eventos y reduciendo la mortalidad. La predicción y el manejo proactivo mediante tecnologías avanzadas pueden ofrecer una esperanza significativa para la mejora en la calidad de vida de los pacientes con IC y una reducción en la carga global de esta enfermedad.



METODOLOGÍA

Este proyecto se desarrollará utilizando la metodología CRISP-DM (Cross Industry Process Model for Data Mining), un enfoque estructurado ideal para proyectos de inteligencia artificial que utilizan minería de datos y algoritmos de aprendizaje automático, especialmente en el procesamiento de bases de datos (KDD). Fase I: El primer paso es concretar los objetivos y la utilidad en el negocio, estableciendo el punto de partida y reconociendo recursos y límites presentes. Se buscaron materiales de estudio y un dataset relacionado con pacientes diagnosticados con IC. Fase II: El objetivo es familiarizarse con los datos y analizar la estructura. En el dataset se reconocieron 5000 filas y 12 columnas de atributos que pertenecen a datos biométricos y comorbilidades. El análisis se centra en la clase Evento de muerte, que define si el paciente murió o no. Factores de riesgo relevantes: Presencia de anemia, diabetes, hipertensión,Si es o no fumador y niveles de CK-MB, fracción de eyección, creatinina sérica, plaquetas y sodio sérico Fase III: Los atributos identificados con valores de referencia relevantes forman un conjunto definitivo que será utilizado en la siguiente fase. Los rangos utilizados en las variables numéricas permiten cumplir los objetivos del proyecto. Aunque algunos valores están fuera del rango, es importante no eliminarlos, ya que representan información real y única de cada paciente. Fase IV: En esta fase, se identificaron tres posibles modelos: Random Forest, Redes Neuronales y Regresión Logística. Cada uno tiene sus propias características y fortalezas, y se busca elegir el más adecuado para nuestro problema. Random Forest: Obtuvo una exactitud del 99%, lo cual puede indicar sobreajuste, ya que un modelo casi perfecto puede aprender demasiado bien los detalles del conjunto de entrenamiento, perdiendo capacidad de generalización. Redes Neuronales: Obtuvo una exactitud del 47%. La precisión baja puede deberse a la necesidad de más datos. Regresión Logística: Obtuvo una exactitud del 78%, siendo un resultado más realista y robusto. Este modelo es más interpretable y confiable para generalizar en diferentes conjuntos de datos. Fase V: Se necesita valorar y validar la elección del modelo para asegurar que sea eficiente en alcanzar las metas en futuras evidencias. Se calculó con el método Receiver Operating Characteristic (ROC), que permite conocer el rendimiento de un modelo, así como su sensibilidad y especificidad. La regresión logística obtuvo un valor de .86 y las redes neuronales un valor de .71.


CONCLUSIONES

Aplicando la metodología se logró desarrollar un modelo predictivo de ML basado en Regresión Logística, capaz de identificar los factores de riesgo relevantes para un evento de muerte en pacientes con IC, implementando soluciones para la atención inmediata en sectores de atención hospitalaria. El entrenamiento de la base de datos permite aplicar esta metodología en diferentes padecimientos de interés social (no necesariamente en el campo de la salud), al mismo tiempo de recabar datos con herramientas como el back-end contribuyendo a datasets más grandes con la finalidad de tener un mayor rendimiento de los modelos implementados y poder hacer un manejo de las situaciones médicas y sociales a un nivel masivo, considerando las condiciones adecuadas para un manejo eficiente y temprano
Figueroa Bautista María Estela, Instituto Tecnológico de Ciudad Guzmán
Asesor: Mg. Leonel Briceño de los Santos, Fundación Universitaria Compensar

OPTIMIZACIóN SOSTENIBLE EN LA GESTIóN DE LA LOGíSTICA INVERSA DEL CAUCHO: UN ENFOQUE GERENCIAL BASADO EN HERRAMIENTAS DE LEAN MANUFACTURING PARA LA EFICIENCIA Y SOSTENIBILIDAD


OPTIMIZACIóN SOSTENIBLE EN LA GESTIóN DE LA LOGíSTICA INVERSA DEL CAUCHO: UN ENFOQUE GERENCIAL BASADO EN HERRAMIENTAS DE LEAN MANUFACTURING PARA LA EFICIENCIA Y SOSTENIBILIDAD

Figueroa Bautista María Estela, Instituto Tecnológico de Ciudad Guzmán. Gomez Delgado William Sebastian, Corporación Universitaria Remington. Asesor: Mg. Leonel Briceño de los Santos, Fundación Universitaria Compensar



PLANTEAMIENTO DEL PROBLEMA

Elaborar el estado del arte del proyecto que se desarrolla, esta actividad consiste en realizar el levantamiento de información sobre las bases teóricas nacionales e internacionales sobre el tema objeto de estudio, por otra parte, la estudiante debe realizar un levantamiento de toda la normativa nacional e internacional que rige el tema analizado. 



METODOLOGÍA

La metodología por utilizar es la revisión de fuentes secundarias para el levantamiento de la información, también se debe redactar un documento aplicando normas APA séptima edición. El estudiante puede apoyarse en herramientas de inteligencia artificial para efectuar la construcción del documento.


CONCLUSIONES

Conforme el registro teórico realizado con el apoyo de compañeros e Investigador se logró en primer lugar el reconocimiento de las distintas herramientas del Lean Manufacturing en distintos proyectos, tesis, trabajos de investigación, etc., así tambien el conocimiento y gran ayuda de distintas herramientas de inteligencia artificial (AI) para toda la metodología de investigación del proyecto que sin duda se ve reflejado en el ahorro de esfuerzo y tiempo en revisar cada uno de los trabajos analizados para recopilar y capturar la información necesaria para el desarrollo del proyecto. 
Figueroa Castañeda Antuane, Instituto Tecnológico de Iztapalapa
Asesor: M.C. Ana Claudia Zenteno Vázquez, Benemérita Universidad Autónoma de Puebla

HERRAMIENTAS DE DESCIFRADO DE CONTRASEñAS


HERRAMIENTAS DE DESCIFRADO DE CONTRASEñAS

Figueroa Castañeda Antuane, Instituto Tecnológico de Iztapalapa. Asesor: M.C. Ana Claudia Zenteno Vázquez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Este artículo se centra en las herramientas utilizadas para llevar a cabo esta actividad, destacando la importancia de utilizarlas con principios éticos. Herramientas como John the Ripper y Hashcat, aunque poderosas y eficaces, deben ser empleadas de manera responsable para garantizar que se utilicen para el beneficio de la seguridad y no para causar daño.



METODOLOGÍA

Para llevar a cabo esta evaluación, se investigo la manera de generar un un entorno de prueba seguro para determinar y configurar las herramientas a usar. Se generarán y cifrarán contraseñas de diferentes niveles de complejidad y se utilizarán John the Ripper y Hashcat para intentar descifrarlas. Los resultados se medirán en términos de tiempo y tasa de éxito en el descifrado de contraseñas. La herramienta utilizada fue John the Ripper tanto en Windows como en Linux.


CONCLUSIONES

En conclusion, la implentacion de contraseñas mas extensas  junto con caracteres genera mas seguridad por lo poco accesibles y dificil que resulta para los hackers descifrarlas.
Figueroa Gil Lennin Eduardo, Universidad de Sonora
Asesor: Dr. Álvaro David Orjuela Cañón, Universidad del Rosario

MACHINE LEARNING TECHNIQUES FOR CLASSIFYING CARDIAC ARRHYTHMIAS


MACHINE LEARNING TECHNIQUES FOR CLASSIFYING CARDIAC ARRHYTHMIAS

Figueroa Gil Lennin Eduardo, Universidad de Sonora. Lopez Cons Ivana, Universidad de Sonora. Asesor: Dr. Álvaro David Orjuela Cañón, Universidad del Rosario



PLANTEAMIENTO DEL PROBLEMA

El objetivo del estudio es mejorar la precisión y eficiencia del diagnóstico de arritmias cardíacas mediante el uso de técnicas de Deep Learning. Dada la complejidad y la variabilidad en las señales de ECG, el análisis visual tradicional es propenso a errores humanos, lo que subraya la necesidad de métodos automatizados más precisos. Las arritmias cardíacas, que incluyen ritmos cardíacos irregulares como taquicardia y bradicardia, representan un desafío significativo para el diagnóstico debido a la gran cantidad de datos y la variabilidad biológica. El estudio propone desarrollar y evaluar modelos de Deep Learning (CNN multicapa, MobileNet y ResNet) para clasificar diferentes tipos de latidos cardíacos. Estos modelos buscan demostrar que las técnicas avanzadas de aprendizaje profundo pueden mejorar significativamente la precisión y eficiencia del diagnóstico, con el potencial de integrarse en sistemas de monitoreo en tiempo real, proporcionando diagnósticos más rápidos y confiables.  



METODOLOGÍA

Para esta investigación realizamos una comparación entre tres modelos conocidos, resaltando las principales características de cada uno. Primero, trabajamos con una red neuronal convolucional (CNN), que está compuesta por dos capas convolucionales, seguidas de capas densas, normalización por lotes, agrupamiento máximo y dropout. Para compilarlo, utilizamos el optimizador Adam y una función de pérdida de entropía cruzada categórica. Además, implementamos una estrategia de parada temprana si la pérdida de validación no mejoraba durante 15 épocas consecutivas para evitar el sobreentrenamiento. El segundo modelo fue MobileNet, compuesto por bloques convolucionales 1D para la extracción de características complejas y agrupamiento global promedio (GAP) para reducir el sobreajuste. Al igual que el modelo anterior, se optimizó con Adam y se entrenó durante 25 épocas con un tamaño de lote de 64. Por último, utilizamos ResNet con una arquitectura de 29 capas, que incluye capas convolucionales 1D, bloques residuales con normalización por lotes y activaciones ReLU. Además, implementamos conexiones de salto para preservar y combinar la información original con la procesada, utilizando también el optimizador Adam.  


CONCLUSIONES

La CNN multicapa demostró mejores resultados, con una precisión de validación final de 98.94% y una pérdida de validación final de 0.0416. Este modelo mostró una alta capacidad para reconocer todos los tipos de latidos, logrando una precisión del 100% para latidos no clasificados (UB) y del 99.64% para latidos fusionados (FB). Sin embargo, la precisión para latidos normales (NB) fue la más baja con un 96.66%. MobileNet alcanzó una precisión de validación final de 97.79% con una pérdida de 0.0649, destacando también en la clasificación de UB (99.64%) y FB (99.72%). No obstante, mostró una mayor confusión entre latidos normales y latidos ectópicos supraventriculares (SEB), con una precisión para SEB de 94.56% y un 5.08% de estos latidos clasificados erróneamente como NB. ResNet obtuvo una precisión de 98.54% y una pérdida de 0.0652. Aunque la mayoría de las predicciones fueron precisas, este modelo presentó confusión significativa en la clasificación de FB, que se confundió principalmente con NB o con latidos ventriculares prematuros (VEB). SEB también fue confundido con NB debido a la similitud en el tipo de latido. En general, a pesar de que todos los modelos mostraron un rendimiento prometedor para la detección automática de arritmias cardíacas, la CNN multicapa se destacó por su mayor precisión y menor pérdida de validación, indicando su superioridad en la clasificación de arritmias cardíacas.  
Figueroa Palos Francisco Xavier, Universidad de Guadalajara
Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez

DIAGNóSTICO TEMPRANO DE LA DIABETES UTILIZANDO MACHINE LEARNING BASADO EN LA METODOLOGíA CRISP-DM


DIAGNóSTICO TEMPRANO DE LA DIABETES UTILIZANDO MACHINE LEARNING BASADO EN LA METODOLOGíA CRISP-DM

Figueroa Palos Francisco Xavier, Universidad de Guadalajara. Morales Gomez José Manuel, Universidad de Guadalajara. Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez



PLANTEAMIENTO DEL PROBLEMA

La diabetes es una de las enfermedades crónicas más prevalentes y de mayor impacto a nivel mundial. Según la Organización Mundial de la Salud (OMS), la diabetes afecta a millones de personas, y su incidencia continúa en aumento debido a factores como la obesidad, la mala alimentación y el sedentarismo (WHO, 2020) [1]. La Diabetes Mellitus Tipo 2 es la forma más común de esta enfermedad, representando más del 90% de los casos globales (IDF Diabetes Atlas, 2021) [2]. En países como México, la diabetes se ha convertido en una de las principales causas de mortalidad, con un impacto significativo en la calidad de vida de los pacientes y en los recursos del sector salud. El diagnóstico temprano de la diabetes es crucial para implementar intervenciones oportunas que puedan prevenir complicaciones graves y mejorar los resultados a largo plazo. Sin embargo, los métodos tradicionales de diagnóstico pueden no ser suficientes para identificar todos los casos a tiempo. Por esta razón, el uso de tecnologías avanzadas como el machine learning ofrece una prometedora alternativa para mejorar la precisión y la rapidez en el diagnóstico de la diabetes



METODOLOGÍA

Para abordar el problema de la diabetes de manera efectiva, se propone la implementación de un modelo de machine learning siguiendo la metodología CRISP-DM (Cross Industry Standard Process for Data Mining). Este enfoque estructurado garantizará que el proceso de desarrollo del modelo sea sistemático y orientado a los objetivos del negocio. 1. Comprensión del Negocio: Definir los objetivos específicos del modelo, como mejorar el diagnóstico temprano de la diabetes. Entender los requerimientos y las restricciones del sector salud, incluyendo aspectos éticos y de privacidad de los datos. 2. Comprensión de los Datos: Recopilar datos relevantes sobre diabetes, incluyendo datos demográficos, históricos de salud, hábitos de vida y mediciones clínicas. Explorar y analizar los datos iniciales para identificar patrones y relaciones importantes que puedan influir en el desarrollo del modelo. 3. Preparación de los Datos: Limpieza y preprocesamiento de los datos para eliminar inconsistencias y manejar valores faltantes. Selección de características relevantes que serán utilizadas por el modelo, asegurando que los datos estén en un formato adecuado para el análisis. 4. Modelado: Selección y aplicación de algoritmos de machine learning, específicamente árboles de decisión y regresión logística, para la clasificación y predicción de casos de diabetes. Entrenamiento del modelo utilizando un conjunto de datos de entrenamiento y ajuste de los parámetros para optimizar el rendimiento. 5. Evaluación: Evaluación del rendimiento del modelo utilizando métricas como precisión, sensibilidad y especificidad. Validación del modelo con un conjunto de datos de prueba para asegurar su efectividad en diferentes escenarios. 6. Despliegue: Implementación del modelo en un entorno de producción, donde pueda ser utilizado por profesionales de la salud para apoyar el diagnóstico temprano de la diabetes. Monitoreo continuo del rendimiento del modelo y realización de ajustes necesarios para mantener su precisión y relevancia.


CONCLUSIONES

Resultados La creación de un algoritmo utilizando modelo de Deep Learning basado en metodología CRISP-DM y redes neuronales para el diagnostico temprano de diabetes fue positivo, obtuvimos un 78% de precisión con nuestro algoritmo. Utilizando la métrica ROC AUC obtuvimos un puntaje de 0.8228096304590867. Con este resultado podemos decir que de cada 100 casos posible diabetes podemos determinar con exactitud 82 de ellos, definiendo si es un caso positivo de diabetes o negativo. Agregando por último que el análisis de nuestra matriz de confusión, en ella se observa que los falsos negativos son menores a los falsos positivos por ello podemos determinar con mayor precisión las personas que no tienen diabetes a las que si las tienen.
Figueroa Salazar Enrique Angel, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

TRANSPORTE Y SEGURIDAD VIAL


TRANSPORTE Y SEGURIDAD VIAL

Figueroa Salazar Enrique Angel, Universidad Politécnica de Sinaloa. García Reyes José Miguel, Universidad Politécnica de Sinaloa. Valdez Sánchez Pedro Rafael, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el crecimiento urbano demanda una nueva política pública que propicie valor a un crecimiento ordenado y sostenible, la comunidad urbana debe estar comunicada asegurando la prosperidad para todas las personas, tomando en cuenta el factor ambiental, social y económico donde el balance es cada vez más complejo, reduciendo la brecha en el cumplimiento del objetivo de la Ley General de Movilidad y Seguridad Vial. En un ámbito de desarrollo económico de la región de Mazatlán en el Estado de Sinaloa, la cual pone a prueba la conciencia en movilidad de las actividades del sector logístico y transporte, pues si bien las necesidades de conectividad urbana son esenciales a la vez  sí necesitan ser sostenible, con una atención principal en las empresas de servicios turísticos y comunidad social, por lo anterior nos vemos en la necesidad de abordar la problemática compleja en el ámbito  del objetivo 11.- Ciudades y Comunidades Sostenibles de los ODS de la ONU, en especial en la meta 11.2 incluidos en la agenda 2030 al realizar un estudio preliminar que nos proporcione un conocimiento para la reflexión y difusión del conocimiento sobre la movilidad y seguridad vial en la ciudad y su conciencia en la sostenibilidad. El alcance de la investigación cuantitativa de tipo campo es identificar si las condiciones en materia de movilidad y seguridad vial son adecuadas para el uso público considerando factores sociales, desde la perspectiva pública.



METODOLOGÍA

Para nuestro estudio científico se utiliza la metodología de investigación cuantitativa, de tipo campo la cual consiste en la recolección de datos directamente de la realidad donde ocurren los hechos, sin manipular o controlar variable alguna, con una extensión del estudio de investigación de campo con medios de instrumentos a distancia con medios digitales de tecnología de la información y la comunicación, el nivel de la investigación descriptiva donde se busca el diagnosticar la relación de los hechos. El método de recolección de datos es a través de instrumento de encuesta con 15 reactivos, se aplicó a personas con edad entre los 17 y 22 años, con una muestra de 288 personas, orientada a conocer las opiniones de la población joven en materia de movilidad y seguridad vial de forma individual para el uso público considerando el  factor social, desde la perspectiva pública. Se analiza la información de forma gráfica estadística descriptiva para realizar una argumentación sustentada ante una hipótesis preliminar de que si la sociedad conoce la Ley General de Movilidad y Seguridad Vial; así también, se realiza un estudio entre variables dar respuesta a una hipótesis planteada que consiste en identificar si existe correlación significativa entre las variables de entrada sexo y edad con respecto a la variable del como aprendió a conducir vehículos automotor con el propósito de identificar si las condiciones en materia de educación vial son adecuadas para el uso público considerando factores sociales, desde la perspectiva pública. Con base al análisis de correlación de variables donde la interpretación es de acuerdo con la hipótesis nula de Ho = El sexo de los conductores es independiente a la forma de como aprendió a manejar, y la hipótesis alterna Ha= El sexo de los conductores es dependiente a la forma de como aprendió a manejar, donde  p value al ser mayor a 0.05 se acepta la hipótesis nula. Desde una perspectiva social con base a un entorno público más ordenado y limpio el sistema de transporte público es clave para el logro de las condiciones antes mencionadas, por lo anterior se analiza en este estudio el resultado de la opinión que si el transporte fuera más económico, limpio, ecológico y con buen servicio, los usuarios dejaran de utilizar su vehículo propio con mayor frecuencia.


CONCLUSIONES

La población encuestada oscila entre los 17 y 22 años, el 54.2% son de género masculino y el 45.1% son de género femenino, de la muestra general de 288 personas, uno de los cuestionamientos fue que si el transporte fuera más económico, limpio, ecológico y con buen servicio, los usuarios dejaran de utilizar su vehículo propio con mayor frecuencia, donde el 54.4% respondieron con sí,  mientras que el 22.1% respondieron que no; otro de los cuestionamientos realizados fue que dónde aprendieron a conducir los usuarios, un 49.5% de los encuestados respondió que aún no saben conducir, un 36.1% señalaron que aprendieron gracias a un familiar, un 8.4% aprendieron por cuenta propia, y finalmente, un 6% acudieron a una escuela de manejo; Con base al análisis de correlación de variables entre sexo y como aprendió a conducir la interpretación es de acuerdo con la hipótesis nula de Ho = El sexo de los conductores es independiente a la forma de como aprendió a manejar, y la hipótesis alterna Ha= El sexo de los conductores es dependiente a la forma de como aprendió a manejar, donde  p value fue menor a 0.05 es decir no se acepta la hipótesis nula, es decir el ambos sexos mantienen una tendencia similar del como aprenden a conducir vehículos automotor. Con relación a la variable edad y como aprendió a conducir  se detecta que entre los jóvenes de 18 años la mayoría aprendió a manejar con un familiar (36%) seguido por cuenta propia (8%) y en un menor número en una escuela (5%) y jóvenes que no saben conducir un 51%.                                 Los resultados en materia de educación vial y transporte urbano nos proporcionan la necesidad de una política pública para garantizar la continuidad en proyectos orientados al punto 11 Conseguir que las ciudades y los asentamientos humanos sean inclusivos, seguros, resiliente y sostenibles, referente a uno de los 17 Objetivos de Desarrollo Sostenible de la agenda 2030.
Flores Acuña Danna Paola, Universidad de Guadalajara
Asesor: Dr. Joel Carvajal Soto, Universidad de Sonora

INGENIERíA SISMORRESISTENTE EN MéXICO Y ANáLISIS DEL DISEñO SíSMICO ANTE CADA TIPO DE SUELO


INGENIERíA SISMORRESISTENTE EN MéXICO Y ANáLISIS DEL DISEñO SíSMICO ANTE CADA TIPO DE SUELO

Flores Acuña Danna Paola, Universidad de Guadalajara. Asesor: Dr. Joel Carvajal Soto, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La ingeniería sismorresistente tiene diversos agentes a tomar en cuenta en el planteamiento del mejor diseño, como lo es donde está situada la misma estructura.  Con ello se puede anticipar cual será la respuesta sísmica de una edificación con más efectividad. Y es cuando se debe considerar la gran diversidad de suelos que existen.  Por eso se analizó la respuesta estructural que tienen las edificaciones ante un sismo considerando en qué tipo de suelo se encuentran.



METODOLOGÍA

Al momento de realizar la investigación y debido a la diversidad de conocimientos a obtener y situaciones para analizar, se emplearon diferentes metodologías. La más habitual fue la consulta de bibliografía confiable para adquirir experiencia y aprender de los temas. De igual manera, conectando con un laboratorio de Geotecnia certificado a nivel nacional, seleccione muestras de 4 diferentes zonas. De estas 4 zonas, en especifico Campeche, Ciudad de México, Nayarit y Jalisco, se utilizo una población de 220 muestras de suelo, a las cuales se le realizaron ensayos básicos de clasificación. Con el fin de obtener 4 tablas distintas que servirían de comparativa e ilustrarían de mejor manera las diferencias entre cada región.  Aunado a esto, también se utilizo el programa de Matlab para generar espectros de respuesta tanto en suelo rígido como en suelo blando.


CONCLUSIONES

Para construir un espectro de diseño sísmico debemos determinar cuál es la aceleración máxima en roca, obtener la distancia relativa a las fuentes sísmicas, caracterizar el terreno y establecer factores del sitio. Lo cual deriva en espectros de diseño que toman en cuenta tipo de estructura, estados limites, reducciones por ductilidad e incluso sobrerresistencia. Lo más relevante al momento de considerar el suelo de las regiones analizadas, es derivar cuáles serán los efectos de sitio que se van a presentar, son las modificaciones que presentan las ondas sísmicas por las condiciones propias del suelo. Por lo tanto, al entender que estratos posee una zona podemos generar una idea anticipada de cuál será el impacto de un futuro sismo.  Se planteó durante la investigación realizar espectros de respuesta en Matlab de suelos rígidos y suelos blandos, donde es apreciable como la respuesta es menor en suelos granulares, caso contrario a suelos finos, con gran contenido de agua o de materia orgánica. Centralizando lo observado en cada región elegida: Campeche cuenta con suelos jóvenes, delgados, pero con presencia de gravillas, principalmente arenosos. Lo cual indica buenas capacidades mecánicas. Como tal es una zona de intensidad sísmica baja, donde no debe ser alarmante el diseño sísmico, al contrario se pueden establecer sistemas estructurales de mampostería confinada sin problema alguno- Nayarit en cambio tiene suelos principalmente franco limosos, si existe presencia de suelos arcillosos, pero no es demasiada. Se trata de una zona de intensidad sísmica alta. Por eso sería más factible diseñar de manera más conservadora, es poco factible que existan efectos de sitios demasiado devastadores, pero de igual manera emplear mayor grado de refuerzos sería lo idóneo. En Jalisco se propone una zonificación que divide en tres regiones, zona de arenas pumiticas, zona de limos y arcillas, zona de afloramientos rocosos. De los datos obtenidos, el contenido de agua ronda el 20% a 30%, la densidad natural si suele ser más alta con 1500 a 1700 kg/m3. El CBR si presenta datos más bajos que en otros estados, pero siguen estando arriba de un valor de 10. Con ello se puede considerar que en edificaciones menores tener sistemas de mampostería, aunque lo óptimo seria tener concreto reforzado en los sistemas debido a la alta actividad sísmica. Ciudad de México tiene una diferencia de estratos muy marcada, en la zona de las lomas hay rocas, suelos firmes; la zona de transición tiene estratos arenosos, limo arenosos, que se intercalan con capas de arcilla lacustre; mientras la zona de lagos está integrada por arcillas con alta compresibilidad. Al estar en la parte centro se vuelve una zona con gran recepción sísmica. De los datos el contenido de agua también es elevado incluso con muestras que llegaron a más de 150%; la densidad natural es baja en comparación a los otros estados, incluso se tuvo que realizar pruebas triaxiales, en las cuales hay un valor de cohesión alto y un ángulo de fricción bajo. Las estructuras de este estado deben evitar tener irregularidades en su diseño arquitectónico desde un comienzo. Vale la pena invertir más en sistemas estructurales que garanticen soportar cargas laterales, además de contar con refuerzos o confinamientos apropiados. Como conclusión general, se debe considerar al suelo como otro elemento estructural. Por lo que para mejorar la ingeniería sismorresistente en México debemos siempre estudiar tanto la parte geotécnica como la parte estructural.
Flores Bueno Luis Adrian, Instituto Tecnológico de Colima
Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)

DISEñO Y CONFIGURACIóN DE UN VEHíCULO MODULAR SUMERGIBLE AUTóNOMO PARA LA EXPLORACIóN Y MONITOREO DE CUERPOS DE AGUA SOMEROS DE FORMA SISTEMáTICA


DISEñO Y CONFIGURACIóN DE UN VEHíCULO MODULAR SUMERGIBLE AUTóNOMO PARA LA EXPLORACIóN Y MONITOREO DE CUERPOS DE AGUA SOMEROS DE FORMA SISTEMáTICA

Andrade Camacho Luis Arturo, Instituto Tecnológico de Querétaro. Flores Bueno Luis Adrian, Instituto Tecnológico de Colima. Martínez Zavala Norma Lorena, Universidad de Guadalajara. Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los arrecifes de coral albergan ecosistemas de gran biodiversidad, los cuales debido al reciente incremento de la temperatura a nivel global y la contaminación de los océanos, se ven vulnerados al grado de poder desaparecer, siendo posible la perdida de hasta el 90 % en 2050. Es por ello que la investigación e innovación son obligatorias para mantener estas zonas de amplia diversidad marina, es en este punto donde la aplicación de la ciencia e ingeniería deben proveer soluciones que permitan tener el mayor éxito en su conservación. El desarrollo de vehículos autónomos presenta un notable crecimiento en los últimos años, esto como consecuencia de la necesidad de exploración en zonas de difícil acceso. Estos vehículos son diseñados para completar tareas específicas de forma eficiente y eficaz, en ambientes particulares, desde carreteras, hogares y océanos hasta el sistema solar. Mediante la incorporación de múltiples sensores y actuadores, los vehículos autónomos son capaces de realizar un mapeo de su entorno, identificando componentes claves o de interés y realizando la navegación por este medio sin necesidad de intervención humana, tomando las decisiones necesarias para cumplir la tarea para la cual fue diseñado. La utilización de vehículos autónomos es invaluable en la recolección de datos en ambientes adversos, siendo el océano uno de ellos, es entonces que el objetivo durante esta estancia de investigación es el desarrollo de un vehículo autónomo sumergible (AUV), capaz de explorar arrecifes de baja profundidad y brindar información importante para su conservación.



METODOLOGÍA

Se llevó a cabo una rigurosa investigación centrada en el diseño y desarrollo de vehículos sumergibles. En esta fase inicial, se realizó una revisión detallada del estado del arte para entender las tecnologías y diseños existentes, así como sus aplicaciones y limitaciones dentro de ciertas condiciones de operación. Se consultaron normativas y estándares internacionales que rigen la construcción y correcta operación de vehículos sumergibles, tanto remotos, como de navegación autónoma, asegurando que el diseño cumpliera con todas las regulaciones pertinentes. Este análisis previo fue fundamental para establecer una base sólida sobre la cual se sustentaría el desarrollo del proyecto. De la misma forma, se investigó y analizó el ecosistema en el que operaría el vehículo, de manera que sea sustentable y con fines de exploración, sin alterar de ninguna manera dicho ecosistema. Se generaron diversos conceptos de diseño preliminar, cada uno enfocado en distintos aspectos, como la geometría y los mecanismos operativos. Los diseños inspirados tanto en modelos matemáticos, como en formas presentes en la naturaleza, específicamente, en animales marinos, de manera que se pudieran aprovechar las ventajas hidrodinámicas y de maniobrabilidad que ofrecen estas formas naturales. Los mecanismos fueron seleccionados considerando las condiciones operativas específicas a las que se sometería el vehículo, lo cual impone desafíos particulares en términos de resistencia a la corrosión y eficiencia de movimiento. En consideración de los diseños preliminares más prometedores, se utilizó software de diseño asistido por computadora para modelar el vehículo. Esta etapa permitió visualizar y ajustar la geometría del vehículo con precisión, optimizando su estructura para mejorar su desempeño bajo el agua. Además, el uso de herramientas CAD facilitó la integración la integración de diversos componentes esenciales para la operación del vehículo, como sistemas de localización, comunicación y electrónica. Para asegurar el funcionamiento eficiente del vehículo, se llevó a cabo una cuidadosa selección de componentes. Esto incluyó motores adecuados para el ambiente de operación, fuentes de energía óptimas para una autonomía deseable, microcontroladores, comunicadores, entre otros componentes mecánicos y electrónicos necesarios para la operación autónoma y control adecuado del vehículo. Los componentes fueron seleccionados no solo por su calidad y fiabilidad, sino también por su compatibilidad con el sistema global del vehículo, asegurando una programación y comunicación óptimas entre todas las partes. Se integraron los componentes en el modelo CAD, asegurando que cada parte funcionara de manera coherente con el sistema completo. Esta etapa incluyó la simulación de operaciones, de manera que se pudiera identificar y corregir posibles problemas previos a una construcción física del vehículo. Con el fin de asegurar que el diseño y mecanismos son adecuados para una operación marina de exploración a un máximo de 10 metros de profundidad, se llevaron a cabo análisis y simulaciones de una correcta hidrodinámica, coherencia en aspectos mecánicos, así como un deseable centro de gravedad y flotabilidad en el diseño.


CONCLUSIONES

Durante el desarrollo del proyecto se lograron adquirir conocimientos teóricos y prácticos sobre el diseño y construcción de vehículos sumergibles autónomos. Hasta el momento, se ha completado exitosamente la fase de modelado, manufacturando ciertos componentes mediante impresión 3D. Las simulaciones han mostrado un rendimiento hidrodinámico prometedor y una adecuada maniobrabilidad bajo el agua. Se espera que el vehículo final optimice la exploración y conservación de los arrecifes de coral, minimizando el impacto ambiental y maximizando la eficiencia operativa. En las próximas fases, se procederá al ensamblaje y pruebas en condiciones reales para validar el diseño y asegurar su funcionalidad y fiabilidad en el entorno marino.
Flores Cervantes Joceline Inés, Instituto Tecnológico Superior de Los Reyes
Asesor: Mtra. Edna Gabriela Ceja Silva, Instituto Tecnológico Superior de Los Reyes

FACTORES DE INFLUENCIA EN LA TECNOLOGÍA 5.0 DE LA AUTOMATIZACIÓN EN LA OPERACIÓN EN LOS CENTROS DE DISTRIBUCIÓN.


FACTORES DE INFLUENCIA EN LA TECNOLOGÍA 5.0 DE LA AUTOMATIZACIÓN EN LA OPERACIÓN EN LOS CENTROS DE DISTRIBUCIÓN.

Cardenas Torres Alexis Ivan, Instituto Tecnológico de Jiquilpan. Flores Cervantes Joceline Inés, Instituto Tecnológico Superior de Los Reyes. Perez Cervantes Alicia Esther, Fundación Universitaria Tecnológico Comfenalco. Asesor: Mtra. Edna Gabriela Ceja Silva, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

Un centro de distribución es una instalación, edificio o construcción de tipo logístico cuya función principal es la de almacenar, recibir y enviar diferentes mercancías. Es un espacio que cumple el papel de intermediario dentro de toda la cadena de suministro, puesto que puede almacenar los paquetes en el momento en el que entran hasta que son expedidos hacia el lugar de destino, bien sea a otro almacén, mayoristas, minoristas, fábricas o destinatarios particulares. Estos centros pueden contar con uno o con varios almacenes en función de los productos que estén destinados a guardar temporalmente y sus necesidades. Los cambios sociales y económicos globales seguirán teniendo un impacto significativo en la industria. La implementación de la tecnología en el centro de distribución conducirá a cambios, desde la realineación de los empleados hasta la gestión, el análisis, la seguridad y el procesamiento de datos. La importancia de la industria 4.0 en los centros de distribución reside en la transformación de los procesos para una cuestión digital, esto conlleva a una necesidad de mantenerse relevantes y con valor entre la competencia. Lo que ofrece exactamente la industria inteligente a los procesos y productos de logística es que reúne un grupo de tecnologías como la ciberseguridad, cloud computing (Computación en la nube), internet de las cosas (IoT), realidad aumentada, gemelos digitales, impresión 3D y otras. En general, la Industria 4.0 y la digitalización conducirán a procesos de producción más flexibles y eficientes. Esto permitirá producir simultáneamente productos personalizados y en masa, generando innovación y contribuyendo a mejorar la competitividad de la industria. La industria 5.0 pretende potenciar la transformación del sector industrial en espacios inteligentes basados en Internet of Things y en computación cognitiva. Se trata de poner la inteligencia artificial al servicio de las personas, uniendo a máquinas y humanos. Considerando las características que traerá consigo la industria 4.0 y la potencialización de los espacios que trae la industria 5.0 se pretende buscar cuales son los factores influencia de ambas industrias en la automatización de operaciones de los centros de distribución.  



METODOLOGÍA

Para esta investigación se implica la búsqueda, recopilación, evaluación y síntesis de información existente sobre el tema de industria 4.0, industria 5.0 y centros de distribución. Se aplica la metodología de revisión de literatura siguiendo un proceso sistemático y estructurado de información existente. Se siguen los siguientes pasos: Definición del tema y objetivos. Se determina qué se espera lograr con la revisión de literatura, así como identificar los objetivos más importantes. Búsqueda de fuentes: Para esta investigación se utilizaron bases de datos académicas, bibliotecas, motores de búsqueda y revistas especializadas, los tópicos y temas de investigación se repartieron por semanas con cada uno de los colaboradores. Selección de fuentes: Se evalúa la relevancia y la calidad de las fuentes encontradas, se procede a seleccionar aquellas que sean más pertinentes y confiables. Análisis crítico: Se lee y se analiza críticamente las fuentes seleccionadas, identificando los puntos clave, teorías, métodos y pensamientos que tengan que ver con la industria 4.0 y 5.0. Organización de la información: Se clasifica y organiza la información recopilada de manera lógica y coherente para cada uno de los participantes y su colaboración en los factores clave de esta investigación. Síntesis y redacción: Se sintetiza la información y se escribe la revisión, destacando las principales contribuciones, se realizan debates y orientaciones en la literatura existente. Este proceso nos ayudó a situar la investigación en el contexto del conocimiento existente y a identificar áreas que requieren más estudio.


CONCLUSIONES

La Industria 5.0 es un nuevo modelo de producción en el que el foco está puesto en la interacción entre humanos y máquinas. Esto constituye la construcción de avances realizados desde la Primera Revolución Industrial, los cuales han resultado en procesos más eficientes. La búsqueda por modelos de negocio que utilizan menos recursos para lograr mejores beneficios ha visto su mayor perfeccionamiento hasta la fábrica 5.0, debido a que el trabajo de mano de obra y máquina colabora para tomar decisiones que resultan en mejores términos económicos para una empresa. Con este análisis en la estancia de verano se logró validar todos los factores de influencia relacionados con la industria 5.0 en la automatización de operaciones en los centros de distribución para conocer algunos antecedentes e influencias sobre el tema y además adquirir conocimientos teóricos, ya que consideramos algunos trabajos ya realizados en este campo y que tienen que ver con los que tienen una estructura definida, y otros muy poco investigados. Al encontrar los factores de influencia encontramos los beneficios que brinda la industria 4.0 y la 5.0 en los centros de distribución y que las acciones de automatización tienen que ver directamente con los beneficios como lo son: • Creación de nuevos modelos económicos. • Integración de operaciones en tiempo real. • Reducción de costos • Ahorro de energía • Sostenibilidad. • Reducción de errores • Aumento de la productividad • Mejora de la eficiencia  
Flores Díaz Fernando, Universidad de Sonora
Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional

ANáLISIS DE DEFORMACIóN DE VEHíCULOS SINIESTRADOS MEDIANTE PROYECCIóN DE LUZ


ANáLISIS DE DEFORMACIóN DE VEHíCULOS SINIESTRADOS MEDIANTE PROYECCIóN DE LUZ

Flores Díaz Fernando, Universidad de Sonora. Ramirez Perez Saul Elias, Instituto Politécnico Nacional. Zepeda Osornio Victor Gael, Universidad La Salle Bajío. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La digitalización 3D es una herramienta de utilidad en la industria para la evaluación y reconstrucción de daños estructurales. Esta tecnología permite obtener una reconstrucción precisa de la estructura de un vehículo, identificando deformaciones y daños post-impacto con un gran detalle. Actualmente en México y en muchos otros países, se encuentra un gran interés para mejorar esta tecnología. Esto motivado principalmente por el alto costo de los métodos cotidianos de evaluación de daños vehiculares. La limitada disponibilidad de tecnología genera un desafío para los fabricantes de automóviles, talleres de reparación y empresas de seguros. Asimismo es importante destacar la capacidad de evaluar y reparar daños de manera precisa y eficiente para mejorar la seguridad vial y reducir los costos referentes con los daños vehiculares. Este proyecto de investigación, fue llevado a cabo con la finalidad de adaptar la tecnología de digitalización 3D para hacerla más accesible y económica, facilitando su uso en un mercado más amplio. Principalmente la intención del proyecto es ofrecer una herramienta accesible que promueva una mejor evaluación y reconstrucción de accidentes, mejorando la seguridad vial y reduciendo los costos asociados con los daños vehiculares.



METODOLOGÍA

Para llevar a cabo este proyecto, se siguió una metodología estructurada que incluyó las siguientes etapas: Selección del Modelo: Se eligió un modelo de carro de juguete para la digitalización debido a su facilidad de manipulación y costo reducido. Se utilizaron dos carros, el primero de referencia y al segundo se le hicieron deformaciones, simulando siniestros. Este modelo permitió realizar escenarios de impacto y generar mediciones precisas para poder evaluar la precisión de la digitalización 3D en un entorno controlado. Digitalización 3D: Se utilizó la técnica de proyección de franjas, que implica proyectar patrones de luz sobre la superficie de los modelos vehiculares y capturar las deformaciones en el patrón proyectado con un proyector Epson W39 utilizando una cámara web Logitech C310. Esta técnica es conocida por su capacidad para capturar detalles finos y generar datos precisos con rapidez de forma eficiente. En este caso, se generan nubes de puntos con aproximadamente 3.6 millones de puntos por modelo, proporcionando una representación detallada de la superficie del vehículo. Comparación de Modelos: Se realizó la digitalización de ambos modelos con el carro de referencia y el deformado con siniestros. Las reconstrucciones obtenidas de ambos modelos se compararon utilizando MATLAB, permitiendo identificar y cuantificar los daños y deformaciones en la estructura del vehículo. Este análisis permitió evaluar la efectividad de la técnica de proyección de franjas para la identificación de daños post-impacto. Análisis de Datos: Se realizaron análisis detallados de las nubes de puntos utilizando MATLAB. Este análisis incluyó la identificación de áreas de deformación. Los resultados del análisis permitieron validar y demostrar su capacidad para generar reconstrucciones precisas de daños vehiculares.


CONCLUSIONES

Durante la estancia del verano de investigación del programa Delfín en el CITEDI-IPN. Se adquirieron conocimientos teóricos y prácticos sobre la digitalización 3D. La técnica de proyección de franjas es una herramienta eficaz para la evaluación de daños vehiculares, proporcionando reconstrucciones detalladas y precisas. La implementación de esta tecnología a un modelo más accesible y económico es un gran resultado. El desarrollo de una herramienta para fabricantes de automóviles, talleres de reparación y empresas de seguros mejorará la evaluación y reparación de daños vehiculares, promoviendo la tecnología de digitalización 3D. De esta manera, se puede procesar la evaluación de un vehículo siniestrado y hacer más precisos los presupuestos de costos de reparación. En resumen, este proyecto ha demostrado la viabilidad de adaptar tecnologías avanzadas para un uso más amplio, también ha usado las bases para el campo de la digitalización 3D en la industria automotriz. Adicionalmente, el proyecto facilita la detección de fallas estructurales potenciales. Esto significa que, además de realizar pruebas en vehículos siniestrados, se podría evaluar de manera rutinaria y a bajo costo cualquier vehículo para identificar fallas potenciales antes de que ocurran. Así, este proyecto podría contribuir a la mejora de la seguridad vial y a la reducción de los costos asociados con la reparación de daños vehiculares cuando estos ya han ocurrido.
Flores Fabian José Alfredo, Instituto Tecnológico de Tepic
Asesor: Dr. Joel Carvajal Soto, Universidad de Sonora

RESPUESTA SíSMICA EN SUELOS BLANDOS Y RíGIDOS


RESPUESTA SíSMICA EN SUELOS BLANDOS Y RíGIDOS

Flores Fabian José Alfredo, Instituto Tecnológico de Tepic. Higuera Virgen Ana Cristina, Instituto Tecnológico de Tepic. Nájar Solís Manuel Alejandro, Instituto Tecnológico de Tepic. Asesor: Dr. Joel Carvajal Soto, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Los sismos son un fenómeno natural de nuestro planeta, son el movimiento vibratorio resultado de la liberación de energía generada por distintos eventos, como es el movimiento de las placas tectónicas que conforman la corteza terrestre y otras fallas geológicas, erupciones volcánicas y de origen humano, o el impacto de cuerpos de gran tamaño en la corteza terrestre. Estos eventos son impredecibles y, cuando ocurren cerca de zonas pobladas, suelen estar acompañados de devastación. Según el Servicio Sismológico Nacional (SSN), dentro del territorio mexicano se encuentran ubicadas cinco placas tectónicas: Caribe, Pacífico, Norteamérica, Rivera y Cocos. Esta última se encuentra en subducción bajo la placa Norteamericana y cuyo proceso de hundimiento fue causante del sismo ocurrido el 19 de septiembre de 1985 en las costas de Michoacán, con una magnitud de 8.1 en la escala de Richter y una profundidad de 15 km. La mayoría de las edificaciones afectadas en estos eventos no estaban diseñadas para soportar movimientos sísmicos de estas magnitudes. Se busca entonces determinar la respuesta de las estructuras según su periodo estructural. Esto con el fin de identificar las instancias más susceptibles al colapso, analizando tanto suelos blandos, como rígidos.



METODOLOGÍA

Se usaron registros sísmicos archivados en el Servicio Sismológico Nacional (SSN), incluyendo el sismo ocurrido en 1985, así como el registro de otros sismos menores. Para su análisis se utilizaron métodos tanto cualitativos, esto en el uso e investigación de lo que es la intensidad sísmica, como cuantitativos, en el empleo de las magnitudes de los sismos debido a la energía liberada. Usando un software de cálculo, se graficó la comparativa de la aceleración en cuestión del tiempo para cada registro. Igualmente se graficaron la velocidad y el desplazamiento provocado por el sismo, calculados al integrar la aceleración. Dada la naturaleza de los datos, se integró numéricamente usando el método del trapecio para obtener las velocidades, que se integraron para obtener los desplazamientos. Con esto se identificaron los valores máximos y mínimos en cada conjunto de datos, y se marcaron en las gráficas. Con esto concluido, se procedió a interpolar la excitación de los sismos registrados usando el método de las 8 constantes. Éste toma la ecuación diferencial del movimiento libre amortiguado para incluir una función de excitación dependiente de la variable de tiempo tau (τ), que va desde el segundo 0 hasta Δt: mü + ku = pi +Δpi/Δti * τ Las fórmulas de recurrencia provenientes de la solución de la ecuación diferencial, se usaron para determinar el desplazamiento y la velocidad en cada instante: ui+1= Aui+Búi+Cpi+Dpi+1 úi+1=A'ui+B'úi+C'pi+D'pi+1 Para esto se tiene que: pi es la aceleración en cierto tiempo Y pi+1 es la aceleración en el momento siguiente. Tras calcular la aceleración por derivación numérica del desplazamiento u, se procedió a obtener los máximos absolutos de cada conjunto. El proceso se repitió para los periodos estructurales entre 0.1 y 6 segundos, con una progresión de 0.1 segundos. Con todos los casos analizados, se graficaron los espectros de respuesta para el desplazamiento, la velocidad y la aceleración, que relaciona un periodo con su valor máximo absoluto. También se consideró la pseudo-aceleración, una aproximación de la aceleración máxima real a partir de la frecuencia. Esto se debe a que cuando ocurre un sismo, el suelo experimenta vibraciones y aceleraciones, y estas se transmiten a la estructura, requiriendo conocer cómo el suelo afecta a las respuestas de la estructura. La pseudo aceleración se calcula usando la fórmula: psa = ωn*ui Donde: ωn es la velocidad angular = 2π/Tn Y ui es el desplazamiento. Se generó su propio espectro de respuesta de la misma forma que los demás. Una vez se analizaron todos los registros sísmicos, los espectros se juntaron en una sola imagen según el tipo de suelo en el que sucedió el sismo y el tipo de respuesta. De esta manera se pudo comparar el comportamiento de las distintas estructuras y determinar el periodo estructural que resulta en una mayor excitación, causado por la resonancia.   Finalmente, se calculó la intensidad de Arias, que sirve para determinar el potencial destructivo de un sismo. Para esto se elevaron al cuadrado los valores de aceleración encontrados en los registros sísmicos y se integraron de forma numérica, del cual el valor final es la intensidad. De ahí se determinó la duración efectiva de los sismos, considerando que este inicia cuando se tiene el 5% de intensidad y termina al alcanzar el 95%. Una vez se terminó de calcular todo, se generó una gráfica de la progresión de intensidad respecto al tiempo señalando la duración efectiva, que también se incluyó en las gráficas de aceleración.


CONCLUSIONES

En la estancia se adquirieron conocimientos sobre ingeniería sísmica, como es la generación de acelerógrafos, la obtención de espectros de respuesta y el cálculo de la intensidad de un sismo, apoyados en el análisis numérico. Estos se desarrollaron a través de la programación para el análisis de los registros sísmicos y la generación de gráficas. Usando los espectros de respuesta, clasificados según el tipo de suelo en el que sucedió el sismo correspondiente y considerando que el periodo de respuesta de un edificio depende de sus características geométricas y de las propiedades mecánicas de los materiales, se distingue que: En suelos rígidos, los sismos afectan las estructuras de menor altura, especialmente aquellas con un periodo estructural cercano a los 0.5 segundos, que sufren de la mayor excitación. Los sismos ocurridos en suelos blandos afectan a estructuras de mayor altura, con la mayor excitación siendo cuando tienen un periodo estructural que se acerque a los 2 segundos.
Flores Galván Ángel, Instituto Tecnológico de Morelia
Asesor: Dr. Jose Lemus Ruiz, Universidad Michoacana de San Nicolás de Hidalgo

FABRICACIóN Y CARACTERIZACIóN DE COMPUESTOS CON UNA MATRIZ DE MG-AZ91E REFORZADA CON PARTíCULAS DE SIC Y SIC+ALN


FABRICACIóN Y CARACTERIZACIóN DE COMPUESTOS CON UNA MATRIZ DE MG-AZ91E REFORZADA CON PARTíCULAS DE SIC Y SIC+ALN

Flores Galván Ángel, Instituto Tecnológico de Morelia. Asesor: Dr. Jose Lemus Ruiz, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los problemas mecánicos en los frenos de disco en los automóviles son de gran importancia, ya que al no tener unos frenos seguros pueden llegar a poner vidas en riesgo, esto debido a que su estudio intervine la compresión de leyes de transferencia de calor que llega afectar el comportamiento mecánico. Durante los años del 2018 al 2021 fueron registrados por Registro Único Nacional de Tránsito (RUNT) y el Registro Nacional de Accidentes de Tránsito (RNAT) un total de 3,920 accidentes asociados por fallas en los sistemas de frenos y llantas. El 66% de estos hechos solo han representado daños de los vehículos, sin embargo, han dejado lesionados y el 3%, víctimas fatales con la pérdida de 117 vidas en las vías del país. La mayor problemática en este tipo de fallas es la calidad del material con la que estén hechos frenos para mantener una buena calidad y un menor desgaste, por otro lado, radica en la mojabilidad, tener una buena distribución de refuerzo homogénea, así como baja porosidad residual para lo cual se requiere tener un proceso con porosidad interconectada previo a infiltrar para poder obtener un material compuestos. Las propiedades mecánicas del compuesto a producir dependen de todo lo a anterior y por eso el problema es procesar el compuesto y promover las propiedades mecánicas finales.



METODOLOGÍA

Se utilizaron polvos de carburo de silicio (SiC) previamente oxidados en una atmósfera inerte de argón a 1200°C durante 2 horas, esto para que tenga una mejor mojabilidad con la matriz metálica, también se utilizaron polvos de nitruro de aluminio (AlN) con una mediana del tamaño de partícula de 7.9 mm y una placa de aluminio. Por señalar que el alcohol de polivinilo (PVA) es para que mantenga su forma cilíndrica al momento de ser comprimida. Se metieron al horno y continuar dejándolas a una temperatura de 850° C durante 10 minutos en una atmósfera inerte de argón y un enfriamiento lento hasta llegar a los 100° C para poder proceder a retirar las muestras del horno. Al momento de retirar las muestras, se percato de que las piezas de la matriz metálica de aluminio no se habían infiltrado en las pastillas, esto debido a que el aluminio genera una capa de oxidación superficial, lo cual no se pudo infiltrar en las pastillas. Se cortaron las piezas y se montaron para realizar el proceso metalográfico el cual consiste en desbastar con lijas, continuando con el pulido utilizando alúmina de diferentes. En la primera muestra de carburo de silicio (SiC) notamos partículas puntiagudas de tamaños homogéneos, poros diferentes y microgrietas. En la segunda muestra de carburo de silicio mas nitruro de aluminio (SiC+AlN) se mostraron las partículas del nitruro de aluminio


CONCLUSIONES

La mojabilidad superior de la aleación de Mg-AZ91E en comparación con el aluminio permitió una infiltración completa en los preformados cerámicos, evidenciando la importancia de esta propiedad en la fabricación de compuestos metal-cerámico. Se observó una distribución uniforme del SiC en la matriz de magnesio, aunque se identificaron pequeñas cavidades y grietas en la matriz. La mezcla de polvos de SiC y AlN no resultó en una distribución homogénea de ambos refuerzos en la matriz, lo que indica la necesidad de optimizar el proceso de mezcla para lograr una distribución uniforme y mejorar las propiedades mecánicas del compuesto.
Flores García Aarón Alexander, Instituto Tecnológico Superior de Los Ríos
Asesor: Dra. Milen Balbis Morejon, Universidad de la Costa

REVISIÓN BIBLIOMÉTRICA: AUTOMATIZACIÓN PARA LA MEJORA DE LA EFICIENCIA ENERGÉTICA Y EL CONFORT TÉRMICO EN EDIFICACIONES NZEBS


REVISIÓN BIBLIOMÉTRICA: AUTOMATIZACIÓN PARA LA MEJORA DE LA EFICIENCIA ENERGÉTICA Y EL CONFORT TÉRMICO EN EDIFICACIONES NZEBS

Flores García Aarón Alexander, Instituto Tecnológico Superior de Los Ríos. Asesor: Dra. Milen Balbis Morejon, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

Entre 2006 y 2018 se realizó un análisis bibliométrico de automatización y eficiencia energética en edificios de baja consumo (AEELCB) de un total de 229 publicaciones de investigación, cuyos artículos fueron exportados de la base de datos Scopus. Para procesar la información se utilizaron herramientas de procesamiento de datos como Vosviewer. El análisis y clasificación de los resultados científicos, categorías temáticas, comentarios, y países fueron elaborados manualmente y procesados en Microsoft Excel 2024. Los parámetros analizados incluyeron: tipo de documento; idioma de publicación; año de publicación; publicación por revistas; actividades de publicación de países e instituciones de investigación; tecnologías de automatización; contribuciones de la investigación; tendencias y visibilidad de la investigación. El studio mostró que «Energy Effiency», «Energy Saving», «Building Automation», «Smart Home», «Internet of Things», y «Smart Building». El análisis encontró que los estudios de AEELCB han tenido muy poco crecimiento. La investigación reveló que el país con la producción más significativa en el campo es. Italia con un aporte de 34; el 11.41% del total de publicaciones, seguido de China 31; 10.40%, Estados Unidos 27; 9.06%, Alemania 19; 6.38% y Reino Unido 15; 5.03%, mostrándose a las principales potencias mundiales como las que más contribuyen a la investigación.



METODOLOGÍA

Los datos se analizaron entre 2009 y 2024, teniendo dos artículos en los años de 1995 y 1996; y dos más en el 2006; se seleccionaron artículos relevantes mediante una ecuación de búsqueda en la base de datos de Scopus, utilizando términos clave como: "automation", OR "automatic system" AND "energy efficiency", AND "energy saving" AND "buildings". Se examinaron los títulos, resúmenes y datos bibliométricos para sintetizar las tendencias y resultados principales. El software utilizado para procesar los datos exportados de Scopus fue Vosviewer. Este software genera redes bibliométricas, las cuales pueden incluir, por ejemplo, revistas, investigadores o publicaciones individuales, y se pueden construir en función de relaciones de citación, acoplamiento bibliográfico, co-citación o coautoría. El análisis y clasificación de los resultados científicos, categorías temáticas, comentarios, y países fueron elaborados manualmente y procesados en Microsoft Excel 2024.


CONCLUSIONES

El análisis bibliométrico revela que la automatización en edificios nZEB es un área de investigación de rápido crecimiento, impulsada por la necesidad de soluciones sostenibles en el sector de la construcción. Las tecnologías avanzadas juegan un papel crucial en la mejora de la eficiencia energética y la reducción del impacto ambiental de los edificios. Futuras investigaciones deberían centrarse en superar los desafíos de interoperabilidad y gestión de datos para maximizar el potencial de estas tecnologías.Se puede inferir que, bajo las tendencias descritas anteriormente, que la integración de sistemas de automatización y eficiencia energética en edificios de bajo consumo (AEELCB) a largo plazo apuntan convertirse en un estándar en la industria de la construcción europea y del mundo.
Flores García Alejandra, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. Rosa Maria Jimenez Amezcua, Universidad de Guadalajara

MATERIALES SUSTENTABLES Y NANOMATERIALES


MATERIALES SUSTENTABLES Y NANOMATERIALES

Flores García Alejandra, Instituto Tecnológico Superior de Uruapan. Soto López Montserrat, Universidad de Guadalajara. Asesor: Dra. Rosa Maria Jimenez Amezcua, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los nanomateriales aplicados de forma sustentable en el mobiliario son viables, contemplando la poca sustentabilidad del material con el que son fabricados, además, el mobiliario actual no cumple con la antropometría correctamente basándonos en las medidas y percentil de los estudiantes. Desde la perspectiva del diseño, consideramos que la universidad puede fabricar su propio mobiliario, creando una economía circular y centrándose apropiadamente en el diseño centrado al usuario, brindando un mejor servicio al alumnado y personal académico.



METODOLOGÍA

La metodología de diseño que aplicamos para este proyecto es conocida como Metodología Por Modelo General del Proceso de Diseño, (UAM AZC), la cual consiste en 5 etapas: Caso, problema, hipótesis, proyección y realización.


CONCLUSIONES

Con base a los datos recolectados y proporcionados, obtuvimos un diseño de mobiliario adaptable. Aún se está trabajando en el modelado y fabricación, pero el proceso ha sido favorable.
Flores Gutiérrez Diego, Universidad de Guadalajara
Asesor: Dra. Wei Wei, Wichita State University

SCALING UP OF PEROVSKITE SOLAR CELLS USING INEXPENSIVE CARBON ELECTRODE


SCALING UP OF PEROVSKITE SOLAR CELLS USING INEXPENSIVE CARBON ELECTRODE

Flores Gutiérrez Diego, Universidad de Guadalajara. Asesor: Dra. Wei Wei, Wichita State University



PLANTEAMIENTO DEL PROBLEMA

The creation of perovskite solar cells (PSCs) with carbon electrodes is fundamental to advancing to a new era in sustainable energy technologies. Essentially, perovskite materials are less expensive and abundant, as their fabrication does not require the high-temperature and energy-intensive processes necessary to purify and process high-purity silicon. Perovskite solar cells offer energy efficiencies of up to 25%, comparable to or higher than silicon cells (15-22%), with lower manufacturing costs and greater potential for improvement.   This research aims to increase the cell area and the efficiency of PSCs, which are composed of five layers: FTO substrate, Electron Transport Layer (ETL), perovskite, Hole Transport Material (HTM), and mesoporous carbon. Each of these layers is deposited using very simple and inexpensive techniques such as spin coating or immersion, as in the case of one of the perovskite layers.



METODOLOGÍA

1. Preparation of the FTO Substrate Ultrasonic Cleaning: Place the FTO substrate in an ultrasonic cleaner. Use distilled water, alcohol, and acetone. Set the cleaner to normal mode for 5 minutes. 2. Application of the ETL Layer First Two Layers: Deposit the first two layers of the Electron Transport Layer (ETL) using a spin coater. Set the spin coater to 180x10 rpm for 30 seconds. Furnace Heating: Place the substrate with the ETL layers in a furnace. Heat at 500°C for 40 minutes. 3. Application of the Perovskite Layer First Perovskite Layer (PbI2): Deposit the PbI2 layer using a spin coater. Set the spin coater to 650x10 rpm for 60 seconds. 4. Treatment of the Perovskite Layer Dipping in MAI Solution: Dip the substrate with the PbI2 layer in an MAI solution. Ensure uniform immersion for proper formation of the perovskite layer. Hot Plate Heating: Place the substrate on a hot plate. Heat at 120°C to stabilize the perovskite layer. 5. Application of the HTL Layer Hole Transport Layer (HTL): Deposit the HTL layer using a spin coater. Set the spin coater to 650x10 rpm for 60 seconds. 6. Application of the Mesoporous Carbon Layer Carbon Layer: Apply the mesoporous carbon layer onto the substrate. Ensure uniform distribution. 7. Testing and Evaluation Performance Testing: Connect the electrodes and conduct efficiency and stability tests. Evaluate the solar cell's performance under different conditions. Additional Notes Precision in Application: It is crucial to ensure that each layer is uniform to avoid defects that could affect the cell's efficiency and fill factor. Temperature Control: Maintain precise temperature control during the heating processes for layer stability.


CONCLUSIONES

By increasing the area, the energy capture process is greater, thus improving the "current density." Similarly, it is easier to achieve higher efficiency with a correct layer application in the spin coater. However, at the same time, there can be more errors if the layer is not completely uniform, resulting in a lower fill factor. Two cell measurements were used, one with 0.25 cm square area and the other with 1 cm square area, the efficiency with the larger cell increased as did the fill factor.  The objectives were achieved by not decreasing these parameters and increasing the area despite having a greater possibility of errors.
Flores Gutierrez Maria Guadalupe, Universidad Autónoma de Occidente
Asesor: Dr. Marco Arturo Arciniega Galaviz, Universidad Autónoma de Occidente

EL SARGAZO COMO MEJORADOR DE SUELOS


EL SARGAZO COMO MEJORADOR DE SUELOS

Flores Gutierrez Maria Guadalupe, Universidad Autónoma de Occidente. Martínez Palafox Mariana Soledad, Universidad Autónoma de Occidente. Villa Castañeda Jesús Aramis, Universidad Autónoma de Occidente. Asesor: Dr. Marco Arturo Arciniega Galaviz, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

En 2011 se comenzaron a registrar incrementos masivos en la llegada de sargazo (Sargassum spp) a las costas. Este fenómeno ha impactado significativamente al medio ambiente, reduciendo la cantidad de luz y oxígeno en el agua. Además, el sargazo libera ácido sulfhídrico, lo que provoca un mal olor y genera molestias tanto para los habitantes como para los turistas. Debido a estas y muchas otras afectaciones que causa la acumulación del sargazo, buscar alternativas para su uso y aprovechamiento se presenta como un método efectivo para reducir el impacto ambiental de esta alga.   En el campo pesquero de El Colorado, Sinaloa, este fenómeno ha generado afectaciones en la economía local, ya que la pesca, que es la principal actividad económica de la zona, se ve comprometida debido a la alteración de los hábitats marinos. Por lo anterior, se decidió investigar al Sargazo como mejorador de suelos ya que, en el estado de Sinaloa las principales actividades económicas son la agricultura y la pesca.



METODOLOGÍA

La metodología empleada fue básicamente una metodología cuantitativa. Para el sargazo, se procedió a su recolección en el campo pesquero El Colorado, Ahome, Sinaloa. Posteriormente, se lavó con agua corriente para retirar materiales ajenos al alga. Luego, el sargazo se deshidrató en un horno a 60 grados centígrados durante 24 horas. Una vez deshidratado, se molió en un mortero hasta obtener un polvo fino y se tamizó para obtener un tamaño de partícula de 0.046 mm.   Se realizaron análisis en el laboratorio para determinar el contenido de materia orgánica, fósforo y nitratos contenidos en la biomasa del sargazo y suelo, con la finalidad de hacer mezclas del suelo natural con porciones de sargazo molido y obtener sustrato con distintas concentraciones de materia orgánica y nutrientes. Se molieron aproximadamente 500 g de sargazo y 800 g de tierra con los cuales se hicieron las mezclas que se mencionarán a continuación, para obtener 30 g de cada sustrato con porcentajes estimados de materia orgánica (MO), que se calcularon mediante operaciones de balance de materia y se les adicionó 100 mL de agua corriente: 6% de MO- 2 g de biomasa (Sargazo)- 28 g de suelo (tierra) 12% de MO- 4.9 g de biomasa- 25.1 g de suelo 18% de MO- 7.9 g de biomasa- 22.1 g de suelo 24% de MO- 10.80 g de biomasa- 19.2 g de suelo 30% de MO- 13.82 g de biomasa- 16.8 g de suelo Estas mezclas se dejaron reposar durante 2 semanas; posteriormente, se dividió cada sustrato en raciones de 10 gramos, las cuales se colocaron en 3 distintas cavidades de la charola germinadora. Por cada repetición se distribuyeron 5 semillas de rábano (Raphanus sativus) y se regó cada muestra con 5 mL de agua destilada 3 días a la semana, realizando las medidas de altura de cada germinado y el registro de la cantidad de semillas germinadas por repetición de cada sustrato. Hasta el momento, se ha observado que el único sustrato que ha generado germinación ha sido el de 6% de MO. En el resto de las muestras se intuye que la causa de ausencia de germinación pueda ser debida a la presencia de una costra que se ha generado en la parte superior donde se ubican las semillas. Para descartar errores en la metodología se planea repetir todo el proceso y realizar la biometría adecuada de ambos experimentos para obtener resultados confiables. Además se realizará un análisis detallado a las muestras ya elaboradas para descartar otras posibles causas de la ausencia de germinación en los sustratos.


CONCLUSIONES

Es importante el aprovechamiento de residuos orgánicos para ser utilizado como mejoradores de suelo, o en el tratamiento de aguas residuales, sobre todo aquellos residuos que pudieran producir problemas económicos, sociales o ambientales en comunidades rurales. El sargazo pudiera representar un problema para la comunidad pesquera de El Colorado, pero existe la opción de aprovecharlo como un abono orgánicos en los huertos familiares o jardines florísticos de ésta comunidad, reduciendo así la presencia de ésta alga en el mar y a la vez se podrá aportar nutrientes a los suelos de hogares de esta comunidad rural.
Flores Loyo Hesler Alexander, Instituto Politécnico Nacional
Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara

CONTROL AUTOMáTICO PARA SISTEMAS ELECTROMECáNICOS ENFOCADO A LA PROGRAMACIóN DE UN LIBERADOR DE BIOCONTROLES.


CONTROL AUTOMáTICO PARA SISTEMAS ELECTROMECáNICOS ENFOCADO A LA PROGRAMACIóN DE UN LIBERADOR DE BIOCONTROLES.

Flores Loyo Hesler Alexander, Instituto Politécnico Nacional. Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El efecto del gusano cogollero (Spodoptera frugiperda) como plaga en las plantaciones de maíz resulta contraproducente tanto en la producción como en el consumo de este. Por lo cual es necesario realizar acciones de control de esta plaga, de acuerdo con los datos obtenidos por Majes y col. (2017) en su artículo Capacidad de depredación de Chrysoperla carnea, los resultados obtenidos indican que Chrysoperla carnea es el más voraz contra plagas. Sin embargo, la liberación de dicho biocontrol en gran medida se realiza de manera manual, trayendo consigo una gran pérdida de tiempo para el agricultor y una falta de homogeneización en la liberación, asimismo, la pérdida del biológico al no tener control en las condiciones abióticas de supervivencia de los organismos. El control automático busca procesar la información de las variables de entrada para poder tomar decisiones, a través de un código es posible  ajustar automáticamente las acciones de los sistemas o actuadores que se estén controlando, y así limitar la necesidad de intervenir en el proceso. El uso del control automático para la liberación de biocontroles facilitaría a los agricultores el control de plaga (gusano cogollero), manteniendo las condiciones óptimas para incrementar el control de esta. Se desarrolló un sistema electromecánico para la liberación de la Chrysoperla carnea, organismo que se utiliza como biocontrol de plagas, evitando así el uso de químicos que deterioran el medio ambiente.



METODOLOGÍA

Se desarrolló una metodología Design Thinking. Al comienzo del proyecto se plantearon las características de funcionamiento del liberador de biocontrol, tomando como base las deficiencias que los agricultores enfrentan al ocupar el mismo. Posteriormente se definieron las etapas de funcionamiento, para desarrollar tanto el código como las etapas de potencia. En primera instancia se investigó el principio del funcionamiento de los actuadores en las diferentes etapas para poder definir la metodología que tendría que entregar y/o desplegar el código en el funcionamiento previamente definido. Una vez definidos los actuadores que se implementarían en el prototipo, se comenzó la planeación de los cambios que se aplicarían de acuerdo con los mismos, posteriormente, se comenzó a desarrollar el código de funcionamiento. Posteriormente, se configuró y programó que el usuario pudiera ingresar el tiempo en minutos, el cual definirá el tiempo de funcionamiento del proceso, por medio de un teclado matricial numérico de 4x4. Todas las decisiones y etapas del sistema se le presentan al usuario por medio de una pantalla LCD (Liquid Crystal Display - Pantalla de cristal líquido de 20x4) para mantenerlo informado de la etapa en la que se encuentra el proceso. La Chrysoperla carnea se debe de mantener a cierta temperatura para determinar su comportamiento (condiciones abióticas). Mientras no se vaya a liberar el biocontrol es necesario mantener a los organismos en etapa de dormancia, por ello la temperatura del contenedor debe de estar en un rango de 8-12°C para cumplir con esta condición abiótica se configuró un sistema de enfriamiento con celdas Peltier el cual mantiene encendidas dichas placas hasta que se alcanza una temperatura menor a 12°C. Cuando el usuario seleccione que es necesario calentar el contenedor para la liberación del biocontrol es necesario llevar a la Chrysoperla carnea a temperaturas entre 16-30°C, se desarrolló un sistema de control PI (Proporcional-Integral) para elevar la temperatura. Se utilizó un cartucho cerámico calentador calefactor el cual presenta una alimentación de 12V con una potencia máxima de 40W. Para asegurar que el mayor número de organismos se encuentren listos para comenzar a controlar la plaga presente en el cultivo, es necesario que se mantenga la temperatura en 27°C. El microcontrolador designa el ciclo de trabajo de una señal con ancho de pulso variable del controlador PI. En el código se definen la integral de error con la definición de integral definida, tomando como referencia una lectura antes con respecto a la actual (diferencia de un segundo). Por último, para liberar los organismos, se le pregunta al usuario entre tres rangos de velocidad, la cual estará definida por el ángulo de apertura que tendrán las compuertas (controladas por servomotores de 5V) En cada etapa previamente descrita se comprobó que el funcionamiento fuera el más optimo posible individualmente, para posteriormente realizar las pruebas de funcionamiento de forma secuencial, es decir que una acción ocurriera una detrás de otra, para así poder corregir errores en la lógica de acciones del código y tiempos de respuesta.


CONCLUSIONES

El desarrollo del liberador de biocontrol presentó un gran avance en la mayoría de las etapas de funcionamiento, probando el sistema en conjunto con varias pruebas en condiciones controladas de laboratorio, concluyendo que el sistema funciona. Adicionalmente se presentaron los subsistemas que se necesitarían agregar para dejar el prototipo funcionando al 100%, presentando los actuadores que se necesitarían y que partes del código tendrían que agregarse para el óptimo funcionamiento del liberador de biocontrol. Para realizar el proyecto fueron requeridos los conocimientos previamente adquiridos en mi carrera universitaria (Ingeniería mecatrónica), específicamente los temas relacionados a programación orientada a objetos en lenguaje C++, para poder programar las etapas de funcionamiento del prototipo y su lógica de operación, además de los principios de funcionamiento de elementos mecánicos y electrónicos, para poder proponer y aplicar diferentes pruebas, adaptando o utilizando la que brindará mejores resultados. En relación con el desarrollo del prototipo se presentaron diversos problemas para la obtención de información específica que se utilizaría para el correcto funcionamiento de los actuadores, así como la lógica de programación, la cual en ocasiones no cumplía con los requerimientos requeridos, fue necesario buscar información en artículos, foros y libros para avanzar el prototipo. Sin embargo, me quedo satisfecho con el desempeño mostrado a lo largo del programa y el aprendizaje adquirido.
Flores Mondragon Julio Cesar, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dra. Daniela Alejandra Moctezuma Ochoa, Centro de Investigación en Ciencias de Información Geoespacial, A.C. (CONACYT)

COMPARACIóN DE RECONOCIMIENTO FACIAL AL APLICAR HERRAMIENTAS DE PERFECCIONAMIENTO DE IMáGENES


COMPARACIóN DE RECONOCIMIENTO FACIAL AL APLICAR HERRAMIENTAS DE PERFECCIONAMIENTO DE IMáGENES

Flores Mondragon Julio Cesar, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dra. Daniela Alejandra Moctezuma Ochoa, Centro de Investigación en Ciencias de Información Geoespacial, A.C. (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

                Conocer y utilizar modelos de reconocimiento facial, así como herramientas o modelos de modificación o mejoramiento de imágenes e identificar si existen diferencias de precisión entre las imágenes modificadas y las que no debido a en la actualidad existen diferentes herramientas llamadas filtros , los cuales pueden cambiar parcial o totalmente la apariencia dle rostro a través d esusperponer oimagenes o de modificar la imagen misma de con suavizacion o  de color.



METODOLOGÍA

Para llevar a cabo este trabajo tuvimos que conocer y adentrarnos en el cómo funcionan los modelos de reconocimiento facial y realizamos algunos proyectos entre los cuales, tal vez, el que más nos hace conscientes de cómo trabajan estos modelos es al realizar un face-mesh ya que permite que visualicemos la información con la que trabajan y que es imprescindible para el reconocimiento y posterior procesamiento de rostros. Para poder llevar a cabo este trabajo probamos varios modelos de la librería OpenCV, desarrollada por google, la cual nos permitió usar algunos modelos pre-entrenados como LPBHFaceRecognitzer, FisherFaceRecognizer, EigenFaceRecognizer. Es importante mencionar que para poder utilizar algún modelo debemos entrenarlo, para ello utilizamos un dataset, que en nuestro caso fue Labeled Faces in the Wild (LFW), ya que cuentas con distintas fotos frontales de varios personajes famosos lo cual nos dan varios ángulos y posibilidades de entrenamiento y después un buen test.


CONCLUSIONES

Con base en los resultados obtenidos podemos apreciar que si influye considerablemente los modelos de perfeccionamiento de imágenes en la identificación facial, lo cual nos lleva a la necesidad de plantear si es posible que con otros tipos de modelos de IA pueden ser más efectivos, también cabe mencionar que para el uso de las imágenes debe ser a escalas de grises y ello puede afectar en caso de que el procesamiento de la imagen sea después de alguna normalización. 
Flores Morales Yahaira Stephania, Instituto Tecnológico Superior de Guanajuato
Asesor: Esp. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato

MéTODO DE SECADO EN GARBANZO (CICER ARIETINUM) Y GRILLO (ACHETA DOMESTICUS) PARA LA ELABORACIóN DE HARINA Y SU APLICACIóN EN CHURROS COMO BOTANA.


MéTODO DE SECADO EN GARBANZO (CICER ARIETINUM) Y GRILLO (ACHETA DOMESTICUS) PARA LA ELABORACIóN DE HARINA Y SU APLICACIóN EN CHURROS COMO BOTANA.

Flores Morales Yahaira Stephania, Instituto Tecnológico Superior de Guanajuato. Hernández Sánchez Adriana, Instituto Tecnológico Superior de Guanajuato. Vargas Hernandez Paola Dannae, Instituto Tecnológico Superior de Guanajuato. Yañez Aguirre Miriam Alondra, Instituto Tecnológico Superior de Guanajuato. Asesor: Esp. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

De acuerdo en el mercado de botanas en México se ha observado que la mayoría de los productos aporta nutrientes deficientes como lo es el exceso de carbohidratos, déficit de proteínas, grandes cantidades de grasas, sodio y calorías, así como también una falta significativa de fibra. Estos productos ocasionan una mala alimentación, lo que provoca la probabilidad de desarrollar factores de riesgo como lo es la obesidad, que es agente importante para el desarrollo de enfermedades crónicas como puede ser la diabetes, hipertensión, colesterol alto e insuficiencia cardíaca. En México, 36.7% de los adultos vive con obesidad, y 37.4% de los niños de 5 a 11 años presenta sobrepeso y obesidad. Esto coloca a nuestro país en el quinto lugar a nivel mundial en obesidad y sobrepeso. Un aspecto adicional por considerar es la limitada variedad de opciones disponibles para personas con alergias alimentarias, como la intolerancia al gluten. La presencia de alérgenos en muchas botanas comerciales reduce aún más las alternativas para aquellos con necesidades dietéticas específicas. Ante esta situación, surge la necesidad de desarrollar un producto de botanas que ofrezca una opción saludable y apta para personas que busquen una opción saludable. Este producto debe abordar las deficiencias nutricionales observadas en el mercado actual, proporcionando un equilibrio adecuado de nutrientes, bajos niveles de grasas y sodio, y una fuente de fibra satisfactoria. La industria alimentaria plantea necesidades de producción específicas para cada sector y producto, desarrollando nuevos productos que sean capaces de cubrir las exigencias nutricionales.



METODOLOGÍA

En primer lugar, se coció un kilogramo de garbanzos únicamente con agua. Este paso es crucial para ablandar los garbanzos y facilitar su posterior procesamiento. Una vez cocidos, se dejaron enfriar ligeramente antes de ser triturados con una licuadora. Durante este proceso, se aseguró que los garbanzos quedaran en trozos muy pequeños, para facilitar el siguiente paso de secado. Después de triturar los garbanzos, los extendimos en una bandeja para horno y los sometimos a un proceso de secado que duró tres días, para eliminar toda la humedad y ser convertidos en harina. Sin embargo, al finalizar el secado, no se logró la consistencia deseada, ya que los garbanzos no se habían convertido en un polvo fino. Por ello, se volvió a licuar la mezcla y tamizarla, hasta asegurar obtener la textura fina. Para preparar la masa, se colocó un 50% de harina de garbanzo y 30% de harina de grillo, se añadió 330 ml de agua tibia y una cucharadita de aceite de oliva. Mezclamos bien todos los ingredientes hasta obtener una masa homogénea y suave. Luego, se introdujo la masa en una churrera para darle forma. En una sartén, se calentó aceite de oliva, cuidando de alcanzar la temperatura adecuada para freír los churros sin quemarlos. Una vez que el aceite estuvo lo suficientemente caliente, se comenzó a freír los churros. En otra prueba, se experimentó añadiendo chía a la masa. La chía actúa como un ingrediente emulsificante, lo que puede ayudar a mejorar la cohesión y textura de la masa. Donde se repitió el proceso de mezcla y cocción, observando cómo la adición de chía afectaba al resultado final.


CONCLUSIONES

Ambas pruebas experimentales no lograron replicar la textura de productos ya comercializados. A pesar de los esfuerzos, la combinación de estas harinas resultó en un producto final demasiado blando y pastoso, que no se pudo llevar a cocción. Esto sugiere que la proporción de harinas utilizada puede no ser la ideal o que se requiere la adición de otros ingredientes para mejorar la cohesión. Futuras pruebas deberán enfocarse en ajustar la proporción de harinas o explorar la incorporación de otros componentes que puedan potenciar las características deseadas en el churro, sin comprometer el valor nutricional.
Flores Obregon Miguel Angel, Instituto Politécnico Nacional
Asesor: Dr. David Torres Torres, Centro de Investigación en Materiales Avanzados (CONACYT)

DISEñO DE IMáGENES ASISTIDO POR IA


DISEñO DE IMáGENES ASISTIDO POR IA

Flores Obregon Miguel Angel, Instituto Politécnico Nacional. Asesor: Dr. David Torres Torres, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Problema En los últimos años, se ha observado el surgimiento de distintas herramientas de creación de imágenes por medio de la Inteligencia Artificial, siendo que muchas tienen limitaciones muy palpables, y con poco margen de soluciones. Algunas de las limitaciones mayores que presentan la mayoría de estas herramientas de uso libre, pueden incluir, la poca personalización o control del proceso de creación de estas imágenes, siendo de alta dificultad arreglar ciertos errores que la IA ha tenido desde su origen. ¿Cuáles son las alternativas que tenemos para arreglar este tipo de problemas? ¿Es posible obtener una mayor personalización, partiendo del conocimiento de la función de una red neuronal? Justificación Obteniendo  a nuestra disposición una Inteligencia Artificial, con nodos personalizados dentro de su red neuronal, es posible poder personalizar y obtener mejores resultados en la generación de imágenes, puesto que la mayoría de opciones, solo nos brindan la posibilidad de establecer una sola entrada, y una salida, dejándonos sin control de lo que sucede dentro de su red neuronal. Contexto Con el aumento de estas herramientas, distintas comunidades de programadores, se han unido para poder resolver este problema, y aunque se han logrado soluciones a ciertos problemas de las otras aplicaciones, sigue siendo todo un reto lograr una configuración adecuada. Objetivo Analizar los beneficios de cada una de las aplicaciones de IA Gratuitas, y obtener la mejor herramienta, así como su guía de uso, y la comprobación de sus beneficios.



METODOLOGÍA

Metodología Se analizaron 3 IA de uso gratuito, las cuales son: CoPilot (Dall-E3), DaVinci y ComfyUI. La selección anterior, consta de 3 herramientas abiertas a todo público, siendo DaVinci la única que cuenta con un uso limitado diario, mientras que Dall-E3 puede funcionar sin límites, y por ultimo ComfyUI, al ser de código abierto, es una IA local que puede usarse de forma ilimitada. Para la prueba, se generaron distintas imágenes del planeta tierra, para observar el resultado en cada una de estas. CoPilot (Dall-E3) ComfyUI                               DaVinci IA Cada una de estas pruebas, muestra resultados distintos, siendo la IA utilizada en Copilot, la que mejores resultados preliminares tiene, sin embargo, surge el principal problema de estas herramientas, su limitada capacidad de adaptación individual a cada nodo de la red neuronal. Por este motivo, se decidió trabajar y experimentar con ComfyUI, puesto que las otras, solo con ingresar un Prompt, llegaron al limite de su personalización, con ComfyUI se podía lograr personalizar cada nodo de su red neuronal. A pesar de las numerosas formas en las que podemos personalizar los nodos en esta ultima aplicación, con la ventaja de poder modificar a nuestro deseo el resultado, y no solo esperar a que salga algo que nos convenza, poder diseñar un modelo de red neuronal con nodos que se complementen entre sí, es una tarea difícil y que requiere mucha investigación en el tema. Afortunadamente cuenta con toda una gran comunidad detrás. Gracias a la ardua investigación realizada, se normalizaron los siguientes nodos para la generación de imágenes, obteniendo un resultado aceptable, pero que aun requiere muchas mejores, y actualizaciones de los nuevos nodos que implementa la comunidad de esta IA. Finalmente el modelo que se utilizo incluye los siguientes nodos: Modelo de Realismo (Juggernaut_X_RunDiffusion_Hyper) (ArchitectureRealMix) (ZiovXLScifiGiantRobotSky), Modelo animado (AutismmixSDXL_AutismmixConfetty) (RealisticFantasyMix) Difusor de capa Imagen de Referencia Mascara de Referencia Prompt de cada Mascara por separado Codificadores de Imagen Combinador de Condiciones Generador de Imagen Control de Generación Codificador de imagen Generador de imagen 2 (Corrección de errores) Comparador de Imágenes Se opto finalmente por separar la red neuronal en 2 conjuntos, para lograr un mejor manejo, sin embargo podemos implementar 2 aplicaciones para su uso, y así omitir el primer conjunto, puesto que este nos ayuda a obtener una imagen inicial para poder trabajarla con el siguiente conjunto. Primer conjunto de Nodos (Creación de imagen Inicial): Segundo conjunto de nodos (Aplicación de Mascaa para edición): Finalmente, pese a que elimine muchas grandes limitaciones de las IA gratuitas, aun queda mucho camino por desarrollar e investigar para ComfyUI, sin embargo creo que puede ser un avance bastante grande en comparación, y el tener una mejor personalización, y también tener una gran comunidad detrás para este programa de código abierto, puede traer muchas cosas positivas. Por último, agregar que al ser una IA que se instala de forma local en tu Pc, se necesita una computadora con alto nivel de procesamiento de gráficos con una tarjeta gráfica de alta capacidad VRAM, y de una generación reciente, de otra forma esta puede ser una limitación para esta IA.


CONCLUSIONES

He tenido que tomar un gran tiempo, para lograr conocer esta IA que te permite personalizar los nodos por separado, pese a que tiene muchas mas ventajas que las aplicaciones comúnmente conocidas, creo que la dificultad al entenderla, puede ser un gran impedimento para que usuarios, puedan acercarse y usarla, incluso solo instalarla puede ser un reto para muchos. Sin embargo esto es necesario si se requiere tener la mejor experiencia en este tema, así como un mayor entendimiento del proceso interna que realizan todas estas herramientas que nos brindan, poder modificar en su totalidad los nodos puede ser muy provechoso, a diferencia de las IA comunes donde solamente ingresas texto, y en base a esto te genera una imagen de salida. Finalmente mi experiencia en esta estancia fue de gran conocimiento para mí, puesto que nunca me había interesado por este tema en específico, y el lograr entender mejor como funciona me motiva mucho a lograr experimentar y seguir aprendiendo por cuenta propia, hasta el punto incluso de lograr programar un nodo propio en un futuro. Aunque el área de conocimiento del Dr. Torres no esta enfocado en este tema, fue de mucha ayuda como asesor, para lograr entender hacia donde debería de ir dirigido todo esto, sin embargo, hubiera querido poder dedicarle mucho mas tiempo a esta investigación, para poder obtener unos mejores resultados finales, y tal ves lograr un avance, en resolver uno de los mayores inconvenientes de este tipo de Inteligencias Artificiales.
Flores Pérez Azhaell, Instituto Tecnológico del Altiplano de Tlaxcala
Asesor: Mtra. Amparo Jazmín Meza Gutiérrez, Universidad Tecnológica de Bahía de Banderas

ESTUDIO Y ANáLISIS DEL COMPORTAMIENTO VISUAL DEL ESTUDIANTE PARA EL DESARROLLO DE NEUROMARKETING


ESTUDIO Y ANáLISIS DEL COMPORTAMIENTO VISUAL DEL ESTUDIANTE PARA EL DESARROLLO DE NEUROMARKETING

Flores Pérez Azhaell, Instituto Tecnológico del Altiplano de Tlaxcala. Ramirez Meza Harold, Instituto Tecnológico del Altiplano de Tlaxcala. Torija Peralta David, Instituto Tecnológico del Altiplano de Tlaxcala. Asesor: Mtra. Amparo Jazmín Meza Gutiérrez, Universidad Tecnológica de Bahía de Banderas



PLANTEAMIENTO DEL PROBLEMA

Partimos del neuromarketing que es aquel que estudia los procesos mentales y los comportamientos de compra de las personas, en este caso se enfocó en el comportamiento e interacción de estudiantes universitarios a través de Tobii Glasses 3 y Tobii Pro Lab, como primer paso fueron encuestados los profesores de una sola academia para partir de un cierto punto estratégico, preguntando cual es la colorimetría que más usan y el material didáctico que más presentan en clase, en este caso en mayoría fueron diapositivas, por lo que partimos con una presentación analizando y estudiando el comportamiento visual de cada uno y detallando cada punto visto, la duración de su mirada a un punto y el enfoque a lo mas importante de estas diapositivas.



METODOLOGÍA

Método de trabajo explicativo. A través de hipótesis explicativas, es decir se ofrecio una explicación posible sobre la causa que relaciona las variables, se buscó una relación causa-efecto entre los estudiantes evaluados para responder como sucede el comportamiento visual de cada uno.


CONCLUSIONES

Se espera obtener patrones de visualización, colorimetría, tipografía para mejorar el plan de instrumentación de los estudiantes universitarios que les permita aprender y razonar todo tipo de información.
Flores Ramos Jennifer, Universidad de Ciencias y Artes de Chiapas
Asesor: Dra. Josefina Guerrero García, Benemérita Universidad Autónoma de Puebla

VIDEOJUEGO DE REHABILITACIóN PARA EL DEDO íNDICE EN SITUACIONES DE PARáLISIS CEREBRAL INFANTIL


VIDEOJUEGO DE REHABILITACIóN PARA EL DEDO íNDICE EN SITUACIONES DE PARáLISIS CEREBRAL INFANTIL

Crisostomo Lazos Berenice, Universidad de Ciencias y Artes de Chiapas. Flores Ramos Jennifer, Universidad de Ciencias y Artes de Chiapas. Asesor: Dra. Josefina Guerrero García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La parálisis cerebral es una condición neurológica que afecta principalmente a niños y niñas, puede ocurrir antes del nacimiento o en los primeros años de vida. Este padecimiento afecta los cerebros en desarrollo, causando problemas de movimiento, equilibrio y postura. Las principales partes del cuerpo que pueden verse afectadas son los brazos, las piernas, la cara, el cuello, el tronco y el sistema respiratorio. Además, las personas con parálisis cerebral pueden presentar dificultades para realizar movimientos finos, como el movimiento de los dedos, lo que les impide escribir, manipular pequeños objetos, entre otras actividades. Este es el principal problema que motiva la creación de un método potencialmente efectivo para la rehabilitación del dedo índice. Se trata de un videojuego divertido y práctico. Consideramos importante buscar métodos de rehabilitación que capten la atención de los niños y niñas, evitando que se aburran y abandonen sus ejercicios.



METODOLOGÍA

El presente proyecto se encuentra en una fase preliminar de desarrollo. Nos enfocamos en la creación de un prototipo de videojuego para la rehabilitación del dedo índice en niños y niñas con parálisis cerebral. El videojuego consiste en carreras automovilísticas, los jugadores usarán su dedo índice para pulsar la pantalla y hacer llegar a la meta al auto manipulado. Este juego constará de cinco capítulos; cada capítulo tendrá un escenario diferente y en cada uno se contará con tres niveles. A medida que se vayan desbloqueando los niveles, aumentará la velocidad de la competencia. Para la realización del prototipo ya mencionado, se ha utilizado la aplicación MIT App Inventor, una plataforma de desarrollo de aplicaciones móviles que se trabaja mediante bloques de código. Esta aplicación nos facilita planear la interfaz y cómo se espera que funcione el juego. No fue utilizada para realizar el juego como tal, debido a que no es recomendable para proyectos tan elaborados; sin embargo, funciona perfectamente para realizar el prototipado. El enfoque a utilizar es de gamificación, donde, por medio de un videojuego, se ayudará a la mejora del movimiento en el dedo. En este juego nos enfocaremos en la rehabilitación del dedo índice, ya que es fundamental para muchas actividades diarias, como tomar objetos, escribir, señalar y otras tareas motoras finas. Su rehabilitación ayuda a mejorar la funcionalidad de la mano y la capacidad de realizar estas actividades básicas. Asimismo, mejorar la función del dedo índice puede aumentar la independencia de la persona afectada, permitiéndole realizar más actividades por sí misma, sin depender tanto de la ayuda de otros.   Beneficios del videojuego: Mejora la motivación y el compromiso del paciente con el tratamiento. Permite una práctica repetitiva y estructurada de movimientos específicos del dedo índice. Puede ser personalizado para adaptarse a las necesidades individuales y niveles de habilidad del paciente. Integra elementos de juego que hacen que el proceso de rehabilitación sea más atractivo y divertido, lo que puede aumentar la adherencia al tratamiento.  En la actualidad, encontramos diversos juegos diseñados específicamente para mejorar la rehabilitación del dedo índice. Estos juegos están diseñados para ofrecer ejercicios estructurados y repetitivos que ayudan a mejorar la coordinación y la precisión del movimiento. Esta modalidad de rehabilitación no solo promueve la motivación del paciente, sino que también ofrece una forma atractiva y efectiva de trabajar en la recuperación funcional del dedo. Ejemplos de juegos existentes: Dexteria Jr.: Una aplicación diseñada específicamente para mejorar la destreza de las manos y los dedos en niños pequeños. Incluye ejercicios como tocar burbujas y arrastrar objetos. Toca boca Jr.: Estas aplicaciones permiten a los niños interactuar con personajes y escenarios mediante toques y deslizamientos. Los juegos suelen ser abiertos, fomentando la creatividad y la exploración sin objetivos específicos, lo que permite a los niños jugar a su propio ritmo.   Endless Alphabet: Los niños arrastran y sueltan letras animadas para formar palabras. Cada letra tiene su propio sonido y animación, haciendo el aprendizaje interactivo y divertido, mientras mejora la motricidad fina. Busy Shapes: Un juego que desafía a los niños a mover formas y resolver rompecabezas tocando y arrastrando objetos. Está diseñado para mejorar la coordinación ojo-mano y la motricidad fina. Los juegos que se han creado han tenido buenos resultados, sin embargo,  para poderlos utilizar el niño debe tener una movilidad más avanzada del dedo índice (ya que debe arrastrar, mover, dibujar, etc.) Nuestro juego será simple, ideal para una rehabilitación inicial, consta de movimientos básicos, esto es ideal para las primeras etapas de rehabilitación y para pacientes con movilidad muy limitada. Estudios han demostrado que ejercicios simples y repetitivos son altamente efectivos en la recuperación inicial de la movilidad.


CONCLUSIONES

En conclusión, podemos resaltar que se logró terminar el diseño de la interfaz de todo el juego y tener en funcionamiento el primer nivel del capítulo 1, lo cual es suficiente para el prototipo, ya que en los otros niveles lo único variable es la velocidad de los autos y los escenarios de cada capítulo. Los resultados fueron satisfactorios. Se tiene la intención de que más adelante los expertos desarrollen el videojuego en un lenguaje de programación adecuado y que este pueda ser probado y usado por niños y niñas que lo necesiten.  
Flores Ramos Jesús Darío, Instituto Tecnológico de Toluca
Asesor: M.C. Mauro Sánchez Sánchez, Instituto Tecnológico de Toluca

TRANSFORMACIÓN DIGITAL BASADA EN IA PARA LA GESTIÓN DE RECURSOS EN SINIESTROS VIALES


TRANSFORMACIÓN DIGITAL BASADA EN IA PARA LA GESTIÓN DE RECURSOS EN SINIESTROS VIALES

Flores Ramos Jesús Darío, Instituto Tecnológico de Toluca. Asesor: M.C. Mauro Sánchez Sánchez, Instituto Tecnológico de Toluca



PLANTEAMIENTO DEL PROBLEMA

Este trabajo se desarrolla en el seno de un proyecto de investigación que aprovecha la alianza entre la Universidad Nacional de Córdoba (UNC) y el Ministerio Público Fiscal del Gobierno de la provincia de Córdoba. (MPF), en el cual los investigadores de la universidad construyen soluciones a problemas detectados en el ámbito de la mencionada institución pública. El proyecto está radicado en el Laboratorio de Investigación y Desarrollo de Software e Inteligencia Artificial de la Facultad de Ciencias Exactas, Físicas y Naturales de la UNC (LIDeSIA). El presente se enfoca en la transformación y optimización de la base de datos de siniestros viales con lesiones para contribuir a mejorar la gestión de recursos en estos eventos. El objetivo específico es transformar el conjunto de datos proporcionados por el MPF, para adecuarlos a los requerimientos de los modelos de Machine Learning (ML) y otras técnicas avanzadas, previstos en la implementación de la solución del problema mencionado. Esto facilitará la toma de decisiones informadas y eficientes, contribuyendo a una respuesta más rápida y efectiva.



METODOLOGÍA

1.          Modalidad de Trabajo: El presente es desarrollado con el acompañamiento tanto de integrantes del proyecto de investigación: miembros del MPF,  investigadores del Instituto de Estadística y Demografía de la Facultad de Ciencias Económicas de la UNC (IEyD), miembros de la Universidad Nacional de Villa María (UNVM), así como integrantes del LIDeSIA que no pertenecen al proyecto. ●  El equipo del proyecto: Dra. Inga. Laura Díaz Dávila (directora de LIDeSIA y del proyecto), Dra. María Inés Stimolo (codirectora del proyecto, IEyD), Dr. Gustavo Coppini Y Dr. Américo Wills (Responsables MPF), Dr. Aldo Algorry (Investigador LIDeSIA), Dr. Alejandro Pizarro (Investigador IEyD), Dra. Vanesa Meinardi (Investigadora UNVM). ●  Asistencia de LIDeSIA:  Ing. Facundo Nieto, Ing. Nicolás Heredia, Estudiante de Ingeniería Lourdes Aybar y Estudiante de Ingeniería Miguel Ortiz; todos ellos investigadores junior. Se proporcionó espacio físico en las cuatro instituciones intervinientes. El calendario se organizó de tal manera de estar en diálogo permanente con investigadores junior, senior y expertos del dominio del problema; bajo la supervisión de la dirección y la subdirección del proyecto y el director del organismo público mencionado. Los ejes de trabajo definidos fueron: Problema, Gobernanza de Datos, ML y Georreferenciación.  Durante la última semana se realizaron reuniones con diversos objetivos para compartir los avances y proponer líneas a futuro: la primera en la UNVM para avanzar sobre modelos de PCA, otra en la FAMAF para conocer las líneas de investigación en IA aplicada a la Física, y una adicional con los aliados de LIDeSIA, en el IEyD, (organizado por la Dra. Silvia Arias, codirectora de LIDeSIA) para recibir retroalimentación de expertos, compartir los avances y conocer las demás acciones que lleva adelante el laboratorio y por último,  la reunión con el MPF con el objetivo de exponer los avances a los expertos del dominio y entregar los resultados alcanzados. Esto para compartir todas las líneas de investigación que se desarrollan actualmente desde LIDeSIA. Todos los eventos se  desarrollaron bajo la coordinación de la Dra. Laura Díaz y la Dra. María Inés Stimolo. 2.          Estructuración del DataSet: o Análisis y mejora de datos: Identificación de inconsistencias y propuesta de mejoras, con apoyo del equipo responsable. o Transformación de registros: Optimización de la estructura consolidando múltiples filas de un siniestro en un único registro. o Georreferenciación: Conversión de direcciones en coordenadas para mapear siniestros. 3.          Desarrollo e Implementación de Scripts para Procesamiento de Datos: o Transformación y limpieza: Desarrollo de scripts para mejorar la calidad y coherencia de los datos. o Automatización de correcciones: Implementación de procesos automatizados para identificar y corregir inconsistencias, siguiendo las propuestas previas. 4.          Propuesta de Variables Operacionales:  Implementación de estrategias para la construcción de variables significativas a los fines del proyecto, basada en los campos de los registros disponibles. Por ejemplo, surgieron para cada siniestro con un identificador único: aspectos relativos al día, hora y lugar del hecho, cantidad y tipo de vehículos involucrados, personas lesionadas y grado, género, segmentación etaria, como las más relevantes. 5.          Exploración Conceptual de Algoritmos Predictivos e Inferenciales: Conceptos básicos de métodos de aprendizaje supervisado: Árboles de Inducción (CART- scikit-learn), Redes Neuronales (Multi-Layer Perceptron MLP-Feedforward-scikit-learn) y aprendizaje no supervisado: Clustering (kMeans-scikit-learn), de los recursos disponibles en el aula virtual de la cátedra de IA de la FCEFyN y de su repositorio en github (https://github.com/lauraceciliadiazdavila/IA-LIDeSIA-Dpto-Computacion.git).


CONCLUSIONES

Se tuvo una evolución notable en el proceso de tratamiento de los datos para la gestión de siniestros con lesiones. El estado actual de los datos, los trabajos desarrollados, los avances y la documentación asociada se han descrito a detalle en el apartado de la metodología. Queda disponible, habiendo cuidado los aspectos relativos a una adecuada documentación y a su trazabilidad. Se avanzó en la construcción de una capa de mapa de siniestros y queda disponible como material útil a los objetivos generales. Se propuso un proceso de automatización desde la captura y registro de los datos de siniestros hasta el acceso al usuario; concepto que se alinea como el anterior. Por último, la estancia en LIDeSIA constituye una mejora de sus competencias en tecnologías disruptivas y complejas, claves en el desempeño profesional. En reiteradas oportunidades fue necesaria la valiosa intervención del equipo del LIDeSIA por fuera del marco original, a quiénes se agradece el aprendizaje alcanzado derivado de sus aportaciones.
Flores Reyes Benjamin, Universidad Politécnica de Sinaloa
Asesor: M.C. Alberto Morales Colado, Universidad Politécnica de Sinaloa

DESARROLLO DE MATERIAL DIDáCTICO.


DESARROLLO DE MATERIAL DIDáCTICO.

Avila Carrillo Jorge Armando, Universidad Politécnica de Sinaloa. Flores Reyes Benjamin, Universidad Politécnica de Sinaloa. Larez Nuñez Uziel Isaac, Universidad Politécnica de Sinaloa. Padilla Palencia Elba Noemi, Universidad Politécnica de Sinaloa. Ramos Abel Andres, Universidad Politécnica de Sinaloa. Asesor: M.C. Alberto Morales Colado, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En el mundo actual, las redes de comunicación son esenciales para conectar dispositivos y personas. Con el avance de la tecnología, la complejidad y las necesidades de infraestructura de red han aumentado, lo que requiere un conocimiento profundo de los equipos y las configuraciones necesarias para su funcionamiento eficiente. La demanda de redes confiables y seguras es mayor que nunca, y para satisfacer esta demanda, es fundamental que los profesionales estén bien preparados para enfrentar los desafíos tecnológicos actuales.



METODOLOGÍA

Objetivo 1: Establecer una base sólida de conocimientos sobre la configuración y uso de equipos de red. Durante las primeras semanas se probó el equipo físico, lo que permitió familiarizarse con su configuración y operación. Esta fase incluyó la identificación de las mejores prácticas y los desafíos comunes en la implementación de redes. Se exploraron diferentes modelos de routers y switches, aprendiendo sus características técnicas y cómo aprovecharlas al máximo en distintos entornos. Actividades de la semana 1: - Pruebas iniciales para configuración y reconocimiento de dispositivos. - Documentación de especificaciones técnicas y capacidades del hardware. Objetivo 2: Reforzar conocimientos prácticos mediante prácticas y laboratorios. En la segunda semana, se llevaron a cabo prácticas intensivas para reforzar los conocimientos adquiridos en clases y cursos. Estas prácticas, realizadas bajo la supervisión del profesor, aseguraron la correcta aplicación de los conceptos teóricos. Se emplearon simulaciones de situaciones reales para mejorar las habilidades de resolución de problemas y adaptación a distintos escenarios de red. Actividades de la semana 2: - Realización de prácticas supervisadas por nuestro asesor. - Aplicación de conceptos teóricos en situaciones prácticas. - Evaluación de resultados y ajuste de configuraciones. Objetivo 3: Crear material didáctico para el uso de equipos de red. Durante la tercera y cuarta semana, se centró en la creación de videos tutoriales sobre el uso y configuración de routers y switches. Estos materiales didácticos fueron diseñados para facilitar el aprendizaje y comprensión de las conexiones entre computadoras, switches y routers. Actividades de la semana 3: - Planificación de tutoriales. - Producción de videos sobre configuración de routers. Actividades de la semana 4: - Producción de videos sobre configuración de switches. - Explicación detallada de conexiones entre dispositivos de red. Objetivo 4: Implementar laboratorios avanzados que integren diversos equipos de red. Durante la quinta y sexta semana, se llevaron a cabo laboratorios que involucraron el uso de routers y switches. Se agregó un servidor de prueba en la nube para extender las prácticas y cubrir aspectos adicionales de configuración y administración de redes. Estos laboratorios permitieron a los estudiantes enfrentarse a situaciones complejas y desarrollar habilidades críticas para la gestión de redes modernas. Actividades de la semana 5: - Implementación de laboratorios con routers y switches. - Configuración de topologías de red complejas. - Análisis de rendimiento y resolución de problemas. Actividades de la semana 6: - Extensión de laboratorios con servidores en la nube. - Integración de servicios de red adicionales. - Evaluación de seguridad y eficiencia en las configuraciones de red. Objetivo 5: Realizar prácticas finales que integren todos los conocimientos adquiridos. En la séptima semana, se realizaron prácticas y laboratorios finales que abarcaban todos los temas vistos en las semanas anteriores, consolidando así los conocimientos adquiridos. Estas actividades finales fueron diseñadas para evaluar la capacidad de los estudiantes para aplicar de manera efectiva todos los conceptos aprendidos y resolver problemas complejos de red.   Actividades de la semana 7: - Realización de prácticas integradas y laboratorios finales. - Evaluación de habilidades y conocimientos adquiridos.


CONCLUSIONES

Resultados: Adicionalmente, el trabajo se centró en la creación de material didáctico utilizando Packet Tracer para simular configuraciones y escenarios de red complejos. Esto permitió un aprendizaje interactivo y práctico, facilitando la comprensión de conceptos teóricos aplicados a situaciones del mundo real. Packet Tracer fue una herramienta clave para simular diferentes topologías de red y evaluar el comportamiento de las configuraciones sin necesidad de equipo físico. Conclusiones: Durante el proyecto, se logró una comprensión profunda de la configuración y administración de redes de comunicación. La combinación de prácticas supervisadas, creación de material didáctico y laboratorios avanzados permitió a los estudiantes desarrollar habilidades prácticas esenciales. La integración de un servidor en la nube añadió una dimensión moderna a las prácticas, preparando a los estudiantes para desafíos del mundo real. El uso de Packet Tracer como herramienta de simulación fue fundamental para el éxito del proyecto, permitiendo a los estudiantes experimentar con configuraciones complejas en un entorno controlado. Este proyecto ha demostrado ser un éxito en la preparación de estudiantes para roles en el campo de las redes de comunicación, proporcionando una base sólida de conocimientos y habilidades prácticas necesarias para abordar los desafíos tecnológicos actuales.
Flores Rodriguez Jessenia, Instituto Tecnológico de Ciudad Juárez
Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara

IDENTIFICACIóN Y ANáLISIS DE LOS FACTORES DE RIESGOS PSICOSOCIALES QUE DESARROLLAN EL SíNDROME DE BURNOUT EN LíDERES DE UNA MAQUILADORA DE MOLDEO EN CIUDAD JUáREZ, CHIHUAHUA.


IDENTIFICACIóN Y ANáLISIS DE LOS FACTORES DE RIESGOS PSICOSOCIALES QUE DESARROLLAN EL SíNDROME DE BURNOUT EN LíDERES DE UNA MAQUILADORA DE MOLDEO EN CIUDAD JUáREZ, CHIHUAHUA.

Flores Rodriguez Jessenia, Instituto Tecnológico de Ciudad Juárez. Lozada Rodriguez Marbella, Instituto Tecnológico de Ciudad Juárez. Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

    Es importante identificar los factores de riesgo psicosocial que pueden influir en el desarrollo del síndrome de burnout laboral, por afectar no sólo a los empleados que lo experimentan directamente, sino también a los empleadores y a la dinámica general de las organizaciones. El síndrome se caracteriza por el agotamiento emocional, la despersonalización y una sensación de disminución en la realización personal,  impacta a la salud mental de los individuos, su bienestar físico y la capacidad para desempeñar eficazmente los roles de trabajo.     Los factores de riesgo psicosocial  pueden causar el síndrome de burnout en los líderes de la maquiladora de moldeo, algunos ejemplos son: naturaleza exigente y competitiva del entorno laboral, largas jornadas laborales, presión para cumplir con objetivos y expectativas, falta de tiempo para el descanso y la recuperación, combinación de factores físicos, emocionales y organizacionales que generan un estado de agotamiento crónico y desgaste en los empleados, falta de apoyo organizacional y respaldo de los superiores, no contar con opciones para manejar el estrés. Esto se manifiesta en el aumento del ausentismo, baja en la productividad y una alta rotación de personal, impactando negativamente en la estabilidad y el funcionamiento efectivo de la productividad en la empresa. ¿Con la identificación de los factores de riesgo psicosocial que afecta a los líderes de la maquiladora de moldeo se puede disminuir el síndrome de burnout? ¿Qué estrategias se puede implementar para disminuir los factores de riesgo psicosociales que influyen para desarrollar el síndrome de burnout?



METODOLOGÍA

Para este trabajo se selecciona la mitología de investigación Holística que permite ubicar las diversas propuestas en un esquema coherente y aplicable a cualquier área del conocimiento (Carhuncho-Mendoza , 2019). Los siguientes pasos para realizar la investigación con éxito: primero aplicar los diez objetivos de la investigación, segundo  identificar los diez  tipos de investigación, tercero  entender los niveles de profundidad del conocimiento,  cuarto  realizar la espiral holística y quinto aplicar el ciclo holístico para la investigación en particular.   Etapa 1: Entendimiento de los diez objetivos de la metodología que son: explorar, describir, analizar, comparar explicar, predecir, proponer intervenir, confirmar y evaluar. Utilizando los conocimientos de la producción y manufactura, administración de la calidad.    Etapa 2: Identificar los diez tipos de investigación: exploratoria, descriptiva, analítica, comparativa, explicativa, predictiva, proyectiva, interactiva, confirmatoria y evaluativa.    Etapa 3: Entender los niveles de conocimiento: perceptual, aprehensivo, comprensivo e integrativo.    Etapa  4: Diseñar la espiral holística de la investigación indicando los siguientes puntos: perceptual (describir y explorar), aprensivo (comparar y analizar), comprensivo (proponer, predecir y explicar) e integrativo (modificar, confirmar y evaluar).     Etapa 5: Aplicar el ciclo holístico formado por: explorar, describir, analizar, comparar, explicar, predecir, proyectar, interactuar, confirmar y evaluar.


CONCLUSIONES

   Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos, para la realización de proyectos de investigación desde una idea, estructurar el planteamiento del problema, título, objetivos generales y particulares, justificación, hipótesis y diseño de la metodología de investigación para este trabajo es la metodología holística y principalmente como esto se puede aplicar a un tema de interés personal, académico y profesional. La elaboración de este proyecto de investigación permitió identificar y comprender las variables dependientes e independientes asociadas al síndrome de burnout en los líderes de la maquiladora. Estos hallazgos son cruciales para prevenir y reducir la problemática del burnout, con el objetivo de que la empresa no solo cumpla sus metas y objetivos, sino que también se mantenga en un nivel rentable y competitivo.
Flores Rodriguez Viridiana, Instituto Tecnológico de Ciudad Juárez
Asesor: Mtra. Marlene Montejo Hernández, Instituto Tecnológico Superior de Los Ríos

EVALUACIóN DE LA SALUD Y SEGURIDAD EN EL TRABAJO Y SU IMPACTO EN LA CALIDAD DEL PRODUCTO EN LAS MIPYMES DE BALANCáN, TABASCO.


EVALUACIóN DE LA SALUD Y SEGURIDAD EN EL TRABAJO Y SU IMPACTO EN LA CALIDAD DEL PRODUCTO EN LAS MIPYMES DE BALANCáN, TABASCO.

Flores Rodriguez Viridiana, Instituto Tecnológico de Ciudad Juárez. Asesor: Mtra. Marlene Montejo Hernández, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

Ante la falta de la efectividad de la implementación del Sistema de Gestión de la Seguridad y Salud en el Trabajo (SG-SST) como medida para garantizar entornos laborales seguros. Se realiza un análisis de cumplimiento en las empresas de salud y seguridad de los trabajadores, considerando los estándares necesarios para proteger la salud y seguridad de sus trabajadores, considerando las implicaciones tanto legales como económicas de una implementación deficiente o incompleta del SG-SST.  Cabe señalar que la falta de implementación de un SG-SST conlleva riesgos significativos para las empresas y sus trabajadores. La falta de medidas preventivas y de seguridad puede exponer a los empleados a condiciones laborales peligrosas, aumentando la probabilidad de accidentes y enfermedades ocupacionales. Esto no solo afecta la salud y bienestar de los trabajadores, sino que también puede resultar en costos económicos elevados debido a compensaciones por accidentes laborales, multas por incumplimiento legal, y pérdida de productividad. Debido a lo anterior esta investigación tiene como objetivo evaluar las condiciones de cumplimiento en materia de salud y seguridad en el trabajo, con el propósito de entender su impacto en el municipio. Se busca establecer parámetros claros que promuevan el cumplimiento efectivo de estas normativas, asegurando así entornos laborales más seguros y saludables para todos los trabajadores involucrados.



METODOLOGÍA

Se diseñó y aplicó una encuesta con 10 preguntas a los empleados de varias Mipymes en Balancán. La encuesta abordó aspectos clave de seguridad y salud ocupacional, incluyendo: Percepción de los empleados sobre las condiciones de seguridad en el lugar de trabajo. Conocimiento sobre programas de seguridad y salud. Disponibilidad y adecuación del equipo de protección personal. Nivel de formación y capacitación en procedimientos de seguridad. Buscando determinar las condiciones actuales de los empleados, además de sus conocimientos en los temas indispensables de seguridad y salud en las empresas. Se realizo una investigación descriptiva buscando proporcionar una visión clara y detallada de la situación actual. En este caso, el estudio tiene como objetivo describir las condiciones de seguridad y salud ocupacional en la empresa, a través de las percepciones y experiencias de los empleados recopiladas mediante la encuesta.


CONCLUSIONES

El estudio revela el porcentaje de empleados en foco rojo por falta de programas de seguridad y salud en sus empresas, considerando la importancia de su implementación, además de gran impacto en la calidad. La capacitación continua, la evaluación de riesgos, y la cobertura de seguro social son elementos clave que deben ser abordados para mejorar las condiciones laborales, proteger la salud de los empleados, y garantizar un entorno de trabajo seguro y productivo. Considerando estos puntos, es importante dar a conocer la relevancia que existe entre la seguridad ocupacional y la calidad de los productos, de tal manera que se determina la implementación de un plan estratégico como propuesta a las MiPymes del área de Balancán, buscando mejorar las condiciones de trabajo.
Flores Ruiz Alan Alexis, Instituto Tecnológico de Acapulco
Asesor: Dra. Liliana García Sánchez, Instituto Mexicano de Tecnología del Agua

TRATAMIENTO DE AGUAS RESIDUALES POR SISTEMAS BIOLóGICOS.


TRATAMIENTO DE AGUAS RESIDUALES POR SISTEMAS BIOLóGICOS.

Flores Ruiz Alan Alexis, Instituto Tecnológico de Acapulco. González Colín Danna Vanessa, Instituto Tecnológico de Acapulco. Asesor: Dra. Liliana García Sánchez, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

En los últimos años el crecimiento de la población ha provocado el aumento desmedido de la generación de desperdicios, basura o residuos, lo que resulta en prácticas de disposiciones inadecuadas o ineficientes y lo que a su vez influye en la generación de lixiviados. Los lixiviados son residuos provenientes de la degradación de los residuos, los cuales contienen elevadas concentraciones de contaminantes que al ser liberados al medio ambiente pueden provocar efectos adversos. En México, el tratamiento que se le da a los lixiviados a escala real es solamente una recirculación en el relleno sanitario, lo que disminuye su volumen, pero incrementa su concentración, por ello el tratamiento de estos es un desafío ambiental significativo por sus altas concentraciones de materia orgánica, nutrientes, compuestos tóxicos y la variabilidad en su composición. Ante ello, se propone el uso de sistemas no convencionales como la biofiltración, el vermicompostaje y el uso de sistemas bioelectroquímicos para el tratamiento de lixiviados, los cuales han resultado ser eficientes en la remoción de materia orgánica y nutrientes además de una factible operación y mantenimiento. Por otro lado, es importante el seguimiento de la remoción de dichos contaminantes en los sistemas de tratamiento y la evaluación del efecto toxico tanto del influente como del efluente a fin de verificar el potencial impacto en el medio ambiente.



METODOLOGÍA

Se evaluaron diferentes técnicas analíticas para la determinación de contaminantes presentes en aguas residuales, entre ellas: Demanda Química de Oxígeno (DQO), Fósforo Total, Carbono Orgánico Total (COT), Nitratos, Fosfatos (Concentración Baja), Demanda Bioquímica de Oxígeno (DBO5), Alcalinidad, Nitrógeno Amoniacal y Nitrógeno Total utilizando métodos rápidos. Así como también los parámetros de campo como: pH, Temperatura (◦C), Sólidos Totales Disueltos, Conductividad y Potencial Redox (ORP). Se monitoreo la Planta piloto móvil STARBioElectroFilm (dispositivo descentralizado multietapas de biopelícula fija bioelectrocatalítico para el tratamiento de aguas residuales) que está constituida por una Celda de Electrolisis Microbiana (CEM), un filtro anaerobio sumergido (FAS), un reactor aerobio de biopelícula de lecho móvil (RaBLM), un sedimentador de alta tasa (SAT). El sistema se alimenta con agua residual real proveniente del influente de la PTAR El Texcal ubicada en Jiutepec, Morelos.  Se evaluaron tres sistemas de biofiltración con diferentes empaques, coque (BF1), coque combinado con trozos de madera (BF2) y coque combinado con composta de jardín (BF3). Los sistemas estuvieron alimentados con lixiviados provenientes del relleno sanitario la Cañada, ubicado en el Estado de México y fueron diluidos al 10%, el monitoreo de los sistemas se determinó con parámetros tales como DQO, pH, temperatura, conductividad, potencial REDOX y SDT. Se realizó la determinación del crecimiento de plántulas de col y rábano a través de pruebas de germinación de 10 d utilizando vermicomposta de residuos estabilizados provenientes de un relleno sanitario mezclados con lodo de PTAR en diferentes concentraciones. Se determinó la altura, color y ancho de las hojas, numero de plántulas, % de germinación y longitud de las raíces Finalmente, se realizó un ensayo de toxicidad con el organismo de prueba Danio Rerio o pez cebra, para determinar el grado de toxicidad de lixiviados, este pez permite estudios rápidos sobre los efectos de los contaminantes a lo largo de distintas etapas de su desarrollo, es de importancia recalcar que tiene un alto grado de homología con los humanos, lo que permite el relacionar algunos resultados con la salud humana. La técnica de toxicidad consiste en exponer a los peces a concentraciones controladas de lixiviados para poder evaluar la toxicidad presente durante un periodo de prueba generalmente de 24 a 72 horas. Al final del periodo de exposición se determina la concentración letal media (LC50), que es la concentración del contaminante que causa la muerte del 50% de los organismos expuestos.


CONCLUSIONES

Las técnicas aprendidas durante el Verano de Investigación, se pueden utilizar para caracterizar cualquier tipo de agua residual, además, los sistemas biológicos evaluados mostraron ser eficientes para la remoción de contaminantes. Estos sistemas son una opción viable, eficaz, adaptable y sostenible debido a su capacidad para la degradación amplia de compuestos orgánicos y nutrientes. 
Flores Tejeda Brayam, Universidad Tecnológica de Tecamachalco
Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz

PERFILAMIENTO DE PREFERENCIAS EN áREAS STEAM MEDIANTE INTERACCIONES EN REALIDAD VIRTUAL USANDO EYE TRACKING


PERFILAMIENTO DE PREFERENCIAS EN áREAS STEAM MEDIANTE INTERACCIONES EN REALIDAD VIRTUAL USANDO EYE TRACKING

Carvajal Alvarez Maria Fernanda, Universidad Tecnológica de Nayarit. Flores Tejeda Brayam, Universidad Tecnológica de Tecamachalco. Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

A través de los años se han conocido tanto a hombres como a mujeres los cuales fueron pilares para la creación de inventos, investigaciones y aportaciones en lo que hoy en día se conoce como el área STEAM, pero a pesar de que se ha reconocido a ambos géneros como parte de esta metodología, en realidad son más los hombres los cuales son nombrados, al contrario de las mujeres que son en comparación pocas las cuales logran sobresalir en estas materias. Esto es debido a diversas barreras las cuales hacen que las mujeres adquieran cierto temor al estereotipo que fue creado alrededor de estas disciplinas haciendo aún más difícil la elección educativa, sumándole la falta de recopilación de datos, los cuales ayudarían a allanar un camino en el que las mujeres tengan un mejor acceso tanto a la información, como a la detección temprana de las capacidades que se pueden desarrollar cuando te enfocas en dicha metodología. Gracias a esto se analizó la necesidad de la implementación de una interfaz la cual ayude a recopilar los datos necesarios para lograr llevar a cabo acciones de cambio las cuales faciliten la elección de carrera.



METODOLOGÍA

Usando el software Unity se creó un proyecto en 3D el cual permite la implementación de realidad inmersiva para con esto crear un entorno virtual que recopile a través de gafas VR la interacción usuario-plataforma. Dentro del entorno virtual se construyeron diversas salas las cuales ayudaran al usuario a familiarizarse con la metodología STEAM, dónde cada sala representa y explica una disciplina diferente como lo son: STEAM, Ciencia, Tecnología, Ingeniería, Artes y Matemáticas. En cada espacio dedicado a las disciplinas se usaron diversos objetos representativos de cada materia, los cuales son interactuables para que el usuario mejore su experiencia y conocimientos acerca de las disciplinas mostradas. A su vez se ingresaron al software las paqueterías necesarias para lograr la interacción del entorno virtual con las gafas Pico Neo 3, con esto los usuarios entraron al juego con la experiencia de la realidad inmersiva e interactuaron con todos los recursos dentro del entorno Por último, se adicionaron los complementos necesarios para que a través de las gafas de realidad virtual se pueda detectar el movimiento ocular con el fin de realizar el almacenamiento de datos sobre las preferencias de áreas STEAM.


CONCLUSIONES

Durante la estancia del verano y el tiempo dedicado al proyecto se logró obtener conocimientos de los elementos representativos de la metodología STEAM, así como el desarrollo de un escenario de realidad virtual que incorpora esos elementos de las disciplinas en conjunto con la posibilidad para que el usuario experimente diversas interacciones dentro del entorno las cuales permitirán identificar por medio de eye tracking las preferencias de mujeres hacia estas áreas.
Flórez Mesa Alejandro, Universidad Católica de Pereira
Asesor: Mtro. Juan Manuel Fernández Alvarez, Universidad Tecnológica de Manzanillo

LOGIBOT: CARRITO AUTóNOMO PARA MOVIMIENTO INTELIGENTE DE CARGA EN ALMACéN.


LOGIBOT: CARRITO AUTóNOMO PARA MOVIMIENTO INTELIGENTE DE CARGA EN ALMACéN.

Flórez Mesa Alejandro, Universidad Católica de Pereira. Jiménez Loaiza Camilo, Universidad Católica de Pereira. Asesor: Mtro. Juan Manuel Fernández Alvarez, Universidad Tecnológica de Manzanillo



PLANTEAMIENTO DEL PROBLEMA

La seguridad y eficiencia en los almacenes dependen en gran medida de la capacitación adecuada de los operadores de montacargas. Sin embargo, los métodos tradicionales presentan riesgos significativos, como el uso de maquinaria pesada en entornos reales, lo que expone a los aprendices a posibles accidentes y daños a la infraestructura. Para enfrentar este problema, surge la necesidad de una herramienta educativa innovadora que permita la capacitación en un entorno seguro y controlado. LogiBot es una solución que utiliza tecnología de carritos autónomos en una maqueta a escala de un almacén. Ofrece un ambiente de aprendizaje atractivo y libre de riesgos, permitiendo a los participantes practicar habilidades de manejo de cargas de manera segura y eficiente. El proyecto se desarrolla en tres fases: Fase 1: Diseño y construcción del carrito autónomo desde cero, implementando la tecnología necesaria para su funcionamiento. Fase 2: Implementación de visión artificial para la navegación autónoma del carrito y creación de una maqueta a escala del almacén, simulando un entorno real de trabajo. Fase 3: Desarrollo de una interfaz de usuario intuitiva que permita a los usuarios interactuar con el sistema de forma fácil y efectiva.



METODOLOGÍA

El método de trabajo de LogiBot sigue la metodología Scrum, que permite una gestión ágil y flexible del proyecto. El equipo de desarrollo, compuesto por estudiantes de la Universidad Católica de Pereira y profesores de la Universidad Tecnológica de Manzanillo, trabaja en sprints de cuatro puntos. Las actividades incluyen la definición de requisitos, investigación, construcción y adquisición de materiales, programación del carrito autónomo e integración del hardware. Planificación y Desarrollo: El proyecto se desarrolla en un plazo de 7 semanas, con un plan de trabajo definido por el SCRUM Master para cada semana. Las fases incluyen investigación, enfoque del proyecto, diseño de esquemas electrónicos y estructurales, codificación, pruebas y optimización. Semana 1: Reunión en la Universidad Tecnológica de Manzanillo para definir objetivos y plan de trabajo. Investigación de proyectos relacionados. Semana 2: Diseño del esquema 3D de la estructura del LogiBot y creación de un primer prototipo. Decisión de construir una PCB para optimizar el espacio y distribución de elementos. Semana 3: Revisión del primer prototipo y diseño de un segundo prototipo con mejoras. Construcción del diseño electrónico final para impresión. Semana 4: Trabajo en el documento final del proyecto, recolección de materiales, solución de problemas con placas microcontroladoras y optimización de la gestión de elementos. Ajuste del diseño esquemático y documentación de avances. Entrega del diseño final para impresión y verificación de sensores. Semana 5: Resolución de contratiempos con la impresión 3D y componentes electrónicos. Cambio del microcontrolador ESP32 por Arduino UNO, rediseño de la PCB y prueba exitosa de los componentes electrónicos. Avance en el ensamblaje del LogiBot, resolución de problemas de potencia y cambio a Arduino MEGA 2560 con nuevos drivers. Semana 6: Avances significativos en el ensamblaje del robot, fijación de sensores y motores, y construcción del sistema electrónico completo. Finalización del diseño de la PCB e impresión en JLCPCB. Conexión de nuevos drivers y creación de un algoritmo para el funcionamiento lógico del LogiBot. Capacitación en comunicación serial entre Arduino y Android, desarrollo de aplicaciones en Android Studio y fundamentos de visión artificial con OpenCV. Elaboración de informes, redacción de un resumen del proyecto y actualización del backlog del producto. Semana 7: Llegada de la PCB el martes 30 de julio. Inicio de la construcción del LogiBot y avances en el documento para el programa Delfín. Trabajo intensivo durante la semana, finalización del robot y del documento. El jueves 1 de agosto se terminó el proyecto.


CONCLUSIONES

El desarrollo del proyecto LogiBot ha sido un viaje emocionante lleno de desafíos y triunfos. La falta de experiencia inicial en robótica avanzada, modelado 3D y diseño de PCB presentó obstáculos, pero el equipo demostró un compromiso inquebrantable con el aprendizaje y la superación. Se completó la primera fase del proyecto con éxito, implementando un sistema de control autónomo basado en seguidores de línea, sensores para prevención de accidentes y un motor para la manipulación de carga. LogiBot representa un avance prometedor en la capacitación de montacarguistas, combinando seguridad y efectividad en un entorno lúdico. La metodología Scrum ha sido fundamental para gestionar el desarrollo de manera ágil y eficiente. Los resultados preliminares justifican la continuación hacia la fase dos, con la implementación de capacidades avanzadas de reconocimiento de imágenes y mejoras en la interacción del usuario. LogiBot no solo es una herramienta innovadora, sino que también ha demostrado la capacidad del equipo para trabajar de manera colaborativa, utilizando Scrum para asegurar la calidad del proyecto. La participación en el Programa Delfín y la colaboración con la UTEM han sido experiencias enriquecedoras, impulsando el crecimiento personal y profesional del equipo. La conclusión de la primera fase genera nostalgia, pero también fomenta la búsqueda de nuevas oportunidades de aprendizaje y crecimiento.
Florez Pardo Anyi Natalia, Universidad Libre
Asesor: Dra. Maria Beatriz Bernábe Loranca, Benemérita Universidad Autónoma de Puebla

APLICACIóN DEL PROCESAMIENTO DE LENGUAJE NATURAL PARA ANALIZAR LA DEMANDA DE PROFESIONES


APLICACIóN DEL PROCESAMIENTO DE LENGUAJE NATURAL PARA ANALIZAR LA DEMANDA DE PROFESIONES

Florez Pardo Anyi Natalia, Universidad Libre. Asesor: Dra. Maria Beatriz Bernábe Loranca, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En un entorno laboral que evoluciona rápidamente debido a avances tecnológicos, cambios demográficos y variaciones en las preferencias de los consumidores, prever la demanda de profesiones es fundamental. Los métodos tradicionales, como encuestas y estudios de mercado, son costosos, lentos y poco ágiles para captar cambios rápidos, lo que afecta negativamente las estrategias de empleo y desarrollo profesional. Las redes sociales, como X (anteriormente Twitter), proporcionan datos en tiempo real que reflejan las discusiones y percepciones actuales del mercado laboral. El análisis de estos datos mediante técnicas de procesamiento de lenguaje natural (PLN) permite una visión ágil y precisa de las tendencias emergentes y las necesidades profesionales cambiantes. Aplicar PLN al análisis de datos de redes sociales facilita una comprensión rápida y detallada de las tendencias laborales y ofrece perspectivas únicas sobre las profesiones emergentes. Este enfoque supera las limitaciones de los métodos tradicionales, proporcionando herramientas valiosas para una toma de decisiones más informada y efectiva, adaptándose mejor a los cambios en el entorno laboral. El propósito de este trabajo de investigación se centra en obtener información de X bajo el proceso de descargas para que posteriormente la información sea clasificada bajo técnicas de aprendizaje supervisado y crear diccionarios que puedan ser examinados con análisis de sentimientos, el cual permitirá dividir los diccionarios en dos grupos significativos de acuerdo a la polaridad con el fin de contabilizar las palabras y conocer la tendencia de los factores que inciden en la percepción positiva o negativa de los usuarios. Finalmente, un análisis estadístico se hace necesario para asegurar la presentación de los datos tanto de manera descriptiva como inferencial.



METODOLOGÍA

El proyecto comienza con la recolección de datos, extrayendo tweets relacionados con profesiones de la red social X mediante la herramienta "Export Comments" para exportar los tweets a archivos de Excel. Esta etapa es crucial para asegurar un conjunto de datos representativo y variado sobre el mercado laboral. Una vez obtenidos los datos, se realiza el preprocesamiento, que incluye la limpieza de caracteres especiales, la tokenización para dividir los tweets en palabras, la lematización para reducir las palabras a su forma raíz y la eliminación de stop words para enfocar el análisis en términos relevantes. Luego, se realiza el análisis de sentimientos utilizando el modelo VADER de NLTK para determinar la polaridad de los tweets, clasificándolos como positivos, negativos o neutrales. Esto ayuda a entender la percepción general sobre las profesiones y las tendencias laborales. La siguiente fase es la extracción de términos relevantes mediante técnicas de minería de texto, como el análisis de frecuencia de palabras y la creación de un diccionario de profesiones. Esto identifica términos y frases clave asociadas con profesiones. Posteriormente, se lleva a cabo el modelado de tópicos para ello se utiliza la vectorización de términos, convirtiendo los tweets en vectores numéricos mediante CountVectorizer. Con estos vectores, se entrena el modelo LDA (Latent Dirichlet Allocation), para descubrir los temas predominantes en el conjunto de datos. Los resultados se analizan para identificar términos significativos en cada tópico. En la fase de clasificación de profesiones, se utilizan algoritmos de clasificación para asignar cada tweet a una categoría específica de profesiones. La precisión del modelo se evalúa mediante métricas como precisión, recall y F1-score. Finalmente, se visualizan y analizan los resultados mediante gráficos y visualizaciones, como nubes de palabras y gráficos de barras, para representar las tendencias y hallazgos del análisis. Estos resultados se interpretan para extraer conclusiones sobre la demanda de profesiones, ayudando a empresas, instituciones educativas y profesionales a tomar decisiones informadas basadas en los datos obtenidos.


CONCLUSIONES

Durante la estancia de verano, se adquirieron valiosos conocimientos que se aplicaron al análisis de datos sobre profesiones. Los resultados preliminares sugieren que la inteligencia artificial es la profesión con mayor demanda, seguida por medicina y marketing digital. La inteligencia artificial ha cobrado una relevancia significativa debido al avance tecnológico, influyendo en diversas áreas como la automatización y el análisis predictivo. Asimismo, la ingeniería de sistemas, esencial para el desarrollo de soluciones de IA, también muestra una alta demanda. En resumen, la creciente demanda en inteligencia artificial, medicina y marketing digital pone de manifiesto las tendencias emergentes del mercado laboral. Estas observaciones son cruciales para la planificación de estrategias de capacitación y contratación, ayudando a profesionales y empresas a adaptarse a las demandas actuales y futuras. Los resultados finales están en desarrollo y se presentarán en detalle al finalizar la estancia.
Folgoso Carrascal Fiorella Andrea, Corporación Universitaria Reformada
Asesor: Mg. Daniel Carvajal Tabares, Institución Universitaria de Envigado

GESTIóN AMBIENTAL EMPRESARIAL EN ANTIOQUIA, COLOMBIA.


GESTIóN AMBIENTAL EMPRESARIAL EN ANTIOQUIA, COLOMBIA.

Alvarado Dominguez Monserrat, Universidad Michoacana de San Nicolás de Hidalgo. Folgoso Carrascal Fiorella Andrea, Corporación Universitaria Reformada. Asesor: Mg. Daniel Carvajal Tabares, Institución Universitaria de Envigado



PLANTEAMIENTO DEL PROBLEMA

La gestión ambiental empresarial enfrenta el reto de integrar prácticas sostenibles que mitiguen los impactos negativos al medio ambiente, mientras se fomenta el crecimiento económico y el bienestar social. Es por ello que en la presente investigación se realizaran cuatro salidas de campo a empresas ubicadas en el departamento de Antioquia con el fin de analizar y observar como tienen implementada la gestión ambiental empresarial



METODOLOGÍA

La metodología utilizada fue descriptiva, se realizaron 4 salidas de campo a las empresas Jardín Exotics, Parque Ambiental Ecologistica, Unilasallista y el Hospital Universitario San Vicente Paúl, en donde se aplico una lista de chequeo con 15 ítems, en modalidad de entrevista abierta semiestructurada  


CONCLUSIONES

La gestión ambiental empresarial es un componente fundamental para el desarrollo sostenible, donde por medio de prácticas responsables y tecnologías limpias e innovadoras se busca mitigar los impactos ambientales. Es por ello que en esta investigación se visito a el sector agroindustrial, educativo, salud y el de tratamiento de residuos para observar cómo es su desarrollo y además como tienen implementada la gestión ambiental. Esto se hizo por medio de  una lista de chequeo con 15 ítems, en modalidad de entrevista abierta semiestructurada, en donde se obtuvo los siguientes resultados.    Jardín Exotics es un ejemplo destacado en el sector agroindustrial, dedicada a la exportación de aguacate Hass y gulupa. La empresa, ubicada en un municipio pequeño, sigue el Plan Básico de Ordenamiento Territorial (PBOT) y las regulaciones del Plan de Uso Eficiente del Agua (PUEAA). Jardín Exotics también cuenta con una planta de tratamiento de aguas residuales y realiza muestreos aleatorios para garantizar la calidad del agua. Además, ha implementado medidas para reducir el impacto ambiental, como la migración a sistemas de impresión eficientes y la utilización de energía fotovoltaica. La empresa también apoya la conservación de especies como el loro orejiamarillo y promueve prácticas de reciclaje y educación ambiental en la comunidad. Parque Ecologística Ambiental se enfoca en la gestión de residuos peligrosos y especiales, promoviendo soluciones sostenibles dentro del marco de la economía circular. La empresa, certificada por el ICONTEC, realiza actividades de recolección, tratamiento, y disposición final de residuos, cumpliendo con estrictas normas de seguridad. Su proceso de generación de combustible a partir de residuos es especialmente relevante, proporcionando una alternativa al carbón y reduciendo los residuos. Además, Parque Ecologística Ambiental colabora con la comunidad local en temas socioambientales, incluyendo la implementación de huertas escolares y la limpieza de quebradas. La Universidad de La Salle contribuye significativamente al desarrollo sostenible a través de sus laboratorios especializados en análisis de contaminantes y sus servicios a la comunidad y el sector productivo. Los laboratorios de la universidad apoyan investigaciones y proyectos que buscan soluciones a problemas ambientales y de eficiencia industrial, fortaleciendo el sistema de gestión ambiental integral en la región. Finalmente, el Hospital San Vicente Paúl integra la sostenibilidad en su infraestructura y operaciones, contando con la certificación LEED por su eficiencia energética. El hospital utiliza energía solar y dispone de una planta de tratamiento de aguas residuales, además de gestionar adecuadamente los residuos sanitarios en colaboración con Ecologistica Ambiental. Su compromiso con la responsabilidad social se refleja en la recolección de medicamentos vencidos y aparatos eléctricos para su correcta disposición.
Fonnegra Lopez Maria Alejandra, Institución Universitaria de Envigado
Asesor: Dr. Benito Zamorano González, Universidad Autónoma de Tamaulipas

VIOLENCIA Y ACTOS NEGATIVOS EN EL LUGAR DE TRABAJO


VIOLENCIA Y ACTOS NEGATIVOS EN EL LUGAR DE TRABAJO

Fonnegra Lopez Maria Alejandra, Institución Universitaria de Envigado. Asesor: Dr. Benito Zamorano González, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La violencia y los actos negativos en el lugar de trabajo, como el acoso, la intimidación y la agresión, constituyen un problema significativo que afecta tanto a los empleados como a las organizaciones. Estos comportamientos no solo dañan el bienestar psicológico y físico de los trabajadores, sino que también socavan la moral, disminuyen la productividad y crean un clima laboral inseguro y hostil. A pesar de los esfuerzos para abordar estos problemas, persisten en muchas organizaciones, lo que sugiere la necesidad de una comprensión más profunda de sus causas y consecuencias para desarrollar intervenciones efectivas. En términos teóricos, varias perspectivas proporcionan marcos útiles para entender estos fenómenos. La Teoría del Estrés Laboral sugiere que la violencia y los actos negativos pueden ser tanto un resultado como una causa del estrés laboral, especialmente cuando las demandas superan los recursos disponibles. El Modelo del Acoso Laboral destaca cómo los conflictos no resueltos pueden evolucionar hacia el acoso persistente, afectando gravemente a las víctimas. La Teoría de la Justicia Organizacional señala que la percepción de injusticia dentro de la organización puede desencadenar comportamientos agresivos y retaliatorios. Los impactos de la violencia y los actos negativos son profundos. A nivel individual, pueden llevar a trastornos de salud mental y física, como depresión, ansiedad y estrés postraumático, así como problemas físicos. A nivel organizacional, afectan la satisfacción laboral, aumentan el ausentismo y la rotación de personal, y reducen la productividad. Además, un ambiente de trabajo negativo puede deteriorar la cohesión del equipo y la cultura organizacional. Para abordar estos problemas, es esencial implementar estrategias de intervención como políticas claras contra la violencia, programas de formación y sensibilización, apoyo psicológico para las víctimas y mecanismos de evaluación y monitoreo continuo. Estas medidas pueden ayudar a prevenir y manejar los comportamientos negativos, promoviendo un entorno laboral más saludable y seguro.



METODOLOGÍA

El presente estudio emplea un diseño cuantitativo, descriptivo y correlacional, con el objetivo de analizar los actos negativos en el trabajo y su impacto en la salud de los trabajadores. Instrumentos 1. El NAQ es un cuestionario ampliamente utilizado para medir la frecuencia y tipo de actos negativos (mobbing, bullying, acoso, etc.) en el ambiente laboral. Consta de una serie de ítems que describen diversos comportamientos hostiles y los encuestados deben indicar con qué frecuencia han experimentado cada uno de estos actos en su lugar de trabajo. El NAQ evalúa tres dimensiones principales: acoso personal, acoso relacionado con el trabajo y acoso físico. Los ítems del NAQ se responden en una escala Likert de 5 puntos, que va desde "Nunca" hasta "Diariamente". 2. La Encuesta Global de Salud es un instrumento estandarizado que evalúa diversos aspectos de la salud física y mental de los trabajadores, así como factores relacionados con el ambiente laboral y la calidad de vida. Esta encuesta abarca varias dimensiones, incluyendo salud física (dolores, enfermedades crónicas), salud mental (estrés, ansiedad, depresión), y bienestar general. Los ítems se responden en una escala Likert de 5 puntos, que varía dependiendo del ítem específico, por ejemplo, "Nada" a "Mucho". Población y Muestra Población: La población objetivo del estudio son los trabajadores de diversos sectores económicos. 


CONCLUSIONES

En conclusión, el proyecto de investigación sobre la violencia laboral en las organizaciones, realizado durante el verano, ha revelado importantes hallazgos a partir de las 22 encuestas aplicadas. La mayoría de los trabajadores encuestados tienen entre 20 y 29 años (68.2%), son solteros (54.5%) y poseen educación universitaria (27.3%). Además, la mayoría trabaja en turnos diurnos (59.1%) y se desempeña en el sector operario (45.5%), con una experiencia laboral de menos de 3 años en la misma organización (50%). Aunque los resultados muestran que la mayoría de los trabajadores no han experimentado síntomas severos de estrés como nerviosismo, temblores, falta de aire, dolor en el pecho, ataques de pánico, o pensamientos suicidas, se ha identificado que 5 trabajadores han sido objeto de gritos o trato hostil, 7 han enfrentado recordatorios constantes de sus errores, 8 sienten que sus opiniones son ignoradas, 7 han experimentado tristeza, 8 han indicado que se han difundido chismes o rumores sobre ellos y 6 manifestaron que les asignan tareas con plazos imposibles o poco razonables. Estos datos sugieren la presencia de actos negativos de violencia en el lugar de trabajo, que afectan el ambiente laboral y el bienestar de los empleados. Es crucial que las organizaciones implementen estrategias efectivas para mitigar estos comportamientos negativos. La creación de políticas claras sobre conducta y el establecimiento de mecanismos de comunicación abierta y apoyo que puedan  contribuir significativamente a reducir la violencia laboral y promover un ambiente de trabajo más saludable y respetuoso.
Fonseca Cruzes Uriel Arturo, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato

DESMONTAJE DE MOTOR DE COMBUSTIóN INTERNA Y SUSTITUCIóN DE MOTOR ELéCTRICO


DESMONTAJE DE MOTOR DE COMBUSTIóN INTERNA Y SUSTITUCIóN DE MOTOR ELéCTRICO

Fonseca Cruzes Uriel Arturo, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La movilidad urbana se enfrenta a serias problemáticas ambientales, principalmente debido a las altas emisiones de dióxido de carbono (CO2), óxidos de nitrógeno (NOx) y partículas finas generadas por los vehículos de combustión interna. Estas emisiones son responsables de una parte significativa del cambio climático y de diversos problemas de salud pública, como enfermedades respiratorias y cardiovasculares. El calentamiento global y los cambios climáticos obligan a los gobiernos a implementar medidas drásticas para reducir el uso de combustibles fósiles. Sin embargo, la producción de energías eléctricas sigue dependiendo de fuentes no renovables, lo que también contribuye al daño climático. Adicionalmente el trasporte urbano es una fuente importante de contaminación debido al elevado número de vehículos y al crecimiento continuo de las ciudades. Esta situación crea una demanda creciente de movilidad sustentable a un asi los vehículos de combustión interna continúan dominado, contribuyendo a la contaminación y al deterioro de la calidad del aire.



METODOLOGÍA

En la revisión del estado del arte y de la técnica sobre vehículos eléctricos se llevó a cabo una revisión exhaustiva de la existencia sobre vehículos eléctricos. Esta revisión incluyó avances recientes, tecnologías emergentes y normativas. De igual forma se analizaron diversas fuentes académicas donde ya se había realizado una modificación de estas para obtener comprensión integral del estado actual de la tecnología y las mejores prácticas en el diseño para la implementación de vehículos eléctricos. Una vez finalizada la revisión teórica para una buena implementación del sistema, se procedió al desmontaje del motor de combustión interna. Este proceso fue cuidado y documentado, asegurando que todas las piezas fueran removidas sin causar daños al chasis ni a otros sistemas del vehículo, como la transmisión, dirección y componentes eléctricos como los faros y las bolsas de aire. Esta documentación permitirá una referencia futura y así garantizará la integridad del vehículo durante el proceso de conversión. Se evaluaron los componentes del vehículo original para que pudieran ser reutilizados o adaptados para el nuevo sistema de propulsión eléctrica. Posteriormente se realizó un estudio de diseño para identificar y poder evaluar distintos modelos de vehículos eléctricos. Este análisis se centró en la eficiencia energética, los costos de producción y la facilidad de implementación. Para esto se utilizaron distintos modelos para comparar el rendimiento y costos generados para nuestro modelo, considerando distintos factores como la autonomía, rendimientos y diseños que ofrecieran el mejor equilibrio entre costos y rendimientos. Se procedió al diseño del sistema de propulsión eléctrica, que incluyó el motor, las baterías y el sistema de gestión de energía, tomando en cuenta todos los sistemas como la bomba de frenos electrónica y las medidas de seguridad implementadas. Una vez construido el prototipo, se realizaron pruebas iniciales para verificar el funcionamiento del motor eléctrico y las baterías. Estas pruebas aseguraron que todos los componentes operaran de manera eficiente y segura. Además, se optimizó el sistema de carga del vehículo, evaluando su compatibilidad con distintas infraestructuras de carga y la eficiencia del proceso de carga


CONCLUSIONES

Aunque hasta ahora solo se ha completado el desmontaje del motor de combustión interna y se han solicitado los componentes necesarios para la conversión, se ha establecido una base sólida para avanzar en la implementación de un sistema de locomoción eléctrico eficiente. Cada objetivo específico, desde el desmontaje hasta las mediciones de seguridad, es un componente crítico en este proceso de transformación. La atención meticulosa a cada uno de estos objetivos garantizará que el Chevrolet Optra 2008 convertido sea no solo funcional, sino también seguro y eficiente.
Fonseca Plata Karol Michell, Universidad de Investigación y Desarrollo
Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez

ESTUDIO AERODINAMICO DEL PERFIL NACA 66-206


ESTUDIO AERODINAMICO DEL PERFIL NACA 66-206

Fonseca Plata Karol Michell, Universidad de Investigación y Desarrollo. Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

El diseño de alabes para turbo-maquinaria representa un pilar fundamental en la ingeniería mecánica, ya que su correcto desarrollo incide directamente en la eficiencia operativa y el rendimiento óptimo de una amplia gama de equipos industriales. En el marco de esta investigación, se profundizó en el análisis detallado de un alabe específico, identificado con el perfil NACA 66-206, el cual ha sido objeto de estudio por su relevancia en el ámbito aeronáutico. Creado originalmente por el prestigioso Comité Asesor Nacional para la Aeronáutica (NACA), este alabe se distingue por su capacidad para mejorar la eficiencia y el rendimiento de las aeronaves en diversas condiciones de vuelo, posicionándose como un elemento clave en la optimización aerodinámica. En el transcurso de la investigación, se llevaron a cabo rigurosas prácticas experimentales en un túnel de viento, con el propósito de evaluar minuciosamente el comportamiento aerodinámico del alabe en escenarios representativos de condiciones de flujo. Estas pruebas permitieron validar las predicciones teóricas sobre el desempeño del alabe. Asimismo, se recopiló información detallada acerca del funcionamiento y las características específicas del túnel de viento utilizado, destacando su papel fundamental como herramienta indispensable para la experimentación y validación de modelos aerodinámicos en la industria aeroespacial y otros sectores afines.



METODOLOGÍA

El perfil NACA 66-206 es un perfil de ala ampliamente utilizado en la industria aeroespacial. Este perfil tiene un grosor del 6% de la cuerda y una relación de espesor-cuerda del 20%. Se caracteriza por tener buenas propiedades aerodinámicas, como una baja resistencia al avance y un buen comportamiento a diferentes ángulos de ataque. Es comúnmente utilizado en aplicaciones que requieren eficiencia aerodinámica, como en aeronaves de alta velocidad y planeadores. Su diseño permite una buena relación sustentación-resistencia, lo que lo hace ideal para lograr altas velocidades de vuelo con una menor potencia requerida. El perfil aerodinámico NACA 66-206 se ha utilizado en una variedad de situaciones importantes en la historia de la aviación. Algunos ejemplos destacados incluyen: Aviación militar: El perfil NACA 66-206 ha sido utilizado en aviones militares de alta velocidad, como cazas y bombarderos, debido a su capacidad para operar eficientemente a velocidades supersónicas.  Aviación comercial: En el ámbito de la aviación comercial, este perfil se ha utilizado en aviones de pasajeros de alta velocidad para lograr una mayor eficiencia en el consumo de combustible y un rendimiento óptimo a velocidades de crucero. Investigación aeroespacial: En proyectos de investigación y desarrollo aeroespacial, el perfil NACA 66-206 ha sido empleado en vehículos experimentales y prototipos para estudiar y mejorar el rendimiento aerodinámico a altas velocidades.


CONCLUSIONES

Como se meciona anteriormente, se realizó un experimento con un túnel de viento casero y dentro de este el perfil, a continuacion se muestran las conclusiones que se pudieron extraer del mismo. 0°: En este caso se pudo observar un poco de turbulencia, el flujo de aire causaba remolinos y cambios impredecibles en la dirección y velocidad del aire. 10°: Cuando el ángulo de ataque era de 10° se percibían mas separaciones en el flujo de aire, se notaban cambios mas pronunciados en las líneas de humo y había una disminución de la sustentación. 15°: Con este ángulo, se observan las líneas de humo muy desordenadas, con muchos remolinos de turbulencia y posiblemente se crearon vórtices por la parte de atrás del perfil. 45°: En este ángulo tan elevado, hubo una perdida de sustentación, no se apreciaban en absoluto las líneas de humo de forma ordenada, se apreciaban mucha turbulencia. 60°: Se perciben muchos vórtices turbulentos, no se puede observar sustentación y las líneas de humo están muy desordenadas. 75°: Se generaron vórtices turbulentos muy intensos, no se aprecia nada de sustentación, las líneas de humo son mucho más desordenadas que en caso anterior.
Fonseca Valderrama Ayxa Yesury, Universidad Antonio Nariño
Asesor: Dr. Luis Asunción Pérez Domínguez, Universidad Autónoma de Ciudad Juárez

TOMA DE DECISIONES MULTICRITERIO (MCDM) BASADO EN EL MéTODO PSI


TOMA DE DECISIONES MULTICRITERIO (MCDM) BASADO EN EL MéTODO PSI

Fonseca Valderrama Ayxa Yesury, Universidad Antonio Nariño. Asesor: Dr. Luis Asunción Pérez Domínguez, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

El índice Clave de Desempeño (KPI) se utiliza para evaluar y medir el rendimiento de una organización o de un proyecto en específico.  La empresa se dedica a la confección de prendas de vestir y ha experimentado un crecimiento significativo en la demanda de sus productos en los últimos años. Sin embargo, este crecimiento ha traído consigo desafíos operativos que afectan la eficiencia de la producción y la capacidad de cumplir con los tiempos de entrega establecidos. Actualmente, la empresa de confeccionamiento, utiliza varios indicadores clave de desempeño (KPI) para medir y gestionar su proceso productivo. Entre los KPI más relevantes se encuentran las unidades producidas, el tiempo de ciclo, la eficiencia, la cantidad de operaciones y el tiempo máximo de producción.



METODOLOGÍA

General: Analizar los datos de simulación de una celda de manufactura utilizando el método PSI. Específicos Realizar una simulación de acuerdo a un caso real. Ejecutar los dashboard de la simulación con respecto a la información obtenida Obtener los datos y plantear la modelación de multicriterio MCDM. Por consiguiente, por medio de un caso real de producción, de una empresa de confeccionamiento y aplicado en el software Flexim®, se procede a determinar los datos por medio de los dashboard. se encuentra una simulación basada en una empresa de confeccionamiento con datos reales para una propuesta en diseño de planta, con el cual se diagnosticaron por medio de Dasbohard analizando un state bar actual, operarios actuales, y contenido vs tiempo actual.  El diagrama de State Bar, también conocido como diagrama de estado, muestra cómo diferentes áreas y máquinas en una empresa de confección están operando en términos de sus estados de actividad. En este caso, el diagrama incluye varias categorías de estados como Procesamiento, Generando, Liberando, Inactivo, Bloqueado, Vacío y Esperando transporte. A continuación, se proporciona una explicación detallada de cada área y su estado según el diagrama proporcionado: Según los análisis, se halló un aumento en el porcentaje de inactividad de los trabajadores. A lo largo del proceso, se observó un incremento en los rendimientos y la productividad, lo que ha llevado a que los trabajadores permanezcan inactivos durante más tiempo. Además, el porcentaje de transporte con producto aumentó.   Según los análisis y comparaciones realizados en los procesos simulados, se observó un aumento en el flujo del inventario. El proceso actual muestra una tendencia ascendente, logrando alcanzar escalas más altas con una mayor continuidad y estabilidad. Este comportamiento sugiere una optimización en la gestión del inventario, lo que se traduce en una mejor capacidad para satisfacer la demanda y mantener un flujo constante de productos. El análisis de los datos recolectados revela un incremento en la producción tras la implementación de la propuesta. Específicamente, la máquina fileteadora experimentó un aumento de dos unidades. Igualmente, las máquinas planas uno, dos y tres mostraron un incremento idéntico. En las áreas de tendido y corte también se observó un aumento similar. En cuanto a las etapas de inspección, planchado y empacado, los aumentos fueron de una y dos unidades respectivamente.


CONCLUSIONES

Resultados Se identificaron diversos criterios clave para el proceso de selección mediante el método PSI en la toma de decisiones, incluyendo calidad, tiempo, costos, distribución de la planta, entre otros. Las alternativas fueron evaluadas en función de estos criterios, utilizando una combinación de métodos cuantitativos y cualitativos, y la herramienta de simulación Flexim®. Se desarrolló un modelo de decisión basado en los criterios y alternativas identificados, aplicando técnicas de toma de decisiones multicriterio. Este modelo fue validado a través de estudios de caso y pruebas piloto, proporcionando una evaluación integral y confiable. La implementación de las alternativas o modelos de decisión resultó en una optimización significativa del proceso de selección. Se observó una reducción en el tiempo necesario para tomar decisiones y una mejora en la precisión, logrando una mayor alineación con los objetivos propuestos. El uso de métodos multicriterio permitió una asignación más eficiente de los recursos, identificando áreas con potencial de mejora en eficiencia y optimizando los recursos disponibles. Esto se tradujo en una mayor rentabilidad y sostenibilidad de las operaciones. Conclusiones Los métodos de toma de decisiones multicriterio son altamente adaptables y pueden aplicarse en una variedad de contextos, desde la gestión de proyectos hasta la selección de proveedores y la planificación estratégica. Esta versatilidad los convierte en herramientas valiosas en diversos campos y sectores. El enfoque PSI permite una evaluación integral de las opciones disponibles, considerando tanto criterios cuantitativos como cualitativos. Esto asegura que se aborden todos los aspectos relevantes de cada alternativa, proporcionando una visión holística que es esencial para decisiones complejas. La implementación de métodos de toma de decisiones multicriterio (MCDM) ha demostrado mejorar significativamente la eficiencia en la selección de alternativas.
Fonseca Valderrama Lesly Yorley, Universidad Antonio Nariño
Asesor: Dr. Luis Asunción Pérez Domínguez, Universidad Autónoma de Ciudad Juárez

TOMA DE DECISIONES MULTICRITERIO MéTODO PROMETHEE.


TOMA DE DECISIONES MULTICRITERIO MéTODO PROMETHEE.

Fonseca Valderrama Lesly Yorley, Universidad Antonio Nariño. Asesor: Dr. Luis Asunción Pérez Domínguez, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

El Índice Clave de Desempeño (KPI) se emplea para evaluar y medir el rendimiento tanto de una organización en general como de proyectos específicos. En el caso de nuestra empresa dedicada a la confección de prendas de vestir, hemos experimentado un notable crecimiento en la demanda de nuestros productos en los últimos años. Sin embargo, este crecimiento ha presentado desafíos operativos que están impactando la eficiencia de nuestra producción y nuestra capacidad para cumplir con los tiempos de entrega establecidos. En la actualidad, nuestra empresa utiliza varios indicadores clave de desempeño (KPI) para medir y gestionar nuestro proceso productivo. Entre los KPI más relevantes se encuentran las unidades producidas, el tiempo de ciclo, la eficiencia, la cantidad de operaciones y el tiempo máximo de producción. A pesar de contar con estos indicadores, hemos identificado problemas recurrentes que nos impiden alcanzar los niveles óptimos de productividad y eficiencia.



METODOLOGÍA

Objetivos General Analizar la simulación de acuerdo a un caso real empresa de confeccionamiento utilizando el método PROMETHEE. Específicos Realizar una simulación de acuerdo a un caso real. Ejecutar los dasbohard de la simulación con respecto a los datos obtenidos. Analizar los datos y planear la modelación de multicriterio MCDM método PROMETHEE. Con los datos que se mostraran a continuación podemos observar que se tiene una empresa de producción de confeccionamiento en la cual se analizan una serie de dasbohard en los cuales la empresa cuenta en su producción actual desde el tiempo ocio de los trabajadores, la producción que se tiene mensualmente, contenido vs tiempo, state bar cuenta la empresa. El análisis de los datos recolectados revela un incremento en la producción tras la implementación de la propuesta. Específicamente, la maquina fileteadora experimentó un aumento de dos unidades. Igualmente, las maquinas planas uno, dos, tres, mostraron un incremento idéntico. En las áreas de tendido y corte, mientras en la inspección, planchado y empacado los aumentos fueron de una y dos unidades respectivamente, estos resultados subrayan la eficacia de las mejoras aplicadas en el proceso productivo.   Según los análisis y comparación en los procesos simulados se observó que existe un aumento de flujo en el inventario, donde el proceso actual cuenta con una tendencia la cual logra obtener escalas más altas y con una mayor continuidad. Se analiza el porcentaje de utilización de cada área y maquinas encontrando, que para el área de recepción de materia prima se tiene al 100% de su capacidad, para el área de tendido y corte se tiene una capacidad del 85.86% , para la maquina fileteadora del 36.65%, para maquina plana 1 del 61.05%, para maquina plana 2 tiene una capacidad del 20,28%, para maquina plana 3 se encuentra una capacidad del 16.22%, para el área de inspección del 10.14%, para el área de planchado y empacado una disminución en la utilización del 28.39%.        


CONCLUSIONES

Determinación de la preferencia de una alternativa sobre otra para cada criterio específico. Este cálculo mide en qué medida una alternativa es preferida en comparación con otra en función de cada criterio individual. Evaluación de los flujos de preferencia positiva y negativa para cada alternativa en relación con todas las demás. Estos flujos reflejan el grado de preferencia global que una alternativa ejerce sobre las otras, considerando tanto las preferencias positivas como las negativas. Generación de un orden parcial de las alternativas. Este método clasifica las alternativas en función de las preferencias relativas, permitiendo una comparación entre ellas. Sin embargo, puede no proporcionar una clasificación absoluta para todas las alternativas debido a la naturaleza parcial del ordenamiento. Obtención de un orden completo de las alternativas. Este método proporciona una clasificación global, basada en la agregación de los flujos de preferencia. A diferencia de PROMETHEE I, PROMETHEE II permite establecer una jerarquía total de las alternativas, facilitando la identificación de la mejor opción en términos generales.
Franco Hernandez Laura Janeth, Universidad de Sonora
Asesor: Dr. Cristian Rodríguez Gomez, Universidad Veracruzana

ANáLISIS DEL DISEñO DE COMPUESTOS CERáMICOS


ANáLISIS DEL DISEñO DE COMPUESTOS CERáMICOS

Franco Hernandez Laura Janeth, Universidad de Sonora. Asesor: Dr. Cristian Rodríguez Gomez, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

El estudio de los materiales cerámicos abarca una amplia gama de composiciones y aplicaciones, desde los cerámicos tradicionales, como loza y porcelana, hasta los cerámicos avanzados que son fundamentales en industrias tecnológicas modernas. Este texto busca explorar los conceptos básicos de los materiales cerámicos, los métodos de fabricación y tratamiento térmico, así como los métodos convencionales y avanzados para llevar a cabo la sinterización, un proceso crucial en la producción de estos materiales. La investigación pretende resaltar la importancia de los diferentes métodos de sinterización y su impacto en las propiedades finales de los cerámicos, considerando tanto los enfoques tradicionales como los avances recientes en el campo.



METODOLOGÍA

Revisión Bibliográfica: Se realizó una revisión exhaustiva de la literatura disponible sobre materiales cerámicos, métodos de fabricación y sinterización. Las fuentes incluyen libros de texto, artículos científicos y revisiones en el campo de la ciencia de materiales y la ingeniería cerámica. Clasificación de Materiales Cerámicos: Se identificaron y describieron los diferentes tipos de materiales cerámicos, tanto tradicionales como avanzados, y sus propiedades características. Descripción de Métodos de Fabricación: Se detallaron los métodos comunes de fabricación de materiales cerámicos basados en el estado de la materia prima (gaseoso, líquido, sólido) y se resaltaron las técnicas más utilizadas. Análisis de Tratamientos Térmicos: Se examinaron los tratamientos térmicos cruciales en la fabricación de cerámicos: calcinación, sinterización y vidriado. Comparación de Métodos de Sinterización: Se compararon los métodos convencionales (mecánicos y químicos) y los métodos avanzados de sinterización, destacando sus ventajas y desventajas. Se evaluaron los efectos de estos métodos en las propiedades finales de los materiales cerámicos.


CONCLUSIONES

Importancia de la Sinterización: La sinterización es un proceso vital en la fabricación de materiales cerámicos, ya que determina en gran medida la densidad, microestructura y propiedades mecánicas de los productos finales. Métodos de Sinterización y Propiedades Finales: Los métodos mecánicos como la compactación y el prensado isostático son más adecuados para cerámicos tradicionales, donde el control de la pureza y la microestructura no es tan crítico. Los métodos químicos, como la síntesis sol-gel y la deposición química de vapor, son esenciales para la producción de cerámicos avanzados, permitiendo un mayor control sobre la pureza y la microestructura. Avances en Métodos de Sinterización: Los métodos avanzados, como la sinterización por plasma de chispa y por microondas, ofrecen ventajas significativas en términos de reducción de tiempos y temperaturas de sinterización, así como en el control de las propiedades del material. Estos métodos avanzados permiten la producción de materiales con microestructuras más homogéneas y mejores propiedades mecánicas, siendo cruciales para aplicaciones en industrias de alta tecnología. Aplicaciones de Cerámicos Avanzados: Los cerámicos avanzados producidos mediante métodos químicos y avanzados de sinterización tienen aplicaciones críticas en sectores como la electrónica, la aeroespacial y la biomédica, debido a sus propiedades superiores y su capacidad para soportar condiciones extremas.
Franco López Jesús Fernando, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Wilmer Edicson Garzón Alfonso, Escuela Colombiana de Ingeniería Julio Garavito

CREACIóN DE DISTRIBUCIONES UNIDIMENSIONALES Y BIDIMENSIONALES MEDIANTE QUANTUM WASSERSTEIN GENERATIVE ADVERSARIAL NETWORKS.


CREACIóN DE DISTRIBUCIONES UNIDIMENSIONALES Y BIDIMENSIONALES MEDIANTE QUANTUM WASSERSTEIN GENERATIVE ADVERSARIAL NETWORKS.

Franco López Jesús Fernando, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Wilmer Edicson Garzón Alfonso, Escuela Colombiana de Ingeniería Julio Garavito



PLANTEAMIENTO DEL PROBLEMA

El aprendizaje automático es una rama de la inteligencia artificial que se enfoca en desarrollar modelos que pueden aprender de datos y mejorar su desempeño en tareas específicas sin ser programados explícitamente. Dentro de este campo, el aprendizaje no supervisado es crucial para descubrir patrones y estructuras en datos no etiquetados. Entre las técnicas avanzadas de aprendizaje no supervisado se encuentran los modelos generativos, que buscan aprender y replicar la distribución de los datos de entrenamiento para generar nuevas instancias siguiendo esa distribución. Las Redes Generativas Adversariales (GANs) destacan en este ámbito por su capacidad para producir datos sintéticos altamente realistas (Goodfellow et al., 2014). Las GANs funcionan con dos redes neuronales: el generador, que crea datos similares a los reales, y el discriminador, que evalúa si los datos generados son indistinguibles de los reales. Esta interacción competitiva ayuda al generador a mejorar continuamente sus producciones. Sin embargo, las GANs enfrentan desafíos en términos de estabilidad y calidad en la generación de datos. Una medida clave para evaluar la calidad de una GAN es la distancia entre la distribución generada y la real. La distancia Wasserstein es valiosa para esta tarea, proporcionando una medida más directa y continua de la diferencia entre distribuciones, lo que facilita una evaluación más precisa y mejor estabilidad durante el entrenamiento de la GAN (Arjovsky et al., 2017). La computación cuántica en este contexto promete mejorar el desempeño de los modelos generativos (Situ et al., 2020). Los Quantum Wasserstein Generative Adversarial Networks (QWGANs) combinan las capacidades de las GANs con la potencia de la computación cuántica. En un QWGAN, el generador utiliza circuitos cuánticos y qubits para crear datos sintéticos, aprovechando la superposición y el entrelazamiento cuántico para explorar y representar distribuciones de datos de manera más rica y compleja (Chakrabarti et al., 2019). Esta investigación exploró cómo los QWGANs pueden crear distribuciones unidimensionales y bidimensionales, mejorando la capacidad de los modelos generativos para producir datos más precisos y útiles. Integrando la distancia Wasserstein en un marco cuántico, se espera que los QWGANs superen las limitaciones de los enfoques tradicionales y ofrezcan nuevas perspectivas en la generación de datos sintéticos. Se basó en el repositorio de Qiskit Machine Learning (2023) para crear un modelo híbrido cuántico-clásico, utilizando un generador cuántico y un discriminador clásico para generar distribuciones unidimensionales y bidimensionales. Se propone utilizar la distancia de Wasserstein para calcular la diferencia entre la distribución real y la generada, con técnicas como el recorte del gradiente (Arjovsky et al., 2017) y la penalización del gradiente (Gulrajani et al., 2017), que anteriormente solo se han utilizado en modelos clásicos y no en modelos híbridos cuántico-clásicos.



METODOLOGÍA

Arquitectura del Modelo Generador Cuántico El generador en un QWGAN se basa en circuitos cuánticos parametrizados que manipulan qubits para generar datos sintéticos. Utiliza librerías como Qiskit para implementar estos circuitos, aprovechando puertas cuánticas (como las puertas Hadamard) y estados de qubits ajustables para producir las distribuciones deseadas. Discriminador Clásico El discriminador se mantiene en el dominio clásico y se implementa como una red neuronal profunda utilizando PyTorch. Esta red recibe tanto los datos reales como los generados y aprende a distinguir entre ellos. Implementación 1. Generación de datos de entrenamiento: Datos y Bidimensionales 2. Diseño del generador cuántico: Utiliza qubits y puertas cuánticas para manipular la información y producir muestras de datos sintéticos 3. Diseño del discriminador clásico: Red neuronal que distingue entre los datos reales y los generados por el generador cuántico. 4. Uso de la Distancia de Wasserstein: Implementa esta métrica para evaluar la calidad de las muestras generadas, ajustando los parámetros del generador y el discriminador durante el entrenamiento. 5. Entrenamiento del QWGAN: Proceso iterativo y competitivo donde el generador minimiza la distancia Wasserstein entre las distribuciones real y generada, y el discriminador busca maximizar esta distancia. 6. Análisis de resultados: Evaluación de la calidad de los datos generados comparándolos con los datos reales y con otros enfoques de generación de datos con GAN. Repositorios Utilizados: Implementación de modelos híbridos cuánticos-clásicos: (https://github.com/qiskit-community/qiskit-machine-learning/tree/main/docs/tutorials/04_torch_qgan.ipynb). Este repositorio explica cómo generar distribuciones bidimensionales mediante un generador cuántico y un discriminador clásico. Implementación de la distancia de Wasserstein en modelos clásicos: (https://github.com/Zeleni9/pytorch-wgan). Referencia que implementa la distancia de Wasserstein en modelos clásicos.


CONCLUSIONES

Durante mi estancia de verano, adquirí un conocimiento profundo en Redes Generativas Adversariales (GAN) y computación cuántica. Este trabajo se ha enfocado en desarrollar un algoritmo híbrido cuántico que mejora los modelos generativos tradicionales. La implementación del Quantum Wasserstein Generative Adversarial Network (QWGAN) para crear distribuciones unidimensionales y bidimensionales muestra el potencial de la computación cuántica para avanzar en los modelos generativos. Los generadores cuánticos, al aprovechar la superposición y el entrelazamiento de los qubits, pueden capturar distribuciones más complejas y explorar el espacio de parámetros de manera más eficiente que los métodos clásicos. Aunque el proyecto está en fase de entrenamiento y optimización, el QWGAN representa un modelo híbrido que no solo mejora la generación de datos sintéticos, sino que también abre nuevas oportunidades en diversos campos, ofreciendo una capacidad mejorada para capturar complejidades y optimizar la eficiencia del entrenamiento.
Fregoso Jiménez Valeria, Universidad de Guadalajara
Asesor: Dr. Omar Avalos Alvarez, Universidad de Guadalajara

OPTIMIZACIóN DE MODELO CLAHE MEDIANTE PSO PARA MEJORA DE CONTRASTE EN PRUEBAS DE BIOMARCADORES PARA TUBERCULOSIS.


OPTIMIZACIóN DE MODELO CLAHE MEDIANTE PSO PARA MEJORA DE CONTRASTE EN PRUEBAS DE BIOMARCADORES PARA TUBERCULOSIS.

Fregoso Jiménez Valeria, Universidad de Guadalajara. Asesor: Dr. Omar Avalos Alvarez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las pruebas rápidas de sangre para la detección de tuberculosis se utilizan ampliamente para el diagnóstico rápido y eficaz de la enfermedad. Estas pruebas, permiten la detección y monitoreo mediante biomarcadores. Sin embargo, la precisión del diagnóstico depende en gran medida de la claridad de la prueba resultante que indican la presencia de la infección. La falta de contraste adecuado puede llevar a interpretaciones erróneas, como la dificultad para distinguir cada detalle, lo que puede resultar en diagnósticos falsos negativos o positivos. La elección del modelo CLAHE (Contrast Limited Adaptive Histogram Equalization) para la mejora de contraste en imágenes a escala de grises se justifica por su capacidad para adaptar el contraste de manera localizada en pequeñas regiones de las imágenes, controlar el contraste de manera efectiva y proporcionar resultados visuales mejorados. La desventaja observada en este modelo es la falta de adaptabilidad y optimización personalizada para diferentes tipos de imágenes y condiciones específicas. CLAHE utiliza parámetros estándar predefinidos o ajustes manuales que pueden no ser los más adecuados para todas las imágenes. Esto puede llevar a resultados subóptimos de mejora de contraste, especialmente en imágenes con características únicas o extremas variaciones locales de intensidad.



METODOLOGÍA

La implementación del modelo CLAHE para el procesamiento de imágenes ofrece una solución adecuada para mejorar el contraste localmente, adaptándose a las características específicas de diferentes regiones dentro de una imagen. Las métricas de evaluación utilizadas se basan en SSIM y entropía para determinar la calidad de la imagen mejorada. Los resultados se visualizan a través de imágenes e histogramas para evaluar la mejora en contraste. Sin embargo, este modelo presenta algunas limitaciones y desventajas, una de ellas es la dependencia de parámetros estáticos. Donde CLAHE utiliza parámetros fijos como TileGridSize y Cliplimit. Estos parámetros pueden no ser adecuados para todos los tipos de imágenes o condiciones específicas. Ajustar estos parámetros manualmente puede ser complicado y no proporcionan resultados óptimos para todos los casos, ya que no se obtiene una imagen con la mejor calidad posible debido a desconocer los valores óptimos para cada parámetro. Para solucionar esta limitación, se sugiere utilizar un algoritmo de optimización que busque ajustar los parámetros de CLAHE para lograr el mejor resultado en términos de calidad visual y eficacia en mejora de contraste. En esta investigación se optó por trabajar con el algoritmo de optimización PSO (Optimización por enjambres de partículas), utilizado para encontrar soluciones óptimas a problemas complejos al modelar un grupo de soluciones que se mueven a través del espacio de búsqueda, ajustando su posición en función de su propia experiencia y la de sus vecinas. Implementar PSO al modelo CLAHE implica optimizar los parámetros de la imagen ya procesada de manera automática y adaptativa, a partir de métricas de calidad analizadas para obtener los parámetros que se desean optimizar. Implementar el algoritmo de PSO para buscar los mejores valores de parámetros que maximicen o minimicen la función fitness. La función de fitness definida en el código combina ambas métricas (SSIM y entropía) para optimizar los parámetros de CLAHE. Al maximizar la función de fitness, se busca obtener un equilibrio entre una alta similitud estructural (SSIM) y un alto nivel de detalle (entropía) en la imagen mejorada. La función de fitness expresa el producto de la entropía y el SSIM, y se minimiza el valor inverso de este producto para maximizar la calidad general de la imagen mejorada. Una vez que se han identificado los parámetros óptimos para el algoritmo mediante la optimización, se aplica CLAHE nuevamente a la imagen original utilizando estos parámetros ajustados. Posteriormente, se calcula SSIM y la entropía de la imagen mejorada para evaluar la calidad del procesamiento con los parámetros óptimos. Como resultado se muestra la imagen original y la procesada, para permitir una comparación visual directa. Además, se muestran los histogramas de ambas imágenes para comparar cómo se distribuyen los valores de los píxeles antes y después de la aplicación de estos modelos, así como una tabla donde se proporciona un resumen claro de los ajustes realizados y la mejora en la calidad de la imagen, facilitando la comparación y la evaluación de los resultados obtenidos respecto a las métricas utilizadas.


CONCLUSIONES

La combinación de CLAHE y PSO permite una optimización eficiente de los parámetros de mejora del contraste, adaptándose a las características específicas de cada prueba. Esta metodología proporciona una herramienta para mejorar el contraste en imágenes en escala de grises, útil en una variedad de aplicaciones, desde análisis médicos hasta procesamiento general de imágenes. Obteniendo una comparación en la calidad de la imagen original con la imagen procesada para evaluar la mejora del contraste basado en los rangos de las métricas utilizadas, SSIM y entropía.
Frutis Gonzalez Emma, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América

CADENA DE SUMINISTROS EN LA LOGÍSTICA HUMANITARIA DE LA INDUSTRIA FARMACÉUTICA.


CADENA DE SUMINISTROS EN LA LOGÍSTICA HUMANITARIA DE LA INDUSTRIA FARMACÉUTICA.

Frutis Gonzalez Emma, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

La gestión de materiales y la capacitación del personal son pilares cruciales en la cadena de suministro, esenciales para optimizar costos, mejorar la eficiencia operativa y asegurar la calidad en industrias como la farmacéutica. Según estudios de Handfield y Nichols (1999) y Christopher (2016), la eficiencia en la gestión de materiales puede reducir costos operativos hasta un 20% y mejorar los tiempos de entrega. Durante crisis humanitarias, como pandemias o desastres naturales, estos elementos son aún más críticos.



METODOLOGÍA

Este estudio adoptó un enfoque mixto que combinó métodos secundarios, recolección de información y la investigación de casos para explorar la cadena de suministros y logística humanitaria en la industria farmacéutica. A continuación, se detalla el diseño metodológico utilizado: 1. Diseño de la Investigación. Se empleó un diseño de investigación de casos para examinar de manera detallada y contextualizada cómo se gestionan las cadenas de suministros en contextos humanitarios dentro de la industria farmacéutica. Este diseño permite una comprensión profunda de las dinámicas y los desafíos específicos que enfrentan las organizaciones en este campo crucial. 2. Métodos y Técnicas Utilizadas Recolección de Información: Se realizó una extensa recolección de información a partir de fuentes secundarias como literatura académica, informes de organizaciones internacionales, y bases de datos especializadas en logística y cadena de suministros en el ámbito humanitario. Análisis de Casos: Se seleccionaron casos relevantes de la industria farmacéutica más recientes, entre los cuales destacan los sismos del 1985 y 2017 donde se aplican prácticas de logística humanitaria. Cada caso fue analizado utilizando métodos cualitativos para identificar patrones, estrategias efectivas y áreas de mejora en la gestión de la cadena de suministros en contextos humanitarios. 3. Participantes y Muestra. La muestra estuvo compuesta por casos representativos de empresas farmacéuticas y organizaciones humanitarias que operan en diversas regiones geográficas y enfrentan diferentes desafíos logísticos, entre ellos, La Cruz Roja ya que dicha organización tuvo lugar en este tipo de incidentes. Se seleccionaron casos que permitieron un análisis comparativo para obtener insights significativos.  


CONCLUSIONES

La gestión eficiente de materiales en la cadena de suministro farmacéutico juega un papel crucial no solo en tiempos normales, sino especialmente durante crisis humanitarias como los temblores frecuentes que afectan a la Ciudad de México. Esta disciplina abarca desde la planificación estratégica hasta la distribución precisa de medicamentos y suministros médicos bajo estrictas normativas regulatorias. Durante situaciones de emergencia, como los sismos, la cadena de suministro se enfrenta a desafíos significativos que pueden comprometer la disponibilidad y distribución de suministros críticos. La interrupción en la producción y distribución debido a daños en infraestructuras, bloqueos de rutas de transporte y la escasez de recursos logísticos son obstáculos frecuentes que deben superarse rápidamente para asegurar una respuesta efectiva (Handfield & Nichols, 1999; Pettit et al., 2010). La implementación de tecnologías avanzadas, como sistemas de información geográfica (GIS) para el seguimiento en tiempo real y prácticas innovadoras en la gestión de inventarios, ha demostrado mejorar significativamente la capacidad de respuesta durante crisis humanitarias. Estas herramientas no solo optimizan la eficiencia operativa, sino que también fortalecen la resiliencia del sistema de salud pública ante desastres naturales y emergencias sanitarias, proporcionando una base sólida para el desarrollo de estrategias futuras. Capacitación del Personal en Logística Humanitaria La capacitación del personal en logística humanitaria desempeña un papel crítico en la preparación y respuesta durante crisis. Equipar al personal con habilidades en gestión de crisis, logística de emergencia y tecnología avanzada es fundamental para asegurar una respuesta rápida y efectiva ante situaciones adversas (OMS, 2021). En la Ciudad de México, programas de capacitación exitosos han sido clave en mejorar la capacidad de respuesta del sector farmacéutico durante crisis como los sismos. Por ejemplo, programas implementados por organizaciones como la Cruz Roja Mexicana han facilitado una coordinación más eficiente y una distribución más rápida de ayuda humanitaria (Secretaría de Salud de la Ciudad de México).
Fuentes Gutiérrez Cristal Alexia, Universidad de Sonora
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

SíNTESIS Y CARACTERIZACIóN DE MATERIALES CERáMICOS BASADOS EN MANGANESO PARA LA FOTOCATáLISIS DE CONTAMINANTES EN EL AGUA


SíNTESIS Y CARACTERIZACIóN DE MATERIALES CERáMICOS BASADOS EN MANGANESO PARA LA FOTOCATáLISIS DE CONTAMINANTES EN EL AGUA

Fuentes Gutiérrez Cristal Alexia, Universidad de Sonora. Sanchez Morales Jesus David, Universidad de Sonora. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las industrias textiles son grandes contaminantes ambientales debido a la descarga de colorantes en aguas residuales sin tratamiento adecuado. Utilizan más de 10,000 tipos de colorantes y pigmentos, especialmente en la industria textil, papelera, cosmética y farmacéutica. Los efluentes textiles contienen colorantes recalcitrantes, que no se fijan al tejido y se descargan como residuos. Estos colorantes disminuyen la penetración de luz en el agua, afectando la fotosíntesis y alterando los ecosistemas acuáticos, reducen los niveles de oxígeno disuelto y crean condiciones perjudiciales para los organismos acuáticos. Además, pueden acumularse en la cadena alimentaria y causar riesgos para la salud humana y contaminar el suelo. El tratamiento de aguas residuales es crucial para mantener la calidad del agua. Durante el verano de investigación, se evaluó la eficacia de materiales cerámicos en la fotocatálisis para tratar aguas contaminadas, enfocándose en desarrollar soluciones sostenibles y eficientes para degradar tintes en aguas residuales.



METODOLOGÍA

Se plantearon dos tipos de óxidos con dos estructuras diferentes. La primera de tipo perovskita (ABO3) y otra de tipo espinela (AB2O4). De la base de datos Jade XRD Pattern se seleccionaron los siguientes materiales cerámicos basados en manganeso para trabajar: CoMnO3 (perovskitas), y CoMn2O4 y Ag2MnO4 (espinelas). Se llevó a cabo la estequiometría correspondiente de cada material para la primera síntesis. En la síntesis de CoMnO3 se agregó 1g de nitrato de manganeso (II) tetrahidratado a un vaso de precipitado, junto con 1.159g de nitrato de cobalto (II) hexahidratado y una solución de 0.400g de alcohol polivinílico disuelto en 20 ml de agua bidestilada. De manera similar, para la síntesis de CoMn2O4, se agregaron 1.7249 g de nitrato de manganeso (II) tetrahidratado a un vaso de precipitado, junto con 1g de nitrato de cobalto (II) hexahidratado y una solución de 0.400g de alcohol polivinílico disuelto en 20 ml de agua bidestilada. Cada solución se calentó en un horno de microondas convencional en intervalos de 1 minuto, con una potencia de 2, hasta evaporar la mayor cantidad de agua. El calentamiento continuó hasta que la muestra se tornó viscosa y adquirió un color más intenso. Una vez que el agua se había evaporado casi por completo, se aumentó la potencia del microondas al máximo para descomponer el polímero de alcohol polivinílico. A continuación, lo obtenido se trituró en un mortero para reducir el tamaño de las partículas y preparar la muestra para la calcinación. Se realizaron tres calcinaciones de ambas muestras a 400°C, 600°C y 800°C por 3 horas cada una. Después, se volvieron a pesar el manganeso y cobalto utilizando la misma estequiometría que al principio. Para CoMnO3 1g de nitrato de manganeso (II) tetrahidratado a un vaso de precipitado, junto con 1.159g de nitrato de cobalto (II) hexahidratado, y para CoMn2O4  1.7249 g de nitrato de manganeso (II) tetrahidratado a un vaso de precipitado, más 1g de nitrato de cobalto (II) hexahidratado. Se añadieron 20 ml de ácido fórmico, que actúa como agente precipitante, a cada mezcla. Se dejó actuar hasta que precipitara, seguidamente se procedió a calcinar. Se realizaron tres calcinaciones de ambas muestras a 300°C, 500°C y 800°C por 3 horas cada una. Como segunda síntesis, se llevó a cabo la estequiometría correspondiente del material Ag2MnO4. Se agregaron 1g de nitrato de manganeso (II) tetrahidratado a dos vasos de precipitado, junto con 1.3534g de nitrato de plata. En un tercer vaso de precipitado, se agregaron 0.200 g de bromuro de hexadeciltrimetilamonio y se mezclaron con 20 ml de ácido fórmico. La mezcla del tercer vaso de precipitado se añadió al primer vaso de precipitado, mientras que al segundo vaso de precipitado se le añadieron solamente 20 ml de ácido fórmico. Ambas muestras se dejaron precipitar, se eliminó el líquido sobrante y se realizaron calcinaciones. Se realizaron cuatro calcinaciones de ambas muestras a 200°C, 400°C, 600°C y 800°C por 3 horas cada una. Seguidamente, se realizaron pruebas en difracción de rayos X de todas las muestras calcinadas. Se determinó que CoMn2O4 calcinado a 500°C utilizando ácido fórmico, CoMn2O4 calcinado a 400°C con alcohol polivinílico, y CoMnO3 calcinado a 800°C con alcohol polivinílico fueron las mejores opciones para continuar con la investigación y realizar pruebas fotocatalíticas. Luego se realizaron las pruebas de degradación, es decir, fotocatálisis. Se inició pesando 10 miligramos de CoMn2O4 calcinado a 500°C utilizando ácido fórmico y CoMn2O4 calcinado a 400°C con alcohol polivinílico, y se agregaron los contenedores. Los contenedores se colocaron al aire libre, expuestos al sol. Como tinte a degradar se utilizó 20 ml de verde malaquita (MG). Cada 5 min se sacaban alícuotas y se colocaban en viales, del tiempo 0 hasta 180 min. Además de esas pruebas, se realizaron pruebas adicionales con verde malaquita sin adición de muestra y al CoMn2O4 calcinado a 400°C con alcohol polivinílico, pero sin presencia de luz. También se realizaron pruebas con un foco para mayor control de la luz. Posteriormente, se usó el equipo de espectrofotómetro uv-visible para medir la absorbancia de la solución a una longitud de onda específica que corresponde al máximo de absorbancia del verde malaquita.


CONCLUSIONES

Durante la estancia de investigación, se adquirieron y aplicaron conocimientos sobre materiales cerámicos, fotocatálisis y semiconductores, utilizando técnicas de caracterización como DRX y espectrofotometría UV-Vis. También se aprendió el manejo de una calcinadora y técnicas de síntesis. Se realizaron dos pruebas de fotocatálisis, una con luz solar y otra con un foco convencional, siendo esta última más eficiente debido al mayor control de la intensidad de la luz. Aún faltan resultados de morfología con SEM, pruebas de FTIR y determinación del bandgap de los materiales.
Fuentes Osorio Edwin Yahir, Instituto Tecnológico de Reynosa
Asesor: M.C. Rodrigo Rodríguez Rubio, Instituto Tecnológico de Querétaro

IMPLEMENTACIóN DEL LABORATORIO DE CALIBRACIóN PARA MEDICIONES ELéCTRICAS CON LABVIEW


IMPLEMENTACIóN DEL LABORATORIO DE CALIBRACIóN PARA MEDICIONES ELéCTRICAS CON LABVIEW

Fuentes Osorio Edwin Yahir, Instituto Tecnológico de Reynosa. Guevara Garay Eder Joel, Universidad Politécnica de Altamira. Medel Toxtle Concepción Abigail, Benemérita Universidad Autónoma de Puebla. Romero Zárate Valentina, Instituto Politécnico Nacional. Asesor: M.C. Rodrigo Rodríguez Rubio, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En el Tecnológico Nacional Campus Querétaro existen las carreras de Ingeniería Electrónica, Eléctrica, Semiconductores Y Mecatrónica. Estas carreras realizan prácticas con mediciones eléctricas y cálculos, por lo que se requieren instrumentos de medición conocidos y fuentes de tensión directa confiables. Con base en la Guía BIPM/ISO para la expresión de la incertidumbre en las mediciones, se determina el nivel de confiabilidad y el error de cada instrumento con su incertidumbre.   La incertidumbre del resultado de una medición muestra la carencia de conocimiento concreto del valor del mensurando. Los componentes de incertidumbre se clasifican en dos categorías: tipo A y tipo B. La incertidumbre tipo "A" (UA) es obtenida de una distribución de frecuencia observada, mientras que la incertidumbre tipo B (UB) se obtiene de una función de probabilidad basada en las especificaciones del fabricante de cada instrumento. La raíz de la suma de los cuadrados de estas funciones hace lo que se conoce como la incertidumbre combinada (UC). La incertidumbre expandida (UE) es el producto de la incertidumbre combinada por un factor de cobertura k = 2. 



METODOLOGÍA

Inicialmente, se realizaron mediciones manuales de fuentes de tensión y resistores para observar la deriva térmica en los instrumentos. Las fuentes de tensión utilizadas en este caso fueron: Agilent y BK Precision 1785B, mientras que los resistores muestreados fueron los BP 601 A1, A2, y A3; un resistor variable Höchstbelastung y un resistor fijo. El multímetro Keithley 199 fue el instrumento de medición empleado.   La comunicación entre LabVIEW y el equipo físico del laboratorio se realizó a través de puertos GPIB, los cuales siguen la Norma IEEE 488 aplicada en el control de aparatos de medición.   Mientras tanto, se llevó a cabo un mantenimiento correctivo tanto a la fuente de tensión Amrel como al regulador de CA. Al primer dispositivo se sustituyeron dos capacitores y se hizo una limpieza a sus componentes, mientras que, al segundo se le aplicaron 3 capas de barniz, ya que generaba ruido por las vibraciones del transformador.  Para la recolección automática de datos de resistencia se realizaron mediciones de los siguientes resistores: BP 601 A1 (15 Ω), A2 (150 Ω), A3 (15 Ω); un resistor fijo (60 Ω), resistor variable Supreix (62 Ω), 2 resistores variables Höchstbelastung (33 Ω), resistor variable Elettronica Veneta (370 Ω). El circuito empleado para medir la magnitud de resistencia consistió en una conexión de cuatro terminales del resistor con el Óhmetro.  Al medir la tensión se conectó cada una de las fuentes directamente al Voltímetro. En el caso de las dos fuentes BK Precision se ajustó el intervalo automáticamente desde 0.01 V hasta 18 V, para la Agilent se ajustaron manualmente los intervalos y se tomaron muestras desde 1 V hasta 20 V y de -10 V a -20 V, por último, de la fuente Amrel se tomaron muestras para sus dos canales en el intervalo de 0.01 V hasta 30 V.  Para tomar las muestras de la magnitud de corriente se realizó un circuito en el cual se utilizó la fuente BK Precision 2 y se seleccionaron las décadas BP 601 A1 y A2, dado que los valores requeridos fueron 0.001 A, 0.005 A, 0.01 A, 0.05 A, 0.1 A, 0.5 A y 1 A. Una vez teniendo los componentes adecuados se realizaron las mediciones utilizando un Amperímetro y un Voltímetro para recolectar los valores.  En el caso de la potencia, se realizó un circuito en el cual la resistencia a muestrear se conectó en paralelo con el Voltímetro del Wattmetro, a su vez se conectan en serie con el Amperímetro del mismo y con la fuente.  Para el cálculo de incertidumbre se consideraron las siguientes: tipo A, tipo B, combinada y expandida. La UA se obtuvo a partir de las mediciones y utilizando su desviación estándar. La UB se divide en dos subtipos: B1 y B2. El primero se obtuvo mediante las especificaciones del manual, mientras que el segundo se obtuvo con la resolución del instrumento de medición.  Para calcular la incertidumbre expandida era indispensable obtener la incertidumbre combinada, que se obtuvo con una ecuación propuesta en la que se implican las magnitudes en relación con las mediciones y valores de los promedios de cada medición junto con su error. También, se requería conocer los grados efectivos de libertad de cada magnitud, tomando este valor como referencia se utilizó la tabla de T de Student para determinar el factor de cobertura respecto al nivel de confianza definido. Este dato servirá para obtener la incertidumbre expandida.  Con los valores obtenidos, se realizaron gráficos del promedio y su desviación estándar, el promedio con su error y el error con la incertidumbre expandida, esto con el fin de visualizar gráficamente la variación de cada valor por días y así determinar si el instrumento bajo a prueba es confiable y conocer su nivel de precisión y exactitud. 


CONCLUSIONES

Al analizar la incertidumbre de cada uno de los equipos mencionados en la metodología se determinó que los resistores más precisos, tomando como referencia la incertidumbre expandida (UE) de cada dispositivo; en cuanto a resistores fijos, el BP 601 A1 es el más preciso, con un factor de incertidumbre de 8%, mientras que, con los resistores variables, los más precisos son ambos dispositivos alemanes (Höchstbelastung) con una incertidumbre promedio de 5% entre un valor y otro en una escala de resistividad de 0% a 100%. Por otra parte, la fuente de tensión menos dispersa y más precisa fue la BK Precision 2, debido a esto fue viable usarla para el muestreo de corriente.  La caracterización de los equipos e instrumentos del laboratorio de Electrónica se realizó de manera satisfactoria, lo cual permitirá llevar a cabo prácticas de medición y cálculos más exactos y precisos que servirán de apoyo a la comunidad estudiantil del ITQ.  
Fuentes Vega Paola Alina, Universidad de Guadalajara
Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara

OBTENCIóN Y CARACTERIZACIóN DE PELíCULAS DE ALMIDóN TERMOPLáSTICO REFORZADAS CON NANOFIBRAS DE FRESNO


OBTENCIóN Y CARACTERIZACIóN DE PELíCULAS DE ALMIDóN TERMOPLáSTICO REFORZADAS CON NANOFIBRAS DE FRESNO

Fuentes Vega Paola Alina, Universidad de Guadalajara. Gabriel Espinoza Jessica Alejandra, Universidad de Guadalajara. Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El plástico después de su invención ha sido utilizado a nivel mundial a partir de la mitad del siglo XX y desde entonces esta industria se ha desarrollado rápidamente, con la elaboración de una amplia gama de productos sintéticos que tiene buenas características y bajos costos, reemplazando a productos elaborados con otros materiales, manteniendo de esta manera intactas sus propiedades físico - químicas y microbiológicas (Vasco, 2008) durante el almacenaje, distribución y conservación, es por este motivo, que se ha incrementado su uso, pero por otro lado, constituye uno de los mayores problemas de contaminación al ambiente (Brito, 2007), ya que su tiempo de degradación va de 100 a 1000 años. Por tal motivo, el almidón termoplástico ha recibido considerable atención para la formulación de películas biodegradables debido a su naturaleza completamente biodegradable, no obstante, las películas elaboradas solamente con almidón poseen poca resistencia al agua, propiedades mecánicas y actividad antimicrobiana (Arifin et al., 2016). Estos problemas se han reducido cuando se incorporan en la matriz termoplástica rellenos naturales como fibras celulósicas que sirven como material de refuerzo para mejorar las propiedades mecánicas. Se usan varias técnicas para modificar el almidón, comúnmente usadas en polímeros sintéticos como son: extrusión, inyección, método de casting, entre otras técnicas. El método de casting es un  proceso mediante el cual un líquido es vertido en un molde y dejado para su reacción, curado o endurecimiento para formar un objeto rígido que reproduce la cavidad del molde. Durante el verano de  investigación se elaboraron y estudiaron películas de almidón termoplástico reforzadas con nanofibras de fresno procesadas por el método de casting.



METODOLOGÍA

Se desarrolló el método de casting utilizando los siguientes componentes: Almidón: 11 g Glicerol: 3.3 g Agua: 209 g, aunque la cantidad varió según el porcentaje de nanofibras: 5% de nanofibras: 197 g de agua 10% de nanofibras: 185 g de agua Nanofibras: 5%: 12 g 10%: 24 g Extractos: Se utilizó una variación en la cantidad de extractos de muicle y Jamaica: Muicle: 1 g y 2 g Jamaica: 1.25 g y 2.5 g Un baño maría, compuesto de aceite y un vaso de precipitado de 600 mL, se puso a calentar. Mientras tanto, se mezclaron el almidón, el agua y el glicerol hasta obtener una mezcla homogénea, la cual se vació en el vaso de precipitado y se comenzó a agitar. Se tapó el vaso con aluminio para ayudar a  mantener el calor hasta alcanzar una temperatura de 80°C, la cual, se mantuvo durante 30 minutos con agitación constante. Cuando faltaban 3 minutos para completar el tiempo de gelación (30 minutos), se agregaron las nanofibras con el extracto previamente homogeneizado con el ultraturrax. Después, se sometió a sonicación durante 15 minutos para eliminar las burbujas generadas durante la gelación. La mezcla se dividió en dos moldes, los cuales se pusieron a secar en un horno con un medio húmedo para garantizar un secado uniforme, a una temperatura de 35°C durante 24 horas. Finalmente, se retiraron del molde y se almacenaron en bolsas plásticas selladas para evitar la humedad y preservar sus propiedades con el objetivo de realizar las caracterizaciones químicas correspondientes de una manera óptima. Para realizar las caracterizaciones mecánicas de la película, se cortaron probetas de 14 cm x 1 cm las cuales fueron puestas a humectar en un desecador por 48 horas. Transcurrido el tiempo se  almacenaron en bolsas de plástico selladas.


CONCLUSIONES

Durante este período de verano, se adquirieron habilidades técnicas y se tuvo acceso a equipos que facilitaron la obtención de resultados precisos y confiables.Se comenzó a realizar las mediciones de espesor de las películas. También, en las  propiedades de barrera se observó una reducción en la permeabilidad al agua y oxígeno, lo cual es beneficioso  para aplicaciones de embalaje de alimentos.  Se prevé que en la caracterización química y mecánica, se confirme la dispersión y adhesión de las nanofibras dentro de la matriz de almidón; así como, se  observe  mejoras en la resistencia a la tracción y el módulo de elasticidad ya que esto nos indicaría que las nanofibras de fresno actúan eficazmente.
Gabriel Espinoza Jessica Alejandra, Universidad de Guadalajara
Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara

OBTENCIóN Y CARACTERIZACIóN DE PELíCULAS DE ALMIDóN TERMOPLáSTICO REFORZADAS CON NANOFIBRAS DE FRESNO


OBTENCIóN Y CARACTERIZACIóN DE PELíCULAS DE ALMIDóN TERMOPLáSTICO REFORZADAS CON NANOFIBRAS DE FRESNO

Fuentes Vega Paola Alina, Universidad de Guadalajara. Gabriel Espinoza Jessica Alejandra, Universidad de Guadalajara. Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El plástico después de su invención ha sido utilizado a nivel mundial a partir de la mitad del siglo XX y desde entonces esta industria se ha desarrollado rápidamente, con la elaboración de una amplia gama de productos sintéticos que tiene buenas características y bajos costos, reemplazando a productos elaborados con otros materiales, manteniendo de esta manera intactas sus propiedades físico - químicas y microbiológicas (Vasco, 2008) durante el almacenaje, distribución y conservación, es por este motivo, que se ha incrementado su uso, pero por otro lado, constituye uno de los mayores problemas de contaminación al ambiente (Brito, 2007), ya que su tiempo de degradación va de 100 a 1000 años. Por tal motivo, el almidón termoplástico ha recibido considerable atención para la formulación de películas biodegradables debido a su naturaleza completamente biodegradable, no obstante, las películas elaboradas solamente con almidón poseen poca resistencia al agua, propiedades mecánicas y actividad antimicrobiana (Arifin et al., 2016). Estos problemas se han reducido cuando se incorporan en la matriz termoplástica rellenos naturales como fibras celulósicas que sirven como material de refuerzo para mejorar las propiedades mecánicas. Se usan varias técnicas para modificar el almidón, comúnmente usadas en polímeros sintéticos como son: extrusión, inyección, método de casting, entre otras técnicas. El método de casting es un  proceso mediante el cual un líquido es vertido en un molde y dejado para su reacción, curado o endurecimiento para formar un objeto rígido que reproduce la cavidad del molde. Durante el verano de  investigación se elaboraron y estudiaron películas de almidón termoplástico reforzadas con nanofibras de fresno procesadas por el método de casting.



METODOLOGÍA

Se desarrolló el método de casting utilizando los siguientes componentes: Almidón: 11 g Glicerol: 3.3 g Agua: 209 g, aunque la cantidad varió según el porcentaje de nanofibras: 5% de nanofibras: 197 g de agua 10% de nanofibras: 185 g de agua Nanofibras: 5%: 12 g 10%: 24 g Extractos: Se utilizó una variación en la cantidad de extractos de muicle y Jamaica: Muicle: 1 g y 2 g Jamaica: 1.25 g y 2.5 g Un baño maría, compuesto de aceite y un vaso de precipitado de 600 mL, se puso a calentar. Mientras tanto, se mezclaron el almidón, el agua y el glicerol hasta obtener una mezcla homogénea, la cual se vació en el vaso de precipitado y se comenzó a agitar. Se tapó el vaso con aluminio para ayudar a  mantener el calor hasta alcanzar una temperatura de 80°C, la cual, se mantuvo durante 30 minutos con agitación constante. Cuando faltaban 3 minutos para completar el tiempo de gelación (30 minutos), se agregaron las nanofibras con el extracto previamente homogeneizado con el ultraturrax. Después, se sometió a sonicación durante 15 minutos para eliminar las burbujas generadas durante la gelación. La mezcla se dividió en dos moldes, los cuales se pusieron a secar en un horno con un medio húmedo para garantizar un secado uniforme, a una temperatura de 35°C durante 24 horas. Finalmente, se retiraron del molde y se almacenaron en bolsas plásticas selladas para evitar la humedad y preservar sus propiedades con el objetivo de realizar las caracterizaciones químicas correspondientes de una manera óptima. Para realizar las caracterizaciones mecánicas de la película, se cortaron probetas de 14 cm x 1 cm las cuales fueron puestas a humectar en un desecador por 48 horas. Transcurrido el tiempo se  almacenaron en bolsas de plástico selladas.


CONCLUSIONES

Durante este período de verano, se adquirieron habilidades técnicas y se tuvo acceso a equipos que facilitaron la obtención de resultados precisos y confiables.Se comenzó a realizar las mediciones de espesor de las películas. También, en las  propiedades de barrera se observó una reducción en la permeabilidad al agua y oxígeno, lo cual es beneficioso  para aplicaciones de embalaje de alimentos.  Se prevé que en la caracterización química y mecánica, se confirme la dispersión y adhesión de las nanofibras dentro de la matriz de almidón; así como, se  observe  mejoras en la resistencia a la tracción y el módulo de elasticidad ya que esto nos indicaría que las nanofibras de fresno actúan eficazmente.
Gala Cauich Carlos David, Universidad Autónoma de Yucatán
Asesor: Dr. Antonio Gomez Roa, Universidad Autónoma de Baja California

DISEñO Y CONSTRUCCIóN DE SATéLITES Y COHETES EDUCATIVOS CANSAT


DISEñO Y CONSTRUCCIóN DE SATéLITES Y COHETES EDUCATIVOS CANSAT

Gala Cauich Carlos David, Universidad Autónoma de Yucatán. Ramirez Guzman Luis Dariel, Universidad Autónoma de Yucatán. Ramos Vázquez Dariana Lucia, Universidad de Colima. Rodríguez Gallardo Héctor Fernando, Universidad de Colima. Valencia López Rodrigo, Instituto Tecnológico de Morelia. Asesor: Dr. Antonio Gomez Roa, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Durante los últimos años, el desarrollo de proyectos espaciales ha tomado relevancia en el marco de las áreas de la ingeniería. Agencias espaciales y empresas privadas alrededor del mundo han podido aprovechar el constante avance tecnológico para desarrollar satélites y vehículos espaciales dentro de este boom espacial.  En México, la investigación y el desarrollo en las áreas de construcción de satélites y cohetes, tanto experimental como educativa han enfrentado muchos desafíos como la falta de recursos financieros, reformas constitucionales y recurso humano capacitado en los temas de la ingeniería espacial, lo cual deja a nuestro país rezagados a comparación de países emergentes.  Esta problemática puede ser minimizada de diferentes formas, ya sea con una nueva reforma espacial, el aumento del capital humano nacional al desarrollo espacial en México o con el apoyo del gobierno a través del financiamiento de proyectos de investigación en estas áreas. Por ello, este programa nos brinda la oportunidad de capacitarnos en temas de espaciales, además de trabajar con nuevas innovaciones para mejorar los lanzamientos de cohetes y diseños de satélites ya existentes. Por otro lado, para difundir las ciencias espaciales en nuestras localidades y continuar promoviendo el aumento de nuevos proyectos espaciales en el país.  Actualmente, en las competencias y lanzamientos de satélites CANSAT se realizan con drones, que llevan la carga útil a cierta altura. Se planteó la posibilidad de subir los satélites usando cohetes por lo que en el verano de investigación se estudió la posibilidad de utilizar diferentes cohetes para saber cuan viable son de esa manera.   Para esta investigación se propuso el lanzamiento de 3 diseños de cohetes construidos con materiales reciclables y económicos como una propuesta de transporte para llevar un diseño de pico satélite del tipo CanSat a cierta altura estipulada con el objetivo de recabar datos meteorológicos, de localización y orientación. 



METODOLOGÍA

Se planeó la construcción de 3 cohetes que usaran diferentes métodos de manufactura y un diseño de pico satélite CanSat para realizar una misión de análisis atmosférico y de localización en la Laguna Salada, Mexicali.Se inicio con el planteamiento de una placa de forma circular, de forma que se hacía un reto diferente el poder crear un diseño que cumpliera con los requerimientos necesarios para poder contener de manera correcta todos los componentes que se contendrían dentro del CanSat, para esto se crearon un total de 3 diseños experimentales con el software de diseño mecánico de SolidWorks, buscando con estos la mejor forma de acomodar los componentes, dando como resultado un diseño que podría contener todos los elementos seleccionados cumpliendo así con la misión inicial  la cual fue integrar de manera óptima los componentes del CanSat dentro del volumen de una lata de 355ml. Una vez teniendo los modelos 3D en el software se imprimieron todos estos por medio de una impresora 3D culminando así en su posterior ensamblaje. Previo a la construcción de los cohetes se realizaron diversos análisis de simulación en el software de simulación OpenRocket para modelar y simular el rendimiento de las diversas propuestas de cohetes a construir. Entre las variables analizadas estuvieron las dimensiones, geometría y peso a elegir del cono, fuselaje y aletas del cohete. La elección del motor a utilizar en particular también fue un factor clave a la hora de la simulación. Para los primeros 2 modelos diseñados y simulados se usaron tubos de cartón semigrueso en espiral como el fuselaje, las aletas de fueron cortadas a medida en madera y el cono utilizado una máquina de corte CNC Router.  El tercer cohete fue un diseño que utilizó materiales de fibra de vidrio en la mayor parte de su estructura. Las aletas, fuselaje, contenedor del motor y cono fueron hechos de rollos de tela de fibra de vidrio. Una vez armados los 3 cohetes, se instaló el sistema de recuperación a cada uno que consistió en una cuerda atada desde el fuselaje hasta el cono. Entre la cuerda de ató un paracaídas junto a un protector de paracaídas para la explosión de liberación. Finalmente, se instalaron los motores G-125 y G-80T para los primeros dos cohetes de cartón nombrados Loro 1 y Jaguar Zero y el motor I-175WS para el tercer cohete de fibra de vidrio nombrado Alebrije. El CanSat se decidió lanzar dentro de Loro 1, mientras que los demás serían lanzados vacíos para el día de lanzamiento. 


CONCLUSIONES

Para validar los diseños de cohetes y satélites se utilizó el campo de lanzamiento de COEHTES de la asociación TRIPOLI MEXICO ubicado en la Laguna Salada en el municipio de Mexicali en el estado de Baja California, para lanzar los 3 cohetes diseñados y construidos durante la estancia del verano de investigación del programa delfín   La misión tuvo 3 vuelos exitosos de los modelos Loro 1, Jaguar Zero y Alebrije los cuales lograron altitudes de 285 m, 355 m, 353 m respectivamente. Estos fueron recuperados en óptimas condiciones a excepción del modelo Alebrije que tuvo un impacto a tierra sin paracaidas. Con estos lanzamientos de cohete comprobamos que son una buena solucion como medio de expulsión de satélites tipo CanSat ademas que resulto rentable en relación al tiempo de elaboración, bajo costo y alto rendimiento.  El modelo CanSat representó un reto diseño innovador ya que la propuesta original se logró el objetivo de diseñar y construir un satélite con componentes de montaje superficial. Mismo que también detectamos un área que mejorar y reconsiderar para futuras misiones.  La misión y programa de investigación realizada durante el programa delfín fue una experiencia enriquecedora para aprender conceptos, técnicas y la logística de un proyecto espacial desde su planeación hasta su lanzamiento. Estos conocimientos serán bases firmes que nos permitirán formar parte de la comunidad de cohetería experimental de México desde nuestras localidades, promoviendo la ingeniería espacial en el país. 
Galán Reyes Teresa Deyanira, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato

IDENTIFICACIóN DE RIESGOS POR PUESTO DE TRABAJO PARA DETERMINAR EL EPP DENTRO DE UN LABORATORIO DE MANUFACTURA


IDENTIFICACIóN DE RIESGOS POR PUESTO DE TRABAJO PARA DETERMINAR EL EPP DENTRO DE UN LABORATORIO DE MANUFACTURA

Alvarez González Orlando Anthony, Instituto Tecnológico Superior de Guanajuato. Galán Reyes Teresa Deyanira, Instituto Tecnológico Superior de Ciudad Hidalgo. Jiménez Gómez Athziri Yazmin, Instituto Tecnológico de Tlalnepantla. Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Una Institución de Educación Superior (IES) cuenta con personal administrativos y docente, es así que en su oferta educativa se encuentran 5 ingenierías; sin embargo, dos de ellas realizan prácticas en el laboratorio de manufactura donde desempeñan actividades que involucran el uso de maquinaria y equipo por parte de los laboratoristas, docentes y estudiantes. Por lo tanto, los trabajadores se encuentran expuestos a peligros de trabajo que pudieran ocasionar un riesgo durante la operación. El estudio se considera una investigación aplicada ya que se realizó la adaptación de herramientas de seguridad industrial para la reducción de la probabilidad de riesgo durante la exposición a los peligros de la maquinaria y equipos; considerando un enfoque cuantitativo, un alcance descriptivo y un diseño transversal, así como la operacionalización de variables enfocada al conteo de peligros identificados. La importancia de este estudio radica en la necesidad de garantizar un ambiente seguro para todos los usuarios del laboratorio, minimizando los accidentes y mejorando las condiciones laborales.



METODOLOGÍA

Para el desarrollo del estudio se identificaron dos instrumentos de recogida de datos basados en la NOM-017-STPS incorporando las disposiciones 5.2 y 5.3 además de la aplicación de la guía de referencia que contiene las tablas A1 y A2. Estos instrumentos se utilizaron para garantizar la adecuada evaluación y control de riesgos en el laboratorio de manufactura. Se desarrollo un análisis de riesgos el cual contiene la razón social, las actividades a desarrollar, el puesto de trabajo, los riesgos identificados, los riesgos anatómicos, las medidas de seguridad, los trabajadores a los que se les debe de proporcionar EPP, nombre y firma del trabajador analizado. Además, se determinó el EPP por puesto de trabajo. El instrumento diseñado para esta evaluación debe contener el puesto de trabajo evaluado, la maquinaria y equipo, EPP por región anatómica y especificaciones técnicas del EPP, asegurando que el equipo proporcionado es adecuado para proteger contra los riesgos identificados.


CONCLUSIONES

Como resultado se identificaron el total de peligros por maquinaria y equipo logrando clasificar la cantidad de riesgos físicos y de salud.  Como seguimiento al análisis de riesgo se establecieron medidas de seguridad y control por cada peligro identificado. Este proceso permitió una comprensión integral de los peligros presentes en la seguridad de los trabajadores y estudiantes. Tanto el objetivo general como los objetivos específicos fueron logrados con éxito. Se realizó un análisis de riesgo y determinación de EPP necesario por cada puesto de trabajo.  Además, de realizar actividades complementarias como el uso de jerarquía de controles y especificaciones técnicas del EPP a utilizar. En cuanto a las limitaciones del estudio se identifica que el análisis solo es una propuesta que es importante que adopte el centro de trabajo además de que se sugiere la implementación de las disposiciones correspondientes a la asignación, uso y manejo de EPP según lo marca la NOM-017-STPS.
Galindo Enriquez Angel Roman, Benemérita Universidad Autónoma de Puebla
Asesor: Ing. Prócoro Barrera Nabor, Instituto Mexicano del Petróleo

GEOTECNIA Y GEOFíSICA MARINA


GEOTECNIA Y GEOFíSICA MARINA

Galindo Enriquez Angel Roman, Benemérita Universidad Autónoma de Puebla. Hernandez Rodríguez Martín David, Universidad Veracruzana. Asesor: Ing. Prócoro Barrera Nabor, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

PEMEX necesita instalar plataformas marinas fijas para extraer hidrocarburos y proporcionar combustible a la industria petrolera nacional. Estas plataformas también ofrecen servicios como compresión de gas, procesamiento, hospedaje y telecomunicaciones. Se fijan al lecho marino con pilotes de cimentación, cuyo diseño depende del tipo de estructura y suelo. Para un diseño adecuado, se realizan estudios geofísicos y geotécnicos para identificar las condiciones del sitio y obtener los parámetros necesarios para la cimentación.



METODOLOGÍA

Previo a la construcción de una plataforma marina, sea cual sea el uso, se tiene que hacer siempre un estudio de rasgos y riesgos para determinar si un sitio es viable para llevar a cabo la instalación de  una plataforma marina y caso de confirmarse, proceder a la ejecución de un sondeo geotécnico para la obtención de muestras de suelo, que serán llevadas al laboratorio de mecánica de suelos para realizar pruebas que proporcionen los parámetros para el diseño de la cimentación para el tipo de estructura requerida. Exploración Geofísica El método de exploración geofísica se aplica para el reconocimiento de un área de estudio con sísmica 2D de alta resolución, el cual se realiza en un área cuadrada de 2.1 x 2.1 Km, dentro de la cual se trazan líneas ortogonales para el recorrido de la embarcación, donde serán instalados los equipos para la exploración, donde se recolectará 1 muestra en cada vértice con un pistón de gravedad. Los equipos requeridos para la exploración se listan a continuación: Embarcación para la exploración geofísica (Tipo abastecedor) Embarcación remota WAM-V 22 ASV Equipo geodésico de posicionamiento global Ecosonda multi haz - (Norbit Winghead i177h) Sonar de barrido lateral -(Edgetech 4125) Perfilador somero (SBP - Innomar Medium 100) Perfilador profundo (Sercel Seal Multichannel Seismic). El perfilador somero trabaja con altas frecuencias y alcanza muy poca penetración bajo el fondo marino y el profundo con bajas frecuencias y logra una mayor penetración; ambos instrumentos registran las ondas que viajan a través del subsuelo, con las que se puede generar un modelo estratigráfico, identificar el tipo de material del que se componen las capas y localizar rasgos geológicos o naturales como: Bolsas de Gas de bajo, medio y de alto riesgo. Chimeneas de gas Fallas geológicas Arrecifes sepultados Canales sepultados Canales de erosión superficial Socavaciones y/o Pockmarks Montículos de lodo La embarcación de exploración geofísica recorre las líneas de la retícula de 2.1 x 2.1 Km, emitiendo las señales sísmicas y registrando los tiempos doble vía y recolectándolo los datos en tiempo real, los cuales son procesados e interpretados para la generación de mapas de rasgos y riegos. Finalmente, durante la exploración se recolecta una muestra en cada uno de los vértices, para su análisis mediante pruebas geotécnicas en los laboratorios de Mecánica de -Suelos, que permiten la caracterización del fondo marino. Exploración Geotécnica Después de obtener la factibilidad del proyecto a través de los estudios geofísicos, se procede a la exploración y muestreo geotécnico. El primer paso es la debida posición del barco de exploración en las coordenadas solicitadas Se realizan dos sondeos a no más de 10 m de distancia de las coordenadas iniciales y no menos de 5 m entre los sondeos. En ambos sondeos, mixto y PCPT, se la realiza la medición de la profundidad de agua y la corrección del nivel de profundidad por la variación de mareas. El sondeo mixto permite la recuperación de muestras de suelo y el PCPT realiza la medición de la resistencia por punta, fricción y presión de poro. Después de la exploración geotécnica, se procede con la ejecución de las pruebas de laboratorio. Es importante especificar que algunas pruebas se realizan en el barco y otras en el laboratorio en tierra. Se realizan las pruebas Índice tales como límites de consistencia, contenido de humedad, peso volumétrico, tamaño de partícula, contenido de carbonatos, etc. Al mismo tiempo, se llevan a cabo las pruebas de Resistencia. Dentro de estas, se encuentran las de resistencia estimada como Penetrómetro de Bolsillo, Torcometro o pruebas de resistencia exactas, veleta miniatura o pruebas triaxiales. Una vez que se han realizado todas las pruebas necesarias, se procede a la interpretación y evaluación de los resultados. Este paso es crucial, debido a que los parámetros muchas veces pueden estar dispersos respecto a los diferentes tipos de pruebas. Finalmente, se obtiene una caracterización de cada estrato que conforma el perfil estratigráfico. Con esta información, se procede al análisis de capacidad de carga. Este análisis se realizará posteriormente para determinar, por ejemplo, las dimensiones de las placas temporales de apoyo de las plataformas fijas, el análisis de penetración de zapatas de plataformas autoelevables, el diámetro de los pilotes cimentación que transmitirán la carga de la subestructura y super estructura hacia los estratos del suelo.


CONCLUSIONES

La geofísica y la geotecnia son esenciales para la instalación segura de plataformas marinas. La geofísica identifica riesgos en el lecho marino, como bolsas de gas y fallas geológicas, para evitar problemas futuros. La geotecnia caracteriza las propiedades del suelo marino mediante pruebas que determinan límites de consistencia, contenido de humedad y peso volumétrico. Estos datos son cruciales para diseñar y construir plataformas, ya que permiten determinar la capacidad de carga del suelo y las dimensiones adecuadas de la plataforma y los pilotes. Ambas disciplinas, al trabajar juntas, garantizan la seguridad y eficiencia de las plataformas, permitiendo a PEMEX satisfacer las necesidades de combustible de manera segura y efectiva.
Galindo Murgas Santiago José, Fundación Universitaria del Área Andina
Asesor: Dr. Antonio Hurtado Beltran, Universidad Michoacana de San Nicolás de Hidalgo

IMPACTO OPERACIONAL DE LA INTERACCIóN DE VEHíCULOS AUTóNOMOS Y CONECTADOS Y VEHíCULOS CONVENCIONALES EN UN MODELO DE MICROSIMULACIóN DE TRáFICO


IMPACTO OPERACIONAL DE LA INTERACCIóN DE VEHíCULOS AUTóNOMOS Y CONECTADOS Y VEHíCULOS CONVENCIONALES EN UN MODELO DE MICROSIMULACIóN DE TRáFICO

Galindo Murgas Santiago José, Fundación Universitaria del Área Andina. Asesor: Dr. Antonio Hurtado Beltran, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El comportamiento de los vehículos autónomos y conectados en México no está suficientemente estudiado ni comprendido, lo que plantea riesgos y oportunidades importantes para su implementación y regulación. A pesar de los avances tecnológicos, existen incertidumbres en cuanto a cómo estos vehículos interactuarán con el entorno vial mexicano, donde se determinan distintos parámetros donde la interacción con conductores humanos pueden no seguir las normas de tránsito de manera consistente con respecto a las velocidades, tiempo de viaje y otros factores influyentes en las autopistas mexicanas. Como objetivo principal del problema en cuestión, se pretende desarrollar un modelo de microsimulación de tráfico de un segmento básico de autopista donde se muestre la interacción de vehículos autónomos y conectados y vehículos convencionales con la finalidad de cuantificar su impacto operacional. Para ello se debe tener en cuenta la plataforma de código abierto SUMO para la creación de la microsimulación del segmento de la vía Guadalajara-México y el modelado de los pelotones de vehículos pesado autónomos y conectados que puedan ser introducidos en el modelo de microsimulación del segmento básico de autopista. Con base en ello, se espera modelar solamente pelotones de cinco trailers autónomos y conectados que involucren un determinado comportamiento operacional en el transcurso de un período determinado y así proyectar éste tipo de tecnologías a futuras generaciones.



METODOLOGÍA

Cada escenario se elaboró de la siguiente manera: El primer escenario se compone por 100% vehiculos autónomos, el segundo escenario por 100% vehículos convencionales y el tercer escenario por 50% vehículos autónomos y 50% vehículos convencionales, en los cuales se ejecutaron cinco simulaciones de cada uno para realizar el análisis pertinente de los resultados obtenidos. Para el desarrollo de la simulación se utilizó la  aplicación SUMO en la cual se registraron todos los datos tomados de la dirección general de servicios técnicos sct donde se registra la velocidad a punto mediante el percentil 85 un valor de velocidad promedio para vehículos convencionales de 112,9 Km/h, para vehículos pesados como autobuses de 90,1 Km/h, y para camiones de 89,7 Km/h. Para la construcción del corredor vial se utilizó una variante de la aplicación SUMO llamada Netedit la cual nos permite elaborar toda la estructura de nuestra via Guadalajara-México, teniendo en cuenta las velocidades de los carriles y algunos otros factores influyentes. Para determinar el comportamiento de los vehículos autónomos y conectados se utilizó un código de la página web de SUMO llamado SIMPLA el cual permite identificar el comportamiento de cada vehículo autónomo mediante colores representativos que le asignan un rol de lider y seguidor dependiendo de parámetros del pelotón a estudiar con respecto al periodo correspondiente de salida para todos los pelotones, y con ello, además, se debe evaluar el comportamiento general y operacional de todo el tráfico en la autopista desarrollada donde se incluyó el comportamiento KRAUSS para los vehículos convencionales que permite transcurrir con normalidad cada vehículo donde se identifica un comportamiento similar a la vida real y de carácter independiente.


CONCLUSIONES

Se tuvo en cuenta una serie de resultados donde se registraron para el primer escenario un valor de tiempo de viaje de 9 minutos con 58 segundos aproximadamente, una densidad de 7,89, un tiempo de demora de 3 horas aproximadamente, una velocidad promedio de 105 Km/h, una tasa de flujo de 1105, y un total de 4250 movimientos de carril realizados, para el segundo escenario un valor de tiempo de viaje de 9 minutos con 55 segundos aproximadamente, una densidad de 7,76, un tiempo de demora de 3 horas con 53 minutos aproximadamente, una velocidad promedio de 105,5 Km/h, una tasa de flujo de 1093, y un total de 3714 movimientos de carril realizados, y por último para el tercer escenario un valor de tiempo de viaje de 10 minutos aproximadamente, una densidad de 8,82, un tiempo de demora de 3 horas con 57 minutos aproximadamente, una velocidad promedio de 103 Km/h, una tasa de flujo de 1213, y un total de 6296 movimientos de carril realizados. Con base en los resultados registrados, los comportamientos de los vehículos autónomos y conectados con respecto a los parámetros tenidos en cuenta, determinan el cumplimiento que se espera a la hora de implementarlos en corredores viales pero la integración de este tipo de vehículos conlleva a realizar una serie de cambios en la seguridad vial y otros factores que se vean afectados para su adecuada ejecución. En los resultados obtenidos se determinó un tiempo de viaje promedio de 10 a 9 minutos, una velocidad de 105 kilómetros por hora y un valor promedio total de vehículos de 1137 para los tres escenarios. El escenario que mejor se comportó fue el primero debido a su menor tiempo de demora y menor cantidad de cambios de carril lo que demuestra un eficiente impacto operacional a la hora de reducir la tasa de accidentalidad y otras situaciones implicadas en éste tipo de autopistas, y el que peor comportamiento demostró fue el tercer escenario el cual involucró un mayor número de cambios de carril que demuestra un comportamiento más agresivo y arriesgado a la hora de transitar por éste tipo de autopistas. Gracias a éste análisis, el buen impacto operacional de los vehículos autónomos y conectados implica una serie de beneficios donde se destaca la reducción de costos operativos para empresas de transporte, un eficiente consumo de combustible que emplea un mejor cuidado del medio ambiente y la reducción de riesgos a la hora de presentar situaciones de congestión del tráfico vehicular en éste tipo de autopistas pues lo fines de la implementación de éstas técnologías es maximizar sus ventajas y minimizar los riesgos.
Gallardo García Diego, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Carolina Romero Salazar, Universidad Autónoma Benito Juárez de Oaxaca

MONITOREO DE LA TEMPERATURA, HUMEDAD RELATIVA Y PESO DENTRO DE UN DESHIDRATADOR SOLAR, EMPLEANDO UN MICROCONTROLADOR ESP32 ALIMENTADO CON UN MóDULO FOTOVOLTAICO


MONITOREO DE LA TEMPERATURA, HUMEDAD RELATIVA Y PESO DENTRO DE UN DESHIDRATADOR SOLAR, EMPLEANDO UN MICROCONTROLADOR ESP32 ALIMENTADO CON UN MóDULO FOTOVOLTAICO

Gallardo García Diego, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Carolina Romero Salazar, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

El secado solar es una técnica viable para los países en desarrollo que cuentan con altos niveles de radiación solar. En este tipo de secado, el calor puede suministrarse al material que se está secando mediante exposición directa a la radiación y/o mediante un flujo natural o forzado de aire calentado por el sol sobre o a través del material. Un secador debe deshidratar los productos desde su humedad inicial, superior al 80% hasta por debajo del nivel necesario para su conservación, menos del 10%. El secado de alimentos puede parecer sencillo y económico, pero el uso de altas temperaturas o la exposición al oxígeno puede afectar los nutrientes, especialmente las vitaminas, que son más sensibles a los aumentos de temperatura. El monitoreo de temperaturas y la recolección de datos se realiza de forma manual en la mayoría de los casos, lo que puede dar lugar a errores. Para optimizar y tener un mayor control sobre los productos sometidos al secado, es recomendable implementar nuevas tecnologías que faciliten el proceso y reduzcan los errores de medición humanos.



METODOLOGÍA

En la Facultad de Sistemas Biológicos e Innovación Tecnológica de la Universidad Autónoma Benito Juárez de Oaxaca, se tiene un deshidratador solar con dimensiones de aproximadamente 60 cm de alto, 60 cm de ancho y 60 cm de largo. Durante la primera semana, se exploró el funcionamiento del secador y su enfoque en la región.     En los próximos días se realizaron pruebas con cuatro muestras de mango dentro del secador solar. Se midieron las temperaturas en el interior, exterior del gabinete. Estas mediciones se realizaron cada 30 minutos, desde las 10:00 de la mañana hasta las 14:00 horas. Una vez conociendo el funcionamiento del deshidratador solar, se propuso una conexión usando un módulo fotovoltaico para un microcontrolador ESP32, que alimenta a un sensor DHT11, una celda de presión y el sensor Hx711.  Finalmente, se programó la placa ESP32 (haciendo uso del software Arduino IDE y la herramienta Apps Script) para establecer una conexión wifi y enviar los datos a una hoja de cálculo de Excel.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos sobre el secado y los deshidratadores solares, así como profundizar en la programación de microcontroladores y sensores. Por otra parte, se verificó que usando un módulo fotovoltaico de 6 volts - 10 watts y una batería de 3800 mAHr, es más que suficiente para mantener a una placa ESP32 con wifi encendido todo el tiempo. Cabe destacar que existe carga de reserva suficiente para la implementación de otros dispositivos. Finalmente, se verificó que usando el puerto de comunicación https=443 y el almacenamiento de datos en una hoja de cálculo de Excel, limita las veces que puedes almacenar un dato (en este caso 4 veces). Es recomendable usar un servidor XAMPP o implementando una página HTML en la IP local.
Gallegos Cornejo Monica, Instituto Tecnológico Superior de Tacámbaro
Asesor: Dr. Omar Guzmán Quevedo, Instituto Tecnológico Superior de Tacámbaro

CARACTERIZACIóN NUTRICIONAL DE SEMILLA DE BONETE (JACARATIA MEXICANA) PARA SU APROVECHAMIENTO EN LA ALIMENTACIóN FUNCIONAL.


CARACTERIZACIóN NUTRICIONAL DE SEMILLA DE BONETE (JACARATIA MEXICANA) PARA SU APROVECHAMIENTO EN LA ALIMENTACIóN FUNCIONAL.

Gallegos Cornejo Monica, Instituto Tecnológico Superior de Tacámbaro. Velazquez Gonzalez Citlali, Instituto Tecnológico Superior de Tacámbaro. Asesor: Dr. Omar Guzmán Quevedo, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

El bonete (Jacaratia mexicana) Es una especie presente en la zona centro de México, con remarcada presencia en la región de Tierra Caliente de Michoacán. Este fruto puede ser recolectado entre los meses de mayo y junio. Entre la pulpa del fruto se tiene una cantidad considerable de semilla. Este fruto crece de manera silvestre, ya que no necesita riego, fertilización artificial o control de plagas. Dadas sus características puede ser una buena fuente de compuestos bioactivos y materia de base para el desarrollo de alimentos funcionales. Sin embargo, para ser aprovechados es necesario caracterizar la composición nutricional y química, así como investigar sus propiedades beneficiosas para la salud de los consumidores.  Este estudio investigó el potencial uso de la semilla de bonete en la alimentación funcional, a través de la realización de análisis para determinar su valor nutricional, su contenido de polifenoles y su capacidad antioxidante.



METODOLOGÍA

Determinación de la composición nutricional de la semilla de bonete.  Los bonetes fueron obtenidos de la comunidad de Zárate, Mpio de Turicato, Michoacán. Las semillas fueron extraídas del fruto de bonete maduro y conservadas a -20°C hasta su análisis. Paradeterminar la composición nutricional se llevó a cabo un análisis bromatológico siguiendo la normativa vigente, determinando el porcentaje (en base seca) de lípidos totales, proteína, fibra y cenizas. Para los estudios se descongelaron, se deshidrataron a 60°C por 24h y se pulverizaron con un molino para alimentos, siempre evitando al máximo la exposición a la luz. Humedad: Se inició pesando 3g de muestra de la semilla, se metió a la estufa a una temperatura de 105°C por 4 h. Una vez ya concluido el tiempo se pesó y el peso perdido fue considerado como la cantidad de humedad. Cenizas: Para la ceniza, se pesaron 3g de muestra y se dejó en la mufla a una temperatura de 600°C por 6 hora. Transcurrido el tiempo se pesó y calculó el porcentaje de cenizas. Obtención de extracto etéreo: Se pesaron 2g de muestra en un papel filtro y se metió a un cartucho, el cual se llevó a una corneta soxleth, como solvente se usó hexano. Se esperó un tiempo de 4 h para finalmente la grasa quedará en el matraz bola. El exceso de solvente fue rotoevaporado y el procentaje de lípidos totales fue determinado. Obtención de fibra: Se tomó la muestra de la extracción de grasa y se agregaron 200mL de ácido sulfúrico 0.255 N. Se dejó hirviendo por 30min y se filtró en un embudo Buckner con un matraz tipo Kitasato; se enjuagó el vaso con 50/70mL de agua destilada hirviendo, una vez la fibra en el filtro se transfirió a un vaso con 200mL de NaOH al 1.25% y se dejó hirviendo durante 30min. Se filtró nuevamente enjuagando con agua destilada hasta que el pH deje de ser ácido, se dobló el papel filtro con la fibra dentro y se llevó a la estufa a una temperatura de 130°C durante 2 h y después se llevó a cenizas a una temperatura de 600°C por 6 h.  Obtención de proteína: En una muestra de 2g de semilla, se pesaron 2g de sulfato de cobre y 10g de sulfato de sodio, los cuales se agregaron a un matraz Kjeldahl, agregando también 4 perlas de ebullición. Después de mezclar se colocó en el digestor hasta adquirir un color verde esmeralda, se dejó 30min hirviendo. Una vez frío, se añadieron 400mL de agua destilada al matraz Kjeldahl disolviendo la muestra, se le agregaron posteriormente 50mL de hidróxido de sodio 1.1N y se destiló,colocando en un matraz Erlenmeyer 50 mL de ácido bórico al 0.255 N y tres gotas de Shiro-Tashiro, pasando 200 mL de destilación tomando un color violeta a verde, se tituló la muestra en el matraz Erlenmeyer con ácido clorhídrico al 0.1 N. Determinación de polifenoles totales: Se determinaron en 2g de muestra de semilla de bonete usando la técnica de determinación de fenoles totales con Folin-Ciocalteu. Para ello, a la muestra se le agregaron 20mL de hexano por cada muestra (triplicado) y se dejaron reposar por 2h. Concluido el tiempo se retiró el hexano y se colocaron 15mL de metanol/agua (80:20 v/v), la muestra se incubó a 45°C por 24h. Posteriormente se centrifugó 3 veces con 15mL de metanol/agua a 3600 rpm durante 15min, recuperando el sobrenadante en tubos. Se llevó la muestra ya centrifugada al rotovaporador a 120 rpm a 50°C, se recuperócon 5mL de metanol/agua, se filtró y se almacenó en un frasco de vidrio a -18°C en condiciones de oscuridad. Al extracto se le adicionó el Folin-Ciocalteu y una solución de bicarbonato de sodio. Después de reposar 20min se determinó la absorbencia a 700nm por espectrofotometría. La concentración de polifenoles se determinó comparando con una curva de ácido gálico. Determinación de la capacidad antioxidante por DPPH:A otra parte del extracto polifenólico se le realizó la determinación de capacidad antioxidante con la técnica de DPPH. La cual consistió en agregar el reactivo DPPH, esperar 30min y leer a 517nm en el espectrofotómetro. El valor obtenido se contrastó con una curva patrón de Quercetina.


CONCLUSIONES

Los resultados mostraron que la semilla de bonete contiene un elevado porcentaje de lípidos (38.12%), en este caso aceites. También fue detectado un alto porcentaje de proteína (19.12%) y fibra (35.44%). El contenido de minerales fue también considerable, alrededor de 6.04%. Por diferencia, se calculó 1.28% de carbohidratos. En cuanto a los polifenoles totales, los datos arrojaron la presencia de 3.45 µg equivalentes de AG/g. Además, se encontró una capacidad antioxidante considerable: de 110.83 µg equivalentes QE/100g con un %inhibición de DPPH = 76.41. En general, los resultados muestran que la semilla de bonete posee una composición nutricional sobresaliente, con alto contenido de aceites, proteína y fibra y reducida cantidad de carbohidratos. Lo anterior asociado a su actividad antioxidante vuelven a este material altamente interesante para su uso en la elaboración de alimentos saludables. Por otra parte nuestra estancia de verano fue una experiencia que nos permitió desarrollar habilidades valiosas. El convivir con estudiantes de otras regiones del país nos permitió conocer diferentes costumbres y tradiciones.
Gallegos Delgado Jesus Armando, Instituto Tecnológico de Matamoros
Asesor: Dra. Valeria Jordana Gonzalez Coronel, Benemérita Universidad Autónoma de Puebla

DISEñO DE MATERIALES POLIMéRICOS


DISEñO DE MATERIALES POLIMéRICOS

Gallegos Delgado Jesus Armando, Instituto Tecnológico de Matamoros. Salgado Herberth Fernanda Lizbeth, Instituto Tecnológico de Matamoros. Asesor: Dra. Valeria Jordana Gonzalez Coronel, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La investigación de los polímeros hidrosolubles se ha profundizado y se ha logrado determinar una gran variedad de aplicaciones, como: espesantes en la formulación de pinturas, en cosméticos, en la industria farmacológica, en tratamiento de aguas residuales y en la extracción de petróleo. Sin embargo, el proceso de polimerización en masa presenta desafíos importantes, como el hecho de que parte del monómero se queda sin reaccionar, la mezcla reaccionante posee una alta viscosidad y además tiene una dificultad en el control térmico. Todo esto afecta la eficiencia y la pureza del polímero producido. Debido a la necesidad de espesantes en diversas aplicaciones como pinturas, extracción de petróleo, alimentos, cosméticos, etc., se hace indispensable el estudio de materiales poliméricos que tengan propiedades reológicas capaces de cumplir con esa funcionalidad. Por ello la obtención de este tipo de polímeros y el análisis de su estructura es importante. Este enfoque busca optimizar el proceso de polimerización, minimizar las impurezas y garantizar un producto final de alta calidad adecuada para sus diversas aplicaciones industriales



METODOLOGÍA

La metodología para la obtención de la poliacrilamida consistió en realizar una polimerización en solución, utilizando acetonitrilo como disolvente y ACVA como iniciador. Se desgasificó y eliminó el oxígeno utilizando nitrógeno, con el fin de prevenir la inhibición de la polimerización. La reacción se llevó a cabo durante el lapso de una hora, observándose atentamente los primeros minutos para asegurar la correcta progresión. Pasado el tiempo, se detuvo la reacción y se dejó enfriar la solución, posteriormente se filtró y se realizó un lavado con metanol (eliminando de esta forma cualquier posible residuo), se repitió este procedimiento dos veces, finalmente se colocó lo obtenido en la estufa a 50°C durante cuatro horas, una vez transcurrido el tiempo se obtiene la poliacrilamida. Con la poliacrilamida obtenida se realizaron dos técnicas de espectrofotometría; FTIR para identificar los grupos funcionales presentes y RMN para determinar la estructura molecular del polímero, con estas técnicas se confirmó la presencia de poliacrilamida. Además se utilizó un viscosímetro Ubbelohde para medir el peso molecular del polímero.


CONCLUSIONES

Este proyecto proporcionó una mejor comprensión del proceso de polimerización por radicales libres y la caracterización de polímeros hidrosolubles, como la poliacrilamida, con potenciales aplicaciones en diversas industrias. Se logró sintetizar poliacrilamida mediante polimerización en solución usando acetonitrilo como disolvente y ACVA como iniciador. La caracterización por espectroscopia de infrarrojo y resonancia magnética nuclear confirmó la estructura del polímero, y el uso del viscosímetro Ubbelohde ayudó a determinar su peso molecular, validando la pureza y propiedades esperadas del producto final
Gallegos Márquez Vanya Karla, Instituto Tecnológico de Pachuca
Asesor: M.C. Johann Mejías Brito, Instituto Tecnológico de Colima

DISEñO CONCEPTUAL DE DISPOSITIVOS DE REHABILITACIóN PARA PERSONAS CON ENFERMEDADES MUSCULOESQUELéTICAS


DISEñO CONCEPTUAL DE DISPOSITIVOS DE REHABILITACIóN PARA PERSONAS CON ENFERMEDADES MUSCULOESQUELéTICAS

Fierro Juárez Sarahi, Instituto Tecnológico de Pachuca. Gallegos Márquez Vanya Karla, Instituto Tecnológico de Pachuca. Asesor: M.C. Johann Mejías Brito, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

A través de la historia el propósito principal del estudio de las enfermedades incapacitantes, como lo es la atrofia muscular se ha centrado en la elaboración de protocolos, dispositivos y manuales que permitan que las personas que padecen de este tipo de enfermedad puedan mantener un nivel óptimo de independencia, teniendo en cuenta la evolución de la misma enfermedad y proporcionando alternativas de prevención de alteraciones que afecten la funcionalidad de los individuos que la padecen. Es crucial que la sociedad sea consciente de esta problemática y que se investiguen alternativas integrales que mejoren la calidad de vida y promuevan la interacción social de las personas afectadas.  La discapacidad no sólo afecta a la persona con limitaciones físicas en la realización de sus actividades, también muestran un desajuste psicológico, una limitación en su desarrollo socio económico, educativo y cultural (Nordin & Frankel, 2001). En México, de acuerdo a las estadísticas del Censo Nacional de Población y Vivienda proporcionado por el Instituto Nacional de Estadística, Geografía e Informática (INEGI), existen más de dos millones de personas que cuentan con una discapacidad, es decir, representa el 2.31% de la población nacional, siendo la discapacidad motriz la más representativa por encima de la auditiva y visual (Sandoval et al., 2017). En su vida diaria el ser humano está expuesto a sufrir lesiones en las diferentes articulaciones del cuerpo. Lo anterior se debe al desgaste natural a causa de la edad, accidentes o lesiones por actividades deportivas, esto puede causar diferentes tipos de discapacidades o atrofias (López et al., 2014). Las rodillas no están exentas de ello, sin importar el tipo de lesión presente en esta articulación, la deformación y la limitación en el movimiento de esta son evidentes según Bouri et al., (2001), haciendo necesarios tratamientos fisioterapéuticos y de rehabilitación. Para estos tratamientos se pueden emplear diferentes elementos tales como prótesis, sillas de ruedas, muletas, ortesis, exoesqueletos que ayudan a superar la limitación en ciertos niveles, que abarcan la reducción del dolor, normalizar la movilidad, aumentar la musculatura, etc.; y de esta forma mejorar la calidad de vida del ser humano que las presenta. En algunos casos se aplican únicamente tratamientos de rehabilitación, pero si la lesión es más grave, se requieren tratamientos de intervención quirúrgica. Se hace necesario inicio de un programa de rehabilitación que garantice el éxito de la misma mediante una ejercitación controlada de la musculatura, que permita, primero, recuperar la fuerza muscular que básicamente es la capacidad del músculo para contraerse y segundo, recuperar la resistencia que es la capacidad de realizar el mismo movimiento repetidas veces. La mayoría de estos procesos son realizados de forma manual por el fisioterapeuta, quien no puede adquirir datos exactos de cuánta tensión requieren los músculos en ese momento (Hoppenfeld, S. and V. L. Murthy, 2001). El objetivo del presente trabajo es recabar elementos que permitan mejorar las características de diseño del dispositivo de rehabilitación propuesto, desde la perspectiva de los usuarios y los especialistas.  



METODOLOGÍA

La metodología propuesta se basa en la combinación de dos metodologías; la ingeniería concurrente; metodología integradora (Molina,2006)   y el Modelo de cinco etapas del proceso de diseño (Villanueva, 2017), en las cuales se destacaron etapas importantes a aplicar, cuenta con las siguientes fases estratégicas: Vigilancia tecnológica del prototipo de dispositivo de rehabilitación de rodilla para determinar las características base para su funcionamiento correcto. La etapa corresponde a la revisión bibliográfica sobre enfermedades músculo esqueléticas, dispositivos mecánicos y no mecánicos de rehabilitación, así como tipos de ejercicios de rehabilitación, todo ello a través de fuentes formales, tales como tesis, artículos y patentes con el fin de actualizar el conocimiento obtenido sobre los dispositivos de rehabilitación ya existentes.  En la segunda etapa correspondiente a la ideación, la cual se centra en hacer una definición del problema que existe, así como las necesidades del mercado (Molina,2006), se definen los requerimientos del producto, haciendo uso de la vigilancia tecnológica, para identificar las variables en estos diseños. Asimismo, la parte del diseño preliminar básico se divide en dos partes, la primera es el análisis de ventajas y desventajas de dispositivos propuestos (Villanueva, 2017), previamente por otros autores y diseñadores, existentes alrededor del mundo. Y la segunda parte de propuestas de diseño personales, en las que se plasman mediante bocetos ideas similares, pero con mejoras significativas.  En la última etapa, la tercera es donde se propone un diseño final, asegurando que cumplan con las características definidas en las etapas anteriores para satisfacer las necesidades del problema, seleccionado así los materiales y la tecnología necesaria para el desarrollo del diseño propuesto.    


CONCLUSIONES

Durante el verano, se adquirieron conocimientos teóricos sobre el diseño de dispositivos de rehabilitación para personas con enfermedades musculoesqueléticas en extremidades inferiores, enfatizando la ergonomía y la seguridad. Se consideraron nuevas tecnologías, recomendándole la integración de sistemas de monitoreo para personalizar la experiencia del usuario. Se realizó una vigilancia tecnológica, obteniendo versiones funcionales de dispositivos existentes, identificando áreas de mejora como materiales, accesibilidad y diseño. Se propuso un nuevo diseño para un dispositivo de rehabilitación de rodilla utilizando CAD para controlar las terapias. En conclusión, el dispositivo representa un avance importante en la rehabilitación de rodilla, con potencial para mejorar la calidad de vida de los pacientes y convertirse en una herramienta esencial en fisioterapia con futuras mejoras.    
Galván Cázares Hugo Alejandro, Universidad de Guadalajara
Asesor: Dra. Alejandra Cruz Bernal, Universidad Politécnica de Guanajuato

KNN APLICADO A CARACTERíSTICAS DE TEXTURA PARA LA DETECCIóN DE LA SENESCENCIA EN PIMIENTOS


KNN APLICADO A CARACTERíSTICAS DE TEXTURA PARA LA DETECCIóN DE LA SENESCENCIA EN PIMIENTOS

Galván Cázares Hugo Alejandro, Universidad de Guadalajara. Asesor: Dra. Alejandra Cruz Bernal, Universidad Politécnica de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La producción de pimientos es de gran importancia económica y cultural en México, con una significativa proporción destinada a la exportación. Sin embargo, la variabilidad en la calidad de los pimientos y la ineficacia de los métodos manuales de clasificación presentan desafíos. Estos métodos pueden ser subjetivos, lentos y potencialmente causar daños postcosecha. La necesidad de técnicas automatizadas y precisas para la caracterización de la calidad de los pimientos es crucial para mejorar la eficiencia y reducir pérdidas. En el presente estudio se aborda este tipo de problema mediante el uso de procesamiento digital de imágenes y el algoritmo KNN para clasificar pimientos según características texturales, buscando así mejorar la precisión y rapidez en la evaluación de su calidad.



METODOLOGÍA

El estudio utiliza procesamiento digital de imágenes (PDI) para analizar la textura de los pimientos con el fin de, establecer parámetros de calidad en estos. Se preprocesan las imágenes para extraer características texturales mediante una técnica conocida como histograma de sumas y diferencias (HSD); aproximación realizada partiendo de la Matriz de Coocurrencia de Nivel de Gris (GLCM, por sus siglas en inglés), una técnica que analiza la frecuencia de aparición de pares de niveles de gris en una imagen. Estas características posteriormente se guardan en un archivo separado por comas (CSV, por sus siglas en inglés) e incluyen energía, sombra del clúster, prominencia del clúster, media, entre otras. A partir de estas características, se emplea el algoritmo KNN para clasificar los pimientos en tres categorías de salud: no saludable, más o menos saludable y saludable. La metodología incluye los siguientes pasos: Adquisición y Preprocesamiento de Imágenes: La captura de imágenes de los pimientos se llevó a cabo mediante dispositivos móviles bajo condiciones de ambiente semi controlado; posterior, se utilizaron técnicas de PDI para y extraer sus características texturales. Las características incluyeron medidas como energía, sombra del clúster, prominencia del clúster y media. Extracción de Características: Se aplicaron técnicas de análisis de textura, incluyendo la Matriz de Coocurrencia de Nivel de Gris (GLCM) y los histogramas de suma y diferencia. Estas técnicas permiten capturar la frecuencia de aparición de pares de niveles de gris y características de la textura como la homogeneidad, contraste y entropía. Selección y Normalización de Datos: Se seleccionaron las características más relevantes y se normalizaron los datos para mejorar la eficiencia del modelo. Los datos se dividieron en conjuntos de entrenamiento y prueba para evaluar el rendimiento del algoritmo. Implementación del Algoritmo KNN: Se entrenó el modelo KNN con los datos preprocesados. El número óptimo de vecinos (k) se determinó mediante la evaluación de diferentes valores de k, buscando un equilibrio entre la complejidad del modelo y la precisión. Evaluación del Modelo: Se evaluó el modelo utilizando métricas como la precisión y la matriz de confusión. Además, se realizó un análisis de componentes principales (PCA) para visualizar la frontera de decisión del modelo. Visualización y Predicción: Finalmente, se realizaron predicciones sobre nuevas muestras para evaluar la capacidad del modelo en la clasificación de pimientos basados en sus características texturales.


CONCLUSIONES

El modelo KNN, basado en características texturales extraídas de imágenes de pimientos, logró una precisión del 77% en el conjunto de entrenamiento y del 56% en el conjunto de prueba. La matriz de confusión mostró que la mayor precisión se obtuvo en la clasificación de pimientos "saludables", mientras que las categorías "no saludable" y "más o menos saludable" presentaron más errores de clasificación. Esto sugiere que las características texturales de los pimientos saludables son más distintivas. Sin embargo, la baja precisión general en el conjunto de prueba indica que el modelo podría estar sobre ajustado a los datos de entrenamiento, capturando detalles que no generalizan bien en nuevos datos. Esto puede deberse a la limitada cantidad de datos y la variabilidad en las condiciones de captura de las imágenes, como la iluminación y los ángulos. Se recomienda aumentar la cantidad de datos y considerar otros métodos para mejorar la robustez del modelo.
Galván Fuentes Cristal, Instituto Tecnológico de Matamoros
Asesor: Dr. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas

ANáLISIS Y EVALUACIóN DE MéTODOS ERGONóMICOS Y SUS APLICACIONES EN EL ENTORNO LABORAL.


ANáLISIS Y EVALUACIóN DE MéTODOS ERGONóMICOS Y SUS APLICACIONES EN EL ENTORNO LABORAL.

Galván Fuentes Cristal, Instituto Tecnológico de Matamoros. Asesor: Dr. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Los trastornos musculoesqueléticos, afectan en su totalidad a los tejidos blandos del cuerpo humano, se le considera lesión o enfermedad, también conocida por sus iniciales en inglés MSD (Musculoskeletal Disorders). Son causados principalmente por factores de riesgo en el área de trabajo, tal como esfuerzos continuos y repetitivos, o posturas y maniobras incomodas para el trabajador. La mayor problemática que se presenta en este tipo de trastornos es por el incorrecto diseño del espacio de trabajo, en el que se debe establecer un ambiente apropiado, para mantener una calidad de vida adecuada para el trabajador, por lo tanto, durante el verano de investigación se estudian los principios de la ergonomía, producto de la revisión y análisis documental para promover la salud individual y colectiva, buscando optimizar la relación entre el sujeto y sus medios de trabajo.  



METODOLOGÍA

Se llevó a cabo la utilización de las tecnológicas de la información y comunicación para indagar y conocer las principales definiciones relacionadas al tema a investigar. Se conoció las consecuencias que conlleva el tener un mal diseño de áreas de trabajo, el no tener estandarizado los parámetros a seguir en cada actividad a realizar y las enfermedades que se desarrollan gradualmente durante un periodo de tiempo, y resultan ser crónicas para la persona. A medida en que una compañía se enfoca en el resultado final, la administración de la compañía debe de considerar los costos de los accidentes en el área de trabajo y la pérdida de tiempo resultante, así como los gastos médicos, honorarios de abogados y las interrupciones del negocio. No obstante, acorde al objetivo número nueve de la Agenda de Desarrollo Sostenible 2030, se busca dar la oportunidad de mejorar la infraestructura, fomentando la innovación en máquinas adaptables a cualquier usuario que tenga acceso a ellas. De tal manera, que utilizando los recursos con mayor eficacia y promoviendo la adopción de tecnologías y procesos industriales limpios y ambientalmente adecuados, se logre el objetivo mencionado.


CONCLUSIONES

 La ergonomía debe cumplir su función de dirigir la asignación del ambiente laboral en tanto promoción de la salud y prevención de la enfermedad, promoviendo la simplificación y adecuación de las tareas, con miras a mejorar los canales para una buena comunicación, la reducción de la fatiga física y mental, disminución del estrés, minimización del riesgo; en otras palabras, la elevación de la calidad de vida de los trabajadores. Es importante recordar que la ergonomía no es una solución única para todos los problemas, sino un proceso continuo de mejora y adaptación. Es importante contar con un equipo interdisciplinario que aborde estos problemas desde diferentes perspectivas para lograr una solución eficaz.
Galvan Oviedo Cristal, Instituto Tecnológico de Matamoros
Asesor: Dr. Diego Hernandez Martinez, Universidad de Sonora

OBTENCIóN DE HIDROGELES A BASE DE ALMIDóN-TIMOL PARA SU POSIBLE APLICACIóN COMO BIOPESTICIDA.


OBTENCIóN DE HIDROGELES A BASE DE ALMIDóN-TIMOL PARA SU POSIBLE APLICACIóN COMO BIOPESTICIDA.

Galvan Oviedo Cristal, Instituto Tecnológico de Matamoros. Asesor: Dr. Diego Hernandez Martinez, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La varroasis es una enfermedad grave de las abejas causada por el ácaro Varroa destructor, que se originó en Asia y llegó a Paraguay en 1971. El ácaro, que se alimenta del tejido graso de las abejas adultas y larvas, afecta la salud de las colonias, reduciendo su peso, tasa de nacimientos y producción de miel, y causando deformidades.



METODOLOGÍA

La primera parte con la que se trabajó, fue en la realización de hidrogeles de almidón en donde se manejaron varias concentraciones de almidón y glicerol en proporciones de 1:1, esto con el fin de encontrar el hidrogel con las mejores propiedades mecánicas para la aplicación del timol y posteriormente su colocación en los cajones de las abejas. Las concentraciones utilizadas fueron las siguientes: Prueba 1 Almidón: 0.35gr Glicerol: 6 gotas - 12 gotas Agua destilada: 4.5 ml Prueba 2 Almidón: 1.05 gr Glicerol: 36 gotas - 48 gotas Agua destilad: 13.5 ml El procedimiento para la realización de los hidrogeles se llevó a cabo de la siguiente manera: Antes de comenzar con la preparación para la elaboración de los hidrogeles, es importante encender el baño maría y programarlo a una temperatura de 90°C - 95°C. Se pesan los gr de almidón requeridos y se colocan en un vaso de precipitado. Se le agregan las gotas de glicerol y la cantidad de agua destilada de acuerdo a la proporción. Se coloca el vaso de precipitado con todos los componentes en una placa de agitación con su respectivo agitador magnético y se deja agitar por 10 min a 500 rpm - 600rpm, esto con el objetivo de romper los enlaces que se vayan formando y no quede un precipitado en el fondo del vaso. Una vez transcurridos el tiempo indicado en la placa de agitación, se introduce el vaso de precipitado a baño maría por 10 min, al introducirlo se comenzará a agitar con una varilla de vidrio o espátula hasta observar un cambio de color o estado, el cual estará indicando el inicio de la gelificación del hidrogel. Al pasar los 10 min a baño maría, este es llevado al horno a una temperatura de 50°C-60°C por un total de 12 horas para la obtención del hidrogel. Después de las 12 horas en el horno, el hidrogel se desmolda del vaso de precipitado y para su conservación, se almacena en refrigeración en un recipiente completamente cerrado para evitar que absorba humedad. Con el proceso experimental anterior se logró encontrar que el hidrogel con mejores propiedades fue el que tenía la composición: 1.05gr de almidón, 48 gotas de glicerol y 13.5 ml de agua destilada. Para la extracción del timol se utilizó el método de destilación por arrastre de vapor de agua, el cual es un método muy común para la extracción de aceites esenciales. Se trata de un proceso de separación por el cual, mediante el uso de vapor de agua, se vaporizan los componentes volátiles de la materia vegetal. En esta ocasión se optó por orégano para extraer el timol por medio de arrastre de vapor y el procedimiento para lograr la extracción se llevó a cabo de la siguiente manera: Se armo el equipo de destilación por arrastre de vapor. En un matraz bola de fondo redondo de 500ml se va a verter aproximadamente 300ml de agua destilada, la cual será nuestro solvente y generará el vapor. En un segundo matraz de fondo redondo de 500ml se coloca la materia, en este caso 50 gr de orégano triturado, con un aproximado de 250ml de agua destilada. Se colocan los matraces de fondo redondo en sus respectivos lugares y se enciende el mechero del matraz con el solvente para que este empiece a generar el vapor, manteniendo la temperatura entre 95°C a 100°C, de la misma manera se enciende la bomba de agua para que comience a pasar el refrigerante y condensen las primeras gotas de aceite caigan en un matraz para su recolección. Se deja el proceso por varias horas controlando la temperatura, el nivel del solvente y de la materia, esto hasta obtener la mayor cantidad de aceite posible. Al termino de este proceso se obtiene un aceite de orégano, el cual aún tiene muchos otros compuestos y entre ellos el Timol, es por ello que para su caracterización se hace el siguiente procedimiento en un embudo de separación: En un embudo de separación se coloca la muestra extraída del proceso realizado anteriormente y se le agrego aproximadamente la misma cantidad de diclorometano. Se agita el embudo de separación constantemente y por intervalos se deja salir la presión que se genera dentro hasta que esta disminuya. Se deja reposar hasta observar las dos fases bien definidas y ya que esto suceda, se extrae la fase acuosa, dejando solo la fase orgánica. Se realiza el procedimiento anterior otras 3 veces, pero ahora utilizando agua destilada. Una vez realizados los tres lavados, se extrae la fase orgánica y se agrega una pequeña cantidad de sulfato de sodio para que reaccione con el agua que haya quedado en el aceite. El aceite obtenido se deja destapado para que poco a poco se vaya evaporando el diclorometano y al final solo se obtenga con mayor concentración en compuesto que se busca, en este caso el Timol Para corroborar que el aceite que se extrajo contiene Timol, se realizan los análisis correspondientes, en este caso se optó por realizar un análisis de RMN el cual es una técnica analítica utilizada para determinar la estructura molecular y la composición química de una muestra.


CONCLUSIONES

Teniendo en cuenta la interpretación de los espectros de RMN realizados al aceite extraído, se pudo observar que se obtuvieron resultados satisfactorios debido a que se aprecia claramente la presencia de Timol en el aceite obtenido, sin embargo, aún cuenta con otros compuestos orgánicos que hacen un poco de ruido en los gráficos. El timol obtenido aplicado en los hidrogeles se espera que tenga un buen efecto y pueda contrarrestar la Varroa, el cual es el principal objetivo de la realización de este proyecto y de esta forma ayudar a la conservación de esta especie y de la misma manera a los apicultores que trabajan directamente con las abejas en la producción de la miel.
Gamiño Mora Luis Gilberto, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dra. Adriana del Carmen Téllez Anguiano, Instituto Tecnológico de Morelia

MODELO ESTADíSTICO PARA COLUMNA DE DESTILACIóN PARA IMPLEMENTACIóN EN TIEMPO REAL


MODELO ESTADíSTICO PARA COLUMNA DE DESTILACIóN PARA IMPLEMENTACIóN EN TIEMPO REAL

Gamiño Mora Luis Gilberto, Instituto Tecnológico de Estudios Superiores de Zamora. Vieyra Alejandre Brayan Eduardo, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dra. Adriana del Carmen Téllez Anguiano, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En procesos industriales, la monitorización constante de variables es crucial para la eficiencia y seguridad. Algunas variables críticas, como la composición de mezclas, no pueden medirse directamente en tiempo real debido a limitaciones de sensores y la complejidad de los métodos analíticos. Para estimar estas variables, se utilizan modelos matemáticos, pero su implementación en sistemas portátiles es difícil debido a la alta capacidad computacional requerida. Por esto, es necesario desarrollar métodos simplificados y eficientes. Los métodos estadísticos son una solución viable, ya que permiten estimaciones precisas con menor complejidad computacional. Este estudio busca desarrollar un método simplificado basado en técnicas estadísticas para el monitoreo de variables críticas en procesos industriales, facilitando su implementación en sistemas portátiles y mejorando la operatividad en tiempo real.



METODOLOGÍA

Durante el desarrollo del proyecto, se siguió un enfoque estructurado a lo largo de seis semanas, cada una de las cuales estuvo dedicada a tareas específicas que contribuyeron a la creación de un modelo simplificado para el monitoreo de variables críticas en procesos industriales. En la primera semana, nos familiarizamos con el uso de Matlab, la herramienta principal para nuestro análisis y modelado estadístico. Este software nos proporcionó las capacidades necesarias para manejar grandes cantidades de datos y realizar análisis complejos. Aprendimos tanto las funcionalidades básicas como las avanzadas de Matlab, lo cual fue fundamental para el éxito de las etapas posteriores. La segunda semana se centró en la recopilación de señales relevantes. Recopilamos datos de diferentes variables de proceso y mediciones de sensores esenciales para nuestro estudio. Aseguramos que los datos fueran precisos y de alta calidad, ya que esto era crucial para los análisis estadísticos que seguirían. En la tercera semana, realizamos análisis estadísticos preliminares utilizando métodos como la correlación de Pearson, el análisis de varianza (ANOVA) y la correlación de Spearman. Estos análisis nos permitieron identificar relaciones significativas y patrones en los datos, proporcionando una comprensión inicial que fue invaluable para la construcción de nuestros modelos. La cuarta semana estuvo dedicada al desarrollo de modelos de regresión. Probamos diferentes tipos de regresión, tanto lineales como no lineales, para predecir las variables críticas en función de otras variables más fácilmente medibles. Este paso fue clave para crear modelos que pudieran ser utilizados en sistemas portátiles con bajo requerimiento de cálculo. Durante la quinta semana, validamos los modelos de regresión desarrollados utilizando datos de prueba. Calculamos métricas de desempeño como el Error Cuadrático Medio (MSE), el Error Absoluto Medio (MAE) y el coeficiente de determinación (R²) para evaluar la precisión y fiabilidad de nuestros modelos. Esto nos permitió asegurarnos de que los modelos eran robustos y precisos. En la sexta semana, aplicamos los modelos validados para la detección de fallas en el proceso industrial. Implementamos algoritmos que nos permitieron identificar desviaciones significativas de las condiciones normales de operación, utilizando los modelos estadísticos desarrollados. Esto demostró la capacidad del modelo para detectar problemas potenciales de manera efectiva.  


CONCLUSIONES

Análisis de los resultados: RMSE (Validation) y MAE (Validation): Más bajos son mejores porque indican menores errores. RSquared (Validation): Más cercano a 1 es mejor, indicando mejor ajuste del modelo. MSE (Validation): Similar a RMSE, más bajo es mejor.   Modelos más prometedores: Model Number 2.17 (Ensemble) RMSE (Validation): 0.0001191 MSE (Validation): 1.42E-08 RSquared (Validation): 0.999874469 MAE (Validation): 4.84E-05   Model Number 1 (Tree) RMSE (Validation): 0.000185022 MSE (Validation): 3.42E-08 RSquared (Validation): 0.999697046 MAE (Validation): 8.50E-05   Model Number 2.18 (Gaussian Process Regression) RMSE (Validation): 0.00023507 MSE (Validation): 5.53E-08 RSquared (Validation): 0.99951098 MAE (Validation): 0.0001546       Selección del mejor modelo: De los tres modelos prometedores, el Model Number 2.17 (Ensemble) parece ser el mejor: RMSE (Validation): 0.0001191 (el más bajo, indicando menor error de predicción). MSE (Validation): 1.42E-08 (extremadamente bajo). RSquared (Validation): 0.999874469 (casi perfecto). MAE (Validation): 4.84E-05 (el más bajo, indicando menor error absoluto medio). Conclusión: El Model Number 2.17 (Ensemble) es el más adecuado para el estudio debido a sus bajos valores de error (RMSE, MSE, MAE) y un alto coeficiente de determinación (R²). Este modelo demuestra el mejor rendimiento y precisión, lo que lo hace ideal para obtener predicciones confiables y precisas en el estudio. La combinación de bajo error de salida y alto ajuste del modelo sugiere que depender de este modelo proporcionará los resultados más sólidos y precisos. Ya que el tener un modelo funcional y simple permite implementar sistemas de detección de fallas confiables e implementables en tiempo real
Garcia Arias Fabian, Universidad Nacional de Ingeniería
Asesor: Mg. Sergio Daniel Martínez Campo, Universidad Cooperativa de Colombia

MODELADO DEL FLUJO DE POTENCIA EN SISTEMAS ELéCTRICOS CON GENERACIóN DISTRIBUIDA


MODELADO DEL FLUJO DE POTENCIA EN SISTEMAS ELéCTRICOS CON GENERACIóN DISTRIBUIDA

Garcia Arias Fabian, Universidad Nacional de Ingeniería. Asesor: Mg. Sergio Daniel Martínez Campo, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

Los sistemas eléctricos modernos están evolucionando hacia la integración de generación distribuida (GD), lo cual implica nuevos desafíos y oportunidades. La generación distribuida, que incluye fuentes de energía renovable como la solar y eólica, se está incorporando cada vez más en las redes eléctricas tradicionales. Este cambio requiere el desarrollo y aplicación de modelos precisos de flujo de potencia para asegurar la estabilidad y eficiencia de la red. El modelado del flujo de potencia en sistemas con generación distribuida es fundamental para: Optimizar la operación del sistema: Permitiendo una mejor planificación y gestión de recursos. Asegurar la estabilidad del sistema: Evaluando el impacto de la generación distribuida en las condiciones operativas. Mejorar la calidad del suministro eléctrico: Reduciendo pérdidas y mejorando la confiabilidad. Para abordar estos desafíos, es esencial explorar y analizar las últimas metodologías y herramientas disponibles para el modelado del flujo de potencia en sistemas eléctricos con generación distribuida, utilizando tecnologías de inteligencia y vigilancia tecnológica.



METODOLOGÍA

Para esta investigación, se emplearon diversas métricas y técnicas de medición de información que permiten gestionar y generar conocimiento en diferentes contextos. Se utilizó la bibliometría, que facilita el tratamiento de la información y establece dinámicas en todas las ciencias. Las fuentes de información incluyeron materiales bibliográficos y documentos digitales asegurando la calidad y relevancia de las fuentes. El análisis se realizó en varios niveles: Fuentes: Evaluación de la literatura científica relevante. Autores y documentos: Identificación de los principales contribuyentes y trabajos destacados en el campo. Análisis estructural: Incluyendo aspectos conceptuales, intelectuales y sociales relacionados con el modelado del flujo de potencia. Las herramientas de vigilancia tecnológica se aplicaron para captar, analizar y utilizar información valiosa, apoyando la toma de decisiones estratégicas. Se emplearon bases de datos reconocidas como Scopus y ScienceDirect para obtener información relevante y actualizada. El software Bibliometrix-Biblioshiny se utilizó para organizar y filtrar la información, proporcionando un análisis detallado y un top 10 de las investigaciones y documentos más relevantes. RESULTADOS Y DISCUSIÓN Durante la investigación se obtuvo un conjunto de datos significativo sobre las metodologías actuales de modelado del flujo de potencia en sistemas con generación distribuida. Los principales hallazgos incluyen: Diversidad de enfoques metodológicos: Identificación de diversas técnicas y modelos utilizados en la investigación actual. Impacto de la generación distribuida: Evaluación de cómo la GD afecta la estabilidad y operación de las redes eléctricas. Herramientas y software: Uso de herramientas avanzadas para el análisis y modelado del flujo de potencia. Estos resultados permiten una comprensión más profunda de las tendencias y desafíos actuales, proporcionando una base sólida para futuras investigaciones y aplicaciones prácticas en el campo.


CONCLUSIONES

La integración de generación distribuida en sistemas eléctricos plantea retos significativos que requieren un modelado preciso del flujo de potencia. Esta investigación proporcionó una visión integral de las metodologías y herramientas disponibles, destacando la importancia de la vigilancia tecnológica en la gestión y optimización de sistemas eléctricos modernos. El conocimiento adquirido durante este estudio será valioso para la planificación y operación eficiente de redes eléctricas con generación distribuida, contribuyendo a una mayor estabilidad, eficiencia y sostenibilidad del suministro eléctrico.  
Garcia Barrera Eunice, Instituto Politécnico Nacional
Asesor: Dra. Erika Saavedra Labastida, Instituto Tecnológico de Toluca

ANÁLISIS DE MÉTODOS ANALÍTICOS PARA DETECCIÓN DE MICROPLÁSTICOS EN DIFERENTES MATRICES AMBIENTALES


ANÁLISIS DE MÉTODOS ANALÍTICOS PARA DETECCIÓN DE MICROPLÁSTICOS EN DIFERENTES MATRICES AMBIENTALES

Garcia Barrera Eunice, Instituto Politécnico Nacional. Asesor: Dra. Erika Saavedra Labastida, Instituto Tecnológico de Toluca



PLANTEAMIENTO DEL PROBLEMA

Los Microplásticos (MP) son partículas sólidas extrafinas de tamaños inferiores a 5 mm lo que dificulta su detección; promoviendo su fácil adherencia y transporte en las diversas matrices ambientales, tales como en agua, sedimento y aire. Si bien existen metodologías de análisis de MP específicas para cada matriz, la ausencia de protocolos analíticos estandarizados deriva en resultados dispares e inconsistentes, dificultando la integración y comparación de datos de diversas investigaciones. Además, la omisión de controles de calidad en numerosos estudios compromete la confiabilidad de los datos obtenidos sobre la presencia y distribución de microplásticos en el medio ambiente. En respuesta a esta problemática, durante el verano de investigación se llevó a cabo un estudio exhaustivo de las metodologías de análisis de MP reportadas para las diferentes matrices ambientales. El objetivo principal fue identificar las diferencias y similitudes entre estas metodologías, con el fin de establecer lineamientos que permitan mejorar la comparabilidad y confiabilidad de los datos obtenidos en futuros estudios.  



METODOLOGÍA

Se llevó a cabo una revisión exhaustiva de artículos científicos enfocados en el análisis de MP en las matrices de agua, sedimento y aire, publicados en revistas de renombre como Elsevier,Environmental Science and Pollution Research y Water Environment Federation. Para ello, se elaboraron tres tablas comparativas, una de cada matriz ambiental, utilizando de 10 a 12 artículos científicos seleccionados para cada una, con un periodo de publicación no superior a 5 años previos al presente estudio. Una vez integrada cada tabla, se realizó un análisis comparativo para identificar las similitudes y diferencias entre los enfoques metodológicos. Asimismo, para complementar esta investigación de verano y adquirir habilidades en el desarrollo de este proyecto, se realizó una parte experimental con la matriz de agua, en donde se estudiaron parámetros fisicoquímicos relevantes como el pH, la temperatura, el potencial de óxido-reducción (ORP) y los sólidos totales disueltos (TDS). La evaluación de estos parámetros, se llevaron a cabo en tres muestras de agua provenientes de diferentes localidades con la finalidad de comparar sus propiedades. La primera muestra de agua fue obtenida de un pozo artesanal ubicado en Atlacomulco, la segunda muestra fue adquirida del humedal de las Ciénegas de Lerma y la tercera muestra corresponde al agua potable de la colonia de Valle Verde y Terminal en la ciudad de Toluca. Cabe mencionar que también se participó en el montaje de la técnica de análisis de MP en Carpa proveniente de las Ciénegas del Lerma, en donde se realizó la preparación de las soluciones de H2O2 al 30%, HNO3 al 10%, KOH al 10% y CaCl2 al 50%, así como el filtrado de los MP en filtros con tamaño de poro de 0.45 µm y 25 mm de diámetro.


CONCLUSIONES

No existe un método único que permita estudiar todas las matrices ambientales. Existen más estudios de MP para sedimentos y agua que para aire. Cada método analítico indistintamente se divide en 5 etapas que son muestreo, transporte, prueba de blancos, limpieza, separación y tamizado siendo el secado un paso adicional para el estudio de sedimentos. Es de gran relevancia la estandarización de los métodos de análisis de MP en cada matriz ambiental, así como sus controles de calidad para poder comparar los resultados, esto permitirá la evaluación del impacto real de los MP en el medio ambiente. Los resultados de este estudio subrayan la necesidad de diseñar protocolos rigurosos de muestreo que controlen las variables ambientales que puedan afectar los resultados. Así como evitar la presencia de materiales plásticos en todos los procesos analíticos, desde la recolección de muestras hasta el análisis final.  Existe una variación en la cantidad de lugares de muestreo, cada estudio depende del presupuesto, facilidad de acceso y condiciones externas. Así como la concentración y cantidad de reactivos está sujeta al uso de equipos que se tengan o bien si se estudian un grupo de MP en específico. Los hallazgos de este estudio proporcionan información valiosa para futuros estudios en el análisis de MP y aplicaciones prácticas en el ámbito del monitoreo ambiental y la gestión de recursos naturales.
Garcia Bayona Maria Fernanda, Universidad de Investigación y Desarrollo
Asesor: Dr. Edwin Gerardo Acuña Acuña, Universidad Latinoamericana de Ciencia y Tecnología

OPTIMIZATION OF URBAN MOBILITY WITH IOT AND BIG DATA TECHNOLOGY FOR THE INFORMATION AND KNOWLEDGE SOCIETY IN INDUSTRY 5.0


OPTIMIZATION OF URBAN MOBILITY WITH IOT AND BIG DATA TECHNOLOGY FOR THE INFORMATION AND KNOWLEDGE SOCIETY IN INDUSTRY 5.0

Almanza Ferruzca Ana, Instituto Tecnológico de Querétaro. Calderon Rojas Jesus Manuel, Universidad de Investigación y Desarrollo. Garcia Bayona Maria Fernanda, Universidad de Investigación y Desarrollo. Pérez Soto José Saúl, Universidad Tecnologica de León. Rojo Rojo Camilo Nelson, Instituto Tecnológico de Querétaro. Asesor: Dr. Edwin Gerardo Acuña Acuña, Universidad Latinoamericana de Ciencia y Tecnología



PLANTEAMIENTO DEL PROBLEMA

La optimización de la movilidad urbana en el contexto de ciudades inteligentes enfrenta desafíos significativos, particularmente en la gestión eficiente del tráfico y la reducción de la congestión. Según (Yan & Zhao, 2024) y (Aoki, 2024), el aumento de la urbanización y la creciente prevalencia de problemas de tráfico reflejan una crisis global de movilidad urbana, influenciada por la falta de infraestructura adecuada y la gestión ineficaz del tráfico. (Ku, 2024) y (Jones, 2023) señalan que esta situación ejerce una presión considerable sobre los sistemas urbanos, que a menudo carecen de los recursos y tecnología necesarios para proporcionar una gestión del tráfico adecuada. En este contexto, es esencial adoptar estrategias integrales que aborden de manera preventiva y oportuna los problemas de tráfico en el ámbito urbano, especialmente en ciudades inteligentes (Nikkhah, kahanali, & sharyari, 2023). (van der Meij et al., 2023) indican que los primeros síntomas de problemas de movilidad urbana incluyen congestiones recurrentes y tiempos de viaje impredecibles, que pueden evolucionar a condiciones más severas si no se detectan y tratan a tiempo. (Devianto et al., 2023) y (Samadi, Mirnezami, & Torabi Khargh, 2023) subrayan la importancia de implementar herramientas y métodos innovadores que permitan diagnósticos precisos y oportunos para prevenir la evolución de estos problemas. Para enfrentar este desafío en las ciudades inteligentes, es fundamental contar con herramientas tecnológicas que identifiquen y diferencien entre patrones de tráfico normales y anormales. (Tabash et al., 2023) destacan que el uso de tecnologías para la captura y análisis de datos de tráfico desempeña un papel crucial en la detección y diagnóstico temprano de problemas de congestión. Este enfoque innovador no solo elevaría los estándares en el diagnóstico, sino que también impulsaría intervenciones tempranas y personalizadas, mejorando la eficiencia del sistema de transporte urbano.



METODOLOGÍA

El estudio adoptó un enfoque cuantitativo, poniendo a prueba hipótesis mediante la medición numérica y el análisis estadístico para identificar patrones de tráfico y validar teorías (Ibrahim, 2022). Se desarrolló el objeto de investigación buscando regularidades y relaciones entre los componentes del estudio (Mohan, Paunova, & Lee, 2024). Se incluyó una subcategoría descriptiva para identificar las propiedades y características del fenómeno relacionado con las estrategias principales para evaluar la eficiencia del tráfico en intersecciones críticas dentro de ciudades inteligentes (Zhou, 2024). Asimismo, se añadió una subcategoría exploratoria para modelar detalladamente cada factor relevante en el uso de modelos basados en IA para la evaluación del tráfico (Wang, 2023). La muestra seleccionada consistió en 350 intersecciones críticas en el año 2024, donde se recopilaron datos de tráfico con el consentimiento de las autoridades municipales. El tamaño de la muestra se determinó utilizando el modelo de población finita, con una base de datos conocida de las intersecciones al momento del estudio. Los datos fueron recopilados a través de centros urbanos en América Latina, Norteamérica, Asia y Europa, garantizando una variabilidad geográfica y demográfica, y estableciendo una base sólida para el análisis comparativo y la extrapolación de los resultados (Zhou, Liu, & Li, 2024). 


CONCLUSIONES

El estudio demuestra que los sistemas basados en inteligencia artificial (IA) son capaces de detectar problemas de tráfico en intersecciones críticas con un alto nivel de precisión, evidenciado en los resultados obtenidos. Estos sistemas no solo mejoran la precisión, sensibilidad y especificidad en la clasificación de datos de tráfico, sino que también logran una clara discriminación entre condiciones normales y problemáticas.Los resultados del estudio ofrecerán una hoja de ruta para las partes interesadas, promoviendo una estrategia basada en la toma de decisiones informadas y resaltando el papel de la tecnología en la protección de infraestructuras, datos y personas. Desde una perspectiva teórica, las implicaciones incluyen el desarrollo de investigaciones tanto en el ámbito académico como empresarial. Este estudio abre la puerta a nuevos trabajos que exploren la relación entre diversos problemas de tráfico que afectan la eficiencia operativa de las intersecciones y cómo las tecnologías emergentes pueden contribuir a su detección, prevención y resolución.En conclusión, los sistemas basados en IA ofrecen una herramienta poderosa y eficaz para la evaluación y manejo del tráfico en intersecciones críticas, y su integración en ciudades inteligentes promete mejoras significativas en la calidad de vida y la eficiencia operativa de las generaciones futuras.
García Carmona Humberto, Instituto Tecnológico de Pachuca
Asesor: Dra. Lucila del Carmen Arias Patiño, Universidad de Guadalajara

INTELIGENCIA ARTIFICIAL COMO UN RECURSO EN EDUCACIóN DE CALIDAD


INTELIGENCIA ARTIFICIAL COMO UN RECURSO EN EDUCACIóN DE CALIDAD

García Carmona Humberto, Instituto Tecnológico de Pachuca. Asesor: Dra. Lucila del Carmen Arias Patiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La pandemia de COVID-19 y los recientes eventos mundiales posteriores a 2020 han cambiado drásticamente la manera tradicional del proceso de enseñanza-aprendizaje al que muchos docentes y estudiantes estaban acostumbrados. La posibilidad de eventos similares ha alertado a las instituciones de educación superior de todo el mundo, desarrollando estrategias y adquiriendo habilidades digitales para afrontar un regreso a un trabajo remoto que puede ocurrir en cualquier momento. A pesar de lo aprendido en los años de clases a distancia, un número significativo de docentes no ha implementado ninguna herramienta digital en su labor diaria, y los pocos que lo hacen se limitan al uso básico de plataformas tradicionales. Esta situación no satisface las necesidades actuales de los alumnos ni los enfoques más recientes en educación de calidad, como el Consenso de Beijing (2019) sobre IA y educación, que destaca la necesidad de integrar IA en el sistema educativo para lograr un sistema abierto y equitativo. En México, la educación superior está en desventaja por no aprovechar las ventajas de las herramientas con IA tanto dentro como fuera del aula



METODOLOGÍA

Durante el verano, se estudió el grado de conocimiento, opinión y disposición de docentes del Centro Universitario de la Ciénega (CUCIÉNEGA) para implementar IA en su labor docente mediante un catálogo de herramientas digitales y recomendaciones de uso. La investigación se realizó mediante metodología cualitativa descriptiva con 40 docentes de CUCIÉNEGA, pertenecientes a departamentos de Desarrollo Bio-Tecnológico, Ciencias Básicas, Ciencias Tecnológicas y Ciencias Médicas y de la Vida. Se llevaron a cabo entrevistas de campo y cuestionarios presenciales del 17 de junio al 12 de julio de 2024. Para conocer la opinión de los participantes, se usó un enfoque cuantitativo con un cuestionario de escala de Likert y preguntas de opción múltiple, complementado con entrevistas de campo para comprender el contexto y grado de inmersión con herramientas digitales. Además, se realizó una actividad práctica con la herramienta de creación de imágenes de Canva, que utiliza IA generativa basada en modelos Lenguaje de Gran Tamaño (LLM). El procedimiento de recolección de datos incluyó entrevistas de campo con 7 preguntas abiertas, grabadas en audio para su análisis posterior y transcripción a texto. En el cuestionario virtual, se proporcionó un código QR a los docentes. La recolección de datos concluyó con la segunda etapa de la entrevista, en la que los docentes describieron su experiencia generando una imagen con una instrucción de texto.


CONCLUSIONES

Del análisis de los datos, solo el 30% y el 25% de los docentes están de acuerdo en que la IA mejora la calidad del aprendizaje, aunque el 62% cree que ayuda a personalizar el proceso de enseñanza. Además, el 80% considera que la IA puede ahorrar tiempo y costos en actividades administrativas. El 92.5% expresa interés en cursos de actualización docente sobre IA, aunque solo el 65% usaría un catálogo de herramientas digitales de libre acceso. Respecto a la infraestructura necesaria, el 97.5% cree que internet de alta velocidad es indispensable, seguido de pizarrones interactivos (72.5%) y pantallas o televisores (62.5%). En la actividad práctica, los docentes usaron Canva para generar imágenes a partir de textos. Se recopilaron 40 prompts de texto y 40 imágenes generadas con IA. En la caja de comentarios, el 45% de los docentes expresó preocupación por las implicaciones éticas del uso de la IA en la educación. En las entrevistas de campo, el 35% de los docentes reportó un uso nulo de IA en el aspecto académico, el 20% la usa para dar clases, el 17.5% para investigación y detección de plagio, y el 10% para crear contenido didáctico. La investigación identificó la situación actual de los docentes de CUCIÉNEGA con respecto al uso de herramientas digitales basadas en IA. Se desarrolló un catálogo de 16 herramientas digitales de libre acceso para mejorar la calidad del proceso de enseñanza-aprendizaje, personalizar la retroalimentación e incluir a alumnos con capacidades diferentes. Este trabajo se alinea con el objetivo número 4 de los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas: garantizar una educación de calidad inclusiva y equitativa, y promover oportunidades de aprendizaje permanente para todos. Finalmente, se recomienda usar plataformas con interfaces amigables para reducir la resistencia al cambio entre los docentes.
García Casimiro Jazmín, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Mtra. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo

ANáLISIS DE DATOS IMPLEMENTANDO EL APRENDIZAJE AUTOMáTICO PARA LA PREVENCIóN DE VIOLENCIA EN LA PAREJA


ANáLISIS DE DATOS IMPLEMENTANDO EL APRENDIZAJE AUTOMáTICO PARA LA PREVENCIóN DE VIOLENCIA EN LA PAREJA

García Casimiro Jazmín, Instituto Tecnológico Superior de Ciudad Serdán. Rodriguez Rodriguez Eduardo, Instituto Tecnológico Superior del Sur de Guanajuato. Romero Martinez Ana Paola, Instituto Tecnológico Superior del Sur de Guanajuato. Asesor: Mtra. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

La violencia a la mujer  ha sido una problemática que ha afectado  a mujeres de todas las edades y contextos socioeconómicos  radicando  principalmente  la violencia  por parte de la  pareja. La implementación de herramientas de aprendizaje automático en el análisis de datos recopilados a través de chatbots ofrece una oportunidad única para identificar patrones y señales tempranas de violencia. Este enfoque permite una intervención más rápida y efectiva, mejorando las estrategias de prevención y brindando apoyo a las víctimas de manera oportuna y personalizada.



METODOLOGÍA

Comenzamos nuestro proyecto con la modificación de la página de Mujer Segura, un portal dedicado a la prevención y reporte de incidentes de violencia de género. Para esto utilizamos laravel que es un framework de php, conocimientos básicos de CSS y de base de datos. Uno de los componentes más significativos que implementamos fue un mapa interactivo. Este mapa permite a los usuarios visualizar las áreas con más incidencias de violencia en todo el país. Para lograr esto empezamos utilizando una biblioteca de mapeo, que nos proporcionó la funcionalidad básica del mapa. Posteriormente, personalizamos los scripts para que pudieran manejar y mostrar datos específicos de incidencias de violencia. Además de agregar una tabla que muestra el estado, el tipo de violencia y la cantidad de incidencias. También, mejoramos la manera en que la página recolecta información a través de formularios. Anteriormente, los formularios eran complejos y poco intuitivos, lo que podía disuadir a las víctimas de reportar incidentes. Simplificamos el diseño y la estructura de los formularios, asegurando que sean fáciles de entender y completar. Implementamos validaciones y mensajes de ayuda para guiar a los usuarios durante el proceso de reporte.  Paralelamente a las mejoras en la página web, dedicamos esfuerzos a la investigación académica con el objetivo de aportar nuevas perspectivas al campo de la prevención de la violencia de género. Escribimos un artículo titulado "Machine Learning y Análisis del Lenguaje: Una Nueva Frontera en la Prevención de la Violencia Contra las Mujeres". Este artículo se basó en una revisión exhaustiva de la literatura existente sobre el uso de inteligencia artificial (IA) y machine learning en la prevención de la violencia. Comenzamos nuestra investigación explorando diversos estudios y artículos que documentaban el uso de técnicas de IA para predecir y prevenir la violencia contra las mujeres. Identificamos varias metodologías y enfoques que habían sido probados, y evaluamos sus resultados y limitaciones. Recolectamos distintos datasets que contenían información relevante sobre incidentes de violencia, características demográficas, y otros factores de riesgo. Utilizamos estos datasets para entrenar y evaluar varios modelos matemáticos y algoritmos de machine learning. Cada modelo fue evaluado en términos de su precisión, sensibilidad y especificidad para identificar patrones y factores de riesgo asociados con la violencia de género.  


CONCLUSIONES

Durante el desarrollo de este proyecto se adquirieron conocimientos teóricos, sobre la violencia de género los cuales se  aplicaron en la implementación de chatbots y técnicas de aprendizaje automático para el análisis de datos. Teniendo conocimiento de que el análisis de patrones aún está en curso y no se pueden presentar resultados definitivos. Ya que se espera que el uso de estas tecnologías permita identificar señales tempranas de violencia, y así mejorar las estrategias de intervención y ofrecer apoyo más eficaz y personalizado a las víctimas.  
García Cobos Andrea, Universidad Veracruzana
Asesor: Dr. Leydi Julieta Cárdenas Flechas, Fundación Universidad de América

OBTENCIóN DE LáMINAS DE óXIDO DE TANTALIO PARA LOGRAR LA DEGRADACIóN CATALíTICA DE TINTES EN AGUAS RESIDUALES


OBTENCIóN DE LáMINAS DE óXIDO DE TANTALIO PARA LOGRAR LA DEGRADACIóN CATALíTICA DE TINTES EN AGUAS RESIDUALES

García Cobos Andrea, Universidad Veracruzana. Asesor: Dr. Leydi Julieta Cárdenas Flechas, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Una necesidad y objetivo a nivel mundial es alcanzar la descontaminación y pureza de las fuentes de agua para el consumo humano, riego agrícola y protección del medio ambiente. Una amplia gama de productos químicos peligrosos, como los tintes sintéticos utilizados en las industrias textil, farmacéutica y de plásticos, termina en las fuentes de agua. El vertido de estos productos ha causado graves problemas de salud humana y ha alterado los ecosistemas. 



METODOLOGÍA

Se realizó una previa revisión bibliográfica relacionada con la anodización electroquímica y sobre el material a utilizar, tantalio. Corte y pulido de muestras. Las muestras se prepararon a partir de hojas de Ta de 1mm de espesor (99,99% de pureza, China). Se cortaron las muestras en dimensiones 1.5 x 2.5 cm. Posteriormente se pulieron con lija 800, 1000, 1200 y paño, hasta tener un efecto espejo. Se retiran las impurezas de las muestras con acetona para después esterilizarse con un lavado y limpieza en el ultrasonido mostrado en la figura 1, con una temperatura fijada hasta 40°C, por aproximadamente 5 min. Las muestras se secaron en el aire antes del proceso principal de anodización. Anodización electroquímica El proceso de anodizado se realizó con ayuda de una fuente de alimentación con las siguientes condiciones: 0-60 V y una corriente de 0-20 A. El montaje consistió de dos electrodos conectados a una fuente de alimentación. Las láminas de tantalio sirvieron como ánodo y cátodo. La anodización se llevó acabo en un electrolito que consistía en 50ml de H2SO4 y 1.77ml de HCl, durante diferentes períodos de tiempo (1-4min). Análisis de la superficie de las muestras La superficie de las muestras fue analizada antes y después del proceso de anodización por microscopia electrónica, obteniendo imágenes de la sección superior de las placas, las cuales se presentan en el apartado de resultados.


CONCLUSIONES

Los resultados por obtener a partir de este estudio constituyen un aporte importante en el desarrollo de alternativas que lleven a la degradación fotocatalítica de los contaminantes en aguas residuales en la región Cundiboyacense, donde se encuentra concentrada una gran cantidad de población, además, de ser una región de alta producción agrícola.
García Cuervo Luis Fernando, Universidad Mexiquense del Bicentenario
Asesor: Dra. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional

FORTALECIMIENTO DE LA CULTURA DIGITAL POLITÉCNICA


FORTALECIMIENTO DE LA CULTURA DIGITAL POLITÉCNICA

García Cuervo Luis Fernando, Universidad Mexiquense del Bicentenario. Asesor: Dra. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Falta de un marco de cultura digital que ayude a la comunidad politécnica a fortalecer las capacidades para la utilización estratégica y crítica de las tecnologías de la información y la comunicación (TIC). Problemas específicos:  Falta de empleo de pensamiento computacional complejo para la solución de problemas. Gestión no efectiva de la información y la comunicación digital. Falta de mantenimiento de una buena higiene digital Ausencia de impulso de la formación de ciudadanías digitales. Falta de participación en la generación de contenido digital de valor público.



METODOLOGÍA

El proyecto de investigación será de manera documental, ya que se consultará información bibliográfica, cibergráfica y audiovisual con fechas recientes sobre conceptos relevantes como la higiene digita, el marco DigComp de la comisión europea, la propuesta ANUIES TIC y blogs temáticos que ayuden a crear acciones que ayuden a fortalecer la cultura digital de las personas. Se compone de las siguientes partes: Introducción El tema de investigación marco de cultura digital politécnico para la utilización estratégica de la información y el uso crítico y seguro de las Tic’s se realizará con el objetivo de fortalecer la cultura digital de las personas en su vida diaria y profesional, beneficiándose estas mismas para trascender en la vida futura y que las tecnologías de la información y la comunicación sean más confiables. Revisión de la literatura Se trató de buscar información que ayudará a fortalecer el tema de investigación y que el tiempo de antigüedad sea corta, o al menos que fuese publicada en un lapso no mayor a 3 años, esto para obtener datos recientes y que concuerde con lo que viven las personas en la actualidad. Análisis y discusión La información ayudó a la investigación con el conocimiento de los aspectos que ayuden a fortalecer el marco de cultura digital, además de proponer las principales acciones que ayuden a las personas en el uso seguro y crítico de las tecnologías de la información y la comunicación (TIC). LINK DRIVE: https://drive.google.com/drive/folders/1SKkvO7qECVatuL9OMHqbST266yoV32Za?usp=drive_link  


CONCLUSIONES

Un marco de cultura digital ayuda a las personas a trascender en su vida diaria y profesional con la utilización de las tecnologías de la información y la comunicación, esto con el fomento de la comunicación digital efectiva y tomando medidas para recolectar información y proteger datos sensibles masivos que puedan afectar a una organización o a uno mismo. Se espera que esta herramienta sea fomentada para la comunidad politécnica para fomentar los aspectos que los ayuden a obtener información digital confiable, fortaleciendo su higiene digital, fortalecer el empleo del pensamiento computacional complejo para la solución de problemas, la gestión efectiva de información y comunicación digital, impulsar las ciudadanías digitales y la participación de contenido digital de valor público. En pocas palabras, con las medidas planteadas en los resultados de la investigación, los estudiantes y profesionales pueden utilizar las herramientas digitales para la promoción de contenido digital y obtención del mismo para utilizarlo en proyectos y tareas escolares que ayuden a fortalecer su estatus académico y/o profesional y que pasando el tiempo esta pueda ser transmitida a futuras generaciones.
Garcia de Jesus Flor Lizeth, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica

DESARROLLO DE UN PROTOTIPO PARA EL MONITOREO Y CONTROL DE ASPERSORES CON TECNOLOGíA DE INTERNET DE LAS COSAS ORIENTADO AL MEJORAMIENTO DE LA CALIDAD DEL AIRE EN EL SECTOR MINERO Y SUS POBLACIONES ALEDAñA.


DESARROLLO DE UN PROTOTIPO PARA EL MONITOREO Y CONTROL DE ASPERSORES CON TECNOLOGíA DE INTERNET DE LAS COSAS ORIENTADO AL MEJORAMIENTO DE LA CALIDAD DEL AIRE EN EL SECTOR MINERO Y SUS POBLACIONES ALEDAñA.

Garcia de Jesus Flor Lizeth, Tecnológico de Estudios Superiores de San Felipe del Progreso. Mauro Ramírez Violeta, Tecnológico de Estudios Superiores de San Felipe del Progreso. Ruiz Gonzalez Citlali, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

La minería es una actividad de las principales fuentes de contaminación ambiental, especialmente a la calidad del aire. La emisión de polvo y partículas durante el trabajo minero puede afectar gravemente la salud de los trabajadores y las comunidades cercanas. Es por eso que surge la idea de desarrollar un prototipo que aporte a la problemática de la contaminación del aire del sector minero de La Guajira. Integrando tecnologías como el Internet de las cosas (IoT) que pueda apoyar tecnológicamente la aspersión inteligente, con el objetivo de mejorar la calidad del aire de esa zona, de manera eficiente y efectiva, contribuyendo el bienestar de los trabajadores y comunidades vecinas.



METODOLOGÍA

Se realizó una investigación documental acerca de las plataformas que ofrece servicios en la nube que ayudarán con el monitoreo y almacenamiento de datos en tiempo real, de las cuales se destacan AWS, Azure y Google Cloud. Resaltando las características de cada una de estas herramientas para elegir la mejor opción.  De acuerdo a la información obtenida sobre estas plataformas se optó por la de AWS ya que es una opción superior en ciertos aspectos, como experiencia que se tiene desde su lanzamiento en 2006 y que fue uno de los principales servicios en la nube con una amplia gama de servicios con infraestructura robusta y que actualmente ha sido evolucionada y ofreciendo nuevos servicios con el tiempo, a diferencia de Google Cloud y Azure. AWS ofrece una mayor cantidad de servicios y características con una red de datos más extensa en regiones y zonas disponibles a diferencia de sus competidores, lo que permite a los usuarios desplegar sus aplicaciones de una manera más eficiente a sus clientes finales. Además de ser considerada más grande y activa, ya que cuenta con una comunidad de usuarios y desarrollares activa y extensa. Dentro de los costos suele ser un tanto complejo, aunque también suele ser más accesible dependiendo de las áreas, tiene también sus servicios gratuitos, pero por la variedad de opciones y necesidades de cada prototipo que puedan ser beneficiosos para diferentes tipos de cargas de trabajo. Por otro lado, está la innovación continua de la misma, constantemente introduce nuevos servicios y mejoras, manteniéndose a la vanguardia de la tecnología en la nube.


CONCLUSIONES

A lo largo de nuestra investigación, realizamos la comparación de diferentes plataformas y elegir una para trabajar de acuerdo a las necesidades del proyecto, gracias a la información obtenida pudimos saber cómo podríamos escoger la mejor entre ellas y por qué, es algo que podríamos resaltar ya que nuestro deber es asegurarnos que herramientas son eficientes e innovadoras para proyectos futuros relacionados con el internet de las cosas. Asimismo, tuvimos la oportunidad de poner en práctica algunos temas que ya habíamos visto en nuestra trayectoria académica, esta aplicación práctica reforzó nuestros conocimientos y contribuyo en nuestra formación profesional. En resumen, ser colaboradoras en el desarrollo de prototipos nos genera nuevas experiencias y ayuda a fortalecer nuestros conocimientos y generar nuevos referentes a la tecnología IoT adquiriendo nuevas competencias como futuros profesionales.
García de la Calleja Angel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. José Eligio Moisés Gutiérrez Arias, Benemérita Universidad Autónoma de Puebla

DISEñO Y CONSTRUCCIóN DE UN AEROGENERADOR DEL TIPO OFFSHORE LOS ALUMNOS ANGEL GARCIA DE LA CALLEJA Y ADRIANA SOLíS GARCíA, ESTUDIANTES DE LA CARRERA DE INGENIERíA EN MECATRóNICA EN LA BENEMéRITA UNIVERSIDAD AUTóNOMA DE PUEBLA, PRESENTAN SU APORTANCIóN: DURANTE LA CONSTRUCCIóN DEL AEROGENERADOR CON CIMENTACIóN DE TIPO JACKET, ESTUVIERON TRABAJANDO Y DESARROLLANDO EL MULTIPLICADOR DEL AEROGENERADOR, ES DECIR, LA CAJA DE ENGRANES QUE CONSTA DE MáS DE UNA ETAPA PARA PODER MULTIPLICAR LA VELOCIDAD QUE ENTRA A LAS HéLICES, Y ASí DARLE LA SUFICIENTE POTENCIA AL GENERADOR DE ENERGíA.


DISEñO Y CONSTRUCCIóN DE UN AEROGENERADOR DEL TIPO OFFSHORE LOS ALUMNOS ANGEL GARCIA DE LA CALLEJA Y ADRIANA SOLíS GARCíA, ESTUDIANTES DE LA CARRERA DE INGENIERíA EN MECATRóNICA EN LA BENEMéRITA UNIVERSIDAD AUTóNOMA DE PUEBLA, PRESENTAN SU APORTANCIóN: DURANTE LA CONSTRUCCIóN DEL AEROGENERADOR CON CIMENTACIóN DE TIPO JACKET, ESTUVIERON TRABAJANDO Y DESARROLLANDO EL MULTIPLICADOR DEL AEROGENERADOR, ES DECIR, LA CAJA DE ENGRANES QUE CONSTA DE MáS DE UNA ETAPA PARA PODER MULTIPLICAR LA VELOCIDAD QUE ENTRA A LAS HéLICES, Y ASí DARLE LA SUFICIENTE POTENCIA AL GENERADOR DE ENERGíA.

García de la Calleja Angel, Benemérita Universidad Autónoma de Puebla. Solís García Adriana, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. José Eligio Moisés Gutiérrez Arias, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Diseño y construcción de un aerogenerador del tipo offshore Diseño de la caja multiplicadora de un aerogenerador tipo Jacket Abstract This project was created with the idea of analyzing the different defects that a jacket type wind turbine can have in different parts of its structure and mechanical-electronic system. Furthermore, in this report will be explained the design of a Gearbox that is the meaningful part of a wind turbine. Introducción La creciente demanda global de energías renovables ha impulsado el desarrollo de tecnologías innovadoras en la generación de energía eólica. Entre estas tecnologías, los aerogeneradores offshore han ganado relevancia debido a su capacidad para aprovechar los fuertes y constantes vientos marinos, aumentando así la eficiencia en la generación de electricidad. En particular, los aerogeneradores tipo Jacket, que se caracterizan por su estructura de soporte robusta y su resistencia a condiciones adversas, han demostrado ser una opción viable y sostenible para instalaciones en alta mar. Este trabajo de investigación se centra en la evaluación y propuesta de dos diseños de cajas multiplicadoras de velocidad con engranes para aerogeneradores offshore tipo Jacket. Las cajas multiplicadoras de velocidad son componentes críticos en los aerogeneradores, ya que permiten aumentar la velocidad de rotación del eje del rotor a la velocidad requerida por el generador, optimizando así la conversión de energía eólica en energía eléctrica.  



METODOLOGÍA

Desarrollo A continuación, se presentarán las propuestas que se analizaron y trabajaron durante el diseño de una caja de engranes que permitirá la multiplicación de la velocidad del viento para así poder generar energía   PROPUESTA 1 DESCRIPCIÓN El diseño anterior constante de un tren de engranes de 3 etapas, en cada etapa se tiene una corona y un piñón, la corona de las dos primeras etapas tiene 50 dientes y la corona de la última etapa tiene 40 dientes; asimismo, el piñón de todas las etapas consta de 10 dientes. Los engranes están montados en una base en la que saldrán 4 ejes, el primero será el conectado desde el disco de las aspas hasta la caja multiplicadora, con una velocidad aproximada de 60 RPM; los siguientes dos ejes servirán para sostener los engranes concéntricos en esa posición y finalmente el último eje saldrá del último engrane e irá conectado al generador de electricidad, con una velocidad angular de salida de 6000 RMP. ÁREAS DE OPORTUNIDAD Tras el análisis realizado en SolidWorks y tomando las consideraciones pertinentes de la vida real, se notó que la disposición del tren de engranes ocupa mucho espacio, por lo que no es óptimo para el espacio destinado al multiplicador que habrá dentro de la góndola, así que la solución a este problema fue poner un arreglo descentrado, es decir, que los centros entre etapa y etapa ya no serán adyacentes; por otro lado, el inconveniente de que la corona tiene un diámetro muy grande, ya que el paso diametral es de 4 y 25 pulgadas. Finalmente, al tomar en cuenta las consideraciones físicas de la vida real, se notó que era necesario adecuar una pieza mecánica que facilitará la conexión entre los ejes y los engranes, debido a que no se puede colocar el eje concéntrico con el engrane sin que este tenga un desplazamiento de traslación además del rotatorio, por lo anterior se pensó en incorporar rodamientos en el centro de los engranes y fijar estos rodamientos en sus extremos con el eje y con el engrane.   PROPUESTA 2 DESCRIPCIÓN Este diseño consta de 4 etapas que se describen de la siguiente manera: primero tenemos un engrane que sirve para que la velocidad de entrada se transmita al piñón de la siguiente etapa (es importante aclarar que cada etapa tiene un piñón y una corona), y este transmite la velocidad a la de esa misma etapa, que pasará la velocidad al siguiente (etapa 2) donde empieza a multiplicar la velocidad (60 RPM aproximadamente). Después cada etapa repetirá el proceso ya descrito, hasta darnos la velocidad deseada en la última corona.   ÁREAS DE OPORTUNIDAD A pesar de ser nuestra propuesta de diseño final es importante mencionar que aún tiene algunas cosas que se podrían mejorar, como el tamaño de la corona que va en cada una de las etapas, pues al ser de 60 dientes y tener un paso diametral de 4, tiene un diámetro de 15 pulgadas, lo que aún es muy grande para el espacio que está destinado la caja multiplicadora de engranes.


CONCLUSIONES

Conclusiones Durante un periodo de mes y medio, trabajamos en equipo en la construcción de un aerogenerador. Mi compañera y yo nos enfocamos en el diseño de la caja de engranajes, una tarea que resultó ser compleja y desafiante. Exploramos y evaluamos diversas propuestas de cajas multiplicadoras, cada una con sus propias ventajas y desventajas. A lo largo de este proceso, aprendimos a equilibrar factores como la eficiencia, la durabilidad y el coste. Finalmente, después de numerosos ajustes y pruebas, optamos por un innovador diseño descentrado de engranajes. Este enfoque no solo simplificó la estructura de la caja, sino que también mejoró significativamente su rendimiento. Gracias a este diseño, logramos alcanzar la velocidad requerida del aerogenerador, un logro que fue fundamental para el éxito del proyecto. Este proyecto no solo nos permitió aplicar nuestros conocimientos técnicos, sino que también reforzó la importancia del trabajo en equipo y la perseverancia en la resolución de problemas complejos.
García Esparza Karol Andrea, Universidad Autónoma de Zacatecas
Asesor: Dr. Víctor Alejandro Suárez Toriello, Universidad Autónoma Metropolitana

HIDRODESOXIGENACIÓN DE ANISOL


HIDRODESOXIGENACIÓN DE ANISOL

García Esparza Karol Andrea, Universidad Autónoma de Zacatecas. Asesor: Dr. Víctor Alejandro Suárez Toriello, Universidad Autónoma Metropolitana



PLANTEAMIENTO DEL PROBLEMA

La Tierra se encuentra en una carrera contra el tiempo para limitar el calentamiento global a 1.5°C por encima de los niveles preindustriales. Se estima que solo queda una quinta parte del presupuesto de carbono disponible para evitar superar este umbral crítico. Para lograrlo, se ha acordado reducir gradualmente el uso de combustibles fósiles y promover fuentes de energía alternativas. Los biocombustibles de primera generación, derivados de cultivos energéticos, han sido una opción, pero su principal desventaja es que compiten con la producción de alimentos. La pirólisis rápida de biomasa lignocelulósica es una alternativa prometedora para producir biocombustibles de segunda generación. Mediante este proceso, se obtiene bioaceite con alto contenido de oxígeno. Sin embargo, para que estos biocombustibles sean comparables a los convencionales, se requiere un proceso de mejora. Una ruta investigada es la hidrodesoxigenación catalítica, que implica eliminar el oxígeno del bioaceite en forma de agua mediante catalizadores de óxidos mixtos a altas temperaturas y presiones. En la presente investigación, se aplicó este proceso a la hidrodesoxigenación del anisol utilizando catalizadores de níquel y rutenio soportados en Titania-Zirconia.



METODOLOGÍA

Primero, se preparó un soporte de óxidos mixtos TiO2-ZiO2 utilizando el método sol-gel. Empleando un sistema con agitación continua y refrigeración a 5°C, Se añadió una solución de ácido nítrico como catalizador. Posteriormente, el gel formado fue sometido a un tratamiento solvotérmico a 80°C, se secó en un baño de glicerina a 60°C. Se calcinó a 500°C por 5h, finalizando con molienda y tamizado. Se sintetizaron tres catalizadores: Ni/TiO2-ZiO2, Ni-Ru/TiO2-ZiO2 y Ru/TiO2-ZiO2, mediante impregnación incipiente húmeda, secándose luego a 120°C. La activación de los catalizadores se realizó mediante reducción con hidrógeno, la evaluación catalítica se llevó a cabo alimentando el catalizador previamente reducido ex situ y una mezcla de anisol en hexadecano en un reactor Batch el tiempo de reacción usado para cada experimento fue de 4h. Los productos fueron analizados mediante cromatografía de gases para determinar la selectividad de las reacciones y la conversión de los reactivos, posterior a la síntesis los materiales catalíticos se analizaron mediante DRX y TPRH2 para tener noción de su estructura.


CONCLUSIONES

En la presente investigación se evaluaron diversos catalizadores soportados en Titania-Zirconia, centrándose en observar el comportamiento de cada uno en las reacciones llevadas a cabo. Los resultados obtenidos, a través del análisis cromatográfico, permitieron evaluar el desempeño catalítico de los materiales sintetizados. Se destaca el potencial de los biocombustibles de segunda generación en la mitigación del cambio climático y la necesidad de continuar desarrollando tecnologías avanzadas para optimizar su producción y eficacia.  
Garcia Espejo Ramon, Universidad de Guadalajara
Asesor: Mg. Luis Felipe Ortiz Clavijo, Universidad Autónoma Latinoamericana

HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL GENERATIVA APLICADAS A LA GESTIóN DE LA CALIDAD Y EL CUMPLIMIENTO NORMATIVO


HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL GENERATIVA APLICADAS A LA GESTIóN DE LA CALIDAD Y EL CUMPLIMIENTO NORMATIVO

Alatorre Aguilera Rosalba, Universidad de Guadalajara. Garcia Espejo Ramon, Universidad de Guadalajara. Asesor: Mg. Luis Felipe Ortiz Clavijo, Universidad Autónoma Latinoamericana



PLANTEAMIENTO DEL PROBLEMA

¿Cómo pueden las herramientas de inteligencia artificial generativa optimizar los procesos de gestión de calidad y cumplimiento normativo en organizaciones industriales? La inteligencia artificial (IA) desempeña un papel crucial en el desarrollo de herramientas esenciales para realizar actividades en la industria, mejorando la eficiencia y promoviendo la gestión de la calidad y el cumplimiento normativo.  Por ellos esta invistigacion se basa en analizar el impacto de las herramientas de IA generativa en la reducción de errores y la mejora en los procesos de gestión de calidad, identificar los beneficios y desafíos de la implementación de estas tecnologías y proponer estrategias para maximizar el potencial de la IA en la gestión de la calidad y el cumplimiento normativo en la ingeniería industrial.  



METODOLOGÍA

Este estudio utiliza un enfoque cuantitativo basado en el análisis de datos de las empresas que han implementado herramientas de IA generativa en sus procesos de gestión de calidad y cumplimiento normativo. Se emplearon técnicas de análisis estadístico y minería de datos para evaluar el impacto de estas herramientas. Se emplearon herramientas de análisis de datos como Python y R para el análisis estadístico, y técnicas de minería de datos para identificar patrones y correlaciones relevantes en los datos recolectados. Además los datos se recolectaron de las bases de datos industriales y los reportes de empresas que han adoptado IA generativa. También se utilizaron fuentes secundarias, como publicaciones académicas y estudios de caso disponibles en la literatura.  


CONCLUSIONES

La IA generativa puede mejorar significativamente la gestión de la calidad y el cumplimiento normativo en el ámbito de la ingeniería industrial, con una reducción de errores y una mejora en la eficiencia. Se recomienda a las organizaciones invertir en capacitación para explorar la implementación de IA generativa en diferentes sectores y regiones para la mejora de la calidad y el cumplimiento para lograr un mejor control dentro de los procesos operativos, administrativos, organizacionales, etc. En conclusión la adopción generalizada de IA generativa podría transformar la manera en que se gestionan la calidad y el cumplimiento normativo, haciendo los procesos más eficientes y precisos ayudando a las empresas a mejorar continuamente.
García Evangelista José Manuel, Universidad Autónoma de Baja California
Asesor: Dr. César Antonio González Díaz, Instituto Politécnico Nacional

APLICACIóN DE LA TéCNICA DE BIOIMPEDANCIA PARA DETERMINAR CAMBIOS CELULARES CONSISTENTES CON CITOTOXICIDAD


APLICACIóN DE LA TéCNICA DE BIOIMPEDANCIA PARA DETERMINAR CAMBIOS CELULARES CONSISTENTES CON CITOTOXICIDAD

García Evangelista José Manuel, Universidad Autónoma de Baja California. Ramos Ramon Paola Ionesy, Universidad Autónoma de Coahuila. Asesor: Dr. César Antonio González Díaz, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La Bioimpedancia es una metodología emergente que por su accesibilidad y rapidez es susceptible de ofrecer resultados confiables en corto plazo, puede aplicarse en sistemas vivos, por ejemplo, células cultivadas in vitro. En un cultivo celular la bioimpedancia puede variar al presentar cambios que alteran las membranas celulares, dado que éstas bicapas lipídicas regulan la entrada y salida de sustancias al interior de las células. Al aplicar experimentalmente una toxina formadora de poros, ésta desestabiliza la integridad de la membrana, la célula ¨perfora¨ múltiples veces, pierde su potencial de membrana y el contenido celular tiende a igualarse con el exterior.  En el presente estudio se explora el método de Bioimpedancia para distinguir alteración celular, consistente con autofagia, inducida por tratamientos sobre la línea celular Vero (células epiteliales de riñón de mono). con concentraciones diferentes de la toxina formadora de poros de Vibrio cholerae (Vibrio cholerae cytolysin o VCC, por sus siglas en inglés) Los resultados experimentales sugieren que mediciones de bioimpedancia presentan factibilidad técnica para seguir diferentes niveles de lesiones celulares dependientes de la concentración de VCC.  Se probaron dos botellas (control negativo y concentración VCC a 160 ng/mL) con el propósito de variar los efectos citotóxicos conforme avanza el tiempo de incubación, apareciendo a tiempos cortos vacuolización, es decir autofagia (que conducen a procesos de reparación) pero conforme avanza el tiempo de incubación se espera obtener más lesiones inmanejables para la célula, que marcará a apoptosis. Si el tratamiento continúa sobre la célula en breve presentará lisis necrótica.



METODOLOGÍA

Para el presente estudio, se hizo uso de células Vero propagadas por métodos estándar en medio DMEM suplementado al 10% con suero fetal bovino (SFB). Las células Vero son una línea celular correspondiente a células epiteliales de riñón de mono verde africano. Se crecen las células Vero en 2 botellas de 5 cm2 hasta alcanzar una población de 5x106 células. Al alcanzar confluencia de cultivo de al menos 90% una de las botellas (botella #1) se mantiene con medio DMEM 2% de SFB sin tratamiento, para fungir como control (control negativo). Con la botella #2 se induce citotoxicidad adicionando la toxina en la botella de cultivo celular, en una concentración de 160 ng/mL de toxina VCC en medio DMEM 2% de SFB. Ambas botellas se incubaron por una duración de 2h. Al término de la incubación se realiza la foto-documentación a un aumento de 40X (Figura x) en el Microscopio invertido "NIKON" Mod. Diaphot-TMD para observar vacuolización. A continuación, las células se obtuvieron mecánicamente por despegamiento mediante el uso de un gendarme y se lavaron, para enseguida someter las células a mediciones por triplicado de EBIS en un medidor de impedancia comercial (ScioSpec, ISX-3, Alemania) con un ancho de banda de 100Hz hasta 10MHz.


CONCLUSIONES

Los cultivos celulares tratados con la VCC, muestran vacuolización en la foto-documentación, concordante con activación del mecanismo de autofagia, son evidencia de perforación membranal y de que la membrana citoplásmica experimenta pérdida de su integridad, debida a múltiples lesiones (perforaciones) causadas por los tratamientos con la toxina. Al someter las células a análisis de su bioimpedancia, las células vacuolizadas, mostraron clara tendencia a evidenciar pérdida de la integridad de la membrana citoplásmica dada una tendencia de los gráficos de las células en la botella control negativo a tener valores de magnitud de bioimpedancia mayores a los obtenidos para el gráfico de la botella con toxina VCC. Para estos últimos, se muestra vacuolización en la foto-documentación, concordante con activación del mecanismo de autofagia, indicativo de perforación membranal y de que la membrana citoplásmica experimenta pérdida de su integridad, es decir, pérdida de la función membranal en la que se pierde el potencial de membrana, ésto debido a múltiples lesiones (perforaciones) causadas por los tratamientos con la toxina. Los cambios anteriores contrastan con los resultados de bioimpedancia de las células sanas sin tratamiento, procedentes del control negativo, mismas que conservan su integridad normal. Los tratamientos con la toxina formadora de poros VCC inducen perforación de la membrana citoplásmica, con pérdida de su potencial, detectable mediante caída en los gráficos de bioimpedancia en el sistema; lo anterior en comparación con las células sin tratamiento, las cuales mantienen su integridad, detectable mediante las mediciones EBIS. Los tratamientos con la toxina VCC son capaces de inducir apoptosis, sin embargo, estudios más finos a concentraciones menores, estandarizando condiciones soportables para la célula, serían necesarios para establecer lo que parecería obvio, que los cambios en la bioimpedancia serían capaces de detectar alteraciones celulares congruentes con estas funciones de muerte celular.
García García Audrey Yamileht, Instituto Tecnológico Superior de Puruándiro
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

INNOVACIóN EN EL USO DE OLOTE EN AGLOMERADOS


INNOVACIóN EN EL USO DE OLOTE EN AGLOMERADOS

García García Audrey Yamileht, Instituto Tecnológico Superior de Puruándiro. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Innovación en el uso de olote en aglomerados En la actualidad, la industria de la construcción y fabricación de muebles enfrenta una creciente demanda de materiales sostenibles y económicos que puedan reemplazar la madera tradicional, debido a la deforestación y el impacto ambiental asociado. Los residuos agrícolas y forestales, como el olote de maíz y el aserrín, son materiales abundantes y de bajo costo que representan una fuente subutilizada de productos de alto valor agregado. El olote de maíz y el aserrín, combinados con un aditivo natural hecho de maicena, vinagre y glicerina, presentan una oportunidad innovadora para desarrollar un material aglomerado ecológico y sostenible. Además, este aditivo puede mejorar las propiedades mecánicas y la durabilidad del aglomerado. El problema central de esta investigación es la falta de estudios exhaustivos sobre la viabilidad técnica y las propiedades físicas y mecánicas del aglomerado de olote y aserrín utilizando este aditivo natural. Se necesita determinar si esta combinación puede producir un material con características comparables o superiores a la madera convencional en términos de resistencia, durabilidad y trabajabilidad. Además, es crucial evaluar el impacto ambiental y económico de este nuevo material, así como su potencial aceptación en el mercado. La propuesta de esta investigación se centra en abordar estas brechas de conocimiento mediante una revisión en artículos y tesis publicadas de experimentos y análisis. El objetivo es desarrollar un prototipo de aglomerado de olote y aserrín con el aditivo natural de maicena, vinagre y glicerina, y evaluar sus propiedades mecánicas, físicas y ambientales. Este proyecto no solo contribuirá al conocimiento científico y técnico en el campo de los materiales sostenibles, sino que también proporcionará una solución potencialmente viable para reducir la dependencia de la madera y mitigar los efectos de la deforestación.



METODOLOGÍA

En este presente documento se realizó una revisión bibliográfica exhaustiva de artículos y tesis realizados por diferentes investigadores para desarrollar una propuesta de material aglomerado que combina olote y aserrín con un aditivo de vinagre, maicena, glicerina y agua. Se revisaron un total de 12 documentos publicados entre 2018 y 2023, seleccionados de diversas bases de datos y sitios web como Google Académico y Scielo. Utilizando el término "aglomerados de biomateriales", se identificaron artículos científicos y tesis relevantes, resultando en 9 artículos de revistas científicas y 3 tesis. Las palabras clave utilizadas en la búsqueda incluyeron: aglomerado, olote, aserrín, vinagre, maicena, glicerina, biopolímeros, adhesivos naturales, sostenibilidad, y materiales ecológicos, entre otras. A continuación, se destacan los descubrimientos más relevantes de esta revisión. El objetivo principal de esta investigación de lo publicado, fue explorar el uso del olote y el aserrín como componentes básicos para un material aglomerado, examinando las propiedades adhesivas de un aditivo natural compuesto de vinagre, maicena, glicerina y agua. La hipótesis es que estos materiales, al ser naturales y fácilmente disponibles, pueden ofrecer una alternativa sostenible y económica a los aglomerados tradicionales empleados en la construcción y fabricación de muebles. La revisión bibliográfica mostró que la maicena funciona como un aglutinante efectivo debido a sus propiedades de gelificación al mezclarse con agua, la glicerina añade flexibilidad al material, y el vinagre, gracias a su contenido de ácido acético, mejora la durabilidad del aglomerado actuando como un conservante natural. El proceso propuesto para la fabricación del aglomerado comienza mezclando olote y aserrín con una solución de maicena disuelta en agua. Se determinó que es crucial encontrar la proporción óptima de maicena a agua para asegurar una mezcla homogénea y una adhesión adecuada. Luego, se agrega glicerina en una cantidad específica para mejorar la flexibilidad del aglomerado, y finalmente, se incorpora vinagre en una proporción adecuada para mejorar la durabilidad del material. Esta mezcla se prensa en moldes y se deja secar a temperatura ambiente o mediante calentamiento controlado para acelerar el proceso de curado. A pesar de la planificación detallada, debido a limitaciones de tiempo, las pruebas de laboratorio y la creación de prototipos con las cantidades exactas de material se llevarán a cabo en el futuro. Estas pruebas incluirán ensayos de resistencia a la compresión, flexión y absorción de agua, con el objetivo de comparar las propiedades mecánicas del aglomerado propuesto con los materiales comerciales existentes. Se espera que estas pruebas permitan ajustar las proporciones del aditivo para optimizar las propiedades del aglomerado.


CONCLUSIONES

Este método fue eficaz para identificar, analizar y como desarrollar un aglomerado sostenible a partir de olote y aserrín combinados con un aditivo natural de vinagre, maicena, glicerina y agua. Según la bibliografía revisada se concluye que el proceso mostró ser viable para la producción a pequeña y mediana escala, facilitando su implementación en la industria local. Utilizar materiales naturales y renovables aborda el problema del desperdicio de olote y aserrín, ofreciendo una alternativa ecológica a los aglomerados convencionales y promoviendo la economía circular y la sostenibilidad ambiental. Este nuevo aglomerado puede impactar significativamente en la industria de la construcción y la fabricación de muebles, proporcionando un material con propiedades mecánicas similares a las comerciales, pero con una huella ecológica menor. Su implementación puede reducir costos y fomentar prácticas sostenibles, además de promover el desarrollo económico y el empleo local en áreas con abundancia de olote. En resumen, aunque las pruebas y la creación de prototipos se realizarán a futuro, la propuesta de un aglomerado de olote y aserrín es una solución innovadora y sostenible, que representa un avance significativo hacia la sostenibilidad en la industria.  
Garcia Garcia Biviana, Universidad Autónoma de Chiapas
Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca

USO DE POLIMEROS Y NANOPOLIMEROS COMO PROTECCION ANTICORROSIVA DE VARILLAS EMBEBIDAS EN CONCRETO ANTE UN AMBIENTE MARINO NATURAL Y SIMULADO


USO DE POLIMEROS Y NANOPOLIMEROS COMO PROTECCION ANTICORROSIVA DE VARILLAS EMBEBIDAS EN CONCRETO ANTE UN AMBIENTE MARINO NATURAL Y SIMULADO

Garcia Garcia Biviana, Universidad Autónoma de Chiapas. Gómez Segundo Gina Paola, Universidad Autónoma de Chiapas. Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

La resistencia y durabilidad de los materiales son aspectos importantes en diversos contextos, la resistencia de los materiales se enfoca en analizar las propiedades y características de cada material para que puedan resistir fuerzas externas, es decir se encarga de comprender como afectan las fuerzas externas a los materiales generando que estas sufran deformaciones, es por ello que cada material debe tener la suficiente durabilidad durante la vida útil para la que ha sido proyectada, esto bajo condiciones físicas y químicas a la que se expone. En México la mayoría de las viviendas son construidas a base de muros de bloques de concreto, de columnas y vigas de concreto, estas ultimas son de suma importancia debido a que son las encargadas de trasmitir las cargas sobre los cimientos.  Es por ello la importancia de proponer, conocer y mejorar estrategias que permitan que los materiales cuenten con la suficiente durabilidad y resistencia, sin importar el ambiente en el que se expongan.



METODOLOGÍA

Durante la primera semana se realizó una investigación acerca de las fibras de polipropileno que serán utilizadas para mezclarse con el concreto, esto debido a que dichas fibras mencionadas actúan como un refuerzo secundario del concreto evitando el micro agrietamiento tridimensional.  Se llevo a cabo una reunión en donde se realizo el recordatorio sobre el tema del concreto y el acero Con el conocimiento adquirido se realizaron pruebas de granulometría con el fin de conocer las características del suelo. La granulometría se aplicó para un suelo arcilloso que existe en la zona donde se está realizando el estudio. Con ayuda de la báscula se pesó un total de un kilogramo de la muestra para posteriormente obtener su peso seco. En seguida con ayuda de las mallas no, #1/2, #3/8, #1/4, #4, #10, #20, #40, #60, #100 y #200 se llevo a cabo la clasificación de las partículas y sedimentos presentes en la muestra. Una vez concluida la prueba se realizó una investigación acerca de los inhibidores de corrosión. Los inhibidores anticorrosivos son sustancias químicas que ayudan a las superficies metálicas como el acero, a evitar su oxidación y deterioro provocada por la oxidación, en la investigación realizada se pudo encontrar recubrimientos anticorrosivos conocidos como Arcatec 110 y kromer, que serán utilizadas para las pruebas que se le realizarán. El uso de los inhibidoras de corrosión será necesario para mejorar la durabilidad del acero, esto debido a que se hará una simulación de castillos que estarán expuestos a zonas costeras como Huatulco y Salina Cruz, Oaxaca. Los castillos serán ubicados en casas ubicadas en estas zonas durante un aproximado de 6 meses, posteriormente se estudiará las afectaciones que sufrieron. También se harán muestras con simuladores de olas en la Ciudad de Oaxaca de Juárez. Para comenzar con la fabricación de los castillos, se realizo la mezcla de grava, arena, cemento y agua, esta mezcla se realizó siguiendo cálculos para que se cumpla con las resistencias requeridas de 150 kg/m3 y 250 kg/m3. Se realizo la prueba de revenimiento para asegurar que la mezcla de concretó sea trabajable, fue necesario el uso del cono estándar. Se comienza con el llenado del cono a 1/3 de su volumen, se realiza un compactado del concreto varillando 25 veces, en seguida se llena con la mezcla a 2/3 varillando 25 veces de manera que la varilla penetre en la parte superior de la primera capa, finalmente se llena el cono hasta derramarse y se nivela la superficie con la varilla. Es necesario que se limpie la parte superior y en la base del cono, el encargado empujo el cono y dejo se pisar los estribos, finalmente levanto el cono de manera recta hacia arriba y el cono se coloca al revés con la varilla encima, esto con el fin de poder tomar las mediciones con las que se asentó la mezcla. Se comenzó con el llenado de probetas cubicas de 5cm x 5cm x 5cm con la mezcla de concreto, fue necesario un total de 12 probetas, se dejaron reposar por 7 días y en seguida se realizo la prueba de compresión para verificar que cumplieran con las resistencias requeridas, mediate la máquina de ensayo universal se colocaron las piezas cubicas de concreto y se sometieron a compresión, finalmente se obtuvo que las piezas cubicas cumplieron con las resistencias.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre diferentes estrategias para mejorar la durabilidad y resistencia de materiales, específicamente el acero, que con ayuda de los inhibidores de corrosión se puede reducir la oxidación, sin embargo, debido a que las pruebas de los castillos se deben realizar durante un tiempo aproximado de un año, aun no se obtuvieron datos concretos finales, pero se espera obtener datos que permitan comparar los diferentes inhibidores utilizados y ver como actúa cada uno en el acero ante un ambiente marítimo.
García Garcia Endy, Instituto Tecnológico de Morelia
Asesor: Mg. Eliana Maria Noriega Noriega Angarita, Universidad de la Costa

ANALISIS BIBLIOGRAFICO DE LA CALIDAD DE LA POTENCIA ELECTRICA EN SISTEMAS ELECTRICOS INDUSTRIALES


ANALISIS BIBLIOGRAFICO DE LA CALIDAD DE LA POTENCIA ELECTRICA EN SISTEMAS ELECTRICOS INDUSTRIALES

García Garcia Endy, Instituto Tecnológico de Morelia. Garduño León Victor Hugo, Instituto Tecnológico de Morelia. Hernández Tomas Johan Manuel, Instituto Tecnológico de Morelia. Rivera Ramos Jose Angel, Instituto Tecnológico de Tepic. Solorio Aguila Edgar Jair, Instituto Tecnológico de Morelia. Asesor: Mg. Eliana Maria Noriega Noriega Angarita, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

En los últimos 15 años, el aumento de cargas no lineales en sistemas eléctricos de potencia (SEP) e industriales (SEI) ha generado preocupación por problemas de calidad de la potencia eléctrica que afectan a los usuarios finales [1]. El sector industrial, que representa el 37% del consumo global de energía eléctrica [3], ha incrementado el uso de equipos electrónicos para la automatización de procesos. Aunque existen estudios bibliométricos sobre calidad de la potencia eléctrica en diferentes sectores [5], [6], [7], no se han realizado estudios específicos para el sector industrial, crucial por el uso intensivo de equipos electrónicos que aumentan los problemas de calidad de la potencia eléctrica.



METODOLOGÍA

Paso 1. Selección de la base de datos: Para el análisis bibliométrico se seleccionó Scopus como la base de datos principal de búsqueda, dado su reconocimiento internacional y su amplia cobertura de literatura científica de alta calidad. Paso 2. Selección de palabras clave y construcción de la ecuación de búsqueda: Este paso consiste en identificar y seleccionar las palabras claves para la búsqueda de artículos científicos en la base de datos Scopus. Las palabras claves fueron: Power Quality, Harmonics, Voltage Sag, Voltage Swell, Flicker, Transients, Total Harmonic Distortion (THD), Power Quality Standards, Load Imbalance, Voltage Fluctuations, Energy Efficiency y Technical Standards. Para llevar a cabo la búsqueda y recopilación de información, se construyen ecuaciones de búsqueda utilizando combinaciones de estas palabras clave con Industrial Electrical Systems debido al contexto de la investigación. Se emplearon operadores lógicos (AND y OR). Las ecuaciones de búsqueda se ajustaron iterativamente para lograr un equilibrio óptimo entre la cantidad de artículos y su relevancia. Paso 3. Recopilación de artículos: Una vez seleccionada la base de datos y construida las ecuaciones de búsqueda, se procedió a realizar una búsqueda preliminar de artículos científicos. Los criterios para esta búsqueda preliminar incluyeron el título de los artículos y la cantidad de palabras claves en sus resúmenes. De esta primera búsqueda se obtuvieron 184 artículos. De estos 184 artículos recopilados, se aplicaron dos criterios adicionales para hacer un filtro de los estudios más relevantes. El periodo de publicación (2016 a 2024) y la relevancia del contenido, evaluando cada artículo en función a su adecuación a la temática del estudio. Como resultado, se seleccionaron 103 artículos considerados los más relevantes y pertinentes para el análisis. Paso 4. Análisis bibliométrico: Este paso consiste en realizar un análisis de los estudios recolectados utilizando para ello la herramienta VOSviewer. Los pasos que se llevaron a cabo para utilizar VOSviewer fueron los siguientes:1. Exportar la lista de los artículos seleccionados desde la base de datos Scopus en un formato adecuado; 2. Importar la lista de artículos al software VOSviewer; 3. En la pestaña de inicio del software, en la columna File, seleccionar la opción Create; 4. En la pestaña Choose type of data, seleccionar la opción Create a map based on bibliographic data. Esta opción permite crear mapas de coautoría, co-ocurrencia de palabras clave, citas, acoplamiento bibliográfico, o mapas de citas basados en datos bibliográficos; 5. En la pestaña Choose data source, seleccionar Read data from bibliographic database files y especificar el tipo de documentos que el software debe leer, como Web of Science, Scopus, Dimensions, o PubMed; 6. En la pestaña Select files, elegir el tipo de base de datos correspondiente al archivo; 7. Finalmente, en la pestaña Choose type of analysis and counting method, seleccionar el tipo de dato que se desea visualizar en el gráfico y hacer clic en "Finish".


CONCLUSIONES

En esta sección se presentan los resultados del análisis bibliométrico sobre la calidad de la potencia eléctrica en el sector industrial.Este análisis destaca la evolución de la investigación en calidad de la potencia eléctrica en el sector industrial, identificando las principales fuentes, autores, y colaboraciones que han contribuido significativamente al campo. A continuación, se detallan los resultados obtenidos del análisis realizado: Red de Fuentes de Información más Citadas: Journal of the International Measurement Confederation lidera con 71 citaciones, seguido de IEEE Access con 58 citaciones. Otras fuentes importantes incluyen IEEE Transactions on Instrumentation and Measurement, International Transactions on Electrical Energy Systems y Microprocessors and Microsystems. Red de Acoplamiento Bibliográfico por Autores: Autores como Baja M., Palanisamy R., Thentral T.M.T, y Usha S. son los más centrales en la red, indicando un alto número de citaciones y una fuerte interconexión con otros autores. Red de Acoplamiento Bibliográfico por Países: India destaca por su prominente posición en la red global de investigación, con muchas citaciones y colaboraciones internacionales. Otros países notables incluyen Arabia Saudita, Estados Unidos, Brasil, Egipto, Pakistán y Malasia. Red de Acoplamiento Bibliográfico de Organizaciones:Organizaciones como el Department of Electrical and Computer Engineering son influyentes y centrales en la red, indicando una fuerte colaboración y contribución en investigaciones conjuntas. Red de Co-ocurrencia de Palabras Clave: "Power Quality" es el término más central y relevante, con términos relacionados como "harmonic analysis", "total harmonic distortions (thd)", y "quality control" siendo también muy citados. Red de Co-citation de Fuentes Citadas: Energies, IEEE Trans Power Electron, y IEEE Access son las fuentes más citadas y relevantes en el campo.
Garcia Garcia Fabian, Instituto Tecnológico Superior de Irapuato
Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato

BLOQUE DE PET RECICLADO


BLOQUE DE PET RECICLADO

Garcia Garcia Fabian, Instituto Tecnológico Superior de Irapuato. Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Bloque de PET reciclado Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato Estudiante: Fabian Garcia Garcia, Instituto Tecnológico Superior de Irapuato   PLANTEAMIENTO DEL PROBLEMA El polietileno tereftalato comúnmente conocido como PET pertenece a la familia de los poliésteres. Es resistente, ligero, transparente, impermeable y fácil de moldear. Gracias a estas características es ampliamente utilizado para la fabricación de diversos productos, como los envases de alimentos y bebidas, fibras textiles empleadas principalmente en la producción de ropa, envases farmacéuticos, componentes industriales y eléctricos, etc. Se estima que en la actualidad se producen alrededor de 300 millones de residuos plásticos, afectando a más de 800 especies marinas, 277 especies terrestres, se estima que los seres humanos consumen 5 gramos de micro plásticos por semana a través de los alimentos, el aire y el agua. El tiempo estimado que tarda en degradarse el plástico es entre 100 y 1000 años, por lo que representa un gran problema para el medio ambiente, la flora y fauna de los ecosistemas y además la salud de los humanos. Por lo que se propone el diseño de un bloque de PET que será utilizado para construir muros divisorios, baños, oficinas y almacenes temporales. Utilizando como materia prima PET reciclado mezclado con un pegamento aglutinante.



METODOLOGÍA

Se realizo una investigación sobre los diferentes tipos de bloques que se utilizan actualmente en la construcción, así como los materiales de los que están hechos. Además de la selección de un pegamento aglutinante, en este caso se utilizará duretan, el cual se mezclará con el PET reciclado, esta mezcla será utilizada como materia prima para la fabricación de los bloques. En base a las dimensiones de los bloques de concreto y ladrillos de arcilla empleados en la actualidad, se diseñó el bloque de PET con las siguientes dimensiones: 120 mm de ancho, 220 mm de altura y 340 mm de largo. El gancho situado en la parte superior está redondeado con un radio de 5 mm. La C y el sobresaliente cuentan con las mismas dimensiones de 50 mm x 80 mm. El gancho tiene dimensiones de 55 mm x 30 mm. El modelo conceptual del bloque se realizó por medio de software de diseño en 3D, en este caso se empleó SOLIDWORKS. Se eligió la forma del bloque de PET debido a que el gancho une los bloques sin necesidad de utilizar duretan como pegamento. Caso contrario a la construcción tradicional donde se requiere una mezcla de mortero para pegar los ladrillos o bloques, además de que se debe preparar la mezcla del mortero en el momento que se va a construir el muro. Sin embargo, el duretan también puede aplicarse como pegamento para unir los bloques de PET, lo cual garantiza una unión más fuerte y rellena los espacios entre los bloques para evitar que los insectos y partículas de polvo se incrusten entre las pequeñas ranuras entre las uniones del bloque. El diseño del gancho incrementa la rigidez y estabilidad del muro, asegurando la unión entre los bloques y evitando cualquier movimiento entre ellos. A su vez el diseño de la C del bloque cumple con la función de ensamblar un bloque con otro de tal manera que impide el movimiento vertical ya sea hacia arriba o hacia abajo. Solo permitiendo el movimiento horizontal. Para producir los bloques de PET se empleará el moldeo por compresión, donde es necesario utilizar un molde de acero que consta de dos partes: una fija y una móvil. En la parte fija se coloca la mezcla de PET granulado con el pegamento aglutinante, mientras que la parte móvil comprime la mezcla que ha sido colocada en la parte fija del molde. Antes de aplicar la mezcla de PET con pegamento aglutinante, se debe colocar una capa de aceite para que sirva de desmoldante. Esto evitará que el bloque se adhiera al molde, facilitando su extracción una vez que esté curado.


CONCLUSIONES

Durante la estancia de verano se logró desarrollar un modelo conceptual de un bloque de PET mediante el uso de software de diseño en 3D. Al utilizar PET reciclado se pretende lograr una reducción significativa en la generación de residuos plásticos, así como una alternativa rentable y sostenible para la construcción de muros tapón como oficinas y almacenes temporales en comparación con los materiales tradicionales como el concreto, ladrillos o bloques, y estructuras de acero.
García Garibay Cristian Daniel, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Mg. Sonia Isabel Polo Triana, Universidad de Investigación y Desarrollo

REVISIóN DE APLICACIONES DEL MACHINE LEARNING EN EL SECTOR PúBLICO.


REVISIóN DE APLICACIONES DEL MACHINE LEARNING EN EL SECTOR PúBLICO.

García Garibay Cristian Daniel, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Mg. Sonia Isabel Polo Triana, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

El Machine Learning (ML), subcampo de la IA, transforma el sector público al automatizar tareas, analizar datos, y personalizar servicios. Beneficios incluyen eficiencia mejorada, decisiones basadas en datos, reducción de costos, y detección de fraudes. Desafíos incluyen la calidad de los datos y consideraciones éticas. La revisión explora aplicaciones, algoritmos y datos usados en educación, salud, seguridad, servicios sociales y transporte.



METODOLOGÍA

La investigación comenzó con preguntas clave sobre la aplicación de Machine Learning en el sector público, algoritmos usados y datos empleados. Se utilizó SCOPUS con la búsqueda Machine Learning AND Public Sector, obteniendo 1,082 documentos. Tras filtrar por tipo de documento y relevancia, quedaron 58 artículos. Finalmente, se revisaron completamente 8 documentos relevantes para la aplicación y el impacto del ML en el sector público.


CONCLUSIONES

Áreas o subsectores del sector público en las que se ha aplicado Machine Learning 1. Educación: Se desarrolló un sistema de orientación educativa con módulos de recomendación y predicción para aplicaciones universitarias. 2. Política económica: El uso de modelos de fundación como ChatGPT y Midjourney ha transformado la economía política al democratizar el acceso a tecnologías avanzadas mediante "prompting", reduciendo la necesidad de datos específicos y concentrando el poder en grandes empresas tecnológicas. 3. Energía: Modelos como LSTM se utilizan para optimizar la generación solar en redes inteligentes, con LSTM logrando una precisión del 97% en comparación con otros modelos. 4. Trabajo público: Se compararon seis algoritmos para predecir la productividad de trabajadores municipales, destacando XGBoost como el más eficaz, mejorando la asignación de recursos e incentivos. 5. Política pública y sustentabilidad: Una revisión de 227 estudios muestra que la mayoría de las intervenciones para promover prácticas alimentarias sostenibles son de países ricos, con un enfoque en etiquetado y educación, sugiriendo la necesidad de más investigación y cooperación global. 6. Transporte: Se desarrolló un modelo de tráfico en tiempo real usando análisis de datos y técnicas de aprendizaje automático para mejorar la eficiencia del transporte y reducir la congestión. 7. Gobierno: El machine learning se usa para mejorar la identificación de temas de auditoría gubernamental mediante minería de texto, agilizando el proceso y reduciendo la recopilación manual de información. Algoritmos o herramientas utilizadas Árbol de Decisión: Divide datos en segmentos mediante preguntas binarias. Regresión Lineal: Modela la relación entre variables mediante una línea recta.. Random Forest: Combina múltiples árboles de decisión para mejorar la precisión y reducir el sobreajuste. K-Nearest Neighbors (K-NN): Clasifica basándose en los 'K' vecinos más cercanos. Máquinas de Soporte Vectorial (SVM): Encuentra el margen óptimo entre clases. Regresor AdaBoost: Combina modelos débiles para crear uno fuerte, mejorando la precisión en predicciones y riesgos. XGBoost: Optimiza el rendimiento con regularización y procesamiento paralelo. CatBoost: Maneja características categóricas. Lasso: Aplica penalización para selección de variables, útil para identificar variables relevantes en modelos predictivos. Ridge Regression: Penaliza los coeficientes del modelo para manejar multicolinealidad. Bayesian Ridge Regression: Utiliza un enfoque bayesiano para estimar parámetros. Regresión Elastic Net: Combina penalizaciones de Lasso y Ridge. Regresor de Huber: Maneja datos con valores atípicos combinando regresión lineal y cuadrática. Generative Adversarial Networks (GANs): Crea datos sintéticos mediante competencia entre redes, usado en simulaciones y generación de datos. LSTM: Maneja dependencias a largo plazo en secuencias, útil para prever tendencias y analizar datos secuenciales. GRU: Simplificación de LSTM, eficiente para previsión de series temporales y análisis secuencial. RNN: Procesa datos secuenciales, capturando patrones en series temporales para previsión y análisis histórico. Datos que han sido utilizados para la aplicación de Machine Learning Majjate et al. (2024): Datos de 500 graduados de 12 escuelas en Marruecos, con historial académico y criterios de admisión de 31 universidades. Abubakar et al. (2024): Datos de una planta solar durante 2018-2019, incluyendo generación de energía, irradiancia y rendimiento. Bijalwan et al. (2024): Datos de 1098 trabajadores en Uttarakhand, India, con variables de productividad, preprocesados en Python.  Ran et al. (2024): Revisión de 227 artículos sobre intervenciones de políticas públicas para prácticas alimentarias sostenibles, recopilando datos de diversas bases y sitios especializados. Chawla et al. (2024): Datos del sistema PeMS de Caltrans (2015-2019) para predecir congestión de tráfico, integrando datos de clima y eventos para mejorar la precisión de las previsiones. Aljanaby et al. (2024): Aplicación de minería de texto para seleccionar temas de auditoría en sectores gubernamentales, explorando técnicas de modelado de temas en aprendizaje automático. Wilson & van der Velden (2022): Revisión de 51 artículos sobre IA sostenible, seleccionando 15 relevantes para integrar conceptos de IA sostenible en decisiones gubernamentales.
García Gastelum Roxana, Universidad Autónoma de Occidente
Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

ESTRATEGIA DE COMUNICACIóN SOCIAL Y DIVULGACIóN CIENTíFICA DE PROYECTOS DE INNOVACIóN EN CIDESI


ESTRATEGIA DE COMUNICACIóN SOCIAL Y DIVULGACIóN CIENTíFICA DE PROYECTOS DE INNOVACIóN EN CIDESI

García Gastelum Roxana, Universidad Autónoma de Occidente. Solórzano Magallanes Adriana, Instituto Tecnológico de Tepic. Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La divulgación científica es el proceso de comunicar conocimientos y avances científicos a un público no especializado, con el objetivo de hacer la ciencia accesible, comprensible y relevante para la sociedad. Sin embargo, enfrenta varios desafíos que pueden disminuir su efectividad. Uno de sus principales retos es la accesibilidad del lenguaje. Los conceptos científicos, a menudo complejos, pueden resultar intimidantes para el público general. Los divulgadores deben traducir esta complejidad en términos comprensibles sin sacrificar precisión y rigor.  Otro desafío significativo es captar y mantener el interés del público. La divulgación debe encontrar maneras creativas y relevantes de presentar la ciencia para que las personas la encuentren atractiva y aplicable a sus vidas cotidianas. Además, los recursos limitados en términos de financiamiento y personal son un reto constante. Sin suficientes recursos, estos esfuerzos pueden quedarse cortos y no tener el impacto deseado. A pesar de estos desafíos, la divulgación científica es vital para la educación y la cultura científica de la sociedad. Traduciendo conceptos complejos en un lenguaje claro y sencillo, ayuda a reducir las brechas de conocimiento y fomenta una sociedad más equitativa. Es importante distinguir entre divulgación y difusión científica. La difusión se enfoca en la comunidad académica y científica; mantiene un lenguaje técnico adecuado para profesionales del campo. Las redes sociales han transformado la comunicación social y la divulgación. Estas plataformas permiten una difusión rápida y amplia de información. A través de estas redes, instituciones e investigadores pueden interactuar con el público. Además, las herramientas analíticas de estas plataformas permiten medir el impacto y el alcance de las publicaciones. En este proyecto, el principal reto radica en comunicar de forma efectiva los hallazgos científicos, superando las barreras del lenguaje, captando el interés del público y enfrentando la limitación de recursos.



METODOLOGÍA

La metodología del proyecto se diseñó en etapas clave para asegurar una estrategia eficaz y permitir un análisis minucioso de los resultados. En primer lugar se revisó el estado del arte, donde se examinó el uso de las redes para promover la investigación académica, abordando los desafíos asociados y evaluando si los científicos pueden beneficiarse de una presencia en estas plataformas. También se analizó la divulgación científica a través de plataformas integradas de redes sociales y la popularización de la ciencia en Facebook y X. En términos estadísticos, un estudio realizado por la Sociedad Internacional de Trombosis (2024) reveló que la plataforma de redes sociales más utilizada por sus investigadores es X, con un 55.8% de usuarios activos, seguida por LinkedIn (46%) y Facebook (31.9%). Además, el 14.6% del tráfico dirigido a su sitio web desde redes sociales proviene de X (11%), seguido de Facebook (1.9%) y LinkedIn (1.7%). Además, se revisaron las motivaciones y barreras para la divulgación, así como las estrategias de comunicación empleadas para mejorar el alcance y el impacto de la ciencia en el público general. Tras la revisión del estado del arte, se procedió al análisis de un caso de estudio específico centrado en la trayectoria profesional de un grupo particular de científicos del CONAHCYT. Este grupo incluye a investigadores y sus respectivos estudiantes de maestría y doctorado, especializados en manufactura aditiva y áreas de investigación como inteligencia artificial, visión por computadora, sistemas hápticos e instrumentación. Esta información fue fundamental para adaptar el contenido de manera que refleje adecuadamente las iniciativas y logros en curso. Para lograr este objetivo, se realizó un benchmarking enfocado en evaluar el tipo de contenido que se publica y la frecuencia de las publicaciones. Este análisis permitió identificar las mejores prácticas, qué tipos de contenido generan mayor interacción y cómo se programan las publicaciones.  Por otro lado, se realizó un branding para fortalecer la identidad del proyecto y maximizar su impacto en las redes sociales. Se desarrolló una identidad visual y conceptual que refleje los valores y objetivos de los investigadores. Se eligieron las redes sociales a utilizar basado en el análisis del estado del arte, se decidió por Instagram, Facebook, X y LinkedIn; con esto se pudo desarrollar el cronograma de actividades y un calendario de contenido para asegurar la coherencia y constancia. Para la generación de contenido, se optó por crear imágenes llamativas y contenido de valor que capturara la atención del público. Se creó una sección específica para exponer los perfiles de los investigadores, destacando sus contribuciones y logros, lo que ayuda a humanizar y personalizar el contenido. Además, se incluyeron publicaciones destacadas de los artículos de divulgación emanados por el grupo, hilos con sus resultados más relevantes de las investigaciones, carruseles y resúmenes. 


CONCLUSIONES

Los resultados revelaron tendencias y comportamientos específicos de la audiencia. Se recopilaron todas las impresiones e interacciones de los posts, donde se obtuvieron 14,314 interacciones totales, el 39.69% de estas provino de X (5,681), en segundo lugar se colocó Facebook con el 24.86% (3,559), en tercer lugar se colocó Instagram con el 22.62% (3,238), mientras que LinkedIn mostró una participación menor con el 12.83% (1,836 de interacciones totales). X, con un 55.8% de usuarios activos, seguida por LinkedIn (46%) y Facebook (31.9%). Además, el 14.6% del tráfico dirigido a su sitio web desde redes sociales proviene de X (11%), seguido de Facebook (1.9%) y LinkedIn (1.7%). Este análisis destaca la importancia de X y Facebook en la estrategia, alineándose con las tendencias observadas en la comunidad científica. Las estadísticas reflejan el éxito de la estrategia; sin embargo, aunque el proyecto ha sentado las bases para una campaña de comunicación sólida, aún queda camino por recorrer. 
Garcia Gomez Juan Carlos, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)

IDENTIFICACIÓN Y CLASIFICACIÓN DE SOFTWARE BASADO EN INTELIGENCIA ARTIFICIAL EN SECTORES ESTRATÉGICOS EN MÉXICO


IDENTIFICACIÓN Y CLASIFICACIÓN DE SOFTWARE BASADO EN INTELIGENCIA ARTIFICIAL EN SECTORES ESTRATÉGICOS EN MÉXICO

Garcia Gomez Juan Carlos, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los sectores estratégicos en México enfrentan dificultades en la implementación efectiva de soluciones tecnológicas aplicado a la Inteligencia Artificial (IA), debido a la falta de infraestructura adecuada, habilidades técnicas y marcos de desarrollo bien definidos. La mayoría de las soluciones tecnológicas que aplican IA  está enfocado en cuestiones técnicas, estos problemas técnicos pueden encontrar una solución en el área de Ingeniería de Software, sin embargo, la información sobre las aplicaciones de IA en México está fragmentada y dispersa en diversas fuentes o no existe, lo que complica la tarea de obtener una visión integral y coherente del panorama actual y por tanto, la identificación de áreas clave para la contribuir desde la Ingeniería de Software al desarrollo tecnológico de este tipo de aplicaciones.



METODOLOGÍA

  La investigación consta de dos partes, para la primera parte se utilizó el mapeo sistemático como metodologia para recopilar artículos relacionados con el desarrollo de soluciones tecnológicas que usan IA. Para la segunda parte se iutilizó un método para desarrollo de taxonomía propuesto por la Dra. Gloria Piedad Gasca Hurtado desarrollada en su tesis doctoral para la creación de una taxonomía de Gestión de Riesgos para la adquisicion de software en pequeños entornos: Mapeo sistemático: Identificación de palabras claves Definición de pregunta de investigacion Ejecución de busqueda de estudios primarios Seleccion inicial de estudios Seleccion final de estudios Trabajos Relacionados Construcción de una Taxonomía: Planificación Contexto, Audiencia y Contenido Delimitación del área de conocimiento Definición deCategorías querepresentan elárea de conocimiento Establecimientode la relaciónentre lascategorías Establecimientodel esquema y estructura de las categorías


CONCLUSIONES

El análisis del reporte de clasificación de artículos revela varios hallazgos clave. La mayoría de los artículos provienen de la fuente COMIA, con un total de 83 artículos, mientras que MICAI contribuyó con 20 artículos. En cuanto al tipo de aplicación, predomina el enfoque en "Algoritmos Aplicados a Software" con 52 artículos, seguido por "Software" y "Software Embebido".  A partir del análisis de los artículos seleccionados, se desarrolló una taxonomía inicial que clasifica el software basado en IA en los siguientes sectores estratégicos: Salud: las investigaciones se centran en aplicaciones como diagnóstico médico, monitoreo de pacientes y gestión de datos clínicos. Educación: los estudios abordan temas como tutores inteligentes, personalización del aprendizaje y análisis de desempeño estudiantil. Seguridad:  los artículos están relacionados con vigilancia, análisis forense y prevención del crimen. Agricultura y Energía: las investigaciones cubren la optimización de recursos, monitoreo ambiental y eficiencia energética. Ademas las principales tecnologias utilizadas fueron: Aprendizaje Automático (Machine Learning): Usado principalmente para análisis predictivo y clasificación. Procesamiento de Lenguaje Natural (NLP): Implementado  especialmente en aplicaciones de salud y educación. Visión por Computadora: sobre todo en sectores de seguridad y monitoreo ambiental. Redes Neuronales y Deep Learning:  aplicadas en diversas áreas como diagnóstico médico y reconocimiento de patrones.
García González Alejandro, Instituto Tecnológico de Jiquilpan
Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz

UN ESCAPE AL PASADO: NARRATIVAS INMERSIVAS MULTIUSUARIO DE MUJERES RECONOCIDAS EN STEAM


UN ESCAPE AL PASADO: NARRATIVAS INMERSIVAS MULTIUSUARIO DE MUJERES RECONOCIDAS EN STEAM

García González Alejandro, Instituto Tecnológico de Jiquilpan. Ibarra Granados Yuriana Montserrat, Instituto Tecnológico de Jiquilpan. Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

Narrativas Inmersivas es un proyecto innovador que busca explorar y mostrar la vida de mujeres importantes en la historia a través de una experiencia de realidad virtual. En esta ocasión, se centra en la figura de Ada Lovelace, pionera en el campo de la informática, utilizando la narrativa de un escape room para hacer del aprendizaje algo dinámico y entretenido. La ambientación de este escape room se sitúa en un tiempo medieval. Los jugadores inician su aventura en una mazmorra, que actúa como lobby multijugador. Desde allí, se les otorga acceso a la primera habitación: una biblioteca. En ella, los participantes deben buscar las notas y resolver los puzles relacionados con la vida de Ada Lovelace para avanzar a la siguiente habitación, su dormitorio, y continuar así con la exploración de su historia. El desafío principal del proyecto es la implementación de un entorno multijugador en este escenario de realidad virtual, lo cual requiere una coordinación precisa de la sincronización de datos y la interacción entre múltiples usuarios en tiempo real. Además, debe garantizar una experiencia inmersiva que sea tanto educativa como divertida, permitiendo a los jugadores aprender sobre la vida y los logros de Ada mientras colaboran en este entorno virtual. Este proyecto no solo tiene como objetivo entretener, sino también educar y rendir homenaje a las mujeres que han marcado la historia, destacando sus contribuciones de manera interactiva y memorable.



METODOLOGÍA

La primera fase de desarrollo del proyecto consistió en una investigación y documentación sobre la vida y logros de Ada Lovelace. Esta investigación fue esencial para garantizar la precisión histórica y educativa del proyecto. Se recopiló una amplia gama de datos y hechos relevantes que formarían la base para la creación de pistas, notas y puzles que los jugadores resolverían a lo largo de su aventura. Con esta base de conocimiento histórico, avanzamos a la fase de diseño y conceptualización. Se crearon bocetos detallados y mapas de cada habitación, incluyendo la mazmorra, la biblioteca y el dormitorio de Ada Lovelace. Estos diseños conceptuales sirvieron como guías visuales para el desarrollo posterior. Paralelamente, se diseñaron acertijos y pistas basadas en los logros y la vida de la joven, asegurando que cada desafío ofreciera una experiencia tanto educativa como estimulante. La fase de desarrollo técnico comenzó con la familiarización con la plataforma Unity mediante la realización de tutoriales específicos, como Roll-a-ball y Virtual Reality, que ayudaron a comprender las herramientas y capacidades del motor de juego. Se configuraron las entradas del sistema y se crearon scripts en C# para implementar funcionalidades básicas. Después, se configuró un entorno de desarrollo multijugador utilizando la plantilla propia de Unity, VR Multijugador, que permitió la sincronización de datos y la interacción entre múltiples jugadores en tiempo real. El siguiente paso fue la integración de las pistas y puzles en las diferentes habitaciones, así como el desarrollo de las interacciones y funcionalidades dentro del entorno virtual. Se programaron interacciones tanto básicas como avanzadas entre los jugadores y el entorno, asegurando que todas las acciones de los jugadores se sincronizaran perfectamente en tiempo real. Además, se llevaron a cabo múltiples pruebas para identificar y corregir cualquier error tanto técnico como de diseño, y se realizaron optimizaciones para asegurar un rendimiento fluido y sin interrupciones.


CONCLUSIONES

Durante el desarrollo del proyecto, hemos adquirido y perfeccionado una serie de habilidades técnicas y creativas esenciales. La familiarización con el editor de Unity y la programación en C# nos ha proporcionado una sólida base en el desarrollo de juegos y aplicaciones interactivas, al igual que la configuración de entornos multijugador y la sincronización de datos en tiempo real nos ha permitido comprender y aplicar conceptos avanzados de redes y comunicación entre cliente y servidor. Además, el diseño de escenarios y la creación de puzles educativos nos han capacitado en la integración de elementos históricos, haciendo el aprendizaje atractivo y dinámico. Las pruebas exhaustivas y la optimización del rendimiento han fortalecido nuestras habilidades en el aseguramiento de la calidad y la mejora continua.
García Gonzalez Andy, Universidad Tecnológica de La Selva
Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva

SKOP KAP: UNA APLICACIÓN MÓVIL PARA LA COMUNICACIÓN CON PERSONAS CON DISCAPACIDAD AUDITIVA


SKOP KAP: UNA APLICACIÓN MÓVIL PARA LA COMUNICACIÓN CON PERSONAS CON DISCAPACIDAD AUDITIVA

García Gonzalez Andy, Universidad Tecnológica de La Selva. Guillén Trujillo Pedro Emmanuel, Universidad Tecnológica de La Selva. Jimenez Hernandez Jose Miguel, Universidad Tecnológica de La Selva. Montiel Torres Sergio Amaury, Universidad Tecnológica de La Selva. Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva



PLANTEAMIENTO DEL PROBLEMA

Actualmente, aproximadamente 430 millones de personas (5% de la población mundial) sufren de algún tipo de pérdida auditiva, 432 millones de adultos y 34 millones de niños requieren rehabilitación. La OMS prevé que para el 2050 esa cifra superará los 700 millones de personas, es decir, una de cada diez personas en el mundo sufrirá está discapacidad (OMS, 2023; Organización de las Naciones Unidas [ONU], 2021). En América Latina, cerca de 217 millones de personas cuentan con pérdida auditiva (21.5% de la población), por lo que, atender esta discapacidad, representa un gasto anual de 262 millones para la región.  La OPS prevé que para el 2050 aumente a 322 millones de personas con dicha discapacidad. (Organización Panamericana de la Salud [OPS], s.f.).    En México, más de 1.35 millones de personas presentan una discapacidad auditiva; más de 550 mil son personas mayores de 60 años, más de 400 mil tienen entre 30 y 59 años, más de 133 mil tienen entre 15 y 29 años, y más de 139 mil son niños menores de 15 años.  Esta discapacidad, el 44.4% lo adquirió por la edad avanzada que presenta, el 15.4% lo tiene de nacimiento, el 24.3% lo adquirió a causa de alguna enfermedad, el 7.3% a causa de un accidente y el 8% por otras causas (Instituto Nacional de Estadística y Geografía [INEGI], 2020a, INEGI, 2020b).  Comunicarse con personas que presentan ésta discapacidad sin tener el conocimiento de un lenguaje de señas es muy complicado, ya que nuestra sociedad está basada a través del lenguaje oral, por lo que, se excluye de cierto modo a las personas que sufren esta discapacidad. En México, existe el Lenguaje de Señas Mexicana que es utilizado por personas sordas para poder comunicarse, ésta tiene su propia sintaxis, gramática y léxico (Consejo Nacional para el Desarrollo y la Inclusión de las Personas con Discapacidad [CONADIS], 2016). En la actualidad, existen pocas herramientas tecnológicas creadas con el objetivo de ayudar a la comunicación con personas que tienen esta discapacidad, debido a la falta de interés en esta sección de la sociedad.    Desarrollar una aplicación móvil que traduzca del lenguaje oral al lenguaje de señas, mediante la implementación de inteligencia artificial, para la comunicación entre cualquier persona y una con discapacidad auditiva.  



METODOLOGÍA

Para el desarrollo de la aplicación "SK'OP K'AP", se ha optado por utilizar la metodología ágil Scrum. Esta elección se basa en la necesidad de adaptarse rápidamente a los cambios y la importancia de mantener una colaboración continua entre los miembros del equipo de desarrollo. Scrum es particularmente adecuado para proyectos de software como el nuestro, donde la interacción constante con los usuarios finales es crucial para desarrollar una solución efectiva y centrada en sus necesidades.   La elección de Scrum como marco de trabajo está fundamentada en su flexibilidad y estructura iterativa. Según Pérez, O.A. (2011)., Scrum facilita la adaptación a las necesidades cambiantes del proyecto mediante la división del trabajo en sprints (iteraciones cortas), que permiten una revisión constante y ajustes según los resultados obtenidos y el feedback de los usuarios. Esta metodología también fomenta la auto organización y la responsabilidad dentro del equipo, aspectos clave para el éxito en el desarrollo de software.   El proyecto se dividirá en sprints, cada uno con una duración de dos semanas; Sprint 1: Desarrollo del protocolo de investigación del proyecto Sprint 2: Definir la metodología para el desarrollo de la aplicación Sprint 3: Diseño y modelado 3D y programación de manos Sprint 4: Diseño y desarrollo de la interfaz de usuario de la app Móvil Sprint 5: Aprendizaje Automatizado.  


CONCLUSIONES

Durante el desarrollo de la aplicación, se logró crear una app móvil con avatares 3D que representan el lenguaje de señas mediante animaciones. Además, se integró una inteligencia artificial entrenada para traducir entre el lenguaje de señas y el lenguaje hablado de manera bidireccional. Los resultados obtenidos en este corto periodo de desarrollo fueron muy positivos, estableciendo una base sólida para futuros avances. El próximo paso será perfeccionar cada aspecto de la app, mejorando la interacción entre sus componentes y optimizando la inteligencia artificial para brindar traducciones más precisas. De esta manera, se espera ofrecer una solución de alta calidad que ayude a superar las barreras de comunicación que enfrentan las personas con discapacidad auditiva.
Garcia Hernandez Citlali, Instituto Tecnológico Superior de Irapuato
Asesor: Mtro. César Manuel Hernández Mendoza, Instituto Tecnológico Superior de Irapuato

PROGRAMACIóN Y AUTOMATIZACIóN DE BRAZOS ROBóTICOS Y DESARROLLO DE APP CON I.A.


PROGRAMACIóN Y AUTOMATIZACIóN DE BRAZOS ROBóTICOS Y DESARROLLO DE APP CON I.A.

Garcia Hernandez Citlali, Instituto Tecnológico Superior de Irapuato. Asesor: Mtro. César Manuel Hernández Mendoza, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

El Tecnológico Nacional de México campus Irapuato es un tecnológico que se encuentra situado en el corredor industrial del bajío además de que cuenta con el clúster automotriz más importante del país, por lo que existen diversas empresas dedicadas a esta industria, la cual demanda una alta capacitación de profesionistas en temas de robótica y automatización para llevar a cabo los procesos en una línea de producción. Por otra parte, existen al día de hoy placas y entornos programables que ayudan a que los fututos ingenieros puedan practicar y desarrollar habilidades y competencias en los temas y ciencias que se requieren, tales como programación, diseño, redes informáticas, electrónica, entre otras, las cuales se pueden aprender utilizando la placa denominada ESP32. Con esta placa pudimos aprender aquí escriban lo que aprendieron, en la configuración de la computadora, firewall, direcciones ip, comandos de consola, entorno arduino, la propia esp32, los servos, html, etc. Este proyecto me ha permitido conocer cómo se programan los procesos de rutinas y automatización de los brazos robóticos y la precisión que se debe tener para realizar ciertas funciones específicas, así como analizar parámetros eléctricos que fueron indispensables para comprender y hacer funcionar las rutinas, tales como el voltaje y amperaje de una fuente externa que permitiera a los brazos moverse y sujetar objetos con suficiente fuerza.  Por otra parte, se colaboró para desarrollar una aplicación móvil para sistemas operativos Android capaz de identificar herramientas de trabajo por medio de una fotografía y con ayuda de la Inteligencia Artificial.



METODOLOGÍA

El desarrollo del proyecto comenzó cuando el asesor me dio a conocer las plataformas y herramientas de trabajo, tales como el entorno de programación, la placa programable, los componentes de los brazos, los servos y su funcionamiento, además de aprender a controlar y programar los servos. Posteriormente se realizaron pruebas piloto sobre el movimiento de los servos ya con movimientos precisos y ángulos, se utilizó el ESP32, protoboard y el voltaje suministrado por el puerto USB de la laptop. En esta parte se ensambló el brazo y se verifico que sus articulaciones pudieran moverse. La tercera etapa fue la más complicada al involucrar diversos temas y ciencias que se requieren como el manejo de comandos en consola para monitorear el estado de la red y la conexión, se creo una pagina web por medio de HTML la cual sirve para controlar el brazo robótico, y se conectaron los 4 servos SG90 al ESP32, el voltaje y amperaje fue un problema que se debió atender para un mejor control. Finalmente, en la etapa 4 se creo una rutina para que el brazo robótico pudiera sostener y soltar un objeto. Como complemento el asesor me permitió colaborar con otros estudiantes para crear una aplicación de Android que es capaz de reconocer herramientas de trabajo, el cual como trabajo futuro se puede considerar adaptar la cámara al brazo robótico.


CONCLUSIONES

Se desarrollo eficazmente el proyecto, se obtuvo el resultado esperado el cual fue crear una rutina de automatización para el brazo robótico y se adapto a las necesidades de voltaje que fueron requeridos. La integración de las ciencias computacionales por medio del módulo ESP32, en este proyecto me ha demostrado que puede ser una estrategia efectiva para conocer los procesos industriales de automatización. Este proyecto me ha permitido adquirir habilidades en programación, configuración de redes y desarrollo web, también ha potenciado mi capacidad para aplicar estos conocimientos de manera práctica en la creación de brazos robóticos funcionales y otras actividades de mi formación académica.
García Hernández Leonardo Daniel, Instituto Tecnológico de Morelia
Asesor: Dr. Emmanuel Ovalle Magallanes, Universidad La Salle Bajío

DETECCIóN AUTOMáTICA DE PLACAS DE VEHíCULOS MEDIANTE VISIóN POR COMPUTADORA.


DETECCIóN AUTOMáTICA DE PLACAS DE VEHíCULOS MEDIANTE VISIóN POR COMPUTADORA.

García Hernández Leonardo Daniel, Instituto Tecnológico de Morelia. Asesor: Dr. Emmanuel Ovalle Magallanes, Universidad La Salle Bajío



PLANTEAMIENTO DEL PROBLEMA

Dentro de la ciudad moderna y urbanizada el uso de vehículos se ha vuelto una parte fundamental de la vida cotidiana, cada vez las ciudades se expanden más y más, y con el mismo crecimiento de la población hemos necesitado más y mejores caminos que nos lleven de una forma eficaz a nuestro destino, y no solo eso, la necesidad de la población para adquirir un vehículo particular a aumentado. En el año 2022 según el INEGI se registraron más 55 millones de vehículos en circulación, de acuerdo con la Asociación Mexicana de Instituciones de Seguros (AMIS), en el año 2023 fueron robados más de 61 mil vehículos asegurados, es por esto que, han sido necesarias más medidas de seguridad para reducir los delitos en el robo de vehículos, así como en el seguimiento de células delictivas y otros delitos llevados a cabo gracias al registro de las placas de sus vehículos. Otro fin para esta investigación es otorgarle a los dueños de vehículos privados un acceso más sencillo a los aparcamientos de sus trabajos, escuelas y zonas residenciales privadas.



METODOLOGÍA

Para el desarrollo de esta investigación se utilizó el lenguaje de programación Python, en conjunto con la herramienta Anaconda Navigator para acceder tanto al IDE como a la línea de comandos para instalar los paquetes necesarios para la visión por computadora, se utilizó como IDE principal a Spyder, el cuál es un IDE utilizado para el análisis de datos, se utilizaron las librerías de Numpy para el manejo de arreglos de una forma dinámica y eficiente, Opencv la cuál es una librería para el procesamiento de imágenes y Sckit-image la cuál es una librería que también procesa imágenes y que nos ayudó para esta investigación para hacer las primeras pruebas, para la tarea principal del reconocimiento y lectura de caracteres se usó Pytesseract y por último la librería de Mathplotlib la cuál nos a servido para graficar.   Para llevar a cabo la tarea se requiere seguir los siguientes pasos Adquisición de la imagen. Transformar a escala de grises la imagen. Binarizar la imagen. Detección de los componentes de la imagen. Detección del texto de las placas.   Para comenzar con el primer paso, necesitamos una imagen de muestra de la parte trasera de un carro, a aproximadamente 90cm a la altura del abdomen, con una cámara de 64 megapixeles, para llevar a cabo la tarea tomamos la imagen y la procesamos con Opencv utilizando la función cv2.imread. Redimensionamos la imagen a 300x150 Para el siguiente paso a continuación vamos a transformar nuestra imagen para que se convierta en una imagen en a escala de grises,  algo que no nos ayudaría mucho para el filtrado de la imagen de la siguiente manera: cv2.cvtColor(imagen,cv2.COLOR_BGR2GRAY).   Ahora lo que queremos lograr dentro de este paso es binarizar la imagen, para lograr esto se va a aplicar una convolución a la imagen con un kernel de 7x7 agregando un parámetro 0 a la función así podemos perder pequeños detalles de la imagen y brillos, esto nos ayudará a filtrar la imagen de la siguiente manera: cv2.GaussianBlur(imagen_gris,(7,7),0), a continuación aplicamos una umbralización dentro de la imagen, el método Otsu  hace este cambio de binarización forma automática, sin embargo, colocamos  valores en los casos en los que no se quiera aplicar el método.Otsu encuentra un rango en especifico para realizar los cambios en automático. El resultado de lo que queremos lograr va a estar definido de la siguiente manera: cv2.threshold(imagen_suavizada,0,255,cv2.THRESH_BINARY_INV|cv2.THRESH_OTSU)[1]. Ahora colocamos la imagen y después la función necesita un parámetro de conectividad, en este caso definimos 4 vecinos, que toma de parámetros los objetos que se encuentren arriba, abajo, a la izquierda y a la derecha, después colocamos una función dentro la cuál es cv2.CV_32S, esta función nos ayuda para especificar las etiquetas de salida, y además que son una matriz de 32bits, la función queda así: cv2.connectedComponentsWithStats(threshold, 4, cv2.CV_32S). Para este último paso hacemos uso de un for para cada uno de los objetos resultantes, comenzando desde 1 y terminando en el total de etiquetas que se habían encontrado, comenzamos en 1 ya que el 0 es siempre el fondo, lo que tal vez se pueda traducir a que pueda tomar toda la imagen como un solo objeto, para una mejor selección del área trabajada damos uso de lo siguiente: values[i, cv2.CC_STAT_AREA], de esta forma tendremos una mejor idea de cuantos pixeles abarca cada objeto, teniendo esto como dato podemos filtrar el área para que podamos abarcar objetos ni tan grandes ni tan pequeños. A partir de este punto podemos comenzar a usar Pytesseract, colocamos una configuración para un mejor resultado el 3 en oem utiliza un modelo antiguo y nuevo combinados para el reconocimiento de caracteres, el 10 en psm se usa para cuando se esperan caracteres individuales útil para nuestra tarea, quedaría de esta manera: custom_config = r'--oem 3 --psm 10' Antes de la configuración, colocamos una región de interés o ROI, la cuál nos va a entregar un cuadrado de el área, el código queda como el siguiente: roi = threshold[y1:y1+h, x1:x1+w] después mandamos a llamar a Pytesseract para convertir una imagen a una cadena y le damos tanto el punto de interés como la configuración: char = pytesseract.image_to_string(roi, config=custom_config) Después lo uniremos con una lista de caracteres gracias a un append(), al final nos debería de dar un string que terminará impreso en pantalla.


CONCLUSIONES

Esta investigación fue un muy buen acercamiento a la visión por computadora y a la detección de elementos dentro de una imagen, al experimento le faltan un par de cosas para que pueda funcionar por completo, el experimento solo se pudo concretar si todos los caracteres se identificaban como un solo objeto en una imagen que no podía ser usada como un ejemplo real, se espera que más tarde se pueda pasar este experimento a videos para finalmente poder usarlo en cámaras de video.
García Herrera Edgar, Universidad de Guadalajara
Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional

SISTEMA DE RECONSTRUCCIóN Y DESPLIEGUE 3D CON CONTROL DE PERSPECTIVA SIN CONTACTO.


SISTEMA DE RECONSTRUCCIóN Y DESPLIEGUE 3D CON CONTROL DE PERSPECTIVA SIN CONTACTO.

Acosta Mora Violeta, Universidad de Guadalajara. García Herrera Edgar, Universidad de Guadalajara. Languren Giselle, Universidad de Guadalajara. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Actualmente, existen múltiples tecnologías de visualización y control de objetos y escenas 3D, como Microsoft y la red neuronal hNet, que se emplean principalmente para fines de investigación. El principal problema con las tecnologías existentes es su costo y poca accesibilidad, ya que están privatizadas. Esta situación impide que los avances en tecnologías 3D no puedan adquirirse en lugares y aplicaciones de impacto significativo, como escuelas, museos, hospitales, pequeñas y medianas empresas. En este proyecto se propone la creación de una interfaz holográfica que permita visualizar en tres dimensiones objetos digitalizados a través de la técnica de proyección de franjas, adicionalmente, el dispositivo propuesto estará equipado con sensores ultrasónicos para control de perspectiva del objeto a través de gestos manuales. La interfaz holográfica con control sin contacto podrá ser utilizada para mostrar objetos y manejarlos de forma dinámica e intuitiva, permitiendo a las personas aprender sobre diversos temas.



METODOLOGÍA

Digitalización 3D En este proyecto, se llevó a cabo la digitalización 3D de objetos mediante el uso de la técnica de luz estructurada conocida como proyección de franjas. Este proceso implicó la captura de imágenes del objeto desde diferentes perspectivas, utilizando un proyector, se desplegaron franjas de luz a frecuencias y amplitudes específicas sobre el objeto. Estas franjas permitieron determinar las coordenadas del objeto en los ejes x, y, z, basándose en la relación entre los puntos de la imagen obtenidos por la cámara, el objeto a digitalizar y el proyector. Para la digitalización 3D, fue necesario realizar un proceso de calibración previo, que consistió en capturar una serie de imágenes utilizando patrones de calibración, con el fin de determinar las matrices de parámetros intrínsecos (K), las matrices de rotación (R1, R2, …, Rn), y los vectores de traslación (t1, t2, …, tn), tanto del proyector como de la cámara.  Con la calibración finalizada, se procedió a la digitalización utilizando la proyección de franjas. Esta técnica involucró la toma de múltiples patrones de franjas variando frecuencia y fase, mismas que sirvieron como referencia para determinar a qué píxel de la cámara y a qué punto del proyector correspondía cada punto en el objeto a digitalizar. Los datos obtenidos se utilizaron para crear vectores de dirección basados en la información de la calibración, y estos permitieron triangular la profundidad del objeto. Finalmente, se calculó el promedio de la información RGB obtenida en todas las imágenes capturadas para recuperar el color del objeto sin las franjas proyectadas. Este procedimiento se realizó desde diferentes ángulos del objeto, obteniendo una nube de puntos que representa la digitalización 3D desde una perspectiva específica. Una vez obtenidos los modelos tridimensionales de todas las caras del objeto (en este caso, se trabajó con 21 ángulos diferentes), se procedió a la unión de las nubes de puntos. Al unir todas estas nubes, se logró una digitalización completa en 360 grados. Para el proceso de unir las 21 nubes de puntos obtenidas, fue necesario calcular la matriz de rotación y el vector de traslación. Esto se pudo realizar mediante diferentes métodos, uno de ellos consiste en la obtención de puntos de correspondencia, que son coordenadas que representan la misma información desde dos perspectivas diferentes (obtenidas manual o automáticamente). Con estos puntos, se calcula la matriz de rotación y su vector de traslación utilizando un algoritmo de optimización. No obstante, en este proyecto, se empleó el algoritmo ICP (Iterative Closest Point), que minimiza la diferencia entre dos nubes de puntos y proporciona la matriz de rotación y su vector de traslación sin necesidad de puntos de correspondencia. Con esta información, se calculó la alineación de puntos de una nube respecto a otra. Interfaz holográfica Después de digitalizar el modelo 3D, se diseñó una interfaz visual para desplegar el modelo. Para esto, se utilizó un prototipo constituido por una estructura de cartón y una lámina de acetato dispuesta a 45° respecto a la horizontal, de este modo al colocar el equipo de computo debajo de la lámina una parte del haz de luz proyectado fue absorbido por el acetato, aislando la proyección a la superficie de la lámina, dando una ilusión holográfica. Para la interfaz de control, se emplearon sensores ultrasónicos que miden la distancia mediante el uso de ondas ultrasónicas. El cabezal del sensor emite una onda ultrasónica y recibe la onda reflejada que retorna desde el objeto. Esta información se utilizó para calcular la dirección en la que se movía la mano del usuario tanto en el eje x como en el eje y. Este aditamento permite al usuario interactuar dinámicamente con el sistema manipulando la rotación del modelo 3D.


CONCLUSIONES

Mediante el desarrollo del presente proyecto se adquirieron aprendizajes relativos a las técnicas de luz estructurada, desde sus principios algebraicos hasta sus aplicaciones y limitaciones. La etapa de implementación se realizó la digitalización tridimensional de objetos. Posteriormente, se diseñó y construyó un dispositivo holográfico equipado con dos sensores ultrasónicos que permitieron manipular la perspectiva del objeto proyectado rotándolo sobre los ejes x y y, sin necesidad de contacto físico con la interfaz de control. Se procuró además que el prototipo final resultara económico, accesible e intuitivo tanto para la enseñanza como para la visualización de información y de procesos complejos, donde el manejo de una perspectiva tridimensional resultó funcional y beneficiosa para nuestra comunidad. Como trabajo a futuro, se plantea integrar el sistema propuesto al área educativa, cultural, e industrial, para este objetivo será necesario establecer mejoras tanto en el prototipado como en el sistema de control de perspectiva, así como automatizar el método de digitalización para una implementación óptima.
García Herrera Santiago, Universidad Autónoma de Manizales
Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana

ANáLISIS COMPARATIVO DE ESTRATEGIAS BASADAS EN APRENDIZAJE AUTOMáTICO PARA EL CONTROL DE PRóTESIS TRANSRADIALES MEDIANTE SEñALES ELECTROMIOGRáFICAS (EMG)


ANáLISIS COMPARATIVO DE ESTRATEGIAS BASADAS EN APRENDIZAJE AUTOMáTICO PARA EL CONTROL DE PRóTESIS TRANSRADIALES MEDIANTE SEñALES ELECTROMIOGRáFICAS (EMG)

García Herrera Santiago, Universidad Autónoma de Manizales. Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana



PLANTEAMIENTO DEL PROBLEMA

La mano es una parte fundamental del cuerpo humano, y su pérdida puede llevar al deterioro psicológico. La prótesis transradial es un dispositivo diseñado para reemplazar la función de la mano y el antebrazo, proporcionando una solución para las personas con esta amputación. En el campo de las prótesis, la aceptación y el uso prolongado de las prótesis están directamente influenciados por factores como la estética, la funcionalidad y la comodidad. La mano robótica de Crya, diseñada principalmente para realizar tareas básicas como agarrar, soltar objetos y realizar tareas cotidianas simples, enfrenta desafíos significativos. Estos desafíos, relacionados con su apariencia y el mecanismo de activación, limitan su adopción y adhesión. El diseño actual del mecanismo de activación de la mano robótica, que utiliza un cinturón para detectar movimientos abdominales, tiene importantes inconvenientes. Aunque este método permite un control manual preciso, se ha informado que es tedioso y difícil de usar, especialmente para personas de constitución delgada. Apretar el cinturón firmemente para detectar movimientos puede ser incómodo y afectar negativamente la experiencia del usuario. Estos problemas de practicidad y comodidad subrayan la necesidad de un diseño más ergonómico y fácil de usar para mejorar la aceptación y efectividad del dispositivo.



METODOLOGÍA

Este proyecto utilizó la Base de Datos Ninapro DB1, que contiene datos de 27 sujetos sanos (40% mujeres y 60% hombres) con una edad promedio de 29.9 años. Se colocaron diez electrodos EMG de superficie alrededor del antebrazo y un guante CyberGlove II con 22 sensores para capturar movimientos de los dedos. Además, se usaron tres acelerómetros en el antebrazo, la mano y la muñeca. Los participantes realizaron 52 movimientos de agarre y gestos estáticos. El estudio se centró en clasificar los movimientos de apertura y cierre de la mano utilizando sensores EMG del antebrazo. Se filtró la base de datos para seleccionar el ejercicio E2, eligiendo solo los movimientos 5 y 6, y las primeras ocho columnas de señales EMG correspondientes al antebrazo. Se realizó un análisis detallado de los datos para las clases 5 (apertura de la mano) y 6 (cierre de la mano) para asegurar una muestra representativa. El preprocesamiento incluyó técnicas para gestionar datos faltantes y eliminación de ruido mediante filtros Butterworth de 6º orden. También se aplicó escalado de características, PCA para reducir la complejidad de los datos, optimización de hiperparámetros, normalización por lotes y dropout. Se emplearon modelos de aprendizaje automático como RandomForestClassifier y GradientBoostingClassifier, además de Redes Neuronales Convolucionales (CNN) y Recurrentes (RNN). Las CNN aplicaron filtros en capas convolucionales y pooling, mientras que las RNN utilizaron capas LSTM para procesar datos secuenciales. Se evaluó el rendimiento del modelo mediante métricas como precisión, exactitud, recall y F1-score, utilizando matrices de confusión y Curvas ROC para la evaluación de modelos de clasificación binaria. Este enfoque metódico aseguró una prueba exhaustiva y la optimización de los modelos para clasificar movimientos de la mano utilizando señales EMG del antebrazo.  


CONCLUSIONES

El análisis de los modelos de clasificación de movimientos de la mano utilizando señales EMG destaca tanto las capacidades como los desafíos en el control de prótesis. La precisión y consistencia en la interpretación de las señales EMG son cruciales. El modelo RNN ha demostrado una alta efectividad para superar los desafíos inherentes, logrando una precisión del 95%. Aunque los modelos de Gradient Boosting y Random Forest son competentes, requieren optimización para mejorar su precisión. El modelo CNN tiene potencial, pero necesita ajustes en su aplicación a las señales EMG. Validar estos modelos con sujetos reales es esencial para asegurar su efectividad en situaciones cotidianas. La investigación futura debería centrarse en optimizar los modelos y explorar nuevas arquitecturas para mejorar el control de prótesis transradiales.
García Huerta Vicente Arturo, Universidad de Guadalajara
Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional

NANOFOTOCATALIZADORES BASE TITANATOS DE BISMUTO OBTENIDOS POR ROCIADO TÉRMICO PARA REMEDIACIÓN DE AGUAS


NANOFOTOCATALIZADORES BASE TITANATOS DE BISMUTO OBTENIDOS POR ROCIADO TÉRMICO PARA REMEDIACIÓN DE AGUAS

García Huerta Vicente Arturo, Universidad de Guadalajara. Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La escasez de agua y la contaminación del agua son problemas críticos a nivel mundial. Cerca de 700 millones de personas en 43 países enfrentan actualmente escasez de agua, y se prevé que para 2025, esta cifra aumente a 1.800 millones, viviendo en regiones con escasez absoluta. Para 2030, casi la mitad de la población mundial experimentará estrés hídrico, siendo África Subsahariana la más afectada. Esta crisis se ve intensificada por la contaminación del agua, resultado de diversas actividades humanas, que provoca problemas ambientales, sociales y de salud pública, con más de 2.2 millones de muertes anuales atribuibles a este problema. La contaminación del agua por contaminantes emergentes como fármacos, pesticidas y colorantes es una preocupación creciente. Estos contaminantes, a menudo resistentes a la degradación, se encuentran en aguas residuales que son tratadas en plantas no diseñadas para eliminarlos, especialmente en el caso de la industria textil, que utiliza alrededor del 80% de los 10,000 colorantes sintéticos conocidos y libera entre el 15 y el 20% de las aguas utilizadas sin tratamiento. Los métodos convencionales de tratamiento de aguas residuales a menudo no logran eliminar contaminantes orgánicos refractarios, lo que representa un desafío significativo para la salud pública y el medio ambiente. En este contexto, los procesos de oxidación avanzada (POA's), y en particular la fotocatálisis heterogénea, ofrecen una solución prometedora. Recientemente, se ha investigado el desarrollo de nanofotocatalizadores basados en titanatos de bismuto como una estrategia para mejorar el rendimiento de la fotocatálisis. La justificación para investigar y desarrollar nanofotocatalizadores de titanatos de bismuto radica en la creciente crisis de escasez de agua y contaminación, así como en las limitaciones de los tratamientos convencionales. Este proyecto busca contribuir a la solución de la crisis del agua mediante tecnologías innovadoras que degraden contaminantes emergentes de manera efectiva y sostenible, mejorando la calidad del agua y protegiendo la salud pública.



METODOLOGÍA

La metodología para la obtención y caracterización de nanofotocatalizadores basados en titanatos de bismuto se desarrolló en varias etapas. A continuación, se detallan los pasos del proceso: Preparación de Materiales Maceración de Bismuto: Se maceraron agujas de bismuto semimetálico, proporcionadas por CENAPROT, hasta obtener un tamaño de partícula menor a 38 µm. Pruebas de Estabilidad de Flama: Se realizaron pruebas de estabilidad de la flama para el proceso de rociado térmico, con el fin de establecer el rango de trabajo y las condiciones óptimas para el rociado. Mezcla de Materiales: Una vez determinadas las condiciones de la flama, se procedió a mezclar el bismuto molido con titanio metálico en relaciones estequiométricas específicas para la obtención de la fase Bi20TiO32. ​Rociado Térmico Se llevó a cabo el rociado térmico utilizando la mezcla obtenida para la fase Bi20TiO32, variando el flujo de acetileno y oxígeno. Caracterización de Materiales Análisis de Material: Las muestras obtenidas fueron caracterizadas utilizando Difracción de Rayos X (DRX), y Espectroscopia Raman. Pruebas de Adsorción Se llevaron a cabo pruebas de adsorción de rodamina B (10 mg/L) en oscuridad utilizando los nanomateriales obtenidos. Estas pruebas son fundamentales para evaluar la capacidad de los fotocatalizadores para adsorber contaminantes. Se tomaron muestras en intervalos desde 5 min hasta 2h.  Evaluación Fotocatalítica Se llevaron a cabo pruebas fotocatalíticas para la eliminación de rodamina B en soluciones acuosas, utilizando los nanomateriales de la fase Bi20TiO32. Para ello, se preparó una solución de rodamina B, a la que se le añadieron 0.04 g del polvo obtenido por rociado térmico. Esta mezcla se colocó en un vial y se expuso a dos condiciones de iluminación: luz solar y lámparas de xenón. Las pruebas se realizaron en una plancha oscilatoria durante un tiempo prolongado entre 5 min y 5h para asegurar una adecuada mezcla y exposición a la luz. Se llevará a cabo un análisis comparativo de la eficacia de los nanomateriales en la eliminación de rodamina B bajo ambas fuentes de luz. Análisis Espectrofotométrico Los datos de concentración de rodamina B fueron analizados utilizando un espectrofotómetro UV-Vis. Los resultados se graficaron, lo que permitió evaluar la eficacia de los nanofotocatalizadores en la eliminación de rodamina B.


CONCLUSIONES

A lo largo de este estudio, se han adquirido valiosos aprendizajes sobre la eficacia de la fotocatálisis en la degradación de contaminantes. Los resultados obtenidos indican que las pruebas realizadas bajo la luz solar superan significativamente a aquellas llevadas a cabo con lámparas de xenón. Esta diferencia en rendimiento se puede atribuir a las distintas longitudes de onda presentes en cada uno. Este hallazgo resalta la importancia de aprovechar recursos naturales, como la luz solar, para optimizar procesos de tratamiento de agua y contribuir a soluciones más sostenibles en la lucha contra la contaminación y la escasez de agua.
Garcia Lara Itzayana, Instituto Tecnológico de Ciudad Juárez
Asesor: Mtra. Ivon Sanchez Contreras, Universidad Tecnológica Fidel Velázquez

LOGISTICA 4.0 COMO SOPORTE DE SATISFACCIóN AL CLIENTE


LOGISTICA 4.0 COMO SOPORTE DE SATISFACCIóN AL CLIENTE

Agudelo Salgado Elkin Mauricio, Institución Universitaria Esumer. Garcia Lara Itzayana, Instituto Tecnológico de Ciudad Juárez. Asesor: Mtra. Ivon Sanchez Contreras, Universidad Tecnológica Fidel Velázquez



PLANTEAMIENTO DEL PROBLEMA

Investigar del 17 de junio al 2 de agosto cómo la logística 4.0 puede ser utilizada para dar soporte y mejorar la satisfacción del cliente en la cadena de suministro, identificando sus beneficios y costos logísticos. Para ello, se llevará a cabo un estudio de caso en una empresa del sector logístico (Industrias Haceb S.A.) quien ha implementado estas tecnologías, con el fin de identificar si es rentable y útil llevar a cabo esta transformación digital en el área del servicio al cliente.



METODOLOGÍA

Se va a interpretar por medio de entrevistas, cómo la empresa Industrias Haceb S.A. ha incorporado la Logística 4.0 para mejorar la satisfacción de sus clientes. Este enfoque cualitativo permitirá obtener información detallada y significativa sobre las herramientas de logística 4.0 utilizadas, así como también las experiencias, percepciones de los involucrados en el proceso y los costos que conlleva el mantenimiento de estas.


CONCLUSIONES

Por medio de un analisis de los datos obtenidos por medio de la entrevista, se hizo una comparacion entre gastos mensuales utilizados para mantenimiento y sostenimiento de las plataformas y el nivel de servicio alcanzado. Asi observamos que los gastos mensuales no son elevados  y el nivel de servicio alcanzado es óptimo, por lo que ambos van a la par dando rentabilidad a las herramientas de logistica 4.0 utilizadas en la empresa Haceb S.A.
García Lizárraga José Francisco, Universidad Autónoma de Occidente
Asesor: M.C. José Luis Valdés Vega, Universidad Autónoma de Occidente

IMPLANTACIóN DE UN SISTEMA DE GESTIóN DE CALIDAD BASADO EN LA NORMA ISO9001,EN LA EMPRESA SQM.


IMPLANTACIóN DE UN SISTEMA DE GESTIóN DE CALIDAD BASADO EN LA NORMA ISO9001,EN LA EMPRESA SQM.

García Lizárraga José Francisco, Universidad Autónoma de Occidente. Asesor: M.C. José Luis Valdés Vega, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Actulmente la competencia entre las empresas es muy fuerte en cuanto a la venta y comp de productos. y es importante cubrir lasnecesidades e intereses del cliente. por lo tanto, existe el sistema degestion de calidad, que es ultilizado para que el cliente teng la certeza de que el producto que necesita cumple con los requisits legales y reglamentarios. para poer cumplir con estos requisitos es necesrio cononcer la norma mexicana ISO 9001, que establece los pirncipios  de la gestion de calidad. la nora va permitir y demostrar a los consumidores que la epresa SQM esta trabajando en asegurar que sus produtos y servicios sean de calidad.



METODOLOGÍA

La investigacion se llevo a cabo en la empresa SQM de los mochis,sinaloa, mexico, durante 7 semanas. se inicio con una busqueda bibliografica sobre sistema de gestion de calidad.el diseñoexperimental fue seleccionar de manera aleatoria a 10 trabajadores de la empresa sin importar el sexo,edad y antiguedad.luego se realizo el trabajo de campo, con vistas periodicas en l empresa para aplicar un check list para la obtencion de la informacion.con lo anterior se trata de cumlplir con el objetivo de la investigacion siendo el siguiente . desarrollar un SGC para mrjorar la eficiencia y el comtrol de los procesos en la empresa sociedad quimica y minera.


CONCLUSIONES

se llega la conclucion que eiste un sistema de gestion de calidad y un manual de calidad en la empresa. tambiese hallo que en la empresa  SQM , realiza reuniones para dar a conocer la politica de la caldiad. en cuanto, a la gestion de los recursos, s destina de acuerdo al afrea y lo cual permite mejorar los procesos y la infrestructura. y en la relizacion del produco existe una planificacion,  lo anterior permite una medicion y analisis de mejora enlos procesos. por lo tanto,  existe un sistema de gestion de la calidad para mejorar la eficiencia y el conrol de los procesos en SQM.
Garcia Londoño Simon, Instituto Tecnológico Metropolitano
Asesor: Dr. Santiago Horacio Hoyos Velásquez, Universidad EIA

DESARROLLO DE DASHBOARD DE VARIABLES ENERGETICAS


DESARROLLO DE DASHBOARD DE VARIABLES ENERGETICAS

Garcia Londoño Simon, Instituto Tecnológico Metropolitano. Asesor: Dr. Santiago Horacio Hoyos Velásquez, Universidad EIA



PLANTEAMIENTO DEL PROBLEMA

Se busca realizar una dashboard de variables energerticas de comportamiento predictivo



METODOLOGÍA

La metodología que se utilizó para realizar la solución del planteamiento fue la siguiente: primero, se realizó un estado del arte para conocer las formas de los modelos que se utilizan para realizar proyecciones de series de tiempo. Se construyó una base de datos en Excel. Luego de esto, se buscó aplicar el modelo de proyección y se montó en el dashboard para mostrar la información más importante.


CONCLUSIONES

Las conclusión que se piensa obtener es que apartir de la base de datos que se construyo se pueda aplicar los modelos de proyección para dichos datos, una vez con esto se garantiza que los datos a proyectar puedan ser mucho mas fiables.
Garcia Marquez Jesus Efren, Universidad Tecnológica de Nayarit
Asesor: Dra. Soraida Quezada Ascencio, Instituto Tecnológico Superior de Pátzcuaro

PLAN DE PRUEBAS Y CALIDAD DE SOFTWARE PARA EL ECOSISTEMA DEL ITSPA.


PLAN DE PRUEBAS Y CALIDAD DE SOFTWARE PARA EL ECOSISTEMA DEL ITSPA.

Garcia Marquez Jesus Efren, Universidad Tecnológica de Nayarit. Hernández Franco Cindy Elizabeth, Universidad Tecnológica de Nayarit. Asesor: Dra. Soraida Quezada Ascencio, Instituto Tecnológico Superior de Pátzcuaro



PLANTEAMIENTO DEL PROBLEMA

El proyecto del ecosistema de software del Instituto Tecnológico Superior de Pátzcuaro (ITSPA) nació para abordar necesidades específicas identificadas en diversos departamentos del instituto. Catalogado como un proyecto de investigación educativa bajo el folio LGAC-2022-SPAT-IGEM-2, ha resultado en el desarrollo de tres sistemas funcionales y cinco en proceso. La participación de los estudiantes en el servicio social ha sido un factor crucial para estos avances, permitiendo la aplicación práctica de sus conocimientos en ingeniería de software y programación. Este ecosistema se configura como un ERP (Sistema de Gestión Empresarial) compuesto por múltiples programas interconectados. En este documento se aborda el plan de pruebas para el sistema de idiomas del ITSPA, diseñado para gestionar módulos como calificaciones, reportes, materiales de consulta e inscripciones. La ausencia de un plan de pruebas integral podría dar lugar a problemas de calidad y usabilidad, afectando negativamente la experiencia del usuario. Por lo tanto, se propone un modelo de plan de pruebas con el objetivo de asegurar la funcionalidad, usabilidad y confiabilidad del sistema.  



METODOLOGÍA

La metodología adoptada se basa en la investigación aplicada, orientada a garantizar la calidad y el funcionamiento óptimo del sistema desde su implementación. La metodología abarca varias fases: análisis de necesidades, diseño, desarrollo, pruebas, implementación y mejora continua. El plan de pruebas desarrollado incluye: Matriz de requerimientos Casos de uso Mockups Formatos Matriz de trazabilidad de requerimientos Matriz de riesgos Documentación de casos de uso Casos de pruebas   1. Análisis de la matriz de requerimientos: Se realizó una revisión y actualización exhaustiva de la matriz de requerimientos inicial, proporcionada por los profesores del ITSPA. Este análisis identificó nuevos requerimientos esenciales para el funcionamiento del ecosistema, permitiendo una definición más precisa de las necesidades y expectativas de los usuarios finales. La nueva matriz clasifica los requerimientos por colores, facilitando la visualización y gestión de los diferentes actores del sistema. 2. Reingeniería de los casos de uso: Se elaboraron diagramas de casos de uso utilizando la herramienta StartUML, que emplea el lenguaje UML para representar los casos de uso del sistema. Se identificaron y detallaron los actores involucrados (sistema, coordinador, profesores y alumnos) y sus interacciones. Este proceso mejoró y amplió los casos de uso previos, asegurando una cobertura completa de las funcionalidades necesarias. 3. Matriz de trazabilidad de requerimientos: Se desarrolló una matriz de trazabilidad para seguir el progreso de los requerimientos a lo largo del desarrollo del sistema. Esta matriz categoriza los requisitos en función de aceptación, complejidad, objetivos, estrategias de implementación, pruebas asociadas y prioridad. La matriz facilitó la organización, priorización y gestión de los requerimientos, asegurando que los aspectos críticos se abordarán de manera oportuna. 4. Rediseño de los Mockups: Se realizó un análisis y rediseño de los mockups del sistema, evaluando el diseño visual y funcional propuesto. Las modificaciones y mejoras se basaron en los requerimientos establecidos para asegurar que el diseño del sistema fuera coherente con los objetivos del proyecto y satisfactorio para los usuarios en términos de usabilidad y eficacia. 5. Elaboración de Formatos: Se crearon diversos formatos necesarios para la documentación y la implementación efectiva del sistema, incluyendo plantillas para reportes, formularios de entrada de datos y otros documentos operativos. La estandarización de estos formatos asegura consistencia y calidad en la documentación a lo largo del ciclo de vida del proyecto. 6. Matriz de Riesgos: Se elaboró una matriz de riesgos para identificar y evaluar los posibles riesgos asociados con el desarrollo y operación del sistema. Esta matriz incluye una evaluación de la probabilidad e impacto de cada riesgo, así como estrategias de mitigación. La identificación proactiva y la planificación de respuestas adecuadas son fundamentales para minimizar impactos negativos y garantizar una implementación exitosa. 7. Documentación de Casos de Uso: Se documentaron los casos de uso del sistema de manera detallada, especificando nombre, creador, fecha, descripción, actores, condiciones previas, poscondiciones, flujo de actividades, flujos alternativos y excepciones. Esta documentación proporciona una guía clara para el desarrollo y las pruebas, asegurando que todas las funcionalidades requeridas sean abordadas y validadas adecuadamente. 8. Casos de Pruebas: Se elaboraron casos de pruebas basados en la documentación de casos de uso y la matriz de requerimientos. Estos casos están diseñados para verificar que el sistema cumpla con los criterios de aceptación y los estándares de calidad. Incluyen identificadores, escenarios, criterios de aceptación, datos de prueba, pasos a seguir, resultados esperados, resultados actuales y evaluación final.  


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos valiosos en la planificación y ejecución de una metodología integral para asegurar la calidad del software. La elaboración detallada de la matriz de requerimientos, el análisis de mockups, el desarrollo de formatos, la creación de una matriz de riesgos, la documentación de casos de uso y la definición de casos de pruebas han sido fundamentales para el éxito del proyecto, garantizando un sistema robusto y eficaz. Aunque algunos requerimientos aún están pendientes de integración, se prevé su incorporación y se anticipan actualizaciones para mejorar el funcionamiento del sistema en el futuro.  
Garcia Martinez Marco Esau, Universidad Autónoma de Ciudad Juárez
Asesor: Dra. Alejandra Cruz Bernal, Universidad Politécnica de Guanajuato

ESTUDIO SOBRE LA SEGMENTACIóN Y CLASIFICACIóN MEDIANTE REDES NEURONALES CONVOLUCIONALES PARA LA DETECCIóN DE DESCORTEZADORES EN BóSQUES DE CONíFERAS MEXICANOS


ESTUDIO SOBRE LA SEGMENTACIóN Y CLASIFICACIóN MEDIANTE REDES NEURONALES CONVOLUCIONALES PARA LA DETECCIóN DE DESCORTEZADORES EN BóSQUES DE CONíFERAS MEXICANOS

Garcia Martinez Marco Esau, Universidad Autónoma de Ciudad Juárez. Asesor: Dra. Alejandra Cruz Bernal, Universidad Politécnica de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Los descortezadores son insectos que se encuentran en los bosques de coníferas de México y muchos otros países. En condiciones ambientales estables, estos insectos no deberían generar problemas al seguir su ciclo de vida. Sin embargo, el cambio climático de las últimas décadas ha provocado un aumento desmedido en su concentración, lo que ha llevado a la destrucción de muchas coníferas. Para capturar a estos insectos, actualmente existen trampas en los bosques, donde los insectos quedan contenidos en un cilindro plástico con feromonas; el cual que es revisado por personal del bosque. Los guardabosques toman imágenes del contenido de la trampa y las envían a las autoridades correspondientes (generalmente, centros de investigación cercanos) para su clasificación y estudio. Las decisiones a tomar con base a las especies clasificadas y cuantificadas se rigen por la norma NOM-019-SEMARNAT-2006 publicada en el Diario Oficial de la Federación, donde se mencionan distintas técnicas destructivas como la tala de grandes extensiones de coníferas, el uso masivo de insecticidas o incluso el uso de fuego. La presente investigación propone utilizar el procesamiento de imágenes para realizar un conteo y clasificación de los insectos en estas trampas, con el fin de obtener un resultado preliminar que coadyuve en la detección oportuna y se tenga en tiempo el proceso de alerta a las autoridades correspondientes. En la actualidad se dispone del plazo desde que se generan las recolecciones de las trampas y el momento de clasificación por parte de la entidad reponsable; un proceso que puede tomar semanas. Esto empeora cuando reconocemos que una infestación o plaga de estos insectos puede darse en tan solo 15 días.



METODOLOGÍA

Se comenzó con un banco de imágenes obtenidas a través de dispositivos celulares que consistía en imágenes del interior de las trampas. Considerando que las imágenes se tomaron desde distintas distancias y con trampas distintas, se tuvo que planear un procesamiento inicial para resaltar a los insectos sobre el fondo para posteriormente modificarlos. El procesamiento consisitió en transformar la imagen a escala de grises para después binarizar la imagen a partir de un parámetro dentro de la escala del 0 al 255. Se consideraron distintas técnicas para realizar el conteo de los insectos presentes en la trampa: la primera fue la de Sliding Window (Ventana Deslizante) y la segunda la de Connected Component Labeling (Etiquetado de Componentes Conectados), siendo esta última la escogida por su mayor precisión. Para la clasificación de los insectos detectados, se evaluaron varios modelos de Machine Learning: Redes Neuronales Convolucionales (CNN), Redes Neuronales Artificiales (ANN), K-Vecinos Más Cercanos (KNN), Naive Bayes (NV), y Máquina de Vectores de Soporte con Núcleo (Kernel SVM). Se aplicó ruido a las imágenes originales mediante los filtros de Sal y Pimienta, Poisson y Rotación, lo que contribuyó a un mejor entrenamiento de los modelos anteriormente mencionados.


CONCLUSIONES

El modelo que presentó mayor precisión fue el de Redes Neuronales Convolucionales, con un 98.61%, debido a su capacidad para conservar la información espacial de la imagen. A pesar de esto, los demás modelos también obtuvieron altos porcentajes de precisión, lo cual se explica por la relativa simplicidad del caso de estudio. Se comprobó entonces que, para casos de estudio de baja complejidad en el procesamiento de imágenes para clasificación, se pueden obtener buenos resultados incluso utilizando modelos lineales, lo cual podría parecer contraintuitivo ya que se pierde la información espacial. Se calcularon los tiempos promedio para la segmentación y clasificación, siendo el promedio de la primera 0.81 segundos y de la segunda 10.29 segundos. Asimismo, se reconoció que es obligatorio un preprocesamiento de imagen adecuado y la utilización de filtros para enriquecer el contenido de entrenamiento del modelo y así obtener resultados confiables en la segmentación y clasificación.
Garcia Martinez Maria Teresa, Universidad de Guadalajara
Asesor: M.C. José Francisco Reinaga Camacho, Universidad de Guadalajara

DESARROLLO DE UNA PAGINA WEB COMO GLOSARIO BOTáNICO DEL CUC COSTA


DESARROLLO DE UNA PAGINA WEB COMO GLOSARIO BOTáNICO DEL CUC COSTA

Díaz Vargas Ximena, Universidad de Guadalajara. Espinoza Torres Karen, Universidad Autónoma del Estado de México. Garcia Martinez Maria Teresa, Universidad de Guadalajara. Pérez Serrano Edmundo Angel, Universidad Autónoma del Estado de México. Asesor: M.C. José Francisco Reinaga Camacho, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En el mundo moderno, la accesibilidad a la información es crucial para satisfacer las necesidades de conocimiento y aprendizaje instantáneo. En este contexto, la creación de una página web dedicada a proporcionar información detallada sobre diversas especies de plantas que se encuentran dentro del CUC costa, facilitada mediante el escaneo de códigos QR a través de Google Lens, se convierte en un proyecto innovador y funcionalmente enriquecedor. Este proyecto tiene como objetivo principal desarrollar una plataforma web intuitiva y accesible que permita a los usuarios explorar y aprender sobre diferentes plantas simplemente utilizando la tecnología de escaneo de QR proporcionada por Google Lens. Al escanear un código QR asociado con una planta específica, los usuarios podrán acceder de manera instantánea a detalles relevantes como características físicas, hábitat natural, frutos y más información útil sobre la planta en cuestión. La página web está diseñada utilizando tecnologías modernas como React para la interfaz de usuario dinámica, MySQL Workbench para la base de datos con la información de cada planta y Node.js para el backend, asegurando así un rendimiento óptimo y una experiencia de usuario fluida tanto en dispositivos móviles como de escritorio. Además, se implementarán funcionalidades adicionales como la capacidad de búsqueda avanzada y filtros para facilitar la navegación dentro del catálogo de plantas, asegurando que los usuarios puedan encontrar fácilmente la información que están buscando. A lo largo de las semanas de desarrollo, nuestro equipo trabajo siguiendo una metodología basada en el Método RUP (Rational Unified Process), lo cual garantizará una planificación estructurada y una implementación iterativa y adaptativa del proyecto. Cada fase, desde la investigación inicial de requisitos hasta las pruebas finales y el despliegue del sitio web, será cuidadosamente gestionada para asegurar la calidad y la efectividad del producto final.



METODOLOGÍA

Metodología RUP para el Proyecto de Desarrollo de una Página Web como glosario del CUC costa Esta metodología RUP fue adaptada para proporcionar una estructura robusta para el desarrollo del proyecto de página web de información de plantas, asegurando una implementación ordenada y eficiente de las funcionalidades requerida Fase de Inicio Investigación y Recopilación de Requisitos: Identificar las necesidades y expectativas de los usuarios al escanear códigos QR de plantas. Definir los requisitos funcionales y no funcionales del sistema. Definición de la Funcionalidad del Escaneo de QR: Detallar cómo interactuará el usuario con el sistema al escanear un código QR. Diseño de la Base de Datos: Especificar la estructura de la base de datos para almacenar información detallada de las plantas (nombre, especificaciones, hábitat, etc.). Fase de Elaboración Desarrollo del Esqueleto de la Página Web: Utilizar React y Node.js para crear la estructura inicial de la página web. Implementar diseño responsivo para asegurar compatibilidad con dispositivos móviles y de escritorio. Configuración Inicial de Google Lens: Crear una cuenta de Google si aún no se tiene. Configurar y verificar la integración con Google Lens para el escaneo de códigos QR. Creación de Páginas y Secciones Iniciales: Desarrollar la página principal, "Inicio", y la sección "Contenido de Plantas". Agregar contenido básico como texto de bienvenida y navegación inicial. Fase de Construcción Configuración del Servidor Web (Node.js): Implementar un servidor web para manejar solicitudes HTTP y servir contenido dinámico. Desarrollo de la Lógica del Backend: Desarrollar la lógica necesaria para consultar y actualizar datos en la base de datos desde el backend. Integración de QR en la Página Web: Seleccionar y configurar un servicio de generación de códigos QR compatible con Google Lens. Generar códigos QR para cada planta y vincularlos a las páginas correspondientes en la web. Implementación de Funciones de Búsqueda y Filtros: Agregar funciones de búsqueda y filtros para facilitar la navegación y la búsqueda de plantas en el catálogo. Fase de Transición Pruebas de Integración y Usabilidad: Realizar pruebas exhaustivas del sitio web para verificar la funcionalidad del escaneo de QR y la navegación. Realizar ajustes en el diseño y contenido según el feedback obtenido de las pruebas. Optimización del Sitio Web: Mejorar el SEO (Optimización para Motores de Búsqueda) y la accesibilidad del sitio web. Fase de Despliegue y Mantenimiento Despliegue del Sitio Web: Configurar el sitio web para ser desplegado públicamente y asegurar su correcto funcionamiento. Documentación y Entrega: Documentar el proceso de desarrollo, incluyendo la gestión y mantenimiento del sitio web. Revisión General del Proyecto: Realizar una revisión final del sitio web y la aplicación de escaneo de QR. Realizar ajustes finales según el feedback final obtenido antes de la entrega del proyecto.


CONCLUSIONES

En conclusión, el desarrollo de la página web para proporcionar información sobre las plantas del CUC Costa representa una integración innovadora de tecnología y educación. Al utilizar códigos QR y Google Lens, el proyecto facilita el acceso instantáneo a detalles botánicos, promoviendo un aprendizaje interactivo y accesible tanto para estudiantes como para visitantes.  Además, esta herramienta no solo enriquecerá el conocimiento sobre la biodiversidad del campus, sino que también contribuirá a la conservación y apreciación de las especies botánicas presentes en el CUC Costa.
García Martínez Raúl, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Fernando May Esquivel, Instituto Tecnológico Superior de Los Ríos

PRODUCCIóN DE BRIQUETAS DE CARBóN ELABORADAS CON RESIDUOS DE PALMA DE ACEITE DE LA REGIóN DE LOS RíOS


PRODUCCIóN DE BRIQUETAS DE CARBóN ELABORADAS CON RESIDUOS DE PALMA DE ACEITE DE LA REGIóN DE LOS RíOS

Casalegno Nuñez Erika Yulisa, Instituto Tecnológico Superior de Los Ríos. García Martínez Raúl, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Fernando May Esquivel, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema Actualmente se ha presenciado un incremento excesivo de los precios del gas doméstico que ha dejado a muchas familias vulnerables y negocios sin acceso a fuentes de calor asequibles. Esta situación ha incrementado la demanda de leña y carbón, lo que a su vez ha contribuido a la tala ilegal y la deforestación. En Tabasco, la agroindustria de extracción del aceite de palma en el sureste de México procesa aproximadamente 1.8 millones de toneladas de fruta fresca anualmente, generando hasta un 37% de residuos con alto potencial energético. Estos residuos pueden ser utilizados para producir briquetas, un combustible alternativo sostenible. Sin embargo, el proceso de producción de briquetas a partir de estos residuos necesita ser optimizado para mejorar su eficiencia y calidad.  



METODOLOGÍA

Para elaborar nuestras briquetas de carbón seguimos los siguientes pasos: Obtención de la materia prima: Como primer paso se hizo una visita a la Agroindustria Oleica de la Región de los Ríos, la cual es una empresa que se dedica a la obtención de aceite crudo. El propósito de venir a este lugar fue que aquí se proporcionara la materia prima, específicamente fibra de la palma de aceite y otra materia llamada raquis. Preparación de la materia prima: Se colocó al sol la materia para así restarle su contenido de humedad y con ello sea más sencillo la carbonización. Carbonización: La materia prima (fibra y raquis) se introdujo en un tambo de aluminio, el cual se tuvo que ajustar para así poder hacer el proceso de carbonización. Después se le prendió fuego a la materia y cuando haya empezado a tonarse negra la materia se procedió a privarla de poco oxígeno, manteniéndola y  después de dos horas el fuego se apagó completamente y la temperatura fue disminuyendo. Molienda: Una vez carbonizada la materia se procede a molerla. En nuestro caso se usó un cilindro de concreto para poderla triturar mejor Mezcla: Se mezcla la materia carbonizada con un aglutinante, en este caso se usó melaza Compactación: Una vez obtenida la mezcla la metemos en un molde, nosotros usamos un cilindro y con la ayuda de una prensa hidráulica la compactamos. Secado: Una vez obtenidas las briquetas procedemos a secarlas para así bajar su contenido de humedad Una vez que se habían hecho una buena cantidad de briquetas se procedió a hacerle 3 pruebas: Prueba de ignición, prueba de combustión y prueba de ebullición del agua   Prueba de Ignición La prueba de ignición es para determinar el tiempo necesario para que la briqueta alcance el grado total de encendido A continuación, se describe el proceso que se hizo Se colectaron muestras de dimensiones similares Se graduó la longitud de la muestra (en cm) Se colocó la muestra (peso) de prueba en una posición segura y estable sobre un tripie con malla Para encender la muestra se utilizó un mechero de alcohol, se puso directo a la muestra durante un minuto Después del minuto se procedió a tomar el tiempo y se fue anotando cuando haya llegado al 50%, 75% y 100% de su encendido. Encendido al 50%: Se refiere al tiempo alcanzado cuando la muestra presenta un encendido del 50% de su longitud. Encendido total: Se refiere al tiempo alcanzado cuando la muestra presenta un encendido del 100% de su longitud.   Prueba de combustión Se refiere a la cantidad de la masa de la muestra que se consume durante la combustión por unidad de tiempo A continuación, se describe el proceso que se hizo: Colectar muestras de dimensiones similares Obtener los pesos constantes de las muestras Obtener los pesos constantes de los capsulas de porcelana Colocar la muestra en los capsulas de porcelana y encender la muestra Registrar los pesos de la muestra cada 2 o 5 minutos hasta que ya no se registre variación en el peso   Prueba de ebullición del agua Utilizada para evaluar la eficiencia térmica y la calidad de las briquetas de biocarbón o cualquier otro combustible sólido. Para realizar esta prueba se usaron dos métodos, en el primero se utilizaron tres calorímetros y en el segundo se uso un vaso de precipitados para calentar agua A continuación, se describe el proceso que se hizo: Encender al menos 12 briquetas para poder repetir el experimento. Obtener los pesos constantes de las briquetas encendidas. Llenar el recipiente pequeño del calorímetro con 150 ml de agua. Colocar dentro del recipiente grande una briqueta encendida. Cerrar el calorímetro y empezar a anotar la temperatura inicial. Capturar la temperatura cada 5 min hasta que se mantenga constante. Para el segundo método se siguió el siguiente procedimiento: Montar una parrilla. Encender al menos 12 briquetas. Obtener los pesos constantes de las briquetas encendidas. Llenar un vaso de precipitados con 1 L de agua. Colocar el vaso sobre la parrilla y empezar a cronometrar el tiempo. Anotar la temperatura inicial. Capturar la temperatura cada 5 min hasta que se mantenga constante.


CONCLUSIONES

  Conclusión Dado el análisis que se le hizo a las briquetas y los resultados obtenidos podemos concluir que el valor agregado a este desecho de la palma de aceite es viable e innovador, además, podría tener un gran alcance comercial ya que la producción de estas briquetas no es costosa, iniciando desde la obtención de la materia prima que prácticamente es regalada y no solo eso, sino que se da en gran abundancia en el estado de Tabasco y sus alrededores. Otra cosa importante que considerar es que de todas las pruebas que se les hicieron a las briquetas se compararon con el carbón vegetal y resulto que tiene el mismo potencial calorífico o hasta mayor, lo cual hace que la briqueta sea una gran competencia en el marcado del carbón, sin embargo, es importante recordar que el proceso para hacer la briqueta viene desde la reutilización de residuos que producimos y eso es lo que se necesita en la actualidad considerando todas las toneladas de basura que generamos por año.  
García Maximiliano Tania, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Gustavo Chacón Contreras, Corporación Politécnico de la Costa Atlántica

IMPLEMENTACIóN DE LA REALIDAD AUMENTADA (ROAR) PARA MEJORAR LA COMPRENSIóN LECTORA ESTUDIANTIL.


IMPLEMENTACIóN DE LA REALIDAD AUMENTADA (ROAR) PARA MEJORAR LA COMPRENSIóN LECTORA ESTUDIANTIL.

García Maximiliano Tania, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Gustavo Chacón Contreras, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

: La comprensión lectora es una habilidad fundamental en el aprendizaje y desarrollo académico. Con el avance de la REALIDAD AUMENTADA, se han desarrollado herramientas que pueden personalizar la enseñanza y mejorar esta habilidad en estudiantes de diversas edades.



METODOLOGÍA

Al realizarse un diagnóstico previo para identificar las áreas en donde se mejorará con la comprensión lectora de los estudiantes. Se diseñó un protocolo con base en REALIDAD AUMENTADA con el proposito de diseñar las lecturas para el rendimiento de los estudiantes en ejercicios, en un entorno educativo real, empleando herramientas digitales que permiten la interacción directa con los estudiantes.


CONCLUSIONES

La implementación de un protocolo de REALIDAD AUMENTADA ha demostrado ser efectiva para mejorar la comprensión lectora. Este enfoque personalizado permite atender las necesidades específicas de cada estudiante, lo que podría revolucionar las metodologías de enseñanza en el futuro.
García Mirón Octavio Fabián, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla

DISEñO Y ANáLISIS DE UN MATERIAL AVANZADO POR IMPRESIóN 3D


DISEñO Y ANáLISIS DE UN MATERIAL AVANZADO POR IMPRESIóN 3D

García Mirón Octavio Fabián, Benemérita Universidad Autónoma de Puebla. Lopez Dorame Julisa, Universidad de Sonora. Macay Sandoval Marino Uriel, Instituto Politécnico Nacional. Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La impresión 3D ha revolucionado la fabricación de materiales avanzados, permitiendo crear estructuras complejas con precisión. Entre los desarrollos más prometedores se encuentran los smart-materials, que responden a estímulos externos, y los materiales con memoria, que pueden regresar a una forma predefinida tras deformarse. Estos materiales tienen aplicaciones innovadoras en medicina, robótica y aeroespacial. Sin embargo, integrar estas propiedades en materiales impresos en 3D enfrenta desafíos técnicos en diseño, desarrollo y análisis. El proyecto explora el diseño, desarrollo y análisis de un material con memoria, producido mediante impresión 3D en resina fotosensible. Se abordarán el diseño de la estructura del material, optimización de parámetros de impresión y técnicas de caracterización para evaluar el material. El objetivo general es demostrar cómo la impresión 3D puede crear materiales inteligentes, y en tanto a objetivos específicos es proporcionar una estructura a partir de resina fotosensible, y caracterizar el material a partir de su grafica Esfuerzo-Deformación proporcionando guías para su uso en aplicaciones industriales y tecnológicas, y estableciendo una base para futuras investigaciones.



METODOLOGÍA

Para el diseño de la estructura, se utilizaron diversos softwares para obtener una celda unitaria, a esta celda unitaria se le hizo una serie de 9 arreglos, el primero era la celda unitaria, el segundo un cubo hecho de una matriz 2x2x2 de esta misma celda, el tercero otro cubo hecho de una matriz 3x3x3 de la misma y así sucesivamente, esto lo hicimos para poder observar en que número de arreglo se observa un comportamiento interesante del material. Una vez concluido el diseño de la estructura avanzamos con la impresión 3D en resina rígida fotosensible a través de la ELEGOO Saturn 3, nuestras primeras 9 estructuras en resina rígida se imprimieron relativamente bien ya que en ciertas partes del cubo la impresión no se realizaba correctamente por lo cual decidimos ponerle unas paredes en el diseño de la estructura que sirvieran como soporte para poderse imprimir y también una forma de generar presión uniformemente cuando se fueran a caracterizar, después de hacer este pequeño ajuste nuestras piezas se imprimieron mucho mejor. Se intentó imprimir nuestras mismas piezas en resina flexible, pero debido a el tamaño tan pequeño del poro, el cubo se llenaba de resina y acababa colapsándolo, por lo que nos decidimos a solo imprimirlas en resina rígida. Al tener nuestras 9 estructuras listas, procedimos a la caracterización de estas muestras para la cual usamos una máquina de compresión en el laboratorio de geofísica del DITCo de la BUAP, esta máquina tiene un software que nos entrega datos sobre la deformación, desplazamiento, carga en kN, esfuerzo, que son muy importantes para poder analizar gráficas de nuestra estructura. Finalmente se procesan los datos, construimos gráficas esfuerzo vs deformación y analizamos estas gráficas de cada una de las estructuras.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos de diseño de materiales avanzados, así como su impresión 3D en resina fotosensible. Al caracterizar la estructura se encontró que las estructuras 7, 8 y 9 presentan una mayor zona plástica y elástica que sus anteriores estructuras, además de tardar más tiempo en llegar a su punto de compresión máximo. Todas las estructuras impresas se comportan como un Smart-material regresando a su forma original aún así después de ser comprimidas por un máximo de 5 kN.
García Morales Carlos Armando, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California

ANáLISIS MECáNICO DE UN PATíN DE ATERRIZAJE DE MATERIAL COMPUESTO EN UN HELICóPTERO.


ANáLISIS MECáNICO DE UN PATíN DE ATERRIZAJE DE MATERIAL COMPUESTO EN UN HELICóPTERO.

García Morales Carlos Armando, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Un material compuesto es la combinación de elementos con propiedades diferentes que forman un nuevo material con características únicas, compuesto por una matriz y un refuerzo. Un material compuesto está formado por dos grupos, matriz, que es el soporte en donde se fusionan los elementos y refuerzo, elementos que mejoran las propiedades de la matriz. Siendo orgánica o inorgánica, la matriz está formada de polímeros sintéticos, plástico o resina que hacen más sencilla su función. Los materiales de refuerzo suelen ser fibras, como la celulosa, la fibra de carbono o fibra de vidrio que completan está matriz. Ganan en fortaleza y además consiguen destacar con algunas propiedades de más. En el caso de los helicópteros, son aeronaves de ala rotatoria que se sostienen y propulsan en el aire mediante rotores principales y de cola. Su capacidad de vuelo en cualquier dirección y mantenerse en un punto fijo los hace útiles para diversas misiones, especialmente en lugares remotos sin pista de aterrizaje. El tren de aterrizaje en aviación sostiene la aeronave en tierra para rodar, despegar y aterrizar, absorbiendo fuerzas de aterrizaje normales y severas durante condiciones de sobrecarga. La problemática es: si no entendemos los componentes del tren de aterrizaje de un helicóptero tipo esquí, podríamos enfrentar problemas como no detectar desgastes o daños que afecten la seguridad de las operaciones de aterrizaje y despegue, y no realizar el mantenimiento adecuado, lo que podría causar fallas inesperadas en el vuelo.



METODOLOGÍA

Al conocer la problemática, se buscaron en diversas fuentes información sobre los materiales compuestos, en este caso se enfocó la investigación sobre la fibra de carbono: Es una fibra sintética que se compone de finos filamentos, entre 5 y 10 micrómetros de diámetro, pero en su gran mayoría está construido por carbono. Los cuales están dispuestos aleatoriamente y no de forma ordenada. La disposición de los filamentos de la fibra de carbono le confiere una gran resistencia a este material y lo caracteriza con excelentes propiedades mecánicas. La fibra de carbono se utiliza como componente en los materiales compuestos o composites, que generalmente se combinan con plásticos termoestables como la resina epoxi.  Al componerse de una agrupación de miles de filamentos de carbono, la fibra de carbono hace que sus propiedades sean similares a las que tiene el acero. Además, logra incluso una mayor resistencia que la del acero y es igual de ligero que la madera o el plástico, aunque su resistencia al impacto sea superior a la del acero. Algunas de las propiedades de la fibra de carbono son: ALTA RESISTENCIA MECÁNICA: gracias su relación peso-resistencia / peso-densidad, logra ser varias veces más resistente que los materiales metálicos, como por ejemplo el acero, y a la vez es mucho más ligera y presenta una mayor tenacidad. RESISTENCIA TÉRMICA: resistencia a altas temperaturas y su baja expansión térmica. Los compuestos de fibra de carbono pueden soportar temperaturas de hasta 815 °C (1500 °F) sin llegar a deformarse, pero además también son resistentes a variaciones de temperatura, conservando su forma y propiedades. CORROSIÓN: la fibra de carbono es un material no corrosivo, por lo que es ideal para su uso en entornos de agua salada. Esto es especialmente útil para la construcción de barcos, tuberías de agua y otras aplicaciones en productos que están expuestos a la salinidad del agua. Como podemos observar las propiedades de la fibra de carbono, esto lo hace una buena alternativa a comparación de los materiales convencionales. Por otro lado, el tren de aterrizaje de un helicóptero, al ser sometidos en ambientes hostiles se necesita estar fabricados por materiales resistentes ante este tipo de ambientes, lo cual, están fabricados por las siguientes aleaciones: ALEACIÓN DE ALUMINIO 7075: Las aleaciones de aluminio tienen una fuerte resistencia a la corrosión. A temperaturas bajo cero, su resistencia aumenta, lo que los convierte en una aleación útil a bajas temperaturas y su resistencia disminuye si se someten a temperaturas muy altas. ACERO DE ALEACIÓN DE 300 M: Es una aleación de endurecimiento total que tiene una resistencia a la tracción típica de 1900 - 2100 MPa después del tratamiento térmico final. Tiene una densidad de 7,83 g/cm3. Conociendo estos temas anteriormente mencionados, se procedió a buscar información referente a la geometría y dimensiones de el tren de aterrizaje de el helicóptero, en este caso, se eligió el tren de aterrizaje del helicóptero Bell 206 L4, obteniendo los siguientes datos: Patines: 4.40 metros Adelante (FWD): 1.90 metros Zapatos: 0.223 metros con una apertura de radio de 0.10 metros Distancia entre patines: 2.46 metros Distancia entre Adelante (FWD) y la silla de montar: 0.46 metros con una apertura de radio de 0.30 metros Distancia entre Adelante (FWD) y el suelo: 0.64 metros La forma del tren de aterrizaje es forma esquí. El tubo tiene un diámetro de 0.10 metros con un grosor de 3 centímetros Peso máximo soportado: 2064 kg Una vez obtenidos estos temas, se procedió a realizar el diseño en el software SOLIDWORKS, al termino de este diseño, se realizaron 3 simulaciones de pruebas de cargas, utilizando los siguientes materiales: Aleación de Aluminio 6063-T6   Acero aleado Material compuesto (fibra de carbono) Realizados estas simulaciones, se anotaron los datos arrojados por el software y se compararon los resultados arrojados.


CONCLUSIONES

Los resultados mostraron que, en la deformación máxima, el Aluminio tiene una mayor deformación en comparación con el acero y la fibra de carbono. Con respecto a la masa del patín, la simulación con el material acero tiene un incremento del 183.44 % a comparación del Aluminio, mientras tanto, la Fibra de Carbono tiene un incremento de 16.03 % en comparación con el aluminio. En el factor de seguridad, el material compuesto tiene el valor más alto con 2.6753 a comparación del Acero con un valor de 1.893 y Aluminio con un valor de 1.068. Estos resultados muestran que el patín de material compuesto es una buena propuesta en comparación con el acero y el aluminio, ya que se obtiene un alto factor de seguridad bajo las mismas condiciones de fuerza aplicada y condiciones de sujeción.
García Moya Rosmery Lucía, Universidad Nacional Autónoma de Nicaragua, Managua
Asesor: Dra. Alma Delia Cuevas Rasgado, Universidad Autónoma del Estado de México

POTRONóMETRO APLICACIóN PARA MEDIR EL ESTRéS DE ESTUDIANTES USANDO BASES DE DATOS RELACIONALES Y REDES SEMáNTICAS A TRAVéS DE LA ENCUESTA DE BECK.


POTRONóMETRO APLICACIóN PARA MEDIR EL ESTRéS DE ESTUDIANTES USANDO BASES DE DATOS RELACIONALES Y REDES SEMáNTICAS A TRAVéS DE LA ENCUESTA DE BECK.

García Moya Rosmery Lucía, Universidad Nacional Autónoma de Nicaragua, Managua. Asesor: Dra. Alma Delia Cuevas Rasgado, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

El estrés es una respuesta fisiológica y psicológica ante situaciones percibidas como amenazantes o desafiantes. En la sociedad actual, esta condición afecta significativamente a los jóvenes universitarios. El estrés en estudiantes de educación superior es una problemática que requiere un estudio profundo debido a sus repercusiones físicas, emocionales y psicológicas. Este fenómeno afecta el rendimiento académico y el bienestar general de los estudiantes. Aunque existen numerosos estudios sobre el tema, aún quedan áreas poco exploradas, como la relación entre el estrés percibido y factores demográficos específicos. El estrés académico se manifiesta cuando los estudiantes perciben negativamente las demandas de su entorno, resultando en síntomas físicos como ansiedad, cansancio e insomnio, y problemas académicos como bajo rendimiento, desinterés profesional, ausentismo e incluso deserción.



METODOLOGÍA

Para este estudio se utilizó el sistema operativo Windows y la base de datos MySQL workbench 8.0, reconocida por su robustez y eficiencia en el manejo de grandes volúmenes de datos. MySQL, una base de datos relacional de código abierto, permite realizar consultas complejas y gestionar datos de manera segura y confiable, asegurando la integridad y accesibilidad de la información. Se implementó el Ciclo de Vida de Prototipos (CVP) debido a su enfoque iterativo, ideal para proyectos con requisitos cambiantes. Este método permite desarrollar versiones preliminares del sistema, evaluadas continuamente por los usuarios para recibir retroalimentación y realizar ajustes necesarios. Las etapas del CVP incluyeron: Análisis de Requerimientos: Se detallaron los requisitos funcionales y no funcionales del sistema, identificando las principales causas de estrés en los estudiantes y determinando las variables demográficas relevantes para el estudio. Diseño: Se crearon diagramas y modelos para representar la estructura del sistema, incluyendo interfaces de usuario y esquemas preliminares de la base de datos, que sirvieron como base para el desarrollo del prototipo inicial. Codificación/Programación: Se emepzo a desarrollóar el primer prototipo de la aplicación, implementando funcionalidades básicas identificadas durante el análisis de requerimientos. Creación de la Base de Datos: Se diseñó y creó una base de datos en MySQL con tablas para almacenar información de usuarios, encuestas y emociones. Las tablas principales incluyen Estudiante, Preguntas, Respuesta, Resultado y Emociones, todas interrelacionadas para asegurar la integridad referencial de los datos. Optimización de Consultas: Se optimizaron las consultas SQL para mejorar el rendimiento del sistema y se creó una tabla lógica para facilitar el acceso y análisis de la información de manera estructurada y eficiente. A lo largo de estas etapas, se garantizó la flexibilidad de la aplicación para adaptarse a cualquier cambio en los requisitos del proyecto. La gestión de la base de datos con MySQL permitió realizar consultas detalladas para el análisis de datos, facilitando la generación de informes comprensibles y relevantes. Este enfoque metodológico aseguró un desarrollo estructurado y efectivo del proyecto, maximizando la calidad y utilidad de los datos recopilados.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos acerca del manejo de bases de datos y el desarrollo de aplicaciones móviles, especialmente en el contexto de la gestión del estrés. La implementación del Ciclo de Vida de Prototipos permitió iterar y mejorar continuamente la aplicación, asegurando que se adaptara a las necesidades de los usuarios y a los requisitos del proyecto. En cuanto a la gestión de la base de datos, se diseñó una estructura eficiente y segura utilizando MySQL, que permitirá el almacenamiento y la gestión de grandes volúmenes de datos relacionados con los usuarios, las preguntas y sus respuestas. Este componente fue crucial para garantizar la integridad y accesibilidad de la información, facilitando un análisis detallado y preciso de los datos recolectados. Aunque el proyecto no se completó en su totalidad, se sentaron las bases para una solución tecnológica innovadora que podría ayudar en la identificación y manejo del estrés académico. Una posible solución completa incluiría el desarrollo final de la aplicación móvil, integrando una interfaz de usuario intuitiva y funcionalidades adicionales, como recomendaciones personalizadas para el manejo del estrés basadas en los resultados de las encuestas. La gestión de la base de datos y la colaboración con un equipo multidisciplinario han sido experiencias valiosas para los participantes. Aunque el proyecto aún está en desarrollo, se ha avanzado significativamente en la creación de una herramienta para el manejo del estrés académico. La orientación de la asesora Dr. Alma Delia Cuevas Rasgado fue fundamental para el éxito de esta fase.
García Muñoz Mayra Janeth, Universidad de Guadalajara
Asesor: Dr. Socrates Pedro Muñoz Pérez, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas

USO DE CENIZAS VOLCáNICAS PARA DETERMINAR ASENTAMIENTOS POR CONSOLIDACIóN UNIDIMENSIONAL EN SUELOS FINOS


USO DE CENIZAS VOLCáNICAS PARA DETERMINAR ASENTAMIENTOS POR CONSOLIDACIóN UNIDIMENSIONAL EN SUELOS FINOS

García Muñoz Mayra Janeth, Universidad de Guadalajara. Ibarra Diaz Victor Angel, Universidad de Guadalajara. Asesor: Dr. Socrates Pedro Muñoz Pérez, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas



PLANTEAMIENTO DEL PROBLEMA

La infraestructura sustentable, resiliente y segura juega un papel importante en el crecimiento de cualquier comunidad. La estabilidad de las estructuras depende de las características físicas, químicas y la capacidad de carga del suelo. Los suelos finos presentan grandes problemas de inestabilidad, ya que destacan por su comportamiento expansivo cuando hay presencia de humedad y contracción con la ausencia de esta. La estabilización del suelo permite mejorar la resistencia, alterando sus propiedades. La ceniza volcánica, uno de los contaminantes más agresivos, se presenta como un material estabilizador de suelos debido a sus propiedades puzolánicas.



METODOLOGÍA

La fase inicial se recolecta la ceniza volcánica y se extrae el suelo mediante pozos a cielo abierto (PCA). La segunda fase determina las propiedades índices, clasificación y consolidación del suelo, estudiándolo en condiciones naturales y creando mezclas controladas con distintos % de ceniza volcánica (10, 15, 20 y 25%). A la par analizando las características de la ceniza volcánica. Finalmente, la tercera fase evalúa los resultados obtenidos para determinar la viabilidad de uso de ceniza en suelos finos, mejorando la resistencia y disminuyendo la plasticidad del suelo. Trabajo de Campo La ceniza fue recolectada del volcán Popocatépetl en Puebla. Siendo cribada por la malla no. 200 y enviada a la UNTRM en Chachapoyas. Se realizaron 3 PCA en un predio ubicado en Chachapoyas a una profundidad de 2.5 m, obteniendo alrededor de 100 kg de muestra alterada y dos muestras de suelo inalterado de cada uno. Trabajo de Laboratorio Granulometría vía tamices Se toma una muestra de suelo completamente seca, para su posterior cuarteo, obteniendo una muestra representativa que será sometida a un proceso de tamizado manual o mecánico por las mallas No. 4, 10, 20, 40, 60, 100 y 200, realizando un movimiento circular para que vaya cayendo el material. El retenido en cada malla se pesa y representa un % respecto al total de la muestra, de tal manera que vamos obteniendo la curva granulométrica que se construye con su tamaño de partículas y el porcentaje acumulado en cada malla. Este procedimiento nos permite obtener el % de arenas y finos del suelo estudiado, determinando así su clasificación SUCS. Límites de Atterberg Límites de consistencia mediante la copa de Casagrande es el método para determinar el límite líquido y plástico. Obteniendo una muestra representativa de 300 g, que pasa el tamiz no. 40. El procedimiento inicia colocando una muestra húmeda en la copa de Casagrande, dividiéndolo en dos con el acanalador y contando el número de golpes requerido para cerrar la ranura. Si el número de golpes es exactamente 25, el contenido de humedad de la muestra es el límite líquido. El procedimiento estándar es efectuar por lo menos cuatro determinaciones con humedades diferentes, se anota el número de golpes y su contenido de humedad. Luego se grafican los datos y se determina el contenido de humedad para N= 25 golpes. El límite plástico se define como el contenido de agua, con el cual el suelo al ser enrollado en rollitos de 3.2 mm de diámetro se desmorona. La prueba es simple y se lleva a cabo enrollando repetidamente a mano sobre una placa de vidrio. Una vez obtenido el límite líquido y el índice plástico del suelo por medio de la carta de plasticidad se procede a clasificar el tipo de suelo. Proctor Modificado Determina el contenido óptimo de agua y el peso volumétrico seco máximo de un suelo, obteniendo la curva de compactación de los materiales. La prueba consiste en determinar las masas volumétricas secas de un material compactado con diferentes contenidos de agua, mediante la aplicación de una misma energía de compactación en prueba dinámica y graficando los puntos correspondientes a cada determinación. El procedimiento inicia con la preparación de la muestra cuarteando hasta obtener 20kg, dividiéndolo en muestras representativas de 5kg para cada determinación. A cada porción preparada se le agrega la cantidad necesaria de agua para que una vez homogenizada nos de dos contenidos de humedad inferiores al óptimo esperado y dos superiores para trazar la curva de compactación. El material se compactará en 5 capas, dando 56 golpes por capa con un pisón de 4.54 kg. Consolidación Unidimensional del Suelo La consolidación es el método para conocer el fenómeno de expansión y asentamiento en suelos, esto para determinar que el suelo sea capaz de soportar los esfuerzos y deformaciones. Se labra el material de tal modo que el anillo quede completamente lleno de la muestra inalterada, de igual manera se utiliza una muestra remoldeada utilizada en las mezclas controladas con distintos % de ceniza. Inicia con el procedimiento de cuarteo a la muestra seca, posteriormente con el tamiz no. 40, se obtiene una cantidad de 300 g de muestra representativa para proceder a la determinación de la consolidación. El ensayo consta de un aparato, que somete a una muestra de terreno a cargas verticales. Se aplican distintas cargas y se mide la deformación producida en cada uno de los escalones de carga. Dado que la deformación se lleva a cabo de manera lenta, cada escalón de carga hay que mantenerla 48 horas aproximadamente, para conseguir que la deformación se estabilice. Obtenidos los resultados del suelo natural se procedió a realizar el estudio de las mezclas controladas con distintos % de ceniza volcánica determinando las propiedades índices y la consolidación del suelo con muestras remoldeadas, esperando la mejora de la resistencia y la disminución de la plasticidad.


CONCLUSIONES

Durante la estancia se determinó que la presencia de ceniza volcánica mejora la resistencia y la disminuye la plasticidad de un suelo fino. Identificando que cualquier región con problemas de inestabilidad de suelos puede beneficiarse utilizando la ceniza para la estabilización de suelos en la construcción de cualquier tipo de infraestructura, ofreciendo una solución económica y ecología para mejorar la calidad de un suelo.
Garcia Olguin Brandon David, Universidad Politécnica de Sinaloa
Asesor: M.C. Alberth Josue Sapiens Perez, Universidad Politécnica de Sinaloa

IMPLEMENTACIóN DE CONTROLADORES NEURONALES EN CARRO EVASOR DE OBSTáCULOS


IMPLEMENTACIóN DE CONTROLADORES NEURONALES EN CARRO EVASOR DE OBSTáCULOS

Garcia Olguin Brandon David, Universidad Politécnica de Sinaloa. Raygoza Viera Lesly Celeste, Universidad Politécnica de Sinaloa. Asesor: M.C. Alberth Josue Sapiens Perez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Este proyecto se enfoca en el desarrollo de un carro autónomo capaz de evadir obstáculos utilizando redes neuronales. El objetivo principal es diseñar un sistema de control que permita al carro detectar y evitar obstáculos en su camino de manera eficiente y precisa, mejorando así su capacidad para operar en entornos complejos y cambiantes.



METODOLOGÍA

Con respecto al sistema de percepción del carro, se utilizarán sensores de ultrasonido para obtener datos del entorno, además, los datos recogidos serán procesados para obtener información relevante sobre la posición y tamaño de los obstáculos. El carro se entrenará utilizando las redes neuronales creadas por el software MATLAB, utilizando técnicas de aprendizaje supervisado para enseñar al modelo a reconocer patrones en los datos y predecir las acciones necesarias para evitar los obstáculos.


CONCLUSIONES

En conclusión se requiere realizar pruebas adiciones en entornos más complejos y realistas para evaluar la robustez del sistema frente a situaciones imprevistas. Además, se continúa con el ajuste fino de la red neuronal y la mejora del sistema de percepción para reducir el tiempo de respuesta y aumentar la precisión en escenarios más dinámicos.
Garcia Paulin Bryan Guadalupe, Instituto Tecnológico de Matamoros
Asesor: Mtro. Gerardo Badillo Estrada, Universidad Politécnica de Tecámac

IMPLEMENTACIóN DE LEAN MANUFACTURING EN LA EMPRESA FAW ELAM


IMPLEMENTACIóN DE LEAN MANUFACTURING EN LA EMPRESA FAW ELAM

Garcia Paulin Bryan Guadalupe, Instituto Tecnológico de Matamoros. Meneses Sanchez Silvia, Universidad Politécnica de Tecámac. Mindiola Cordero María Clara, Universidad de la Guajira. Onofre Guarneros Alexis Manuel, Instituto Tecnológico de Gustavo A. Madero II. Asesor: Mtro. Gerardo Badillo Estrada, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

FAW ELAM es una empresa automotriz establecida, aunque ha mantenido una posición sólida en el mercado, enfrenta desafios relacionados con variabilidad en la calidad, elevado tiempo ciclo y desperdicio de recursos. Debido al incremento de venta correspondiente a los camiones de carga pesada y la construcción de líneas de ensamble, se requiere realizar un análisis de las líneas de producción y almacén para posteriormente implementar y llevar a cabo las metodologías del proceso el cual están sustentadas en las normas oficiales mexicanas.



METODOLOGÍA

Para realizar el análisis, se dividieron las 20 metodologías con el fin de implementar en 4 semanas, tomando así, 5 metodologías cada semana del proyecto y enfocándonos en su estudio dentro de la fabrica. 1. 5´s:organización y limpieza Value stream mapping Gestión visual/Andon Análisis de cuello de botella KPIs: indicadores de clave de desempeño 2. Flujo Progresivo Estandarización de Trabajo Just in Time Takt Time Hoshi kari / los 8 desperdicios 3. SMED (Cambio Rápido de Herramienta) Poka-Yoke Jidoka PDCA (Plan-Do-Check-Act) TPM: Mantenimiento productivo total 4. Heijunka Kaizen Kanban Gemba Administración de calidad total    


CONCLUSIONES

Tras la aplicación de Lean Manufacturing en FAW ELAM, se han obtenido los siguientes resultados: Se implementó la identificación de limitaciones, señalizaciones visuales claras en el área de trabajo, la organización del almacén se mejoró significativamente, se instauraron prácticas de limpieza regular y sistemática (5S). Se realizó una clasificación y disposición eficiente de los materiales, herramientas y equipos y finalmente se llevaran a cabo programas de formación continua para el personal. En conjunto, estos resultados han contribuido a un aumento de la productividad, una reducción de los desperdicios y una mayor satisfacción del cliente. La empresa ha logrado optimizar sus procesos, mejorar la calidad del trabajo y establecer una base sólida para el crecimiento futuro. La implementación de Lean Manufacturing en la industria automotriz resulta en mejoras sustanciales en términos de eficiencia operativa y competitividad. Empresas como FAW ELAM, al adoptar esta filosofía, logra reducir tiempos de ciclo, optimizar espacio y maquinarias, así como eliminar actividades que no agregan valor. Esto se traduce en una reducción notable en costos, tiempos de entrega, inventario, y número de defectos, mientras se mejora la calidad del producto y se aumenta la flexibilidad y utilización del personal.
García Ramírez Arturo, Instituto Tecnológico Superior de Irapuato
Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato

DISEÑO DE MOLDE PARA BLOQUE PET


DISEÑO DE MOLDE PARA BLOQUE PET

García Ramírez Arturo, Instituto Tecnológico Superior de Irapuato. Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

El PET, también conocido como polietileno tereftalato, es un material ampliamente utilizado en envases de plástico, especialmente en botellas de bebidas. Sin embargo, su uso desmedido ha generado un problema ambiental significativo. La producción masiva de PET ha llevado a un aumento alarmante en los residuos plásticos, lo que ha provocado una acumulación de desechos. en vertederos y océanos. Afortunadamente, la reutilización del PET ha surgido como una solución efectiva para abordar esta problemática. En lugar de desechar las botellas de PET después de su uso, se pueden reciclar y transformar en bloques de construcción duraderos. Estos bloques de PET ofrecen una alternativa sostenible y eco amigable para la industria de la construcción. Una de las principales ventajas de utilizar bloques de PET en la construcción es la reducción de residuos. Al reutilizar las botellas de plástico, se evita que terminen en vertederos y se les da una segunda vida útil. Esto contribuye a la disminución de la contaminación ambiental y al alivio de la presión sobre los recursos naturales.



METODOLOGÍA

El problema que conlleva la acumulación de residuos plásticos es el tiempo en que tardan en degradarse. Se estima que los residuos plásticos tardan en degradarse aproximadamente de 100 a 1000 años. Dependiendo de las condiciones ambientales y el tipo de plástico. Por lo que estos residuos duran muchísimos años en medio ambiente, provocando la contaminación de los océanos, ríos, lagos y de los ecosistemas en general. No solo afecta a la flora y fauna de los ecosistemas, se estima que el ser humano ingiere aproximadamente 5 gramos de micro plásticos por semana a través de los alimentos, agua y del aire que respira. Al producir bloques de PET a partir de los residuos plásticos para la construcción de muros divisorios, oficinas, almacenes temporales y en general estructuras ligeras, se contribuye a la disminución de la contaminación, ya que se reutilizan los mismos residuos de plásticos y no se utilizan materiales de construcción tradicionales que generan un impacto mayor al medio ambiente. En el aspecto económico también se tiene una ventaja considerable en comparación a los materiales de construcción tradicionales, ya que estos han tenido un aumento significativo en los últimos años. Y los residuos plásticos al ser la materia prima de los bloques, resulta económico producirlos ya que el proceso de reciclaje de PET es sencillo y económico. Al utilizar el moldeo por compresión, no se necesita implementar procesos de humificación, secado y cocción como en los ladrillos tradicionales, puesto que al utilizar gránulos de PET se utiliza como materia prima para fabricar nuevos productos, por ejemplo, todo tipo de envases, botellas, fibras textiles, por lo tanto también puede ser utilizado como materia prima para la fabricación de bloques que serán empleados en la construcción de estructuras ligeras como almacenes, muros divisorios, oficinas temporales etc. Para la fabricación de estos bloques se empleará un molde, por medio del moldeo por compresión y con ayuda del pegamento aglutinante se obtendrán los bloques. Los bloques de PET tienen ventajas en comparación a los ladrillos de barro o los bloques de concreto que son materiales muy utilizados en la construcción, son más duraderos ya que al estar hechos de PET tardan más de 100 años en degradarse mientras que los ladrillos o bloques alrededor de 50 años además de que requieren un mayor mantenimiento debido a la exposición a la lluvia o la humedad excesiva, lo que provoca que se deterioren gradualmente.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre el impacto que tiene el PET en el planeta puesto que el uso de bloques de PET reciclado para construcción de muros tapón tiene beneficios ambientales importantes al reducir la cantidad de desechos plásticos en vertederos. Comparado con bloques convencionales, los bloques de PET reciclado son una alternativa más sostenible y eco amigable en la construcción moderna debido a su impacto ambiental positivo.
García Rangel Laura Alejandra, Universidad Tecnológica de Nayarit
Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur

JUEGO SERIO COMO APOYO PARA NIñOS CON DISLEXIA, Y PROBLEMAS DE LECTO-ESCRITURA.


JUEGO SERIO COMO APOYO PARA NIñOS CON DISLEXIA, Y PROBLEMAS DE LECTO-ESCRITURA.

Caraveo Guerrero Victor Yahir, Universidad Autónoma de Baja California Sur. Carballo Canales Carlos Adrian, Universidad Autónoma de Baja California Sur. García Rangel Laura Alejandra, Universidad Tecnológica de Nayarit. Hirales Núñez José Eduardo, Universidad Autónoma de Baja California Sur. López Quiroz Mariana Jocelyn, Universidad de Guadalajara. Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur



PLANTEAMIENTO DEL PROBLEMA

En México, de acuerdo a estudios realizados en 2021 por parte de la Universidad Nacional Autónoma de México, la dislexia afecta al menos a un 7% de la población. La dislexia entorpece el aprendizaje y se manifiesta principalmente con un cambio de orden en las letras y los números, dificultando la lecto-escritura. Dicha condición es comúnmente detectada en niños durante su etapa escolar; sin embargo, muchas veces puede ser catalogado con desinterés, falta de concentración y desatención. La principal problemática que se buscaba abordar con el desarrollo de este proyecto era mejorar los recursos de ayuda para los niños con dislexia, proporcionando un sistema para dispositivos móviles moderno de juegos serios, que motive al usuario a mejorar sus habilidades neurocognitivas mientras se divierte jugando. Los escasos recursos con sistemas accesibles y que usaran elementos de gamificación para apoyar a niños con alteraciones del aprendizaje, dislexia o problemas de lecto-escritura dentro de nuestro país fueron la principal fuente de inspiración que impulsó al desarrollo de Edulexia.



METODOLOGÍA

Para empezar a planificar el cómo se diseñará el sistema se utilizó una metodología de investigación mixta, con el cual se diseñó un diagrama de actividades que fue importante para llevar a los primeros pasos de desarrollo del sistema. La primera actividad a realizar fue recolectar información con ayuda de nuestros usuarios objetivo, en el equipo de trabajo se utilizó los recursos que fueron proporcionados por parte de un convenio firmado por parte de la Universidad Autónoma Aguascalientes (UAA) y el centro del desarrollo infantil (CENDI). La técnica de recolección de información utilizada fue encuestas, las cuales se hicieron con 25 alumnos del CENDI de edades de entre 6 a 8 años. La técnica de desarrollo de software utilizada para crear el primer prototipo de bajo nivel fue la metodología MPIu+a creada por Toni Granollers i Saltiveri, profesor de la Universidad de Lleida. La metodología creada por Saltiveri tiene como meta principal poner al usuario en el centro del desarrollo, por eso mismo la información recabada de nuestros usuarios fue de suma importancia para la creación de cada uno de los requerimientos del sistema. Se buscaba diseñar un sistema sencillo, accesible, operacional e intuitivo, para que nuestros usuarios se sintieran cómodos al utilizarlo. Un punto importante que debe justificarse es la forma en que fueron creados los videojuegos del sistema. Los juegos fueron creados de manera que se pudieran estimular las habilidades neurocognitivas del usuario, Para la creación de los juegos fue utilizado como base el enfoque Orton-Gillingham, el cual es un sistema de intervención multisensorial para la ayuda en la dislexia, y mejorar la enseñanza de la lectoescritura. Para incentivar al usuario a seguir usando el sistema se diseñaron retos y recompensas, elementos que fueron elegidos tomando en consideración la popularidad que se obtuvo con las encuestas. Para poder hacer las primeras pruebas del prototipo de bajo nivel del sistema se utilizó un método de descubrimiento en conjunto, mejor conocido como Co-Discovery. En esta prueba los usuarios tenían que resolver diversas tareas fusionando sus habilidades y conocimientos. Estas pruebas nos ayudaron a notar el grado de usabilidad con el que contaba nuestro sistema en esa parte del desarrollo. Los resultados de las pruebas realizadas por nuestros usuarios objetivo presentaron comentarios positivos, además de mostrarnos que el primer prototipo del sistema era claro, y usable. Se confirmó que continuar con el desarrollo del software final era una decisión completamente acertada. Para la creación de la versión final del software se tomó en cuenta la información recabada con anterioridad de las pruebas hechas a los usuarios. Se utilizó la idea base del prototipo de baja fidelidad, que sumada a la elección de temática, diseños y tipos de juegos favoritos de los usuarios hicieron posible la creación de la versión funcional beta. Esta primera versión final fue creada con el motor gráfico Unity, incorporando un plugin de desarrollo 2d, además de utilizar el lenguaje de programación C#. Por último se realizaron pruebas para medir el grado de aceptación del sistema final con nuestros usuarios. Al igual que en otras ocasiones se optó por utilizar el método de pruebas Co-Discovery. Se utilizaron dos niños de la localidad de La Paz B.C.S con edades de entre 6 a 8 años. Los resultados obtenidos mostraron él como el uso del sistema puede llegar a impactar en los usuarios. Como se esperaba, se logró atrapar a los usuarios con sus atractivos apartado visual, además de incentivarlo a seguir jugando gracias a los recursos de gamificación que se utilizaron.


CONCLUSIONES

A lo largo del tiempo de estancia del verano científico se lograron cumplir con los objetivos en la planeación del proyecto, se desarrollaron nuevos conocimientos y competencias para todo el equipo de trabajo. Consideramos que es importante mencionar que fue una tarea sencilla desarrollar el sistema, pero sin duda fue una experiencia enriquecedora para nuestra experiencia profesional. Aunque se ha demostrado que el sistema cumple con los objetivos que se plantearon en un inicio aún existen tareas por realizar para que se considere algo más que una fase beta. El sistema de juego serio para ayudar a niños con dislexia y problemas de lecto-escritura Edulexia es un recurso viable y cumple con las características necesarias de un sistema completamente enfocado en niños.
García Reyes José Miguel, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

TRANSPORTE Y SEGURIDAD VIAL


TRANSPORTE Y SEGURIDAD VIAL

Figueroa Salazar Enrique Angel, Universidad Politécnica de Sinaloa. García Reyes José Miguel, Universidad Politécnica de Sinaloa. Valdez Sánchez Pedro Rafael, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el crecimiento urbano demanda una nueva política pública que propicie valor a un crecimiento ordenado y sostenible, la comunidad urbana debe estar comunicada asegurando la prosperidad para todas las personas, tomando en cuenta el factor ambiental, social y económico donde el balance es cada vez más complejo, reduciendo la brecha en el cumplimiento del objetivo de la Ley General de Movilidad y Seguridad Vial. En un ámbito de desarrollo económico de la región de Mazatlán en el Estado de Sinaloa, la cual pone a prueba la conciencia en movilidad de las actividades del sector logístico y transporte, pues si bien las necesidades de conectividad urbana son esenciales a la vez  sí necesitan ser sostenible, con una atención principal en las empresas de servicios turísticos y comunidad social, por lo anterior nos vemos en la necesidad de abordar la problemática compleja en el ámbito  del objetivo 11.- Ciudades y Comunidades Sostenibles de los ODS de la ONU, en especial en la meta 11.2 incluidos en la agenda 2030 al realizar un estudio preliminar que nos proporcione un conocimiento para la reflexión y difusión del conocimiento sobre la movilidad y seguridad vial en la ciudad y su conciencia en la sostenibilidad. El alcance de la investigación cuantitativa de tipo campo es identificar si las condiciones en materia de movilidad y seguridad vial son adecuadas para el uso público considerando factores sociales, desde la perspectiva pública.



METODOLOGÍA

Para nuestro estudio científico se utiliza la metodología de investigación cuantitativa, de tipo campo la cual consiste en la recolección de datos directamente de la realidad donde ocurren los hechos, sin manipular o controlar variable alguna, con una extensión del estudio de investigación de campo con medios de instrumentos a distancia con medios digitales de tecnología de la información y la comunicación, el nivel de la investigación descriptiva donde se busca el diagnosticar la relación de los hechos. El método de recolección de datos es a través de instrumento de encuesta con 15 reactivos, se aplicó a personas con edad entre los 17 y 22 años, con una muestra de 288 personas, orientada a conocer las opiniones de la población joven en materia de movilidad y seguridad vial de forma individual para el uso público considerando el  factor social, desde la perspectiva pública. Se analiza la información de forma gráfica estadística descriptiva para realizar una argumentación sustentada ante una hipótesis preliminar de que si la sociedad conoce la Ley General de Movilidad y Seguridad Vial; así también, se realiza un estudio entre variables dar respuesta a una hipótesis planteada que consiste en identificar si existe correlación significativa entre las variables de entrada sexo y edad con respecto a la variable del como aprendió a conducir vehículos automotor con el propósito de identificar si las condiciones en materia de educación vial son adecuadas para el uso público considerando factores sociales, desde la perspectiva pública. Con base al análisis de correlación de variables donde la interpretación es de acuerdo con la hipótesis nula de Ho = El sexo de los conductores es independiente a la forma de como aprendió a manejar, y la hipótesis alterna Ha= El sexo de los conductores es dependiente a la forma de como aprendió a manejar, donde  p value al ser mayor a 0.05 se acepta la hipótesis nula. Desde una perspectiva social con base a un entorno público más ordenado y limpio el sistema de transporte público es clave para el logro de las condiciones antes mencionadas, por lo anterior se analiza en este estudio el resultado de la opinión que si el transporte fuera más económico, limpio, ecológico y con buen servicio, los usuarios dejaran de utilizar su vehículo propio con mayor frecuencia.


CONCLUSIONES

La población encuestada oscila entre los 17 y 22 años, el 54.2% son de género masculino y el 45.1% son de género femenino, de la muestra general de 288 personas, uno de los cuestionamientos fue que si el transporte fuera más económico, limpio, ecológico y con buen servicio, los usuarios dejaran de utilizar su vehículo propio con mayor frecuencia, donde el 54.4% respondieron con sí,  mientras que el 22.1% respondieron que no; otro de los cuestionamientos realizados fue que dónde aprendieron a conducir los usuarios, un 49.5% de los encuestados respondió que aún no saben conducir, un 36.1% señalaron que aprendieron gracias a un familiar, un 8.4% aprendieron por cuenta propia, y finalmente, un 6% acudieron a una escuela de manejo; Con base al análisis de correlación de variables entre sexo y como aprendió a conducir la interpretación es de acuerdo con la hipótesis nula de Ho = El sexo de los conductores es independiente a la forma de como aprendió a manejar, y la hipótesis alterna Ha= El sexo de los conductores es dependiente a la forma de como aprendió a manejar, donde  p value fue menor a 0.05 es decir no se acepta la hipótesis nula, es decir el ambos sexos mantienen una tendencia similar del como aprenden a conducir vehículos automotor. Con relación a la variable edad y como aprendió a conducir  se detecta que entre los jóvenes de 18 años la mayoría aprendió a manejar con un familiar (36%) seguido por cuenta propia (8%) y en un menor número en una escuela (5%) y jóvenes que no saben conducir un 51%.                                 Los resultados en materia de educación vial y transporte urbano nos proporcionan la necesidad de una política pública para garantizar la continuidad en proyectos orientados al punto 11 Conseguir que las ciudades y los asentamientos humanos sean inclusivos, seguros, resiliente y sostenibles, referente a uno de los 17 Objetivos de Desarrollo Sostenible de la agenda 2030.
Garcia Rojas Ana Karen, Instituto Tecnológico de Morelia
Asesor: Post-doc Mauricio Becerra Fernández, Universidad del Rosario

DINáMICA DE SISTEMAS EN LA CONSTRUCCIóN DE MODELO DE SIMULACIóN DE LA CADENA DE SUMINISTRO EN LA EXPORTACIóN DE UN PRODUCTO AL EXTRANJERO


DINáMICA DE SISTEMAS EN LA CONSTRUCCIóN DE MODELO DE SIMULACIóN DE LA CADENA DE SUMINISTRO EN LA EXPORTACIóN DE UN PRODUCTO AL EXTRANJERO

Garcia Rojas Ana Karen, Instituto Tecnológico de Morelia. Vélez Rosas Dulce María, Universidad Tecnológica de Tecamachalco. Asesor: Post-doc Mauricio Becerra Fernández, Universidad del Rosario



PLANTEAMIENTO DEL PROBLEMA

En una cadena de suministro, los diferentes eslabones (proveedores, fabricantes, distribuidores y minoristas) están interconectados y las acciones de uno pueden tener un impacto significativo en los demás. Las fluctuaciones en la demanda, los retrasos en la entrega, los problemas de calidad de los productos y otros factores pueden causar efectos en cadena que afectan la eficiencia y la capacidad de respuesta de toda la cadena de suministro. Cabe destacar que las industrias han tenido un crecimiento a lo largo de la historia; al desarrollar la dinámica de sistemas nos permite mejorar la toma de decisiones, optimización de recursos, resiliencia y adaptabilidad. Por consiguiente, se desarrollará un modelo de simulación en el cual se analizará el comportamiento de la cadena de suministro en la exportación de un producto.



METODOLOGÍA

La dinámica de sistemas es una metodología utilizada para comprender y simular el comportamiento de sistemas complejos a lo largo del tiempo. Este enfoque se basa en la creación de un modelo que represente las interacciones entre diferentes componentes de un sistema (exportación), permitiendo el análisis de cómo las variaciones en una parte del sistema pueden afectar al conjunto. Así mismo, utilizando la herramienta Vensim;  un software en el cuál se puede crear el modelo deseado para nuestra cadena de suministro, mediante gráficos se podrá observar el impacto que tiene cada nivel y variables que conforman el modelado, y a su vez se identificarán las posibles causas que alteran el sistema. Metodología La dinámica de sistemas es una metodología utilizada para comprender y simular el comportamiento de sistemas complejos a lo largo del tiempo. Este enfoque se basa en la creación de un modelo que represente las interacciones entre diferentes componentes de un sistema (exportación), permitiendo el análisis de cómo las variaciones en una parte del sistema pueden afectar al conjunto. Así mismo, utilizando la herramienta Vensim;  un software en el cuál se puede crear el modelo deseado para nuestra cadena de suministro, mediante gráficos se podrá observar el impacto que tiene cada nivel y variables que conforman el modelado, y a su vez se identificarán las posibles causas que alteran el sistema. Etapas de la dinámica de sistemas: Definición del Problema Identificación del problema central: Determinar qué aspecto del sistema se desea estudiar o mejorar. Determinación del alcance: Delimitar los límites del sistema y definir qué elementos se incluirán en el modelo. Establecimiento de objetivos: Clarificar los objetivos del estudio, como mejorar la eficiencia, reducir costos, o aumentar la resiliencia. Desarrollo del Modelo Conceptual Se desarrolla un modelo conceptual que represente las relaciones causales y los flujos dentro del sistema. Este modelo incluye: Variables: Identificación de las variables clave que afectan el sistema (por ejemplo, inventario, demanda, tasa de producción). Feedback loops: Identificación de los bucles de retroalimentación, que pueden ser positivos (refuerzan el cambio) o negativos (contrarrestan el cambio). Diagramas de Causalidad: Creación de diagramas que muestren cómo las variables están interrelacionadas. Construcción del Modelo en Vensim Interfaz de Vensim: Familiarizarse con la interfaz de Vensim, que incluye herramientas para dibujar diagramas de flujo y de causalidad. Diagramas de Stock y Flujos: Construcción de diagramas que representan los stocks (acumulaciones) y los flujos (tasas de cambio) del sistema. Stocks: Son variables que se acumulan o decrecen con el tiempo (por ejemplo, inventario de productos). Flujos: Son las tasas a las que los stocks aumentan o disminuyen (por ejemplo, tasa de producción, tasa de ventas). Ecuaciones: Definición de ecuaciones matemáticas que describan las relaciones entre las variables y los flujos del sistema. Calibración y Validación del Modelo Recolección de Datos: Obtener datos históricos del sistema que se está modelando. Ajuste del Modelo: Ajustar los parámetros del modelo para que sus salidas coincidan con los datos históricos. Pruebas de Sensibilidad: Realizar pruebas para ver cómo cambios en los parámetros afectan los resultados del modelo, lo que ayuda a identificar los factores más críticos. Simulación y Análisis de Escenarios Con el modelo calibrado y validado, se pueden realizar simulaciones para analizar diferentes escenarios y estrategias. Simulación de Escenarios: Probar diferentes escenarios (por ejemplo, cambios en la demanda, variaciones en la producción) para ver cómo afectan al sistema. Análisis de Resultados: Evaluar los resultados de las simulaciones para identificar patrones, tendencias y puntos críticos. Optimización: Utilizar herramientas de optimización en Vensim para encontrar las mejores estrategias que cumplan con los objetivos establecidos. Implementación y Monitoreo Finalmente, las estrategias y decisiones basadas en el modelo se implementan en el sistema real. Es crucial monitorear el desempeño del sistema y ajustar el modelo según sea necesario. Esto incluye: Implementación de Estrategias: Aplicar las decisiones y estrategias derivadas del análisis del modelo. Monitoreo Continuo: Supervisar el desempeño del sistema para detectar desviaciones y ajustar el modelo y las estrategias según sea necesario. Retroalimentación: Utilizar los datos del sistema real para refinar y mejorar continuamente el modelo.


CONCLUSIONES

A través de la definición del problema, desarrollo del modelo conceptual, construcción y calibración del modelo en Vensim, y simulación de escenarios, se pueden identificar ineficiencias y mejorar la toma de decisiones. Esta metodología facilita la planificación estratégica, la optimización de procesos, y la resiliencia ante cambios, proporcionando una ventaja competitiva en un entorno dinámico y complejo.
Garcia Rolon Carlos Miguel, Universidad de Guadalajara
Asesor: Dra. Lourdes Adriana Pérez Carrillo, Universidad de Guadalajara

SíNTESIS DE POLíMERO NúCLEO CORAZA


SíNTESIS DE POLíMERO NúCLEO CORAZA

Garcia Rolon Carlos Miguel, Universidad de Guadalajara. Sandoval Llamas Grecia Iberia, Universidad de Guadalajara. Asesor: Dra. Lourdes Adriana Pérez Carrillo, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

A traves de los años se ha visto un aumento en el interes para la obtencion de nuevos materiales, esto con el fin de sastifacer las necesidades de la tecnologia moderna, mediante la obtencion de nuevos materiales con caracteristica y propiedades mejores que las de los materiales existentes. En la presente investigacion esta dirigida en la generacion de nuevos materiales, mediante tecnicas de polimerizacion en emulsion y microemulsion para su uso dentro del campo medico. Los materiales resultantes de la polimerizacion poseen distintas caracteristicas, permitiendo conocer a que tipo de aplicaciones pueden ser afines,  esto mediante  la relacion de polimero a tensioactivo.



METODOLOGÍA

La presente investigacion se llevo de manera presencial, utilizando sintesis de partículas de poli(metacrilato de metilo) de escala nanométrica y distribución angosta, mediante un proceso semi-continuo de polimerización en fase heterogénea bajo condiciones ávidas de monómero. A continuacion se enlistan las herramientas utilizadas a lo largo de la investigación: ONU 17 Objetivos Desarrollo Sustentables: Se realizó la Conferencia del Clima en París (COP21) en diciembre de 2015, la ONU aprobó la Agenda 2030 sobre el Desarrollo Sostenible primer acuerdo mundial sobre el cambio climático, universal y jurídicamente el objetivo principal es conseguir, a través de distintas fórmulas, que: La temperatura del planeta NO supere en más de 1,5ºC  desde la Era Preindustrial. Resultando en 17 Objetivos Desarrollo sustentables, haciendo énfasis las líneas de investigación en: Objetivo #9 Industria, Innovacion e Infraestructura: con lo que pretende fomentar la innovación  Polimerizacion en emulsion: El proceso de polimerización en emulsión es una reacción heterogénea en la cual un monómero o monómero en solución es emulsificado en un medio acuoso mediante la adición de un sistema emulsificante y polimerizado con un iniciador de radicales libres.  Pruebas en DLS: La técnica de dispersión dinámica de la luz (DLS) es una tecnica con caracteristica no invasivas, que permite medir el tamaño y la distribucion de tamaño en las particulas, mide el movimiento ópticamente registrando la señal de luz dispersa en un ángulo fijo. Las partículas se iluminan con una fuente de luz monocromática y coherente (láser) y se registra la luz dispersada por las partículas. Gravimetria: Esta tecnica nos permite conocer el porcentaje de conversion en nuestro proceso de polimerizacion, determinando la masa o concentracion del polimero, midiendo el cambio en la masa en funcion del tiempo haciendo uso de un horno con temperatura controlada.  


CONCLUSIONES

A lo largo del Verano del Programa Delfin en su edición 2024, se llevó a cabo a través del Centro Universitario de Ciencias Exactas e Ingenieria (CUCEI), mediante un trabajo de investigación la recabación de datos e información relevante, con el uso de distintas tecnicas de cuantificacion en el proceso de polimerizacion, por lo que nos permitio obtener informacion en la cual se destaca la distribucion del tamaño de las particulas, asi como el comportamiento de la reaccion al cambiar las relaciones de polimero y tensioactivo, impactando en el tiempo de reaccion asi como en las caracteristicas del polimero. Por lo tanto es de suma importancia el moniterio constante del polimero, para evaluar su estabilidad, asi como la realizacion de pruebas mecanicas, para una evaluacion mas completa.
Garcia Tapia Angel David, Instituto Tecnológico de Lázaro Cárdenas
Asesor: Dr. Jose Maria Ponce Ortega, Universidad Michoacana de San Nicolás de Hidalgo

ENERGíA EN MOVIMIENTO: TRANSFORMANDO LOS PASOS Y EL TRáFICO EN ELECTRICIDAD


ENERGíA EN MOVIMIENTO: TRANSFORMANDO LOS PASOS Y EL TRáFICO EN ELECTRICIDAD

Garcia Tapia Angel David, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dr. Jose Maria Ponce Ortega, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Dos de los mayores desafíos que enfrenta la humanidad son el cambio climático y la creciente demanda energética. La demanda mundial de energía crece de forma acelerada, lo que ejerce presión en el uso de recursos energéticos tradicionales, como los combustibles fósiles (carbón, petróleo y gas natural), la quema de combustibles fósiles libera gases de efecto invernadero causando severos impactos ambientales. Ante este escenario, la generación de energía limpia y sostenible se vuelve una necesidad para poder garantizar un futuro saludable para el planeta. Durante la última década, la demanda energética ha tenido un aumento considerablemente acelerado lo que provoca que se tengan opciones limitadas de energías renovables para el abastecimiento de energía. De acuerdo al Escenario de Nuevas Políticas de la Agencia Internacional de la Energía (AIE) la demanda mundial de electricidad aumentará un 80% durante el periodo 2012-2040.  Es por esto por lo que es necesario impulsar diferentes alternativas de generación de energía, una de estas alternativas es el aprovechamiento del movimiento al caminar de los seres humanos haciendo uso de pisos piezoeléctricos para la generación de energía.



METODOLOGÍA

Producción de energía con los pasos al caminar en áreas públicas.  La recolección de energía piezoeléctrica en el suelo como energía limpia sostenible puede generar electricidad utilizable dependiendo de la presión de las pisadas de las personas, esta valiosa energía se desperdicia a pesar de su fuente limpia disponible (el movimiento humano). Los lugares públicos concurridos son áreas donde los pisos piezoeléctricos pueden funcionar de manera efectiva. Lugares como centros comerciales, aeropuertos, metros, estadios, escuelas, calles, andadores, etc. En estos espacios, el constante flujo de personas proporciona una fuente inagotable de energía cinética que puede ser convertida en electricidad. Existe una cantidad variada de tecnologías piezoeléctricas las cuales se pueden clasificar de acuerdo al uso de aplicación y la potencia generada (de 0.1W a 10W). Así mismo, dichas tecnologías se pueden clasificar por los costos de venta, la energía generada, vida útil y el tamaño. Los precios de los dispositivos existentes en el mercado van desde los dispositivos más caros en $13,109 pesos mexicanos y en $1,500 pesos mexicanos en dispositivos económicos. Tomando como caso de estudio el metro de la Ciudad de México, la cual cuenta con una población total de 9,209,944 de personas, en el año 2022, el metro transportó a 1,057 millones de pasajeros, con esta cifra nos podemos dar a la idea de que si colocamos por lo menos una mínima cantidad de pisos piezoeléctricos se puede lograr producir una enorme cantidad de energía generada a partir de los pasos de usuarios del metro. Se analizó la estación Constitución de 1917 de la línea 8 del metro como casos de estudio, la cual cuenta con una afluencia de estación de 8,668,311. Tomando en consideración los pisos piezoeléctricos de la compañía Waynergy Floor debido a que presentan un costo considerable de acuerdo a su generación de energía y a la vida útil de cada unidad. Los resultados obtenidos fueron los siguientes, con 40 unidades ($60,449 MXN), considerando que cada piso piezoeléctrico tendrá un promedio de 400 pisadas diarias, se produciría 160,000kW al día. Los resultados obtenidos son solo considerando una de las 195 estaciones con las que cuenta el metro de la CDMX. Al considerar la inmensa afluencia de personas, es fácil ver como la instalación de pisos piezoeléctricos en estaciones de metro, terminales de aeropuertos y zonas peatonales podría aprovechar una fuente de energía poco aprovechada. Los pisos piezoeléctricos en los espacios públicos son capaces de generar suficiente energía para alimentar varios dispositivos eléctricos, incluyendo iluminación y pantallas. Producción de energía con el tráfico en las ciudades. En las ciudades los vehículos se encuentran en grandes cantidades, a todas horas y cada vez que se mueven liberan energía cinética al pavimento. Esta energía, que normalmente no se aprovecha ni se utiliza, tiene el potencial de ser convertida en energía eléctrica. El módulo Waynergy Vehicles, desarrollado en Portugal por Waydip en colaboración con el Laboratorio de Mecánica de Pavimentos de la Universidad de Coimbra, es la clave para poder captar la energía cinética que los autos liberan al pavimento. El uso de los módulos Waynergy Vehicles puede llegar a generar 150W en autos pequeños y 190W en autos de transporte de 2 toneladas. La velocidad con la que pasan los autos por los módulos es proporcional a la energía que se puede generar. Generar energía eléctrica a partir del movimiento de autos no solo permitirá cargar las baterías de autos eléctricos, sino que también proporcionará energía para el consumo general a través de la inyección a la red eléctrica o su uso directo por parte del alumbrado público, semáforos, publicidad, etc.


CONCLUSIONES

El uso de pisos piezoeléctricos puede llegar a ser una opción óptima para la generación de energía renovable y ser una alternativa al uso de combustibles fósiles para la generación de energía. La generación de energía con pisos piezoeléctricos puede ser una gran opción para reducir costos eléctricos en áreas públicas. La implementación de este tipo de tecnologías como lo es en el metro de la CDMX podría llegar a alimentar todas las líneas del metro con energía generada a partir de las pisadas de los usuarios. Además, el uso de estas tecnologías en carreteras y autopistas podría permitir la alimentación total del alumbrado público en ciudades.
Garcia Torres Diego Leonardo, Universidad de Guadalajara
Asesor: Mg. Oscar Camilo Valderrama Riveros, Universidad Cooperativa de Colombia

CREACIóN Y USO DE LOS VIDEOJUEGOS PARA EL APRENDIZAJE Y CONCIENTIZACIóN DEL DESARROLLO SOSTENIBLE.


CREACIóN Y USO DE LOS VIDEOJUEGOS PARA EL APRENDIZAJE Y CONCIENTIZACIóN DEL DESARROLLO SOSTENIBLE.

Garcia Torres Diego Leonardo, Universidad de Guadalajara. Asesor: Mg. Oscar Camilo Valderrama Riveros, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

Actualmente nos encontramos en un momento bastante peculiar de la historia con respecto al acceso a la educación de calidad. A decir verdad, es un derecho básico para todas las niñas y niños, lamentablemente se siguen encontrando casos en los que se presentan carencias en la formación educativa de los jóvenes. Gracias a la disponibilidad y conveniencia del internet, muchos padres de familia han optado el uso de métodos alternativos de enseñanza y crianza de sus hijos, en casos dejándolos solos con dispositivos móviles y libre acceso a internet. No se busca examinar los aspectos positivos y negativos de dichas prácticas, sino que, al tomarse como una realidad se puede utilizar como una ayuda en el proceso de formación básica.



METODOLOGÍA

Se realizaron investigaciones sobre el tema en varios medios, portales científicos, documentales y profesionistas para así asegurar una buena estructura para lo que se quiere que aprendan los niños y jóvenes. El primer paso del proyecto fue el definir las limitaciones presentes y las reglas a seguir al diseñar el juego. Como primera instancia se definieron limitaciones de tiempo de desarrollo, ODS a tratar, público objetivo, plataformas de juego y que no tenga fines de lucro. Se realizó en equipo una lluvia de ideas con el propósito de cuadrar un concepto base con el que se trabajará el juego donde cada miembro presentó conceptos de jugabilidad, sistemas de juego y juegos como inspiración. Utilizando conceptos de gamificación y pedagogía en juegos se definió el tipo de videojuego a realizar, concretando un videojuego estilo citybuilder y resource manager, donde se usarán cartas de edificios como planta se energía solar, turbina eólica, planta de energía de biogás entre otros, donde el usuario elige una carta para colocar en el escenario que muestra el edificio en el plano de juego y este cada definido tiempo genera y utiliza recursos. Así deberá de encontrar la manera en la cual puede crear un establecimiento funcional y que cumpla con los requisitos de una ciudad eficiente y ecológicamente responsable. Se realizaron conceptos de diseño de juego y los elementos visuales que lo acompañan, en papel y de forma digital se crearon diseños básicos para los elementos como el grid del escenario, la representación de recursos, el espacio de juego, las casillas de funcionamiento de edificios, medidores de valores, mapa del juego, iconografía eficaz para el entendimiento de los conceptos y el uso de una mascota guía. Con el propósito de tener acceso a las distintas versiones del proyecto se implementó un sistema de control de versiones usando repositorios en línea, se aprendió el funcionamiento de tres herramientas esenciales, las cuales son Sourcetree, Git y Bitbucket, todas trabajando en conjunto para tener un sistema funcional y eficiente. Se concretó el sistema de movimiento por el mapa, tomando en cuenta comandos sencillos y configurables para el uso de teclado y ratón y entrada táctil para dispositivos móviles, puliendo también los fallos que se fueron presentando en el proceso. Otro paso importante en la creación del videojuego es la retícula en la cual se colocarán los elementos. Se hace un algoritmo que crea una matriz de objetos o celdas en el entorno siguiendo un patrón de distancia y coordenadas determinado; se asignaron los valores iniciales de crear una retícula cuadrada de 10 x 10 celdas. Se agrega una función que constantemente busca la relación de la posición en el plano a la que apunta el cursor y la celda de la retícula que se encuentre a la menor distancia de éste. Asignando una lista de tipos de edificios, referencias a actores y lógica de matrices se crea un sistema con el cual el motor encuentra de manera automática cualquier otro actor y su posición con respecto a los demás, teniendo así un simulador base en el cual se pueden colocar objetos en el mapa y dependiendo de su ubicación se asignará un funcionamiento. La etapa final de la creación del juego base fue crear una interfaz de usuario donde se presentan todos los valores importantes para la jugabilidad y botones de selección de edificios. Se crearon elementos en 3D de edificios, un tema musical y elementos visuales complementarios.


CONCLUSIONES

A pesar de haber tenido experiencias anteriores creando videojuegos, nunca había hecho un proyecto de esta escala y con el objetivo de ser presentado ante un público previamente establecido. Con la ayuda de las fuentes correctas, desde compañeros hasta profesores que brindaron asesorías en distintos aspectos y etapas de desarrollo del proyecto. Una de las mayores dificultades que se presentaron en el proyecto fue el corto tiempo de desarrollo y principalmente la falta de recursos humanos que pudieran ayudar a crear un producto de mayor calidad o tamaño en un tiempo menor. Un videojuego en pocas ocasiones se atreven a tratar temas diferentes en este caso el desarrollo sostenible con el cual personalmente a resonado conmigo en los últimos años y al final del día reconozco que soy sólo una persona y que mis acciones tal vez no tengan un gran impacto en el problema, pero sé que si quiero un cambio éste tiene que comenzar conmigo y si la forma en la que puedo influenciar a más personas a que sean conscientes de ello no hay mejor manera que utilizar lo que amo, creando videojuegos y una comunidad de todos aquellos se encuentren al alcance para crear un cambio y luchar por un futuro mejor para todos.
García Valdez Iran Eunice, Universidad Autónoma de Occidente
Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente

SEGURIDAD E HIGIENE EN LOS GIROS EMPRESARIALES: INDUSTRIAL, COMERCIAL Y DE SERVICIOS


SEGURIDAD E HIGIENE EN LOS GIROS EMPRESARIALES: INDUSTRIAL, COMERCIAL Y DE SERVICIOS

García Valdez Iran Eunice, Universidad Autónoma de Occidente. Sevilla Rodríguez Licema, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Con un enfoque multidisciplinario y colaborativo, este proyecto involucra a todos los niveles de la organización, desde la alta dirección hasta los empleados de base, para asegurar que la seguridad e higiene sean una prioridad compartida. Mediante la capacitación continua, la evaluación de riesgos y la mejora constante de las prácticas de trabajo, las empresas podrán no solo cumplir con sus obligaciones legales, sino también construir entornos laborales que impulsen el bienestar y la productividad. Este proyecto se enfoca en conocer y evaluar mejoras en los estándares de seguridad e higiene en empresas de los sectores comercial, industrial y de servicios conociendo los organismos, leyes y organizaciones en la república mexicana, el estado de Sinaloa y en el municipio de Ahome, así como también, a nivel internacional.  Esta investigación científica nos lleva a entender la implementación de normas, leyes y reglamentos en las empresas, ya que medidas adecuadas de seguridad e higiene son clave para prevenir accidentes laborales, enfermedades ocupacionales y mejorar el bienestar general de los empleados.



METODOLOGÍA

Iniciamos planteando nuestro objetivo y las actividades que realizaríamos para lograrlo, una vez redactado definimos los temas de interés para desarrollar la investigación; comenzamos por la exhaustiva investigación y lectura de diversas fuentes en cuanto a los temas indicados en nuestro plan de trabajo. Actividades realizadas: -Identificar y analizar los riesgos laborales específicos de cada sector.  -Evaluar el cumplimiento de las normativas de seguridad e higiene en los diferentes giros empresariales.  -Examinar las regulaciones locales e internacionales aplicables a cada sector.  -Evaluar la efectividad de los programas de capacitación para reducir incidentes y mejorar la cultura de seguridad. -Promover entornos de trabajo saludables y seguros, contribuyendo a la reducción de enfermedades laborales y mejorando el bienestar general de los trabajadores. Empezamos por buscar proyectos, normas y organismos en relación con seguridad e higiene a nivel nacional; para luego pasar a nivel estatal y municipal, por último, investigamos a nivel internacional; esto con el fin de encontrar relación entre las normas y organismos encargados en materia de seguridad e higiene. También buscamos informacion sobre PYMES y como crear un negocio avalado por hacienda (gobierno), al igual que organismos estadísticos, como INEGI. Por último, realizamos visitas a empresas en su diferente giro empresarial; con ello logramos crear reportes en materia de seguridad e higiene en el trabajo. 


CONCLUSIONES

La investigación sobre SEGURIDAD E HIGIENE EN LOS GIROS EMPRESARIALES: INDUSTRIAL, COMERCIAL Y DE SERVICIOS nos muestra que la implementación efectiva de medidas de prevención y protección en materia de seguridad e higiene es crucial para proteger la salud y el bienestar de los trabajadores, así como para mejorar la eficiencia y productividad en los lugares de trabajo. Es importante cumplir con las normas, leyes y reglamentos que se encuentren en el lugar de trabajo, para así evitar cualquier tipo de accidente e incidente y enfermedades laborales. Hacer constantemente evaluaciones de riesgos e implementar medidas preventivas, aplicar prácticas proactivas de seguridad y salud ocupacional disminuyen los incidentes laborales y mejora en calidad en los productos o procesos y en la vida en el entorno laboral. En resumen, la inversión en seguridad e higiene es una estrategia comprobada para el éxito y sostenibilidad a largo plazo de cualquier empresa "La seguridad es de todos".  
García Vázquez Immer, Universidad Autónoma de Guerrero
Asesor: Mg. Victor Manuel Garrido Arévalo, Universidad de Pamplona

DISEñO DE UN MóDULO DE ENTRENAMIENTO EN ENERGíA SOLAR FOTOVOLTAICA


DISEñO DE UN MóDULO DE ENTRENAMIENTO EN ENERGíA SOLAR FOTOVOLTAICA

Chávez Reyes Carolina, Instituto Politécnico Nacional. Espinosa Pulido Brando de Jesús, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. García Vázquez Immer, Universidad Autónoma de Guerrero. Asesor: Mg. Victor Manuel Garrido Arévalo, Universidad de Pamplona



PLANTEAMIENTO DEL PROBLEMA

El "Diseño de un módulo de entrenamiento en energía solar fotovoltaica" aborda la problemática de los altos costos de los kits fotovoltaicos, que oscilan entre $2000 USD y $5000 USD, lo cual dificulta a los estudiantes acceder a una formación práctica en energía solar fotovoltaica (FV). A pesar de la abundancia de recursos teóricos, la falta de entrenamiento práctico impide el desarrollo de habilidades necesarias para la instalación y operación de sistemas FV. Para solucionar esta deficiencia, se propone el desarrollo de un módulo de entrenamiento en FV, que permita a los estudiantes aplicar la teoría aprendida en un entorno práctico y reducir los costos asociados a la adquisición de equipos. Este módulo facilitaría que los egresados sean más competitivos en el mercado laboral.



METODOLOGÍA

La metodología por seguir para desarrollar un módulo de entrenamiento en sistemas de energía solar fotovoltaica que facilite la formación práctica de los estudiantes se compuso de cuatro etapas: 1. Evaluación inicial del sitio: Se evaluaron las características específicas del sitio para la correcta ubicación de los paneles solares, considerando las sombras proyectadas por árboles y estructuras circundantes en el techo. Los paneles solares se posicionaron en la ubicación ideal determinada, trasladándolos al área seleccionada sobre el techo del edificio Simón Bolívar de la Universidad de Pamplona. 2. Modelado: Se simularon los ángulos de inclinación y el ángulo azimut requeridos para captar la mayor cantidad de luz solar utilizando el lenguaje de programación Python y la librería PvLib. Se realizaron estudios de caracterización de las celdas solares para recopilar datos estructurales de la red cristalina del silicio monocristalino de los paneles solares propuestos, mediante espectroscopia de dispersión de energía de rayos X. Esto permitió determinar la calidad y eficiencia de los patrones periódicos en la red cristalina. Se proporcionaron ejemplos de indicadores energéticos aplicables en Colombia y se analizó el caso específico del indicador de emisiones de CO₂ equivalente en la central inversora de la Unipamplona. Esto ayudó a estimar las emisiones de gases de efecto invernadero y la energía ahorrada al utilizar energía solar en comparación con la energía eléctrica convencional. 3. Diseño: Se plantearon los ángulos necesarios para el aprovechamiento óptimo de la luz solar en los paneles solares, incluyendo el ángulo azimut y los ángulos de inclinación. Se justificó la importancia de estos ángulos para el diseño del sistema fotovoltaico adecuado para el contexto del edificio Simón Bolívar. 4. ​Verificación: Se llevaron a cabo pruebas de rendimiento del módulo de entrenamiento en condiciones reales de operación para asegurar su correcto funcionamiento y detectar posibles mejoras en su diseño


CONCLUSIONES

Se diseñó un módulo de entrenamiento en energía solar fotovoltaica utilizando el software Python, determinando que los paneles solares deben orientarse hacia el sur-suroeste (ángulo azimut de 190º) y tener un ángulo de inclinación fijo de 12º para optimizar la captación de energía solar en el edificio Simón Bolívar de la Universidad de Pamplona. La verificación de su funcionamiento con estas características arrojó una potencia máxima registrada de 298.98 W a las 12:00 hrs. Este módulo no solo proporciona una herramienta educativa valiosa y accesible para los estudiantes, sino que también sienta las bases para futuros proyectos en la universidad.
García Vidal Vianney Itzel, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Mg. Ever Ángel Fuentes Rojas, Universidad Libre

GENERAR UN SISTEMA DE INFORMACIóN TURíSTICO DEL MUNICIPIO DE NUEVO COLóN.


GENERAR UN SISTEMA DE INFORMACIóN TURíSTICO DEL MUNICIPIO DE NUEVO COLóN.

García Vidal Vianney Itzel, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Mg. Ever Ángel Fuentes Rojas, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

Objetivo general: Generar un sistema de información turístico del municipio de Nuevo Colon Nuevo Colón, un municipio en el departamento de Boyacá, Colombia, es conocido por su rica herencia cultural y su reputación como un municipio frutícola. En enero, se llevan a cabo las tradicionales silletas de frutas, un evento destacado según la señora Miriam. Además, el municipio se distingue por sus bellos paisajes y sus valiosas tradiciones artesanales. A pesar de estos atractivos, la promoción turística de Nuevo Colón ha sido limitada debido a la falta de un sistema de información turístico integrado y accesible. La ausencia de una plataforma que centralice y difunda la información turística dificulta la planificación de visitas, reduce el potencial de atracción de turistas y limita el desarrollo económico local derivado del turismo.  



METODOLOGÍA

Para desarrollar un sistema de información turístico integral y eficiente en el municipio de Nuevo Colón, es fundamental implementar una metodología estructurada y respaldada por expertos en gestión de proyectos y desarrollo de sistemas de información. A continuación, se presenta una metodología en cinco fases, citando autores reconocidos que sustentan cada etapa del proceso. Fase 1: Análisis y Diagnóstico Definición del Alcance del Proyecto: Actividad 1: Establecer los objetivos, el alcance y los entregables del proyecto.  Utilizando la metodología PMBOK para definir el alcance del proyecto a través de la elaboración de un acta de constitución del proyecto y un plan de gestión del alcance. https://docs.google.com/document/d/1NKPz9qZiRg9v9Jpjv1AyAU0PSYOT3j5W/edit?usp=sharing&ouid=107717477791657414663&rtpof=true&sd=true Análisis FODA: Actividad 2: Evaluar las fortalezas, debilidades, oportunidades y amenazas relacionadas con el turismo en Nuevo Colón. Aplicar un análisis FODA participativo con la comunidad y stakeholders relevantes para identificar los factores internos y externos que afectarán el proyecto. Al implementar herramientas de calidad, mejorara las áreas de oportunidad en la operación en el municipio de Nuevo Colon, por lo que se realizó un análisis FODA (fortalezas, oportunidades, debilidades y amenazas). El análisis FODA participativo ha permitido identificar los factores internos y externos que afectarán el proyecto de desarrollo del sistema de información turístico del municipio de Nuevo Colón. Este análisis proporciona una base sólida para la planificación y la toma de decisiones estratégicas, asegurando que el proyecto aproveche las fortalezas y oportunidades mientras aborda las debilidades y amenazas de manera efectiva. Fase 2: Definición de Requisitos Especificación de Requisitos Funcionales y No Funcionales: Actividad 1: Identificar las funcionalidades clave del sistema (búsqueda de información, mapas interactivos, calendario de eventos), Definiendo los requisitos técnicos, como la capacidad de respuesta, seguridad y escalabilidad del sistema. Diseño Conceptual: Actividad 2: Crear diagramas de flujo de datos y modelos de entidad-relación para visualizar la estructura del sistema utilizando técnicas de análisis y diseño de sistemas de Kendall y Kendall para desarrollar modelos conceptuales detallados. Fase 3: Diseño del Sistema Actividad 1: Definir la arquitectura del sistema, incluyendo bases de datos, interfaces de usuario y componentes de red. Para realizarlo se debe seguir los principios de Pressman para diseñar una arquitectura robusta y escalable. Actividad 2: Desarrollar prototipos de la plataforma web y móvil para validar el diseño y obtener retroalimentación de los usuarios, utilizando herramientas de prototipado rápido para crear versiones preliminares del sistema y realizar pruebas de usabilidad. Fase 4: Implementación Actividad 1: Codificar y construir el sistema de información turístico basado en los diseños aprobados, aplicando metodologías ágiles (e.g., Scrum, Extreme Programming) para el desarrollo iterativo e incremental del sistema. Fase 5: Capacitación y Lanzamiento Actividad: Ofrecer sesiones de capacitación para los operadores turísticos, autoridades municipales y otros usuarios clave sobre el uso del sistema, desarrollando manuales de usuario y sesiones de capacitación para asegurar que los usuarios finales puedan utilizar el sistema de manera efectiva. Actividad 2: Desarrollar una estrategia de comunicación para promocionar el lanzamiento del sistema entre turistas y la comunidad local, implementando una campaña de marketing para promover el sistema entre turistas y residentes.  


CONCLUSIONES

El proyecto para desarrollar un sistema de información turístico integral en el municipio de Nuevo Colón ha avanzado significativamente gracias a la realización de un análisis y diagnóstico exhaustivo del entorno turístico local. Este proceso ha incluido la elaboración de un acta de constitución del proyecto y un plan de gestión del alcance, así como la ejecución de un análisis FODA participativo con la comunidad y stakeholders relevantes. Estas acciones han permitido identificar y evaluar las fortalezas, debilidades, oportunidades y amenazas relacionadas con el turismo en el municipio. Progresos Realizados:   Acta de Constitución del Proyecto: Se ha establecido una visión clara y objetivos definidos para el desarrollo del sistema de información turístico integral. Plan de Gestión del Alcance: Se han delineado los entregables del proyecto y se han especificado las actividades necesarias para su realización. Análisis FODA Participativo: La participación activa de la comunidad y stakeholders ha proporcionado una comprensión profunda de los factores internos y externos que afectan el proyecto.    
Garcia Zaragoza Jennifer Montserrat, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia

EFECTO DE LA AMPLITUD DE OSCILACIóN EN EL PROCESO DE SOLDADURA LASER SOBRE LA PENETRACIóN EN UNA ALEACIóN AA6061 Y PROCESOS DE CORTES EN MATERIALES.


EFECTO DE LA AMPLITUD DE OSCILACIóN EN EL PROCESO DE SOLDADURA LASER SOBRE LA PENETRACIóN EN UNA ALEACIóN AA6061 Y PROCESOS DE CORTES EN MATERIALES.

Garcia Zaragoza Jennifer Montserrat, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

EFECTO DE LA AMPLITUD DE OSCILACIÓN EN EL PROCESO DE SOLDADURA LASER SOBRE LA PENETRACIÓN EN UNA ALEACIÓN AA6061 Y PROCESOS DE CORTES EN MATERIALES. Efecto de la amplitud de oscilación en el proceso de soldadura laser sobre la penetración en una aleación aa6061 Wobble 0.1



METODOLOGÍA

Empezamos a trabajar con 16 placas de aluminio previamente cortadas, en las cuales posteriormente fuimos trabajando. 1.- Primero pulimos las piezas para quitar la humedad de la superficie de la pieza. 2.- Posteriormente pasamos al proceso de la soldadura a laser, en el cual se tuvo que estar revisando varios parámetros de acuerdo a lo establecido en el modelo de proyectos, modificando su frecuencia, velocidad y wobble de cada corrida (cada palca de aluminio), en las cuales 8 de las placas fueron trabajadas con un wobble de 0.1. 3.- Después pasamos al proceso de cortar las placas de aluminio con la cortadora en secciones pequeñas en donde solo se dejaba la parte de en medio del cordón ya que era la parte continua del proceso, dejando seccionado el material el tres partes: la parte de keyhole, la parte central del cordón y el extremo donde terminaba la corrida del láser. Una vez ya cortada de esta forma el material, pasamos a cortar la parte de la pieza que solo tenia el cordón con una segueta, para después montarlo en baquelita. 4.- Después pasamos al proceso de desbaste el cual tenía como objetivo dejar la superficie del material sin imperfección, utilizando lijas de 120 a 2000; en el proceso de desbaste se estuvo cambiando la orientación de la pieza conforme cambiaba la lija para poder tener el resultado que se necesitaba. Una vez que acabamos con las lijas, pasamos a pulir con alúmina. Posteriormente pasamos a atacar con Tuvkers de aluminio durante 10 segundos para poder ver el cordón. 5.-Finalmente pasamos a observar con el microscopio la estructura del material ya atacado con aumentos de 10x, 20x y 50x; lo que se percibió después de atacar las piezas fue que los cordones trabajados con el wobble de 0.1 tenían una forma en V y los cordones se veían menos anchos que los trabajados con un wobble de 2.5. Procesos de corte en los materiales Oxicorte: El proceso del oxicorte consta de cortar piezas por medio de oxígeno y gas, existen diferentes tipos de oxicorte, esto depende del tipo de gas que se vaya a utilizar pero en este caso se trabajó con oxiacetilénica. Una limitante de este proceso es que solo se puede llevar a cabo en materiales que se oxiden. 1.- Colocamos el EPP (Equipo de protección personal), el cual consta de una careta, camisola, botas y guantes, para evitar que en el proceso del corte, la persona salga herida o lastimada. 2.- Primero regulamos la llama mediante el flujo de los gases, a manera que tomara un color azul. 3.- Después eliminamos la humedad del material a cortar, con la misma llama para poder realizar el corte de una mejor forma. 4.- Una vez realizado esto, se empieza a cortar la pieza teniendo en cuenta que la llama debe estar lo suficientemente cerca del material para poder cortar de forma correcta pero no tan cerca porque la flama se ahoga y se tiene que repetir el proceso de regular la flama. Una vez iniciado el corte se debe regular la velocidad en la cual el operador lo va ejecutando, ya que si va mu rápido solo separa un corte superficial sin llegar a que la flama penetre bien el material haciendo que el corte no se realice.   El resultado que se obtiene de este corte dependerá del pulso del operador.   Arcair: Técnica utilizada para cortar metales conductores por medio de un ptente chorro de aire a presión barre el material fundido de la zona de corte. Las herramientas que se usan son: Fuente de alimentación de corriente continua, electrodo de grafito, suministro de gas (aire comprimido), porta electrodos y EPP. Principios del corte: Electrodo de grafito actúa como un conductor de corriente. El calor generado por la corriente funde el metal. El metal fundido es removido por un chorro de gas (aire a presión). Procedimiento: Preparación del equipo y el material. Configuración de parámetros de la corriente de gas. Realización del corte siguiendo las medidas de precaución.  El electrodo está revestido con cobre para evitar que se sobrecaliente el grafito al momento de hacer el corte. Plasma: Proceso industrial que utiliza un soplete de plasma para cortar metales conductores de electricidad y otros materiales. El sistema utiliza un generador de alta frecuencia para ionizar un gas a alta temperatura y crear un arco de plasma que derrite el metal y expulsa el material fundido con un chorro de gas ionizado de alta velocidad. El arco de plasma corta la pieza de trabajo, primero derritiéndola y, luego, expulsando el metal fundido. 1.-Primero, en este proceso fue prender el compresor con el que contamos para crear la corriente del plasma.   2.-Después ya que nos colocamos los guantes especializados, tomamos el soplete el cual es la parte del equipo de corte por plasma que realmente entra en contacto con el metal que se está cortando. Incluye el electrodo, la boquilla, el anillo giratorio o un solo cartucho. Con esto manipularemos para realizar el corte a considerar.   SAW Es un proceso de soldadura semiautomatizado en el cual consta de una maquinaria con un brazo en el cual está cargado el electrodo, en esta maquinaria se pueden modificar los diferentes parámetros por medio de una caja de interfaz donde se pueden modificar los siguientes aspectos: JOG Voltaje Amperaje Dirección de alimentación del electrodo Polaridad del electrodo Pre-Heating Post-Heating Tiempos de proceso También consta de un control en el cual se pueden modificar lo siguiente: Velocidad Orientación en su eje X Orientación en su eje Z Se localiza el botón de apagado de emergencia Esta maquina de soldadura tiene movimiento en sus 3 ejes (x, y y z), en los cuales los ejes X y Z se controlan mediante el control y su eje Y se manipula directamente de un costado del brazo, haciendo que sea más precisa su ubicación al momento de empezar a operar.


CONCLUSIONES

Los parámetros a modificar para cada cordón a realizar, dependerá del sistema de modelos de proyectos que el operador haya establecido según las características que desee en cada uno de sus cordones, haciendo posible que haya un cambio total con el simple hecho de modificar solamente uno parámetro entre cordón.
Garduño León Victor Hugo, Instituto Tecnológico de Morelia
Asesor: Mg. Eliana Maria Noriega Noriega Angarita, Universidad de la Costa

ANALISIS BIBLIOGRAFICO DE LA CALIDAD DE LA POTENCIA ELECTRICA EN SISTEMAS ELECTRICOS INDUSTRIALES


ANALISIS BIBLIOGRAFICO DE LA CALIDAD DE LA POTENCIA ELECTRICA EN SISTEMAS ELECTRICOS INDUSTRIALES

García Garcia Endy, Instituto Tecnológico de Morelia. Garduño León Victor Hugo, Instituto Tecnológico de Morelia. Hernández Tomas Johan Manuel, Instituto Tecnológico de Morelia. Rivera Ramos Jose Angel, Instituto Tecnológico de Tepic. Solorio Aguila Edgar Jair, Instituto Tecnológico de Morelia. Asesor: Mg. Eliana Maria Noriega Noriega Angarita, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

En los últimos 15 años, el aumento de cargas no lineales en sistemas eléctricos de potencia (SEP) e industriales (SEI) ha generado preocupación por problemas de calidad de la potencia eléctrica que afectan a los usuarios finales [1]. El sector industrial, que representa el 37% del consumo global de energía eléctrica [3], ha incrementado el uso de equipos electrónicos para la automatización de procesos. Aunque existen estudios bibliométricos sobre calidad de la potencia eléctrica en diferentes sectores [5], [6], [7], no se han realizado estudios específicos para el sector industrial, crucial por el uso intensivo de equipos electrónicos que aumentan los problemas de calidad de la potencia eléctrica.



METODOLOGÍA

Paso 1. Selección de la base de datos: Para el análisis bibliométrico se seleccionó Scopus como la base de datos principal de búsqueda, dado su reconocimiento internacional y su amplia cobertura de literatura científica de alta calidad. Paso 2. Selección de palabras clave y construcción de la ecuación de búsqueda: Este paso consiste en identificar y seleccionar las palabras claves para la búsqueda de artículos científicos en la base de datos Scopus. Las palabras claves fueron: Power Quality, Harmonics, Voltage Sag, Voltage Swell, Flicker, Transients, Total Harmonic Distortion (THD), Power Quality Standards, Load Imbalance, Voltage Fluctuations, Energy Efficiency y Technical Standards. Para llevar a cabo la búsqueda y recopilación de información, se construyen ecuaciones de búsqueda utilizando combinaciones de estas palabras clave con Industrial Electrical Systems debido al contexto de la investigación. Se emplearon operadores lógicos (AND y OR). Las ecuaciones de búsqueda se ajustaron iterativamente para lograr un equilibrio óptimo entre la cantidad de artículos y su relevancia. Paso 3. Recopilación de artículos: Una vez seleccionada la base de datos y construida las ecuaciones de búsqueda, se procedió a realizar una búsqueda preliminar de artículos científicos. Los criterios para esta búsqueda preliminar incluyeron el título de los artículos y la cantidad de palabras claves en sus resúmenes. De esta primera búsqueda se obtuvieron 184 artículos. De estos 184 artículos recopilados, se aplicaron dos criterios adicionales para hacer un filtro de los estudios más relevantes. El periodo de publicación (2016 a 2024) y la relevancia del contenido, evaluando cada artículo en función a su adecuación a la temática del estudio. Como resultado, se seleccionaron 103 artículos considerados los más relevantes y pertinentes para el análisis. Paso 4. Análisis bibliométrico: Este paso consiste en realizar un análisis de los estudios recolectados utilizando para ello la herramienta VOSviewer. Los pasos que se llevaron a cabo para utilizar VOSviewer fueron los siguientes:1. Exportar la lista de los artículos seleccionados desde la base de datos Scopus en un formato adecuado; 2. Importar la lista de artículos al software VOSviewer; 3. En la pestaña de inicio del software, en la columna File, seleccionar la opción Create; 4. En la pestaña Choose type of data, seleccionar la opción Create a map based on bibliographic data. Esta opción permite crear mapas de coautoría, co-ocurrencia de palabras clave, citas, acoplamiento bibliográfico, o mapas de citas basados en datos bibliográficos; 5. En la pestaña Choose data source, seleccionar Read data from bibliographic database files y especificar el tipo de documentos que el software debe leer, como Web of Science, Scopus, Dimensions, o PubMed; 6. En la pestaña Select files, elegir el tipo de base de datos correspondiente al archivo; 7. Finalmente, en la pestaña Choose type of analysis and counting method, seleccionar el tipo de dato que se desea visualizar en el gráfico y hacer clic en "Finish".


CONCLUSIONES

En esta sección se presentan los resultados del análisis bibliométrico sobre la calidad de la potencia eléctrica en el sector industrial.Este análisis destaca la evolución de la investigación en calidad de la potencia eléctrica en el sector industrial, identificando las principales fuentes, autores, y colaboraciones que han contribuido significativamente al campo. A continuación, se detallan los resultados obtenidos del análisis realizado: Red de Fuentes de Información más Citadas: Journal of the International Measurement Confederation lidera con 71 citaciones, seguido de IEEE Access con 58 citaciones. Otras fuentes importantes incluyen IEEE Transactions on Instrumentation and Measurement, International Transactions on Electrical Energy Systems y Microprocessors and Microsystems. Red de Acoplamiento Bibliográfico por Autores: Autores como Baja M., Palanisamy R., Thentral T.M.T, y Usha S. son los más centrales en la red, indicando un alto número de citaciones y una fuerte interconexión con otros autores. Red de Acoplamiento Bibliográfico por Países: India destaca por su prominente posición en la red global de investigación, con muchas citaciones y colaboraciones internacionales. Otros países notables incluyen Arabia Saudita, Estados Unidos, Brasil, Egipto, Pakistán y Malasia. Red de Acoplamiento Bibliográfico de Organizaciones:Organizaciones como el Department of Electrical and Computer Engineering son influyentes y centrales en la red, indicando una fuerte colaboración y contribución en investigaciones conjuntas. Red de Co-ocurrencia de Palabras Clave: "Power Quality" es el término más central y relevante, con términos relacionados como "harmonic analysis", "total harmonic distortions (thd)", y "quality control" siendo también muy citados. Red de Co-citation de Fuentes Citadas: Energies, IEEE Trans Power Electron, y IEEE Access son las fuentes más citadas y relevantes en el campo.
Garduño Mateo Daniel, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle

SISTEMA PARA EL CONTROL DE COSTOS DE PRODUCTOS DE LA CANASTA FAMILIAR EN LOS HOGARES MEXICANOS CON APOYO DE HERRAMIENTAS DE ANÁLISIS E INTERPRETACIÓN DE DATOS


SISTEMA PARA EL CONTROL DE COSTOS DE PRODUCTOS DE LA CANASTA FAMILIAR EN LOS HOGARES MEXICANOS CON APOYO DE HERRAMIENTAS DE ANÁLISIS E INTERPRETACIÓN DE DATOS

Garduño Mateo Daniel, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

El problema que aborda es la necesidad de implementar un sistema de control de costos de la canasta familiar que requiere escanear facturas para obtener los precios de los productos, realizar operaciones estadísticas y funciones predictivas de costos. El desafío principal radica en utilizar el reconocimiento óptico de caracteres (OCR) de manera efectiva para extraer información precisa de las facturas escaneadas, incluyendo precios de productos y otros datos relevantes para el control de costos.



METODOLOGÍA

La metodología propuesta estaría enfocada en el desarrollo e implementación de un sistema de OCR adaptado a las necesidades específicas del control de costos de la canasta familiar. Esto incluiría la selección o desarrollo de algoritmos de reconocimiento óptico de caracteres, la evaluación de técnicas de preprocesamiento, segmentación y extracción de características para la identificación precisa de precios y otros datos relevantes en las facturas escaneadas. Además, se podría incluir la implementación de operaciones estadísticas y funciones predictivas de costos basadas en la información extraída.


CONCLUSIONES

Durante la estancia se revisaron diferentes aspectos muy importantes para poder comprender mejor lo que es la inteligencia artificial, así como su aplicación y el gran auge que esta teniendo en la actualidad. Para esto también nos adentramos en el mundo del Big Data y asi poder comprender como funciona, a partir de estas dos ramas de investigación se realizo el proyecto de investigación que consiste principalmente en obtener datos a partir de un análisis de imágenes y realizar la extracción de datos específicos para pasarlos a un archivo legible y así poder ser registrado en una base de datos. Este proyecto es para ayudar a las familias mexicanas, específicamente en el municipio de San Felipe del Progreso Estado de México a elegir o tener esa facilidad de poder saber en que lugar pueden realizar sus gastos de la canasta familiar para poder ahorrar en este aspecto tan importante.
Garduño Ramos Victor Andres, Instituto Tecnológico de Chihuahua II
Asesor: M.C. Ana Claudia Zenteno Vázquez, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE HERRAMIENTAS Y MéTODOS PARA PRUEBAS DE PENETRACIóN EN SERVIDORES WEB Y AUDITORíAS DE INGENIERíA SOCIAL.


ANáLISIS DE HERRAMIENTAS Y MéTODOS PARA PRUEBAS DE PENETRACIóN EN SERVIDORES WEB Y AUDITORíAS DE INGENIERíA SOCIAL.

Garduño Ramos Victor Andres, Instituto Tecnológico de Chihuahua II. Asesor: M.C. Ana Claudia Zenteno Vázquez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Dia a día nos encontramos con amenazas constantes, en la actualidad vivimos en un mundo digital donde toda nuestra información está en la palma de nuestra mano, para bien o para mal ya que somos propensos a ser víctimas de un ataque cibernético, por lo que estar a la vanguardia es necesario para saber cómo actuar ante los incidentes que se nos presenten, por lo que esta investigación se enfoca en presentar 3 herramientas con las cuales podrían llegar a atacarte los ciberdelincuentes a ti, o a un familiar, o a un sistema que utilices día con día, pero al igual que son herramientas maliciosas, también nos sirven como medios para realizar auditorías de seguridad a nuestros sistemas y obtener una retroalimentación y mejora continua de lo que nos rodea, siempre con el propósito de adquirir más información y ventajas para no caer en las manos de un ciberdelincuente. Al estar revisando este tipo de investigaciones, lo más importante es tener en mente a todas las personas que nos importan y rodean, ya que es información útil que nos permite saber que hacer en dado caso de sufrir un incidente y evitar caer en uno, por ello se eligieron los sitios web y la ingeniería social, que en el día a día nos rodean para realizar muchas funciones rutinarias y son los ataques que actualmente aún siguen y seguirán ocurriendo, por ello de su importancia.



METODOLOGÍA

La metodología implementada fue exploratoria, ya que se buscaba generar nuevo conocimiento a partir de diversas herramientas de ataques a servidores web y de ataques de ingeniería social en búsqueda de nuevas herramientas y de posibles problemas a la hora de usarlos, en base a esto se empezó al investigación, por medio de una búsqueda exhaustiva de herramientas y de una selección en base a las necesidades del momento, actualmente todo se encuentra en páginas/aplicaciones web, y todo el mundo tiene a su mano su correo para recibir información de todo tipo, por lo que en base a este modelo se decidió buscar las herramientas adecuadas para auditar y probar las vulnerabilidades que se podrían encontrar a la hora de desarrollar o utilizar estas aplicaciones, de esta forma se identificó el problema, se diseñó el proceso de investigación, se recopilo la información de fuentes confiables, se analizó la información y además de llevo a la práctica, para poder realizar interpretaciones y conclusiones en base a lo obtenido. De manera general, se implementaron 3 tecnologías o herramientas, metasploit, burpsuite y Zphisher, que son herramientas del momento y efectivas en cuanto a lo que se busca en la investigación, además se cuenta con la experiencia en su uso real para poder llegar a comprender el uso que podría darse en casos reales.


CONCLUSIONES

Sin duda, siendo actualmente un mundo digital debemos estar a la defensiva en todo momento, cualquier persona con intención o no podría abusar de las herramientas e información que se encuentra en internet y afectarnos de una forma u otra, por lo que estar a la vanguardia es algo que debería de preocuparnos, las herramientas presentadas son usadas a hoy día, y próximamente podrían actualizarse y evolucionar y causar mayores daños si se usan de forma maliciosa, o nos podrían brindar de aun más herramientas para auditar la postura de seguridad de un lugar pero eso dependerá de nosotros como futuros actores, por lo que se invita con esta investigación, a estar constantemente investigando aunque sean las bases de los peligros que surgen tanto en noticias como en artículos, nunca se sabrá cuando podamos ser propensos a sufrir un ataque sin saberlo y no estar preparados, las herramientas implementadas en esta investigación han sido usadas en casos reales de auditorías y han obtenido información sensible, son herramientas que sirven a su tiempo y que no deben de tomarse a la ligera, por lo que requerimos saber cómo funcionan, lo que se buscaría como trabajo futuro es realizar una guía precisa con casos "reales" de cómo usar estas herramientas pero para casos muy específicos, ya que regularmente y lo digo por experiencia, el hacking ético o pentesting es como el arte, cada persona puede obtener resultados diferentes y con técnicas diferentes, por lo que realizar guías de uso precisas de estas herramientas, nos puede abrir un más el panorama y hay pocos de estos artículos circulando en internet.
Garduño Sanchez Aaron, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mg. Yulieth Vanessa Palomino Perez, Corporación Politécnico de la Costa Atlántica

INNOVACIóN Y SOSTENIBILIDAD. UN ANáLISIS EXHAUSTIVO DE LA GESTIóN DE RESIDUOS EN CIUDADES INTELIGENTES.


INNOVACIóN Y SOSTENIBILIDAD. UN ANáLISIS EXHAUSTIVO DE LA GESTIóN DE RESIDUOS EN CIUDADES INTELIGENTES.

Garduño Sanchez Aaron, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Yulieth Vanessa Palomino Perez, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

Ante el aumento de la urbanización y la importancia de ser sostenibles, las ciudades inteligentes se presentan como una respuesta innovadora que combina tecnologías avanzadas para potenciar el bienestar de los ciudadanos. Dado que mantener ciudades limpias y reducir el impacto ambiental es fundamental, la gestión de residuos se convierte en un elemento crítico en este contexto, ya que garantiza una recolección eficiente, procesamiento adecuado y eliminación responsable de los desechos. La gestión de residuos urbanos plantea desafíos importantes, como el Internet de las Cosas (IoT). Aunque existen estos desafíos, el potencial de estas tecnologías para mejorar la gestión de residuos es enorme, brindando soluciones como la monitorización en tiempo real de los contenedores, la optimización de las rutas de recogida y una mejoría en la clasificación y reutilización de materiales. No obstante, la adopción y efectividad de estas tecnologías en las ciudades inteligentes se ven limitadas por la ausencia de un marco consolidado que aborde los facilitadores, barreras y mejores prácticas para su implementación. En consecuencia, el propósito de esta revisión sistemática es investigar y examinar las pruebas disponibles en relación a la implementación de tecnologías relacionadas con las Ciudades Inteligentes en la Gestión de Residuos donde se busca identificar los elementos fundamentales que pueden promover o dificultar su aplicación, además de las posibilidades y desafíos presentes en diversos entornos urbanos tanto de desarrollo.



METODOLOGÍA

La metodología empleada en este artículo fue la utilización de base de datos académicas reconocidas como Scopus, SciencieDirect y Google Académico, y herramientas de análisis de datos como RStudio en conjunto con Mendeley para llevar a cabo esta revisión bibliométrica se describe a continuación la ecuación de búsqueda, de los criterios de inclusión y exclusión, y el procedimiento de selección de los estudios más relevantes. La ecuación de búsqueda fue diseñada para abarcar términos relacionados con la gestión de residuos y ciudades inteligentes. La ecuación de búsqueda utilizada en Scopus, SciencieDirect y Google Académico fue la siguiente: ("waste management") AND ("Smart cities") AND ("Technology") AND ("Internet of things")  Para asegurar la relevancia y calidad de los estudios seleccionados, se definieron criterios específicos de inclusión y exclusión.  Criterios de Inclusión:  Publicaciones en revistas científicas.  Estudios publicados en inglés y español.  Trabajos publicados en los últimos 3 años (2021-2024).  Artículos que aborden la integración de tecnología en la gestión de residuos dentro del contexto de ciudades inteligentes.  Criterios de Exclusión:  Artículos no revisados por pares.  Estudios que no se centran específicamente en la gestión de residuos en Ciudades Inteligentes.  Publicaciones anteriores a 2020.  Documentos duplicados o versiones preliminares de trabajos.  El proceso de búsqueda y selección de estudios se separó en múltiples fases sistemáticas. En primer lugar, se llevó a cabo un exhaustivo examen en Scopus y Google Académico utilizando una ecuación de búsqueda precisa. Luego, las referencias obtenidas fueron organizadas en Mendeley para eliminar cualquier duplicado que pudiera existir. Posteriormente, se examinaron los títulos y resúmenes de los artículos con el fin de aplicar criterios que permitieran determinar su inclusión o exclusión, rechazando aquellos que no cumplían con los requisitos. Se evaluaron todos los estudios seleccionados en su totalidad para determinar tanto su calidad metodológica como relevancia, dejando de lado aquellos que no cumplían con los estándares. Después, procedimos a utilizar RStudio para llevar a cabo un análisis cuantitativo y cualitativo de los datos obtenidos. Durante este análisis, se pudieron identificar las tendencias de publicación sobre la gestión de residuos en ciudades inteligentes, así como también las áreas temáticas más relevantes y los autores con mayor influencia en el. Al finalizar, se lograron desarrollar visualizaciones bibliométricas exhaustivas y se elaboró un informe completo que expone los principales descubrimientos y su relevancia para la gestión de residuos utilizando IoT, además de sugerir posibles áreas de investigación futura basadas en las tendencias identificadas.


CONCLUSIONES

Durante la estancia de verano de investigación cabe recalcar que se logró adquirir conocimientos teóricos de Investigación que se lograron  llevar a la práctica por medio de un análisis sistemático utilizando herramientas para recopilación y revisión de información acerca de las Ciudades Inteligentes el cual consiste mostrar resultados específicos de suma relevancia en el entorno ambiental y social, sin embargo, al ser un extenso trabajo aún se encuentra en la fase de revisión de literatura e implementación de posibles líneas o ejes temáticos acerca de las Tecnologías de Sensores y IoT (Internet de las Cosas) enfocado al Desarrollo y uso de  Plataformas Digitales para la Gestión Integral de Residuos mediante la Sostenibilidad y Economía Circular promoviendo estrategias para promover la reducción, reutilización y reciclaje de residuos en conjunto con el Impacto Ambiental y Social con casos de estudio que demuestren la mejora de la calidad de vida a través de una Gestión Inteligente de Residuos mostrando los Desafíos y Oportunidades Futuras que busca explorar y analizar el papel de las tecnologías emergentes para el desarrollo de Ciudades y territorios inteligentes, con propuestas enfocadas en la gestión de residuos, logística y cadenas de suministro que tengan como finalidad mejorar la calidad de vida de los ciudadanos.
Garibay Navarrete Evelin Anet, Universidad Autónoma de Guerrero
Asesor: Dra. Ariadna Trujillo Estrada, Universidad Autónoma del Estado de Hidalgo

CASCARON DE HUEVO COMO AGREGADO AL CONCRETO


CASCARON DE HUEVO COMO AGREGADO AL CONCRETO

Garibay Navarrete Evelin Anet, Universidad Autónoma de Guerrero. Asesor: Dra. Ariadna Trujillo Estrada, Universidad Autónoma del Estado de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

USO DE SUBPRODUCTOS COMO AGREGADO AL CONCRETO. INTRODUCCIÓN Actualmente el uso del cemento y los agregados naturales se han incrementado drásticamente, debido a la sobrepoblación que existe de manera acelerada, lo que ha causado un gran impacto ambiental y sobreexplotación de las minas lo que ha generado extinción de las mismas. Además, la generación de los residuos de la industria agroalimentaria de cascaron de huevo, se ha incrementado de manera exponencial. En este trabajo se utiliza cascaron de huevo como agregado al concreto para evitar los agregados naturales y así evitar que los residuos de cascaron de huevo lleguen a los vertederos y sean un foco de contaminación. ANTECEDENTES   El consumo de gallus gallus domesticus a nivel mundial difiere para cada región, ya que en algunos países como Irán no se tiene conocimiento de ello, sin embargo, se tiene reporte del uso los subproductos agroalimentarios con potencial de uso para la industria de la construcción, el país con mayor interés en ocupar cascaron de huevo de gallus gallus domesticus es Perú siendo el  consumo de dicho producto durante el 2022 (242 unidades) al año por cada peruano consumió 1 huevo diario, el 67% de los días del año anterior, aunque no es el país que más consume huevo es donde más estudios hay sobre cómo ocupar el cascarón de huevo como agregado al concreto, México es el país que más consumen gallus gallus domesticus Actualmente en México se consumen más de 23 kilos de huevo por persona al año, lo que equivale a 392 unidades aproximadamente, es decir más de un huevo al día. Figura 1. Numero de artículos publicados a partir de 1961 para uso de cascaron de huevo En la figura 1 se presentan los artículos publicados a partir de 1961 y hasta nuestros días del uso de cascaron de huevo como agregado al concreto. El proceso que se lleva a cabo para utilizar el cascaron de huevo como agregado al concreto es primero triturarlo como lo plasma (Henry J. Woman, 1961) ya que evita que se formen porosidades más grandes en el concreto. Tres décadas después se reporta (Chapter, 1990) y el tratamiento al que somete el cascaron de huevo aparte de triturarlo es calcinarlo a una temperatura 700°C; sin embargo, del año 2010 al 2018 se registra poca actividad en la utilización de cascaron de huevo como agregado; es hasta 2019 que se obtiene un mayor incremento en la cantidad de estudios donde se ocupa el cascaron de huevo como agregado probablemente debido al incremento de consumo del mismo a nivel mundial. Figura 2: País de origen de acuerdo a los artículos publicados de cascaron de huevo En Brasil se registra el Primer estudio donde se ocupa el cascarón de huevo como agregado en el  año 1961, sin embargo, solo hay un estudio en dicho país, el país con mayor interés en ocupar el cascarón de huevo es Perú aunque no hay información concreta  de los motivos sabemos que Consumo en Perú: Durante el 2022 se consumieron en el Perú 15.2 kg (242 unidades) de huevo, lo que equivale a señalar que cada peruano consumió 1 huevo diario, el 67% de los días del año anterior, aunque no es el país que más consume huevo es donde más estudios hay sobre cómo ocupar el cascarón de huevo como agregado al concreto , México  es el país que más consumen  huevo Actualmente en México se consumen más de 23 kilos de huevo por persona al año, lo que equivale a 392 unidades aproximadamente, es decir más de un huevo al día.



METODOLOGÍA

METODOLOGIA Al ser un subproducto de la industria agroalimentaria el cascaron de gallus gallus domesticus tiene un potencial uso en la industria de la construcción, que puede utilizarse para reemplazar los agregados naturales al cemento, para producir un concreto amigable con el ambiente ya que deja de consumir los agregados naturales que generalmente se usan. El uso de este subproducto se obtiene de panaderías y hogares cercaos a nuestra casa de estudios. Una vez recolectado se pone a secar con luz Uv-visible para evitar que cuando se procese mecánicamente las partículas se adhieran una a otras.Se procesa mecánicamente en un dispositivo de triturado y después se tamiza en mallas del No. 30 para obtener granulometría de 0.54mm. Se pesan en una báscula ELECTRONIC KITCHEN SCALE modelo: EK5450, las dosificaciones del porcentaje del gallus gallus domesticus como agregado son:10% ,20% ,30% ,40% ,50%,60% y 70%, de la misma manera se pesa el cemento a utilizar: primero se homogeniza el cemento con el agregado de gallus gallus domesticus después se vierte el agua hasta obtener una consistencia pastosa, y al final se vacía en los moldes para que el cemento fragüe, las probetas se ensayaron a 7,14,21 y 28 días para comparar el tiempo de fraguado y la resistencia a la compresión de las mismas. Las pruebas de porosidad se hicieron de acuerdo la norma C20 − 00 (2010), que primero se pesan las probetas en seco, después se colocan en agua a hervir durante dos horas y posterior se pesan, para obtener la porosidad de las mismas.


CONCLUSIONES

RESULTADOS Y CONCLUSIONES POROSIDAD La porosidad se refiere al total de huecos o espacios vacíos en el material compuesto. Medición de la Porosidad: Existen diversas técnicas para medir la porosidad del concreto, como la adsorción del vapor de gas, la observación directa por microscopio y la absorción de agua. Efectos en la Resistencia: La porosidad influye en la resistencia del concreto. A mayor porosidad, menor resistencia. Pruebas de absorción superficial y permeabilidad ayudan a evaluar la porosidad y la durabilidad. Figura 3: Porcentaje de porosidad con respecto al porcentaje de agregado de cascaron de huevo. Se observa en la figura 3 la gráfica de porosidad respecto al agregado de cascaron de huevo al concreto.                                                  PRUEBAS DE COMPRESIÓN Se observa la grafica de resistencia a la compresión respecto al agregado En general podemos observar en la gráfica que mientras más días tenga el concreto de Fraguado se obtiene una mejor resistencia a la compresión esto puede ser debido a las propiedades que adquiere el concreto con el tiempo.
Garnica López Jocelin Guadalupe, Instituto Tecnológico de Tepic
Asesor: Dr. José Antonio Perez Pimienta, Universidad Autónoma de Nayarit

PRETRATAMIENTO DEL BAGAZO DE AGAVE CON LíQUIDO IóNICO PARA LA SEPARACIóN DE LIGNINA.


PRETRATAMIENTO DEL BAGAZO DE AGAVE CON LíQUIDO IóNICO PARA LA SEPARACIóN DE LIGNINA.

Garnica López Jocelin Guadalupe, Instituto Tecnológico de Tepic. Hernández Durán Kenya Nayve, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. José Antonio Perez Pimienta, Universidad Autónoma de Nayarit



PLANTEAMIENTO DEL PROBLEMA

En los últimos años se han buscado alternativas sustentables para la producción de combustibles que sustituyan el uso de combustibles fósiles provenientes de recursos no renovables, principalmente. El aprovechamiento de residuos de índole alimentaria ha significado una respuesta a dicha búsqueda, ya que es conocido que dicha industria genera grandes cantidades de desechos, los cuales suelen tener un destino inespecífico, siendo la mayoría de las veces fuentes de contaminación, puesto que solo son desechados sin dárseles un tratamiento. Por esta razón en este proyecto de investigación se busca aprovechar los residuos que se generan de la producción de tequila como lo es el bagazo de agave, del cual se pretende obtener biocombustibles como el gas metano y etanol, los cuales pueden ser usados para la cocción de las piñas de agave o calentamiento de calderas, procesos necesarios para la producción del tequila. El agave azul (Agave tequilana Weber) es una planta que se cultiva extensamente en México, siendo su principal zona de cultivo los estados de Nayarit y Jalisco ya que es la materia prima para la producción de la bebida alcohólica denominada tequila. El bagazo es la fibra residual que se obtiene después del proceso de producción de tequila. Este residuo representa aproximadamente el 40% del peso total de agave procesado y en 2023 se generan alrededor de 891.2 ton de este residuo (Saucedo-Luna et al., 2011).    La producción de biocombustibles a partir de biomasa es un proceso que ha cobrado relevancia en la actualidad, siendo la etapa de pretratamiento de los residuos o biomasa un paso crucial para obtener mayores rendimientos, y por ende un mejor aprovechamiento.  The goal of the pretreatment process is to break down the lignin structure and disrupt the crystalline structure of cellulose, so that the acids or enzymes can easily access and hydrolyze the cellulose. Pretreatment can be the most expensive process in biomass-to-fuels conversion but it has great potential for improvements in efficiency and lowering of costs through further research and development (Alvira et al., 2010).     En este trabajo se evaluaron las condiciones óptimas para el pretratamiento de la biomasa celulósica seleccionada: el bagazo de agave; dicho pretratamiento consiste en retirar la lignina de la celulosa para separar las fibras de la celulosa puesto que esta le otorga la rigidez a las fibras lo cual dificulta disminuye el área de contacto disponible (Pérez Pimienta et al., 2022).



METODOLOGÍA

Calibración del equipo instrumental  Se calibraron las balanzas analíticas que serían utilizadas tanto para la síntesis del líquido iónico como para el pretratamiento.   Síntesis del líquido iónico   El acetato de etanolamina se sintetizó en un reactor de vidrio a partir de una reacción de neutralización ácido-base, empleando monoetanolamina con una pureza del 99% p/v y ácido acético glacial de acuerdo a un procedimiento descrito previamente en la literatura (Álvarez et al., 2010). Pretratamiento del bagazo de agave  Posterior al tratamiento de la materia prima (secado y molienda) se realiza un pretratamiento térmico y químico para retirar la lignina, el cual consiste tratar con liquido iónico en una proporción de 80% liquido 20% materia seca (biomasa), en cuatro  intervalos de 45 minutos se somete a un tratamiento térmico en horno a una temperatura de 160 grados centígrados, entre estos intervalos de tiempo es necesario realizar un mezclado, pero para esto es necesario portar el equipo de seguridad como lo es una mascara de gases y lentes ya que la reacción desprende gases ácidos los cuales al ser inhalados resultan tóxicos, por lo que además se requiere de una buena ventilación, una vez finalizados los cuatro intervalos se procede a lavar con agua destilada con la finalidad de detener la reacción, posteriormente se realizan cuatro lavados con agua de la llave y uno con agua destilada, en estos lavados se hace uso de un mezclador y una prensa con la finalidad de retirar la mayor cantidad de lignina posible, finalmente se hornea durante un periodo de 48 horas a una temperatura de 45 grados para retirar cualquier resto de agua y finalmente se realiza una molienda para obtener un tamaño de partícula pequeño, puesto que a menor tamaño de partícula se tiene una mayor área de contacto y por ende un mayor rendimiento.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos experimentales con el tratamiento térmico y químico para la eliminación de lignina de la biomasa celulósica de estudio, con el propósito de obtener biocombustibles a condiciones ambientales. Debido a que es un proyecto extenso solamente participamos en la parte experimental de la primera etapa del proyecto de investigación que es el pretratamiento de la materia lignocelulósica. Faltan los resultados de la evaluación del pretratamiento y de la caracterización del biocombustible obtenido.  
Garzon Ramirez Maria Isabel, Universidad Nacional Abierta y a Distancia
Asesor: Dr. Alejandro Padilla Díaz, Universidad Autónoma de Aguascalientes

INTERFAZ DE POWER BI Y PYTHON


INTERFAZ DE POWER BI Y PYTHON

Garzon Ramirez Maria Isabel, Universidad Nacional Abierta y a Distancia. Tapias Baena Ana Elizabeth, Universidad Nacional Abierta y a Distancia. Asesor: Dr. Alejandro Padilla Díaz, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

La interfaz del Power Bi es muy fácil de manejar, ya que es muy parecida a varias de las aplicaciones normales como Office y es necesaria ya que Power BI es una herramienta poderosa que, cuando se maneja adecuadamente, puede ayudar a las organizaciones a tomar decisiones informadas a partir de sus datos.



METODOLOGÍA

En power bi encontraremos las siguientes consideraciones importantes para hacer la practica:  Caso de estudio Utilidad= ganancias (ingresos - Gastos) Margen= % Proporción de utilidad respecto a ingresos (Utilidad/Ingresos) y la metodologia usada fue la de investigacion y aplicación de los conocimientos adquiridos, partiendo desde el material necesario para el desarrollo de todo la estancia en el programa delfin. 


CONCLUSIONES

Componentes Principales de Power BI: Power BI Desktop: Aplicación de escritorio para la creación de informes y visualizaciones. Soporta conectividad a múltiples fuentes de datos. Power BI Service: Plataforma en la nube donde se publican y comparten los informes creados en Power BI Desktop. Power BI Mobile: Aplicación para dispositivos móviles que permite visualizar informes y paneles en cualquier lugar. Power BI Report Server: Solución local para almacenar y gestionar informes de Power BI. Proceso de Manejo de Power BI: Conexión a Fuentes de Datos: Conectar a diversas fuentes como bases de datos, archivos Excel, servicios en la nube, y más. Importar los datos o establecer una conexión en directo. Transformación de Datos: Usar el Editor de Consultas para limpiar y transformar los datos mediante Power Query. Realizar operaciones como eliminar columnas, filtrar filas, agregar datos, etc. Modelado de Datos: Crear relaciones entre diferentes tablas para permitir el análisis multidimensional. Configurar medidas y columnas calculadas utilizando DAX (Data Analysis Expressions). Creación de Visualizaciones: Usar diferentes tipos de gráficos (barras, líneas, mapas, tablas, etc.) para representar los datos. Personalizar visualizaciones con formatos, colores y estilos. Diseño de Informes: Organizar visualizaciones en páginas de informes. Añadir elementos como filtros, segmentaciones y botones para interactividad. Publicación y Compartición: Publicar informes en Power BI Service para compartirlos con otros usuarios. Configurar permisos y roles para el acceso a los datos. Actualización de Datos: Programar actualizaciones automáticas para mantener los datos actualizados en el servicio. Usar gateways de datos si es necesario para conectarse a fuentes locales. Creación de Dashboards: Combinar visualizaciones de diferentes informes en un solo panel de control. Usar "tiles" para mostrar métricas clave y permitir interactividad. Consejos Adicionales: Usar DAX para establecer cálculos y agregar lógica en las visualizaciones. Explorar Plantillas: Power BI ofrece plantillas predefinidas que pueden ser personalizadas según las necesidades. Capacitación y Comunidad: Participar en foros, webinars y cursos para aprender sobre las mejores prácticas y nuevas funcionalidades. Power BI es una herramienta poderosa que, cuando se maneja adecuadamente, puede ayudar a las organizaciones a tomar decisiones informadas a partir de sus datos.     PYTHON Python es un lenguaje sencillo de leer y escribir debido a su alta similitud con el lenguaje humano. Además, se trata de un lenguaje multiplataforma de código abierto y, por lo tanto, gratuito, lo que permite desarrollar software sin límites.   Características de Python:   • -Fue creado por Guido Van Rossum a comienzos de los 90s • -Es un lenguaje de alto nivel contiene gramática sencilla, clara y muy legible. • -El lenguaje es tipado, dinámico y fuerte. • -El lenguaje está orientado a objetos. • -Es fácil de aprender y muy legible también. • -Librería estándar muy amplia. • -Es versátil. • -Su logo es parecido al Jing y el Jang.   Primeros pasos en Python:   • La identación: • La identación es para identificar en donde es cada línea de código para saber esto podemos usar la tecla de tabular. • Para poder saber más a profundo de esto vamos con una sintaxis básica.
Garzon Toro Julian Camilo, Universidad Autónoma de Occidente
Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato

DESARROLLO DE EXPERIENCIA EN REALIDAD VIRTUAL (VR) PARA LA DIFUSIóN DE INFORMACIóN SOBRE LA BIODIVERSIDAD DE SANTIAGO DE CALI.


DESARROLLO DE EXPERIENCIA EN REALIDAD VIRTUAL (VR) PARA LA DIFUSIóN DE INFORMACIóN SOBRE LA BIODIVERSIDAD DE SANTIAGO DE CALI.

Garzon Toro Julian Camilo, Universidad Autónoma de Occidente. Zorrilla Murillo Isabel Cristina, Universidad Autónoma de Occidente. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Desarrollo de experiencia en realidad virtual (VR) para la difusión de información sobre la biodiversidad de Santiago de Cali. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato. Estudiantes: Julian Camilo Garzón Toro e Isabel Cristina Zorrilla Murillo, Universidad Autónoma de Occidente, Santiago de Cali. Planteamiento del problema Cali, conocida como la "Sucursal del Cielo", y Colombia, con su vasto y diverso ecosistema, albergan una extraordinaria variedad de aves. Estas aves no solo son un tesoro natural sino también un componente vital de nuestros ecosistemas, desempeñando roles esenciales en la polinización, control de plagas y dispersión de semillas. Sin embargo, enfrentan amenazas constantes debido a la urbanización, deforestación y cambio climático. Objetivos del proyecto El principal objetivo de este proyecto de RV es resaltar la riqueza natural de Cali y Colombia, promoviendo la conciencia y la protección de las aves y sus hábitats. A través de una experiencia interactiva y educativa, buscamos: Educar y Sensibilizar: Proporcionar a los usuarios conocimientos sobre las diversas especies de aves que habitan en la región, su importancia ecológica y las amenazas que enfrentan. Fomentar la Conservación: Inspirar a la comunidad a participar activamente en la conservación de las aves y sus hábitats mediante acciones concretas y sostenibles. Promover el Patrimonio Natural: Valorizar la biodiversidad local como parte del patrimonio natural de Cali y Colombia, generando un sentido de orgullo y responsabilidad en su preservación. En la era de la tecnología y la información, la preservación del patrimonio natural se ha convertido en un desafío crucial para las sociedades contemporáneas. En este contexto, la Realidad Virtual (RV) emerge como una herramienta innovadora para fomentar la conciencia y la educación ambiental. Nuestro proyecto de RV, centrado en la ciudad de Cali y el país Colombia, busca contribuir a la Meta 11.4 del Objetivo de Desarrollo Sostenible 11 (ODS 11), la cual se enfoca en redoblar los esfuerzos para proteger y salvaguardar el patrimonio cultural y natural del mundo.



METODOLOGÍA

Metodología Para llevar a cabo nuestro proyecto de investigación, inicialmente nos enfocamos en profundizar nuestro entendimiento sobre la historia de la computación gráfica y la evolución de la realidad virtual y aumentada. Este proceso incluyó la participación en asesorías virtuales con el Dr. Luis Armado Garcia, lo cual nos permitió adquirir conocimientos fundamentales sobre estas tecnologías emergentes. Una vez adquirida esta base teórica, comenzamos a aplicar los conocimientos adquiridos mediante ejercicios prácticos de programación web utilizando HTML y A-Frame. Esta etapa práctica fue esencial para consolidar nuestras habilidades y prepararnos para el desarrollo de nuestro proyecto final. Dado que el objetivo principal del proyecto era preservar e informar sobre la biodiversidad y conservación de especies de aves, nos dedicamos a investigar en profundidad sobre las distintas especies que habitan en el Ecoparque de las Garzas, ubicado en la ciudad de Cali. Esta investigación nos proporcionó la información necesaria para crear contenido relevante y preciso para nuestra experiencia de realidad virtual. Decidimos elegir 6 especies (Aramides cajaneus, Butorides striata, Pyrocephalus rubinus, Phimosus infuscatus, Pitangus sulphuratus, Nyctibius griseus) que habitan el ecoparque y armamos una escena de RV recreando una zona del este mismo. Con toda la información reunida, procedimos a desarrollar una experiencia de realidad virtual utilizando HTML y A-Frame. La experiencia se materializó en un museo virtual de aves, que presenta modelos 3D de las especies investigadas, así como información relevante sobre cada una de ellas. Finalmente, compilamos todos los aspectos de nuestra investigación y desarrollo en una página web, la cual resume nuestra estancia de investigación y el avance del proyecto. Esta página web sirve como un recurso integral que despliega las experiencias realizadas y los conocimientos adquiridos.


CONCLUSIONES

Conclusiones. Durante el desarrollo de nuestro proyecto de realidad virtual, logramos adquirir una comprensión teórica sólida sobre la historia de la computación gráfica y la evolución de la realidad virtual y aumentada. Aplicamos estos conocimientos mediante ejercicios prácticos en programación web utilizando HTML y A-Frame, lo cual nos permitió crear una experiencia interactiva que destaca la biodiversidad de las aves en Cali y Colombia. A medida que el proyecto avanza, el enfoque no solo ha sido en la creación técnica, sino también en generar un impacto en la conciencia social sobre la importancia de preservar nuestra biodiversidad. La experiencia de realidad virtual desarrollada busca educar a los usuarios sobre las especies de aves y su ecosistema, promoviendo un mayor aprecio y responsabilidad hacia el patrimonio natural. Esperamos que este esfuerzo contribuya a inspirar a la comunidad a participar activamente en la conservación y protección de la biodiversidad local.
Gasca Cuevas Carlos Alejandro, Instituto Tecnológico Superior de Irapuato
Asesor: Dra. Bertha Laura Vargas Rodríguez, Instituto Tecnológico Superior de Irapuato

DISEñO DE UN MODELO DE SIMULACIóN APLICADO A UN PROCESO PRODUCTIVO DE TROQUELADO DE CARTóN


DISEñO DE UN MODELO DE SIMULACIóN APLICADO A UN PROCESO PRODUCTIVO DE TROQUELADO DE CARTóN

Gasca Cuevas Carlos Alejandro, Instituto Tecnológico Superior de Irapuato. Asesor: Dra. Bertha Laura Vargas Rodríguez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la manufactura moderna es cada vez más exigente, teniendo como objetivo mejorar el desarrollo de las actividades, sistemas, procesos, entre otros factores, para generar una mejor calidad y, sobre todo, una mayor eficiencia. Para lograr esto, existe un gran número de metodologías eficaces para su implementación. Sin embargo, una que resulta de gran ayuda para ser parte del proceso sin interferir con la vida real es la simulación por computadora, donde: La flexibilidad en cuanto a la modelación, el análisis y el mejoramiento de sistemas ha hecho de la simulación una herramienta cuyo uso y desarrollo se han visto alentados de manera significativa. (Eduardo García Dunna, 2013). De acuerdo con diversos estudios, la simulación por computadora de los procesos puede aumentar la productividad en un rango de 10% a 25% al optimizar la programación y minimizar tiempos de inactividad. Por lo anterior, se ha identificado que el proceso productivo de la empresa cartonera Carto Cajas Irapuato presenta áreas de oportunidad para mejorar su rendimiento en general. Para abordar esto, se ha decidido implementar una serie de muestreos para determinar los tiempos productivos del proceso, así como los tiempos improductivos que transcurren en la jornada laboral, con el objetivo de obtener datos estadísticos para realizar una simulación por computadora mediante el software FlexSim.



METODOLOGÍA

En primera instancia, se plantean los objetivos del proyecto en conjunto con el investigador, definiendo a dónde se quiere llegar con el desarrollo del trabajo. Esto se acompaña de una serie de investigaciones en diferentes artículos científicos que sustentan el proyecto. Además, se elabora un planteamiento teórico sobre los conceptos básicos necesarios para el desarrollo de la simulación por computadora. Posteriormente, se elabora un diagrama de flujo que ilustra las distintas etapas del proyecto y cómo se desarrollará cada una de estas a lo largo de la estancia en el verano de investigación Delfín. También se identifican las variables con las que se pretende trabajar dentro de la simulación del proceso productivo. Se recopilan datos mediante un muestreo de tiempos productivos e improductivos, midiendo diferentes estaciones de trabajo que conforman el proceso de Carto Cajas Irapuato. Con los datos recopilados, se realiza un diagrama de Pareto para determinar cuál es el factor que más influye en la ineficiencia. Una vez determinado el factor con mayor influencia en la ineficiencia, que resultan ser los paros por falta de materia prima, se realiza un muestreo adicional. Este muestreo se divide en diferentes tipos de paros por falta de materia prima: paros por falta de alimentación a la máquina y paros por no tener materia prima disponible. Con todos los datos recolectados del muestreo, se determina a qué distribución de probabilidad se ajusta la información y cómo es su comportamiento, utilizando el software Promodel con la herramienta StatFit. Al obtener esta información, se procede a la creación del modelo de simulación, replicando el sistema y validando así el modelo con el software FlexSim. Con el modelo de simulación, se realiza una prueba piloto con la información aplicada, recolectando las estadísticas proporcionadas por FlexSim. Posteriormente, se llevan a cabo una serie de cambios en el modelo y en las variables que influyen en el proceso para verificar si estos cambios mejoran la eficiencia en la producción. Al finalizar, se tienen varios escenarios en los modelos de simulación, cada uno mostrando sus estadísticas y rendimiento. Al analizar estas representaciones en conjunto, se realiza una comparativa para determinar cuál es el mejor modelo, teniendo en cuenta cuál mejora la eficiencia de la producción y, al mismo tiempo, mantiene la calidad del producto sin poner en riesgo la salud y seguridad de los colaboradores.


CONCLUSIONES

La utilización de simulación en procesos industriales representa una ventaja competitiva para las empresas, ya que mediante modelos es posible recrear el funcionamiento de un sistema bajo diversas condiciones, evaluando los posibles ajustes y sus efectos. Dentro de la estancia de Verano de Investigación Delfín, dio pauta a la oportunidad de absorber diferentes temas y variantes de esto en torno a lo que es la rama de la simulación, sus principios básicos, las beneficios y facilidades que incluye. Lamentablemente, todavía existen numerosos sectores industriales que no explotan las oportunidades que esta tecnología brinda para la toma de decisiones, la reducción de costos y la mejora de los procesos industriales. Esto afirmando a lo que se aplicó en campo dentro de la investigación. Cabe resaltar, aún se encuentra vigente la fase de prueba de modelos y su validación como tal para alcanzar los objetivos establecidos previamente. El proyecto destaca la relevancia de la investigación al proporcionar una base sólida para la toma de decisiones informadas. En última instancia, el uso metódico de la investigación no solo resuelve problemas específicos, sino que también contribuye al avance continuo en la eficiencia y efectividad en diversos contextos industriales.
Gaspar Priante Casandra, Instituto Tecnológico de Matamoros
Asesor: Dr. Jesus Guillermo Soriano Moro, Benemérita Universidad Autónoma de Puebla

ESTUDIO DE LA EVALUACIóN DE HIDROGELES SEMI-INTERPENETRADOS A BASE DE POLIACRILAMIDA/QUITOSANO PARA APLICACIONES AMBIENTALES


ESTUDIO DE LA EVALUACIóN DE HIDROGELES SEMI-INTERPENETRADOS A BASE DE POLIACRILAMIDA/QUITOSANO PARA APLICACIONES AMBIENTALES

Gaspar Priante Casandra, Instituto Tecnológico de Matamoros. Asesor: Dr. Jesus Guillermo Soriano Moro, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua es un grave problema global que afecta a todos los seres vivos debido a la importancia vital de este recurso (Herrera, 2018). En México, la diversidad ecológica y la falta de legislación adecuada agravan la situación, con un aumento de la contaminación ambiental causado por el crecimiento industrial y poblacional.El tratamiento de aguas residuales es complejo debido a la presencia de contaminantes como hidrocarburos, metales pesados y colorantes. La industria textil es particularmente problemática, siendo responsable del 20% del agua contaminada mundialmente, con tintes difíciles de eliminar que representan un serio problema ambiental (Parlamento Europeo, 2023; Zaruma, 2018). La toxicidad acuática se debe a varios agentes contaminantes presentes en los colorantes, que no son biodegradables y requieren tratamientos específicos para su eliminación efectiva (Bae et al., 2005).



METODOLOGÍA

Síntesis de hidrogeles. Primero se preparó una solución ácida al 2 % (V/V) de ácido acético glacial a la cual se le añadió el 5 % (P/V) de quitosano, la cual se agito magnéticamente por 24 h hasta observar una solución homogénea libre de burbujas. A la par se preparó una solución de acrilamida al 18 % a la cual se le añadió el 1 % de persulfato de potasio (KPS) y agente de entrecruzamiento N,N-metilen-bis-acrilamida (BIS) al 0.5 %, donde se agrega en un matraz Erlenmeyer; posteriormente se llevó a un baño de ultrasonido por 2 min para homogenizar la solución, transcurrido el tiempo se tomó una alícuota de la solución de quitosano y se vertió en la solución de acrilamida en diversas relaciones que van del 70:30, 60:40 y 50:50 acrilamida/quitosano en un vaso de precipitado, después de esto se agito magnéticamente hasta observar una solución homogénea, posteriormente se llevaron a un estufa de vació durante 90 min a 70 °C para la formación del hidrogel, una vez transcurrido el tiempo los hidrogeles se sacaron y se lavaron con agua destilada y agua destilada etanol 70:30 para eliminar cualquier residuo de la reacción. Posteriormente los hidrogeles fueron secados a 35 °C hasta tener un peso constante y almacenados hasta su caracterización.


CONCLUSIONES

Los hidrogeles de quitosano han demostrado ser efectivos para la remoción de naranja de metilo en aguas residuales. Ofreciendo una solución eficiente, sostenible y adaptable a aplicaciones ambientales, en especial para la contaminación del agua. La cantidad de quitosano utilizada para la síntesis del hidrogel en este trabajo fue modificada respecto a la cantidad inicial de quitosano para obtener mayor rigidez en los hidrogeles, quedando de 5%. Donde se comprobó la capacidad de absorción del material preparado con el biopolímero resulta más eficiente en el proceso de adsorción el material compuesto. Gracias al el efecto de los diferentes pH que se utilizaron se observa que los hidrogeles tienen una mejor eficiencia en medio acido ya que el quitosano se disuelve en condiciones de alta acidez, por ello, se observó un porcentaje de 91.776% lo cual en comparación con los demás fue muy satisfactorio en especial los hidrogeles de 50/50 de acrilamida/ quitosano. Se realizó la cinética a pH neutro a diferentes horas y se obtuvieron muchos mejores resultados a las 5 horas de contacto en especial para la concentración de 50:50 de poliacrilamida/ quitosano el cual este obtuvo una eficiencia de 91.945 %. Mas sin embargo al realizarse en medio acido se obtuvieron resultados de eficiencia en las muestras de 50.50 el 91.766%. con un valor de Qe= 8.919 mg/g lo cual no varía mucho en comparación de la cinética a las 5 horas de contacto con pH neutro. El cual se concluye que en medio acido las concentraciones que se utilizaron obtuvieron una mayor remoción para el colorante de naranja de metilo. Por ello los resultados obtenidos perfilan el cómo un hidrogel de poliacrilamida y quitosano con mayor porcentaje al 5 % puede llegar a tener una buena absorción y hace de un hidrogel un mejor material.
Gastelum Soto Paula Fernanda, Universidad Vizcaya de las Américas
Asesor: Mg. Ever Ángel Fuentes Rojas, Universidad Libre

SISTEMA DE INFORMACIóN TURíSTICA PARA EL MUNICIPIO DE VENTAQUEMADA Y VIRACACHá.


SISTEMA DE INFORMACIóN TURíSTICA PARA EL MUNICIPIO DE VENTAQUEMADA Y VIRACACHá.

Gastelum Soto Paula Fernanda, Universidad Vizcaya de las Américas. Asesor: Mg. Ever Ángel Fuentes Rojas, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

PLANTEAMIENTO DEL PROBLEMA En lo turístico hay muchos factores en el que se debe de cumplir para llegar a tener éxito de cantidad de turistas en esos entra la comunicación y publicidad tanto conocimiento de saber cómo dar una experiencia, o promoverlas. En Vetaquemada contiene turismo de historia como ¨La Casa De Cuartel General Del Ejercito Liberador¨, El monumento de Muller que tiene 18 metros de altura en su remate aparece la figura de Bolívar sobre un broquel en hombros de 5 mujeres que simbolizan las 5 republicas bolivariana en el centro se ubica la figura de Clío, la musa de la historia en los extremos está colocados los Cuatro Ángeles de la Fama con sus respectivos clarines al viento que simbolizan la fama y la gloria, También está la historia de como llego a llamarse Ventaquemada y muchas otras más . En turismo de aventura se encuentra la laguna Verde- Paramo del Rabanal contiene paisajes hermosos, en el trascurso del recorrido se guardan una historia haciendo un recorrido completo. En lo cultura contienen con las festividades típicas como la feria de la papa y arepa, y el aguinaldo Ventaquemense y la comida típica como la Arepa, Cuchuco y la Gallina cosas totalmente típicas de la zona. En Viracacha cuenta con una gran variedad de historia y turismo de aventura cosa que resaltar es que cada sitio en el que se visita guarda una historia que hace tener una experiencia completa ya que compartimos con los paisajes, hay aproximadamente 7 lugares turísticos que ofrece, estos mismos se denominaban como la ¨ Las 7 maravillas¨ en lo cultural lo está la comida típica que es Mazorcas de agua y Jotes conocidos por tener un olor particular que no hace honor a su gran sabor. En festividad se encuentra fiestas del Divino niño, fiesta de la virgen de Fátima y fiestas gastronómicas. Siendo eso la falta de los factores no se pude llegar a un sistema de información turística para llegar a promover los hermosos lugares que ofrecen, dando el poco reconocimiento que se merecen, por su cultura como historias y paisajes. La falta de planteamiento turístico de los habitantes como la propagada al no tener una página en donde publicar o comunicar los eventos, y no darles capacitación a los habitantes de como dar una buena atención al cliente para ofrecer la calidad de una experiencia que se merece un turista o incluso habitante



METODOLOGÍA

METODOLOGIA Para llegar una solución de un buen sistema de información turística se hicieron investigaciones tanto documentales como de campo, visitando los municipios viendo lo que se puede realizar que de actividades y como se pueden ordenar de manera más efectiva sin necesidades de desperdiciar tiempo y provechar el momento. Eso nos llevo hacer un reporte acaparando todos los puntos importantes de los municipios tanto como los lugares turísticos la atención al cliente de lugares, la calidad de mercado como su variedad En cuestión de la investigación documental fue en páginas certificadas por las alcaldías del municipio siendo información oficial. También nos tocó analizar unas encuestas que se hicieron para llegar a una conclusión de las tendencias que los turistas como los locales les gusta de las zonas y que nos les gusta, como los lugares donde si volverían como de cómo fue la atención que les ofrecieron en hoteles y restaurantes. En las encuetas no solo fueron a turistas si no también a los habitantes de los municipios dándonos un buen panorama de lo que falta y se puede mejorar en el ámbito de lo turístico. Anotamos todo lo importante como la cultura, festividades, historia, Arquitectura, atención al cliente, guías turísticos, para poder hacer un reporte completo donde se junten todos los municipios y se puede llegar a conocer lo se ofrece en el municipio. También en la investigación de campo se realizaron puntos de descanso e información para mejorar el turismo de aventura de la zona, dando seguridad al informar en puntos clave del lugar. En este punto se tomó en cuenta el terreno y el terreno y los materiales regionales que se pueden utilizar teniendo el mínimo desperdicio. Al final se realizaron prototipos de sistemas turísticos promoviendo activades que den una experiencia y mejoras como la publicidad que podrían dar a conocer más los municipios y llegar a explotar el turismo y reconocimiento que merecen estos hermosos lugares


CONCLUSIONES

CONCLUSIÓN Se logro recolectar la información suficiente para mejorar el turismo de Ventaquemada y Viracacha, teniendo en cuenta la mejora de experiencia como de atención a cliente, dando calidad tanto al turista como al habitante. Para eso mismo la forma de incrementar el turismo es haciendo más público las actividades que ofrecen, creando paginas donde información de lo que se puede llegar hacer, el tipo de turismo que hay, los locales que se encuentra tanto lugares de estadía y restaurante donde uno podría llegar sin dificultar, esta página también podría funcionar para llegar a comentar sus experticias esto serviría de ayuda para que gente pueda llegar a saber como es el lugar desde las perspectiva de una persona que ya llego experimentar el turismo que ofrecen.
Gil Acosta Jonnathan Andrei, Fundación Universitaria del Área Andina
Asesor: Mg. Kathleen Georjahna Salazar Serna, Pontificia Universidad Javeriana

ANáLISIS DE LA SINIESTRALIDAD EN EL VALLE DE ABURRA


ANáLISIS DE LA SINIESTRALIDAD EN EL VALLE DE ABURRA

Gil Acosta Jonnathan Andrei, Fundación Universitaria del Área Andina. Asesor: Mg. Kathleen Georjahna Salazar Serna, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

El planteamiento inicial es analizar la siniestralidad vial del Valle de Aburrá durante el periodo 2016 y 2023; utilizando herramientas de ingeniería y modelos estadísticos, bases de datos con registros de accidentalidad entre otras variables, se puedan generar insumos para plantear recomendaciones que contribuyan a la disminución de la siniestralidad vial.



METODOLOGÍA

Se inicio con una identificación y contextualización de la base de datos en donde se realizo una limpieza de resultados incompletos para acto seguido realizar un análisis que nos brindara información relevante sobre las causas mas importantes de los accidentes adicional se esta trabajando en aplicar una regresión logarítmica en R identificando variables que puedan identificar nuevas características de las personas lesionadas o fallecidas, por ultimo se plantea realizar una revisión de resultados, con confirmación de causas y realizando recomendaciones y planes de accion


CONCLUSIONES

Como conclusiones encontramos debido al estudio y analisis de la base de datos sobre el valle de aburra el municipio mas afectado por el problema de la siniestralidad vial En este momento Medellin es el municipio con mayor indice de siniestralidad, conocemos tambien que los hombres tienen a tener mayor participacion en estos incidentes, tambien determinamos a traves de los analisis y tablas que la edad en de los afectados ronda entre los 20 a 30 años de edad, conocemos que el dia Domingo es el que presenta mayor Fatalidad asi como el dia Viernes presenta mayor cantidad de registro de personas lesionadas se investigo de forma activa en encontrar recursos que se puedan utilizar como medida preventiva o correctiva se observo que organismos internacionales cuentan con objetivos dirigidos a disminuir estas situaciones como lo es la ONU en su ODS #3 enfocado en la salud y en este momento se trabaja tambien en un Script en R o en Python con procedimientos para el análisis de las bases de datos utilizando regresion logistica y definiendo variables categoricas, para posteriormente brindar mejores recomendaciones y medidas correctivas 
Gómez Acuña José Alfonso, Universidad Simón Bolivar
Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez

OPTIMIZACIóN PARA PROCESOS DE MANUFACTURA ESBELTA Y ADITIVA CON IMPRESIóN 3D: APLICACIóN DE METODOLOGíAS LEAN SIX SIGMA, ESTUDIO DE TIEMPOS PREDETERMINADOS MOST Y DISEñO DE EXPERIMENTOS (DOE)


OPTIMIZACIóN PARA PROCESOS DE MANUFACTURA ESBELTA Y ADITIVA CON IMPRESIóN 3D: APLICACIóN DE METODOLOGíAS LEAN SIX SIGMA, ESTUDIO DE TIEMPOS PREDETERMINADOS MOST Y DISEñO DE EXPERIMENTOS (DOE)

Becerra Gómez Ismael, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Gómez Acuña José Alfonso, Universidad Simón Bolivar. Luque Carranza Jeniffer, Universidad Simón Bolivar. Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

En la manufactura moderna, combinar técnicas esbeltas y aditivas es crucial para maximizar eficiencia y calidad. Este proyecto se centra en optimizar procesos mediante Lean Six Sigma, el Estudio de Tiempos Predeterminados MOST y el Diseño de Experimentos (DOE).  La línea de ensamblaje del carro LEGO Green Cruiser 31056 necesita ajustar el tiempo de ciclo para alcanzar una producción de 180 unidades por hora, manteniendo eficiencia y reduciendo inventario. La implementación precisa de MOST es clave para asegurar un Takt Time de 20 segundos por unidad. En la producción de probetas de plástico, variables como temperatura del filamento, temperatura de la cama y patrón de relleno son cruciales para la resistencia a la tensión. Identificar y optimizar estos factores es esencial para mejorar la calidad y consistencia de las probetas. El diseño de turbinas eólicas de pequeña escala utilizando impresión 3D se explora para generar energía renovable. El reto es encontrar el diseño más eficiente para un generador de 15 cm, optimizando la conversión de energía cinética en mecánica, contribuyendo a soluciones energéticas sostenibles. Para los aviones de papel, se ha identificado variabilidad en la longitud de las alas, que debe ser de 60 mm ± 2 mm. Esta inconsistencia sugiere problemas en fabricación y medición, haciendo necesario estandarizar el proceso para cumplir con las especificaciones. Este proyecto integra Lean Six Sigma, MOST y DOE para reducir desperdicios, mejorar eficiencia, y optimizar tiempos y procesos. Además, busca mejorar la calidad identificando y ajustando variables críticas como la resistencia a la tensión y la eficiencia de turbinas eólicas impresas en 3D. Así, establece un marco para futuras mejoras y la adaptación de nuevas tecnologías en manufactura esbelta y aditiva.



METODOLOGÍA

Para optimizar los procesos de manufactura esbelta y aditiva mediante impresión 3D, se integraron metodologías clave: Lean Six Sigma, Estudio de Tiempos Predeterminados MOST y Diseño de Experimentos (DOE). El proyecto inicial se enfocó en mejorar la eficiencia y calidad en la producción de turbinas de Arquímedes a escala reducida (15 cm), utilizando impresión 3D para maximizar la eficiencia energética. Con Lean Six Sigma, se identificaron los requisitos del cliente y se redujo la variabilidad en el rendimiento mediante mejoras en el diseño y fabricación de aviones de papel, que debían tener una longitud de 60 mm con un margen de ±2 mm. El análisis de los procesos actuales de impresión 3D permitió evaluar la capacidad del proceso y abordar la variabilidad en la calidad de los componentes, utilizando herramientas estadísticas como Cpk y pruebas de normalidad para identificar causas raíz y oportunidades de mejora. El método MOST se aplicó para optimizar los tiempos de ensamblaje y fabricación de carros LEGO, descomponiendo las actividades en movimientos básicos medidos en unidades de tiempo estándar (TMU). Esto ayudó a determinar el número óptimo de estaciones de trabajo y el ciclo necesario para cumplir eficientemente con la demanda del cliente de 180 carros/hora. Por último, el Diseño de Experimentos (DOE) se utilizó para evaluar diferentes diseños de probetas impresas en 3D. Usando software como Minitab, se planificaron y analizaron experimentos fraccionados, considerando variables críticas como el material de impresión y los parámetros de impresión. Las pruebas de rendimiento midieron la resistencia de las probetas, integrando un enfoque que mejoró la calidad, eficiencia y competitividad en la manufactura de componentes avanzados mediante tecnologías innovadoras de fabricación.


CONCLUSIONES

El proyecto "Optimización para Procesos de Manufactura Esbelta y Aditiva con Impresión 3D" ha alcanzado sus metas al aplicar metodologías avanzadas para mejorar procesos de manufactura. La implementación de Lean Six Sigma, MOST y DOE ha permitido identificar y corregir ineficiencias, resultando en productos de alta calidad y eficiencia operativa. Para la Turbina de Arquímedes, las pruebas con modelos impresos en 3D confirmaron la viabilidad de estas estructuras para generar energía limpia. El diseño optimizado para impresión 3D demostró ser altamente eficiente, resaltando el potencial de esta tecnología para desarrollar dispositivos energéticos sostenibles y personalizados, contribuyendo a la lucha contra el cambio climático. En el caso de los Aviones de Papel, Six Sigma resolvió problemas de variabilidad en la producción, mejorando el sistema de medición y estableciendo estándares operativos más rigurosos. Esto condujo a una notable mejora en la capacidad del proceso y a una reducción en las piezas defectuosas, validando la efectividad de Lean Six Sigma en la estandarización y mejora continua. Para los Carros LEGO, la técnica MOST permitió una optimización precisa del proceso de ensamblaje, ajustando el tiempo de ciclo para cumplir con el Takt Time requerido. Esto resultó en un flujo de producción eficiente y alineado con la demanda del cliente, validando la precisión de las estimaciones de tiempo y asegurando la consistencia del proceso. Finalmente, en las Probetas de Plástico, el diseño experimental identificó los factores clave para maximizar la resistencia a la tensión, destacando la importancia de la cabina de impresión. La validación del modelo permitió predecir y alcanzar configuraciones óptimas para la producción, esencial para mejorar la calidad y durabilidad de los productos impresos en 3D. En resumen, el proyecto demuestra que combinar metodologías de manufactura esbelta y aditiva con herramientas analíticas avanzadas puede transformar procesos industriales, mejorando significativamente la calidad, eficiencia y sostenibilidad, y sentando una base sólida para futuras innovaciones.
Gómez Arroyo David Alejandro, Universidad Autónoma de Occidente
Asesor: Mg. Jairo Alfonso Gutiérrez de Piñeres Rocha, Fundación Universitaria del Área Andina

REVISIóN BIBLIOGRáFICA DEL USO DE CONCRETO VERDE A PARTIR DE LAS CENIZAS DE LAS CáSCARAS DE HUEVO


REVISIóN BIBLIOGRáFICA DEL USO DE CONCRETO VERDE A PARTIR DE LAS CENIZAS DE LAS CáSCARAS DE HUEVO

Gómez Arroyo David Alejandro, Universidad Autónoma de Occidente. Asesor: Mg. Jairo Alfonso Gutiérrez de Piñeres Rocha, Fundación Universitaria del Área Andina



PLANTEAMIENTO DEL PROBLEMA

Este artículo se basa en una revisión bibliográfica sobre el uso de concreto verde elaborado a partir de cenizas de cáscara de huevo, con el objetivo de abordar los problemas ambientales asociados con el concreto tradicional, que requiere 350 kg de cemento y genera emisiones significativas de CO2 durante su producción. El concreto tradicional contribuye al agotamiento de recursos naturales y a la contaminación del aire debido a las emisiones de gases de efecto invernadero. Para mitigar estos impactos, se propone la utilización de la cáscara de huevo, un subproducto agrícola rico en óxido de calcio, como sustituto parcial del cemento.



METODOLOGÍA

La investigación se basó en la aplicación de la metodología de "Estudios de vigilancia tecnológica". Se analizaron 50 artículos de alto impacto que exploran las propiedades beneficiosas de la cáscara de huevo, incluyendo su alto contenido de óxido de calcio, y se revisaron patentes registradas relacionadas con su uso en la construcción. La revisión también consideró la caracterización física, química y biológica de la cáscara de huevo, así como su proceso de deshidratación y los porcentajes óptimos de reemplazo en peso y volumen para mejorar la resistencia a la compresión y flexión del concreto.


CONCLUSIONES

La investigación se enmarca en los Objetivos de Desarrollo Sostenible (ODS) de la Agenda 2030, especialmente el ODS 11: Ciudades y comunidades sostenibles, y el ODS 12: Producción y consumo responsables. La incorporación de cáscara de huevo en la producción de concreto no solo reduce las emisiones de CO2 y el consumo de energía, sino que también promueve la economía circular al reutilizar residuos agrícolas. Los resultados esperados de la revisión destacan el potencial de la cáscara de huevo como un sustituto parcial del cemento que mantiene la durabilidad del concreto, ofreciendo una alternativa sostenible y de alto rendimiento que puede contribuir significativamente a la reducción del impacto ambiental de la industria de la construcción.
Gómez Basilio Marianella, Corporación Universitaria del Caribe
Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva

UNA APLICACIÓN MÓVIL PARA LA COMUNICACIÓN CON PERSONAS CON DISCAPACIDAD AUDITIVA


UNA APLICACIÓN MÓVIL PARA LA COMUNICACIÓN CON PERSONAS CON DISCAPACIDAD AUDITIVA

Gómez Basilio Marianella, Corporación Universitaria del Caribe. Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva



PLANTEAMIENTO DEL PROBLEMA

Si bien el sentido del oído es uno de los cinco que poseemos, muchas personas enfrentan la realidad de una discapacidad auditiva, ya sea desde el nacimiento o adquirida a lo largo de su vida. Las causas de esta condición son diversas, incluyendo enfermedades, traumatismos, exposición prolongada al ruido y el uso de medicamentos ototóxicos. Para quienes viven con esta discapacidad, las barreras sociales son considerables. La detección de fuentes sonoras, la identificación de sonidos, seguir una conversación y, sobre todo, la comprensión, se convierten en desafíos cotidianos (Secretaría de Salud de México, 2021). Las repercusiones de la discapacidad auditiva van más allá de la audición en sí, afectando el desarrollo del pensamiento, la conducta, las habilidades sociales y emocionales, e incluso el desempeño escolar y laboral, debido a las limitaciones en la comunicación (Sistema Nacional DIF, 2017). Esta condición se caracteriza por una pérdida auditiva superior a 35 decibelios (dB) en el mejor oído, y se presenta con mayor frecuencia en países de ingresos bajos y medios, afectando al 80% de la población con este tipo de discapacidad (Organización Mundial de la Salud [OMS], 2023).



METODOLOGÍA

La presente metodología se fundamenta en una rigurosa revisión bibliográfica cualitativa realizada con base en criterios metodológicos estrictos. La búsqueda de información se llevó a cabo en el motor de búsqueda especializado: Google Académico, utilizando una mezcla de las palabras clave relevantes como "lengua de señas", "traductor de señas", "avatar 3D", "aplicación web" y "aplicativo móvil". La información recopilada se organizó siguiendo criterios de publicaciones de máximo 10 años, los tipos de publicaciones aceptados son artículos científicos, capítulos de libros, tesis de maestría o doctorado y memorias de congreso.


CONCLUSIONES

La presente revisión bibliográfica ha permitido identificar un panorama amplio sobre el desarrollo de aplicaciones tecnológicas para facilitar la comunicación entre personas sordas y oyentes. Se han encontrado diversas investigaciones que proponen soluciones innovadoras, incluyendo intérpretes virtuales de lengua de señas, traductores de texto a lengua de señas con avatares 3D, aplicaciones móviles para el aprendizaje de la lengua de señas y herramientas para la comunicación en entornos de realidad virtual. El desarrollo continuo de aplicaciones innovadoras y la investigación en este campo son fundamentales para avanzar hacia un futuro donde la comunicación no tenga límites.  
Gómez Contreras Omar David Alejandro, Universidad Tecnologica de León
Asesor: Dr. Heraclio García Cervantes, Universidad Tecnologica de León

PROTOTIPO DE VEHíCULO AUTóNOMO CON SISTEMAS DE VISIóN ARTIFICIAL


PROTOTIPO DE VEHíCULO AUTóNOMO CON SISTEMAS DE VISIóN ARTIFICIAL

Gómez Contreras Omar David Alejandro, Universidad Tecnologica de León. Asesor: Dr. Heraclio García Cervantes, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

La problemática que tiene el sector automotriz y la industria en general es que los vehículos de combustión suelen ser muy contaminantes para el planeta, esta situación se beneficia más con los vehículos eléctricos ya que reducen contaminantes y a largo plazo es más económico en uso de energía ya que para su uso utilizan energía eléctrica que tiene menos contaminantes. En la industria existen grandes necesidades de uso de tecnología moderna, por ejemplo, la gestión de inventarios y el transporte de materiales entre otros pueden afectar la eficiencia operativa. Pueden existir dificultades para localizar de forma rápida y precisa productos almacenados. Un transporte interno ayudaría a reducir el tiempo y recursos perdidos por la búsqueda y transporte de materiales por los operarios, además de posibles riesgos de accidentes y lesiones por manejo de cargas pesadas o peligrosas, aunado la disminución de la producción. La implementación de un vehículo autónomo con visión artificial ayudaría a mejorar el inventario más eficientes y precisos, ubicación de productos para su posterior búsqueda con coordenadas, actualización de la producción en tiempo real. Reducción de errores humanos y por su puesto la mejora en la exactitud de los datos de inventario. Los vehículos autónomos pueden transportar materiales de manera eficiente, reduciendo tiempos, mejor organizados y fluidamente. Reduciendo riegos de accidentes y lesiones por el manejo de cargas pesadas o peligrosas, además de aumento de producción. Por lo tanto, la implementación de un vehículo autónomo con visión artificial aborda eficientemente los desafíos de gestión tanto de inventarios como de transporte interno. Al integrar tecnologías avanzadas de navegación autónoma y con reconocimiento de productos, sería una gran solución, mejorando la precisión y eficiencia operativa, aumento de seguridad y evita lesiones a operarios.    



METODOLOGÍA

              Investigación bibliográfica. Buscar proyectos de vehículos autónomos que se realizaron anteriormente. Leer artículos que describen el funcionamiento de los vehículos autónomos con sistemas de visión artificial. Revisar documentos y páginas web a cerca de la elaboración vehículos autónomos. Tomar un curso de programación en Python. Diseño y fabricación del chasis y soportes del vehículo autónomo realizar el diseño 3D de la base del vehículo autónomo considerando el especio para cada componente de este. Elaborar los soportes necesarios para sujetar baterías, motores y otros componentes. Diseñar el chasis del vehículo autónomo por completo presentando en su interior todos los componentes (motores, controlador, raspberry, etc.). Investigar los tipos de materiales más adecuados para su fabricación, así como costos y tiempo de entrega.            Programación del código para la detección de carril. instalar el programa para configurar y utilizar de forma remota la raspberry con Windows. instalar las librerías necesarias para la programación. Elaborar el código para controlar los motores y convertirlo en una clase para posteriormente utilizarlo en el código principal. Realizar la programación para la detección del carril por medio de una cámara web. Programar la búsqueda de curva para hacer más eficiente la detección de carril.            Armado del vehículo autónomo Ensamblar la base con los motores y todos los componentes del vehículo autónomo. Cargar la programación en la raspberry que ya se encuentra dentro del chasis del vehículo. Realizar pruebas de funcionamiento general al vehículo autónomo. Corrección de errores en caso de ser necesario. Implementar decoración o detalles estéticos.  


CONCLUSIONES

Hasta el momento el vehículo autónomo es capas de identificar el carril en el que se encuentra, y puede moverse de manera autónoma, aun así se pretende lograr que el vehículo autónomo sea capaz de reconocer señalamientos de trafico y anomalidades en el camino y que por medio de la programación realice determinadas acciones dependiendo del tipo de señalamiento que detecte por medio de la web cam. Este prototipo podrá ser usado como material para educación en sistemas de vehículos autónomos pero también tendría usos dentro del sector industrial, esto debido a que puede adaptarse para realizar tareas especificas de traslado con mayor eficiencia que los seguidores de línea actuales que se utilizan para el mismo propósito. Con este proyecto se adquirieron conocimientos a cerca de la funcionalidad interna de vehículos autónomos, así como la implementación de una rama de la IA, como lo es la visión artificial. La elaboración de este vehículo nos permite avanzar en e estudio practico de conducción autónoma y reforzar a su vez conocimientos a cerca de programación, electrónica, diseño y una pequeña parte de mecánica. La funcionalidad de este vehículo va desde la detección simple de carril hasta la detección de señalamientos de tráfico y obstáculos en el carril por lo que puede ser objeto de estudio en aulas de trabajo, así como para vehículos que se puedan utilizar en la vida cotidiana  y en la industria.  
Gómez Cruz Sandra Luz, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: M.C. Erik Juárez Cortes, Universidad Tecnológica de Tecamachalco

BENEFICIOS DEL USO E IMPLEMENTACIóN DE LA MáQUINA DESESPINADORA DE PITAYA EN EL ESTADO DE PUEBLA, MéXICO


BENEFICIOS DEL USO E IMPLEMENTACIóN DE LA MáQUINA DESESPINADORA DE PITAYA EN EL ESTADO DE PUEBLA, MéXICO

Gómez Cruz Sandra Luz, Instituto Tecnológico de Tuxtla Gutiérrez. Rodas Sánchez Areli Ayde, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: M.C. Erik Juárez Cortes, Universidad Tecnológica de Tecamachalco



PLANTEAMIENTO DEL PROBLEMA

En el estado de Puebla, diversas comunidades llevan a cabo la producción de pitayas, dichas comunidades presentan desafíos con el desespinado de esta fruta. Entre los principales problemas destacan los siguientes: Herramientas manuales obsoletas e ineficientes: Para realizar el desespinado de pitaya, dependiendo también a los métodos de realización, se hace uso de herramientas que pueden ser deficientes, esto puede darse también por no contar con el presupuesto suficiente para comprar equipos de trabajo más modernos. Menor productividad: Este proceso es realizado de forma manual, por lo que se requiere de mucho tiempo, dependiendo también de las características de cada fruta (tamaño, madurez, cantidad de espinas), además de la capacidad y habilidad de cada trabajador, y las herramientas con las que cuente. Menor calidad de la fruta: La calidad de la fruta puede verse afectada por errores de los trabajadores, especialmente si este no cuenta las herramientas necesarias, o si el trabajador se encuentra fatigado. También es importante tomar en cuenta la calidad de la fruta dependerá de las condiciones en la que se trabaja, las posturas adoptadas por los trabajadores, los movimientos repetitivos y el riesgo que se tienen al manipular la fruta con las espinas. Daños en la salud de los trabajadores: Los trabajadores se ven expuestos a riesgos en su salud, ya que, al estar en contacto con las espinas, sin hacer uso de algún guante, o protección, pueden resultar heridos, con cortaduras en la mano, como consecuencia, la eficiencia es menor, y la calidad de la fruta puede verse comprometida. Debido a las problemáticas planteadas, en el municipio de Tecamachalco, Puebla, surgió la idea de crear una máquina que procese el desespinado de la pitaya, convirtiéndose así en una oportunidad de innovación, para mejora y beneficio en diversas comunidades.



METODOLOGÍA

Se identificaron las principales técnicas de desespinado empleados por diversos trabajadores tomando en cuenta el tipo de herramienta empleada, las cuales fueron las siguientes: La primera técnica consiste en que el trabajador sostiene la fruta con su mano, mientras que, con la otra, haciendo uso de una tenaza, va quitando las espinas de la fruta. No se hace uso de algún guante o protección. La segunda técnica consiste en que el trabajador sostiene la fruta con la mano haciendo uso de un guante y con un tenedor va quitando las espinas. La tercera técnica consiste en que el trabajador sujeta la fruta en la parte superior, apoyándose de una superficie, y con un cuchillo va quitando las espinas, sin hacer uso de un guante o protección. La cuarta técnica aplica para las frutas que se encuentran dentro del rango de altura del trabajador, ya que se desespina sin cortar la fruta, haciendo uso de 2 palos de madera, sin hacer uso de un guante o protección. La quinta técnica consiste en que el trabajador sostiene la fruta con la mano, sin apoyarse en alguna superficie y con un cuchillo se va quitando las espinas, sin hacer uso de un guante o protección. La sexta técnica consiste en que el trabajador sujeta la fruta con una tenaza, y con un cuchillo va quitando las espinas de la fruta, también no se hace uso de algún guante o protección. Una vez identificadas las técnicas utilizadas, se procedió a tomar datos, para conocer cuál es el tiempo de desespinado de la pitaya por unidad, obteniendo los siguientes datos: 1ra técnica: 1.516 min. (01 min. 31 seg.), 39 pitayas desespinadas por hora. 2da técnica: 0.95 min. (57 seg.), 63 pitayas desespinadas por hora. 3ra técnica: 1.183 min. (01 min. 11 seg.), 50 pitayas desespinadas por hora. 4ta técnica: 1.166 min. (01 min. 10 seg.), 51 pitayas desespinadas por hora. 5ta técnica: 1.566 min. (01 min. 34 seg.), 38 pitayas desespinadas por hora. 6ta técnica: 1.65 min. (01 min. 39 seg.), 36 pitayas desespinadas por hora. De la misma forma, se tomaron datos haciendo uso de la máquina desespinadora y se aplicaron 3 métodos distintos para conocer cuántas pitayas se desespinan por hora, siendo el tiempo promedio de 0.7 min. (42 seg.). Los datos obtenidos fueron los siguientes: 1er método: Dejando un margen de 10 seg. entre cada fruta se desespinaron 314 pitayas. 2do método: Dejando un margen de 5 seg. entre cada fruta se desespinaron 577 pitayas. 3er método: Dejando un margen de 0.7 min. (tiempo promedio de desespinado de una pitaya) se desespinaron 85 pitayas.


CONCLUSIONES

Durante la estancia de verano se logró obtener nuevos conocimientos teóricos sobre las pitayas, sus características y la importancia de su producción en México, Puebla y en las distintas comunidades donde se lleva a cabo esta actividad, así como también se adquirieron conocimientos prácticos, en lo que respecta al proceso de producción de pitaya y de las diversas técnicas empleadas por los trabajadores para llevar a cabo el desespinado, por lo que, en base a los datos obtenidos y expuestos anteriormente se puede llegar a la conclusión que el correcto uso y funcionamiento de la maquina será de gran de ayuda para las diversas comunidades, siendo esta una solución a los problemas antes planteados: Mayor eficiencia: Los trabajadores pueden cumplir con la carga de trabajado en menos tiempo, a diferencia de realizar el desespinado de manera manual. Menos riesgo para el trabajador: El trabajador solo tiene que poner la fruta en la máquina, por lo que no tiene que sostener la fruta todo el tiempo, además, los movimientos repetitivos realizados con la mano se eliminan, también hay una reducción de ocurrencias respecto a la adopción de malas posturas, y el operario tiene más libertad de movimiento. Mayor calidad en la fruta: La fruta no se ve afectada, ya que las cerdas de los cepillos no causan cortes a la fruta, además que no es necesario sostener la fruta (con la mano, tenazas, entre otros), a excepción de cuando la fruta se pone en la máquina y existe una menor contaminación de la pitaya. Mayor capacidad de producción: Gracias a la reducción significaba de tiempo en que se desespina la pitaya, se puede aprovechar más el tiempo, no solo para desespinar más frutas, si no para otras actividades relacionadas al proceso de producción de las pitayas, además de permitir satisfacer la demanda creciente de pitayas. Creación de nuevas oportunidades de empleo: La máquina requiere de operarios para su uso y su respectivo mantenimiento.
Gomez Delgado William Sebastian, Corporación Universitaria Remington
Asesor: Mg. Leonel Briceño de los Santos, Fundación Universitaria Compensar

OPTIMIZACIóN SOSTENIBLE EN LA GESTIóN DE LA LOGíSTICA INVERSA DEL CAUCHO: UN ENFOQUE GERENCIAL BASADO EN HERRAMIENTAS DE LEAN MANUFACTURING PARA LA EFICIENCIA Y SOSTENIBILIDAD


OPTIMIZACIóN SOSTENIBLE EN LA GESTIóN DE LA LOGíSTICA INVERSA DEL CAUCHO: UN ENFOQUE GERENCIAL BASADO EN HERRAMIENTAS DE LEAN MANUFACTURING PARA LA EFICIENCIA Y SOSTENIBILIDAD

Figueroa Bautista María Estela, Instituto Tecnológico de Ciudad Guzmán. Gomez Delgado William Sebastian, Corporación Universitaria Remington. Asesor: Mg. Leonel Briceño de los Santos, Fundación Universitaria Compensar



PLANTEAMIENTO DEL PROBLEMA

Elaborar el estado del arte del proyecto que se desarrolla, esta actividad consiste en realizar el levantamiento de información sobre las bases teóricas nacionales e internacionales sobre el tema objeto de estudio, por otra parte, la estudiante debe realizar un levantamiento de toda la normativa nacional e internacional que rige el tema analizado. 



METODOLOGÍA

La metodología por utilizar es la revisión de fuentes secundarias para el levantamiento de la información, también se debe redactar un documento aplicando normas APA séptima edición. El estudiante puede apoyarse en herramientas de inteligencia artificial para efectuar la construcción del documento.


CONCLUSIONES

Conforme el registro teórico realizado con el apoyo de compañeros e Investigador se logró en primer lugar el reconocimiento de las distintas herramientas del Lean Manufacturing en distintos proyectos, tesis, trabajos de investigación, etc., así tambien el conocimiento y gran ayuda de distintas herramientas de inteligencia artificial (AI) para toda la metodología de investigación del proyecto que sin duda se ve reflejado en el ahorro de esfuerzo y tiempo en revisar cada uno de los trabajos analizados para recopilar y capturar la información necesaria para el desarrollo del proyecto. 
Gómez García Giovanni Daniel, Universidad de Guadalajara
Asesor: Dr. Sergio Enrique Flores Villaseñor, Universidad Autónoma de Coahuila

DESARROLLO DE RECUBRIMIENTOS HíBRIDOS PARA REDUCIR LA VELOCIDAD DE CORROSIóN EN ACEROS.


DESARROLLO DE RECUBRIMIENTOS HíBRIDOS PARA REDUCIR LA VELOCIDAD DE CORROSIóN EN ACEROS.

Gómez García Giovanni Daniel, Universidad de Guadalajara. Vera Hernández Ariana Lizeth, Universidad de Guadalajara. Asesor: Dr. Sergio Enrique Flores Villaseñor, Universidad Autónoma de Coahuila



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del Problema. La corrosión en aceros representa un desafío importante en diversas industrias, afectando la integridad estructural, la seguridad y los costos de mantenimiento. Sus principales problemas son: Pérdida de resistencia estructural: La corrosión debilita el acero, lo que puede provocar fallos en infraestructuras como puentes y edificios. Aumento de costos de mantenimiento: Las reparaciones y reemplazos frecuentes debido a la corrosión elevan los costos operativos. Riesgos para la seguridad: La corrosión puede causar fallos catastróficos, poniendo en peligro la seguridad, como en tuberías de gas o componentes de aeronaves. Impacto ambiental: Puede provocar derrames de sustancias químicas peligrosas, afectando al medio ambiente. Interrupción del servicio: En sectores críticos como el energético, la corrosión puede causar paradas en el servicio, afectando la eficiencia. Pérdida de eficiencia: Reduce el rendimiento de equipos, como intercambiadores de calor y tuberías, al obstruir el flujo o disminuir la transferencia de calor. Estética y apariencia: La corrosión deteriora la apariencia de productos y estructuras, lo que puede ser un problema en aplicaciones donde la estética es importante. Para combatir estos problemas, se emplean estrategias como revestimientos protectores, inhibidores de corrosión, diseño adecuado y sistemas de protección catódica, así como técnicas de nanotecnología para ralentizar la corrosión.



METODOLOGÍA

Metodología: Síntesis de nanopartículas: Alúmina (Al₂O₃): - Se preparó una solución 0.05M de sulfato de aluminio en agua y se disolvió con agitación constante. - Se añadió gota a gota una solución 1.2M de hidróxido de sodio mientras se agita a 75ºC. - Se dejó reposar durante 25 minutos, se centrifugó, se lavaron las partículas, y se secaron a 80ºC durante 12 horas. ZnO: - Se prepararon soluciones 1M de sulfato de zinc y 1.5M de hidróxido de sodio. - Se añadió NaOH a la solución de sulfato de zinc, y se agitó durante 5 minutos. - Se dejaron sedimentar las partículas, se retiró el sobrenadante, se lavaron, se centrifugó, se secaron a 100ºC y se calcinó a 450ºC. Óxido de Cobalto: - Se disolvió sal de cobalto en agua y se añadió una solución 3M de NaOH gota a gota hasta alcanzar pH 13. - Se calentó a 60ºC durante 4 horas, se lavó hasta alcanzar pH 7, se secó a 100ºC y se calcinó a 700ºC. Óxido de Hierro: - Se prepararon soluciones 0.3M de cloruro de hierro II y 0.6M de cloruro de hierro III. - Se añadió gota a gota a una solución 1M de NaOH a 70ºC, se agitó durante 15 minutos. - Se lavó con agua destilada y se dejó reposar durante 24 horas. Óxido de Cobre:  - Se siguió el mismo proceso que para el óxido de hierro. 2. Síntesis de Polimetilmetacrilato (PMMA): - Se preparó una solución de agua destilada y SDS. - Se añadió APS y se calentó a 85ºC, luego se incorporó MMA lentamente. - Se burbujeó argón y se dejó reaccionar durante 4 horas, se apagó la temperatura, se dejó enfriar, se precipitó el polímero en metanol, se lavó y se secó a 90ºC. 3. Preparación de recubrimientos: - Se disolvió PMMA en acetato de etilo con óxidos (1% y 3%). - Se aplicó la solución a placas de acero decapadas y se dejó secar durante 24 horas. - Se evaluó la adherencia del recubrimiento con una navaja y cinta adhesiva. 4. Prueba de corrosión: - Se aplicaron recubrimientos al 1% y 3% en piezas de acero, dejando una pieza sin recubrimiento. - Se colocaron las piezas en una solución salina sobresaturada y se registraron los cambios con fotografías cada 24 horas durante 5 días.


CONCLUSIONES

Conclusiones: Prueba de adhesión. En esta prueba en casi todas las piezas se obtuvo un buen nivel de adhesión del recubrimiento de las partículas, la mayoría obtuvo entre el nivel 1 y el nivel dos, excepto las nanopartículas de cobre que obtuvieron un nivel 0, tanto en la solución de 1% como en la solución de 3%. Caracterización con DLS. Se realizo la prueba de tamaño de nanopartículas en un DLS para así observar y registrar de qué tamaño se lograron obtener las nanopartículas tras su síntesis. Como resultado fue que la mayoría si no es que todos los óxidos contaban con nanopartícula de gran tamaño en su mayoría. Alúmina: 479nm (100%) Oxido de Zinc: 876nm (94%) y 150nm (6%) Oxido de Cobalto: 447nm (93%) y 4338nm (7%) Óxido de Hierro: 2441nm (91%) y 366nm (9%) Oxido de Cobre: 2250nm (100%) Al ver los resultados concluimos que ningún oxido tiene el tamaño de partículas de las cuales puedan ser consideradas nanopartículas, esto es importante mencionarlo ya que el tamaño de estas puede influir en la eficiencia de los recubrimientos y su funcionalidad. Prueba de la lluvia acida. El día 04/07/24 se cubrieron las piezas con el polímero y se dejaron secar hasta el día siguiente obteniendo como resultado que desde pasadas las 24 horas se logró formar óxido en la superficie de estas, sin embargo, en unas piezas es más notorio, en las que se aprecia menor óxido son las de cobalto 1%, cobalto 3%, hierro y alumna 3%. El día de las próximas fotos el día 08/07/2024 a las 10:00 am y 2:00 pm se observó que las piezas de cobre y cobalto mencionadas con mejor resultado se forma óxido de forma más lenta en comparación con las demás, y las piezas de alúmina y hierro al 3% se formaron de un tono blanquecino. En los últimos días 10,11, 12 del 07 del 24 se logró observar que la superficie de cada pieza se va oxidando paulatinamente, pero en unas es más lento el proceso siendo las mejores las de cobre y cobalto ya mencionadas, mientras la pieza de control sin nanopartículas se oxido por completo.
Gómez Guerrero Melani Alondra, Universidad de Guadalajara
Asesor: Dra. Grace Erandy Báez Hernández, Instituto Tecnológico Superior de Guasave

PERCEPCIóN DEL CONSUMO DE ESTEVIA EN COALCOMáN, MICHOACáN.


PERCEPCIóN DEL CONSUMO DE ESTEVIA EN COALCOMáN, MICHOACáN.

Gómez Guerrero Melani Alondra, Universidad de Guadalajara. Sandoval Morfín Araceli Guadalupe, Instituto Tecnológico Superior de Coalcomán. Asesor: Dra. Grace Erandy Báez Hernández, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

Los alimentos dulces han sido muy importantes en la alimentación del ser humano ya que estimulan el sentido del gusto causando una sensación agradable al consumir los alimentos. A finales del siglo XIX fueron descubiertos diversos edulcorantes (compuestos naturales o sintéticos de sabor dulce). La estevia rebaudiana es una planta originaria del sudeste de Paraguay, miembro de la familia de las asteráceas, conocida como hoja dulce. Es un arbusto perene que puede alcanzar de 65 a 80 cm, pero que cultivada a campo abierto puede llegar hasta 1 metro de altura. Sus hojas lanceoladas miden aproximadamente 5 cm de longitud y 2 cm de ancho y se disponen alternadas, enfrentada de dos en dos. Pueden utilizarse para la producción comercial por periodo de 5 o mas años, dando varias cosechas anuales. (Madan, S & Singh, 2016). Con base a esto, la investigación tiene como objetivo, conocer la producción de Estevia para ser una alternativa de cultivo sostenible a los productores agrícolas de Guasave para el desarrollo de productos, mismos que se identificaran  con la percepción del consumo de estevia rebaudiana en la (Ciudad de Coalcomán y estado de  Michoacán). Este trabajo contribuye a los Objetivos de desarrollo Sostenible ODS de la Agenda 2030 de las Naciones Unidas, específicamente en ODS número 2 Hambre cero , impactando las metas de generar una alternativa sostenible de cultivo para las tierras, y lograr la seguridad alimentaria y la mejora de la nutrición promoviendo a agricultura sostenible.  En el ODS 3 Salud y Bienestar impacta en la meta de fortalecimiento de la prevención y tratamientos de abuso de sustancias adictivas, específicamente el azúcar. Contribuyendo al bienestar social y mejorando la calidad de vida.



METODOLOGÍA

La metodología se estructuro en dos fases, La primera fase fue una investigación documental para conocer y estudiar las condiciones del cultivo, producción así como las condiciones del cultivo, para el siguiente ciclo.  En la segunda fase se genero una encuesta para conocer la percepción de los población con respecto a conocimiento y productos de valor agregados de estevia son parte del mercado. La investigación documental fue una investigación básica, descriptiva de las características de la planta y las condiciones que se deben de considerar para la producción de la planta y el procesamiento del mismo. La parte de percepción se realizo una investigación descriptiva a través de una encuesta que fue tipo cuestionario de 15 preguntas, unas dicotómicas, preguntas abiertas y cerradas.  Que se realizo en la ciudad de Guasave, Se utilizo un formulario Google Forms y se utilizó un muestreo simple aleatorio, con un nivel de confianza de 90% y un error de 8 solicitando desarrollar 106 encuestas. Debido a las condiciones de estudio y los tiempos de la estancia solo se contestaron 100 encuestas.   RESULTADOS: La  encuesta  se realizo en la ciudad de Coalcomán  seleccionando de manera  aleatoria a las personas que contestaran el instrumento.  De las 100 encuestas se tiene que (50.1%) son mujeres y (49.9) son hombres. En promedio tiene un rango de edad de (de 18-25 años75, de 26-35 años 12.5%, de 36-45 años 6.5% y de 46.55 años 6.5% )  EL 93.8 % Conoce la planta llamada Stevia rebaudiana y productos  solo el 6.7% no conoce la planta. El 37.5% conoció la estevia y sus productos por recomendación médica, el 25 % redes sociales y televisión 25%y 12.5% por otros medios. EL 87.5% Ha consumido estevia como endulzante y el 12.5% lo ingiere en Café. La presentación con mayor frecuencia es en polvo con un 87.5%, liquida un 6.3%, hojas molidas 6.3% y 6 a 12% la ingiere en bebidas y postres.  El 87.5% consume de manera frecuente la presentación de polvo de estevia mientras que el 6.3% la consume de manera líquida.  Indicando que el  100 % la ingiere 1 vez al día. La marca de estevia que tiene mayor consumo es la marca STEVIA  ya que es fácil de encontrar.  Y con un precio a la venta de $ 75 pesos , splenda $52 pesos,  ( las marcas con mayor frecuencia son STEVIA con un precio de $75 y la SPLENDA con un precio de $52 son las más consumidas en su versión polvo, debido a que se encuentran en la mayoría de las tiendas de abarrote facilitando así su compra y mayor consumo) El 81.3% considera el sabor dulce de estevia en comparación con el azúcar, mientras que el 6.3% le es desagradable y el 12,5% no percibe el cambio de sabor.  El 87.5% no presenta ningún efecto al consumir estevia solamente el 6.3% presenta alergias o dolor de estomago. El 93.3% de la población atribuye beneficios a la salud, como es control de peso, reducción de presión arterial, controlar la glucosa.  Y El 18.8% consulta médica (medicina interna, endocrinología, consulta bariátrica y el 12.5 %  con análisis de laboratorio. El 37.5% de la población compra la estevia en supermercados, el 12.5% en tiendas en línea y el 31.3% lo encuentra en tiendas de esquinas ( Oxxo, extras, abarrotes, etc.)


CONCLUSIONES

Durante la investigación se identificó y analizo un cultivo sustentable para los productores de Guasave Sinaloa, La estevia, que va desde la producción y transformación de nuevos productos, desarrollando valor agregado a la actividad primaria. Con la encuesta se  conoce la percepción del consumo de estevia y   las necesidades claves del mercado para la presentación de los productos, que son desde hoja, liquida y polvo de estevia para el consumo local, regional y nacional. Con la estancia en el verano, el equipo de investigación se dedicó a un estudio exhaustivo de la Stevia, un edulcorante natural que ha ganado considerable popularidad en los últimos años. Los resultados obtenidos revelan un potencial significativo de esta planta en diversos campos, desde la alimentación hasta la medicina. Donde se logró adquirir arduos conocimientos, así fortaleciendo la formación académica de los alumnos dando herramientas para el futuro, este verano de investigación ha sentado las bases para futuras investigaciones sobre la Stevia. Los resultados obtenidos son alentadores y sugieren que la Stevia tiene el potencial de convertirse en un ingrediente clave en la producción de alimentos y medicamentos más saludables y sostenibles.  
Gomez Jimenez Janeth Jazmin, Universidad Autónoma de Chiapas
Asesor: Mtra. Aurora Ayerim Reyes Zaldivar, Tecnológico de Estudios Superiores de San Felipe del Progreso

GEOMANTA A BASE DE FIBRAS DE MAGUEY PARA LA ESTABILIZACIóN DE TALUDES


GEOMANTA A BASE DE FIBRAS DE MAGUEY PARA LA ESTABILIZACIóN DE TALUDES

Gomez Jimenez Janeth Jazmin, Universidad Autónoma de Chiapas. Asesor: Mtra. Aurora Ayerim Reyes Zaldivar, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

La estabilidad de taludes es un desafío crítico en ingeniería civil y geotécnica, particularmente en regiones montañosas y áreas propensas a deslizamientos de tierra. Los deslizamientos de taludes pueden causar daños significativos a infraestructuras, propiedades y pueden poner en riesgo la vida de las personas. La estabilización de taludes se ha abordado tradicionalmente con técnicas como muros de contención, anclajes y sistemas de drenaje, pero estas soluciones pueden ser costosas y no siempre sostenibles desde el punto de vista ambiental. En los últimos años, ha habido un interés creciente en el uso de materiales naturales y sostenibles para la estabilización de taludes. Las geomantas, que son telas geotextiles utilizadas para proteger y estabilizar superficies, han demostrado ser efectivas en muchas aplicaciones. Sin embargo, la mayoría de las geomantas disponibles en el mercado están hechas de materiales sintéticos, los cuales pueden tener impactos ambientales negativos a largo plazo. En este contexto, surge la necesidad de explorar alternativas más ecológicas y sostenibles. Una opción prometedora es el uso de fibras de maguey, una planta abundante en muchas regiones de América Latina, que puede ser utilizada para la fabricación de geomantas. Las fibras de maguey son biodegradables, tienen buenas propiedades mecánicas y su uso podría promover el desarrollo económico local y la sostenibilidad ambiental.



METODOLOGÍA

La metodología para la elaboración y evaluación de geomantas a base de fibras de maguey para la estabilización de taludes se dividirá en varias etapas: recolección y preparación de fibras, fabricación de geomantas, caracterización de propiedades mecánicas. Cada una de estas etapas es crucial para garantizar que el producto final sea efectivo y sostenible. 1. Recolección y Preparación de Fibras de Maguey 1.1 Identificación y Selección de Plantaciones: Seleccionar plantaciones de maguey en regiones adecuadas, asegurando que las plantas sean maduras y de calidad óptima. 1.2 Cosecha de Fibras: Recolectar las hojas de maguey manualmente o utilizando herramientas adecuadas, y extraer las fibras mediante técnicas tradicionales o modernas de desfibrado. 1.3 Limpieza y Secado: Limpiar las fibras para eliminar impurezas y residuos. Secar las fibras al aire libre o en secadores industriales, asegurando que mantengan sus propiedades mecánicas. 1.4 Tratamiento de Fibras: Aplicar tratamientos químicos o naturales para mejorar la resistencia y durabilidad de las fibras, si es necesario. 2. Fabricación de Geomantas 2.1 Diseño de Geomantas: Diseñar la estructura y dimensiones de las geomantas basadas en los requerimientos de la estabilización de taludes. 2.2 Tejido de Fibras: Utilizar técnicas de tejido manual o maquinaria industrial para crear las geomantas, asegurando una distribución uniforme y densidad adecuada de las fibras.  


CONCLUSIONES

La estabilización de taludes mediante geomantas a base de fibras de maguey representa una alternativa prometedora a las soluciones convencionales, con beneficios potenciales tanto ambientales como socioeconómicos. Sin embargo, es crucial realizar investigaciones exhaustivas para validar su efectividad y viabilidad a largo plazo. En conclusión, la investigación sobre geomantas a base de fibras de maguey ha proporcionado una base sólida para considerar esta alternativa sostenible en la estabilización de taludes. La combinación de efectividad técnica, beneficios ambientales y ventajas socioeconómicas hace que las geomantas de maguey sean una solución viable y atractiva para abordar los desafíos asociados con la erosión y la estabilidad de taludes. Esta investigación no solo contribuye al avance del conocimiento científico en el campo de la geotecnia, sino que también apoya el desarrollo de prácticas de ingeniería civil más sostenibles y responsables.  
Gómez Juárez Ignacio, Instituto Politécnico Nacional
Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios

ESTADO DEL ARTE DE PROCESOS INDUSTRIALES EN LA AGROINDUSTRIA BASADOS EN PLC


ESTADO DEL ARTE DE PROCESOS INDUSTRIALES EN LA AGROINDUSTRIA BASADOS EN PLC

Gómez Juárez Ignacio, Instituto Politécnico Nacional. Mendoza Remigio Luis Eduardo, Universidad Rosario Castellanos. Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

La producción de aguacate es una industria agrícola de creciente importancia económica a nivel mundial. Sin embargo, los métodos tradicionales utilizados en los plantíos de aguacate a menudo resultan en ineficiencias operativas y sostenibilidad limitada. Los Controladores Lógicos Programables (PLC) han demostrado ser una tecnología prometedora para la automatización y optimización de procesos industriales, ofreciendo un control preciso y eficiente en diversas aplicaciones agrícolas. Actualmente, la implementación de PLC en la producción de aguacate no está plenamente documentada ni explorada, lo que genera una brecha significativa en el conocimiento y aplicación de esta tecnología en el sector. Las operaciones de riego, gestión de nutrientes, monitoreo de plagas y enfermedades, y la optimización de la cosecha son áreas clave que podrían beneficiarse de la adopción de PLC. Es crucial realizar un estado del arte que clarifique el contexto actual y ejemplifique la implementación de los PLC en los plantíos de aguacate, identificando tanto los beneficios como los desafíos asociados. Al abordar esta necesidad, se pretende responder a la siguiente pregunta ¿De qué manera impactaría el uso de los PLC en la implementación de plantíos de aguacate? Se pretende tener una idea clara a partir de la investigación exhaustiva de bases de datos y documentación relacionada a los PLC aplicados en los cultivos de aguacate, se espera conocer los aumentos aproximados en la cantidad de frutos recogidos, tiempos de recuperación de inversión y reducción de mano de obra.



METODOLOGÍA

Se opto por seguir la metodología de análisis de citas la cual se centra en el análisis de las citas bibliográficas entre los estudios relevantes para identificar conexiones, influencias y evolución de las ideas en el campo de estudio. (Moed, 2005) Esta metodología fue seleccionada debido a su capacidad para mapear de manera precisa cómo se han desarrollado las investigaciones y aplicaciones de los PLC en la producción agrícola a lo largo del tiempo. Definición del Alcance: Se establecieron los objetivos y límites del estudio, concentrándose en las aplicaciones relevantes de PLC en la producción agrícola. Búsqueda de Información: Se llevó a cabo una búsqueda exhaustiva en diversas bases de datos académicas, revistas especializadas y artículos científicos. Se utilizaron palabras clave pertinentes al tema y se aplicaron criterios estrictos de selección para asegurar que solo se incluyeran documentos de alta relevancia y calidad. Esta búsqueda incluyó fuentes como IEEE Xplore, ScienceDirect, y Google Scholar. Criterios de Selección: Para la selección de la literatura, se definieron criterios específicos que incluían la relevancia temática (aplicaciones de PLC en la agricultura), la calidad científica (publicaciones revisadas por pares) y la actualidad de los estudios (priorizando investigaciones recientes). Este riguroso proceso de selección garantizó la inclusión de las investigaciones más relevantes y valiosas para el análisis. Análisis de la Información: La información recopilada fue analizada y categorizada según diversos aspectos, tales como aplicaciones tecnológicas de los PLC en la agricultura, los beneficios y desafíos asociados con su uso, comparaciones con otras tecnologías de automatización y estudios de caso específicos que demostraran su aplicación práctica. Este análisis permitió una comprensión profunda y estructurada del tema. Elaboración del Estado del Arte: Con base en el análisis de la información, se desarrolló un documento del estado del arte que incluye la evolución histórica del uso de los PLC en la agroindustria, aplicaciones actuales, comparaciones con otras tecnologías emergentes, estudios de caso representativos y conclusiones generales. Este documento sirve como una referencia comprensiva y bien documentada sobre el tema. Validación de Resultados: Los resultados fueron validados mediante revisión. Redacción y Presentación del Informe: Finalmente, se redactó el informe del estado del arte que fue revisado y editado para asegurar la coherencia y claridad del contenido. Esta metodología asegura que el estudio sea exhaustivo, bien fundamentado y relevante para el avance de la aplicación de los PLC en la producción agrícola.


CONCLUSIONES

La automatización industrial mediante PLC está ampliamente adoptada en la agroindustria a nivel global, evidenciando su importancia y crecimiento continuo en diferentes países. Los casos estudiados muestran consistentemente mejoras en la eficiencia, eficacia y rentabilidad de los procesos agrícolas gracias a la automatización, destacando su capacidad para optimizar el uso de recursos naturales y económicos. La integración de PLC con redes de conexión industrial es una práctica común, subrayando la sinergia efectiva entre estas tecnologías para mejorar la gestión y control en entornos agrícolas. Existe una tendencia clara hacia sistemas de riego automatizados que utilizan tecnologías avanzadas como sensores para medir la humedad del suelo y condiciones climáticas, así como sistemas predictivos para mejorar la eficacia del riego y reducir el consumo de agua. Se observa un creciente interés en el desarrollo de modelos predictivos y tecnologías de bajo impacto ambiental, como bio-insecticidas y bio-fertilizantes, para optimizar la producción agrícola y minimizar el uso de productos químicos. El análisis cronológico muestra picos significativos en la investigación en 2014 y 2022, reflejando momentos clave de avance y adopción tecnológica en la agroindustria, con una creciente influencia de tecnologías emergentes como la inteligencia artificial y biotecnologías.
Gómez Megchún María Fernanda, Universidad Autónoma de Chiapas
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

CORROSIóN EN ESTRUCTURAS DE CONCRETO REFORZADO Y EL EFECTO DE NANO PARTíCULAS DE SILICIO SOBRE PROPIEDADES DE DURABILIDAD DE MUESTRAS DE CONCRETO REFORZADO


CORROSIóN EN ESTRUCTURAS DE CONCRETO REFORZADO Y EL EFECTO DE NANO PARTíCULAS DE SILICIO SOBRE PROPIEDADES DE DURABILIDAD DE MUESTRAS DE CONCRETO REFORZADO

Gómez Megchún María Fernanda, Universidad Autónoma de Chiapas. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

Desde su invención en el siglo XIX hasta la actualidad, el concreto armado se ha reconocido como un material extremadamente versátil y adecuado para una gran variedad de aplicaciones estructurales de alta complejidad. Además de los beneficios mecánicos que nos brinda dicho material, la interacción del concreto con el acero de refuerzo se fundamenta en la protección física y química que el concreto le confiere al acero de refuerzo contra la corrosión. En condiciones normales, el concreto que envuelve al acero de refuerzo promueve la formación de una capa de óxido, llamada película pasivante, que protege al metal de su interacción con el ambiente. Sin embargo, tanto el dióxido de carbono como la humedad del entorno, logran filtrarse en el concreto a través de sus poros y reaccionan químicamente con sus componentes. Cómo resultado se generan carbonatos que debilitan la barrera química de protección del acero y la humedad lo corroe, esto provoca que el concreto se expanda y se produzcan grietas de manera uniforme en toda la estructura. Un proceso similar ocurre con los cloruros, comunes en zonas costeras como lo es la ciudad de San Francisco de Campeche, pero en este caso los daños se presentan en forma de picaduras profundas y aleatorias. En este sentido, el mayor problema que se presenta en estás zonas son las grandes cantidades de humedad, causando que el concreto retenga más humedad e incremente el riesgo de corrosión del acero de refuerzo. Por lo tanto, durante el verano de investigación se estudiarán los resultados obtenidos al comparar el proceso de corrosión entre muestras de concreto simple y otras que contienen nuevos materiales en la pasta de concreto, específicamente nano partículas de silicio.



METODOLOGÍA

El primer paso de la investigación fue hacer una revisión bibliográfica de todos los trabajos previos cuyo enfoque era similar al tema. Se elaborarán dos diseños de mezclas para probetas de concreto cilíndricas. La primera serán muestras Testigo de concreto simple y la segunda tendrá añadidas Nano partículas de silicio sintetizadas en el laboratorio de Análisis Químicos de CICORR, el objetivo será ver si estás proporcionan al concreto una mayor resistencia a la corrosión, o si por el contrario el cambio no sería notorio. En este proyecto se elaborarán un total de 48 muestras. Para el diseño de mezcla, se eligió el diseño establecido de la ACI (American Concrete Institute) 211.1. A sugerencia del asesor, se utilizará una relación agua/cemento de 0.60 y una f’c de 280 kg/〖cm〗^2. Se diseñó un concreto para exposición a condiciones ambientales, para ello las condiciones estructurales exigen que tenga una resistencia promedio a la compresión a los 28 días de 280 kg/cm2. De acuerdo con estas condiciones se requiere un revenimiento de 10 a 7.5 cm. Una vez elaboradas las probetas (las 24 piezas por colada), se procederá a desmoldar de 6 a 8 horas después, y se someterán a curado por inmersión con una solución saturada de Ca (OH)2 durante 90 días. Durante este tiempo se realizarán pruebas de resistencia a la compresión a los 7, 14, 28 y 90 días de curado.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos del proceso de la corrosión en estructuras de concreto armado, especialmente se obtuvieron conocimientos prácticos a la hora de diseñar y preparar las mezclas de concreto, así como del tipo de pruebas que pueden practicarse para examinar las propiedades del material. El curso de “Fundamentos de Durabilidad de Infraestructura” que nos ofreció la institución también fue útil para refrescar conocimientos previos que ya se tenían respecto a la Termodinámica y la Electroquímica, sirvieron para entender de una manera mas simple el proceso químico de la corrosión. Se pudieron analizar los resultados de las pruebas Testigos a 7 días de haber sido coladas, pero debido a la falta de tiempo no se pueden comparar los resultados con las muestras que tienen Nano materiales. También sirve decir que se aprendieron a poner en práctica los procedimientos estandarizados para lograr las coladas esperadas y hacer un correcto analisis de las pruebas de comprensión. A pesar de solo haber podido observar los resultados preliminares de las pruebas de resistencia a comprensión de 7 y 14 días en las muestras Testigo, y pruebas de 7 dias a las muestras con Nanos, es información suficiente para hacer un analisis inicial para estimar si la presencia de MSN puede favorecer la resistencia del concreto.
Gomez Morales Bryan, Instituto Politécnico Nacional
Asesor: Dr. Nestor Antonio Morales Navarro, Instituto Tecnológico de Tuxtla Gutiérrez

ROBOT DIDACTICO PARA LA ENSEñANZA DE PROGRAMACION A NIVEL PRIMARIA


ROBOT DIDACTICO PARA LA ENSEñANZA DE PROGRAMACION A NIVEL PRIMARIA

Gomez Morales Bryan, Instituto Politécnico Nacional. Pola Marquez Ariel Alonso, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Nestor Antonio Morales Navarro, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

La educación es el punto donde los niños comienzan a formarse y a comprender como funciona la sociedad, la tecnología y la vida, aprender sobre todos los temas es necesario. Si bien no todos los niños tienen los mismos sueños y mucho menos apuntan a lo mismo, es importante proveerles educación de calidad y que se sientan atraídos por la ciencia y tecnología. A todos nos emociona saber que sucederá en el futuro y que mejor que los niños empiecen a tener las bases para construirlo. Datos otorgados por la SEP indican que durante el ciclo escolar 2019-2020 y 2020-2021, Chiapas registró una alta deserción escolar y baja de matrícula de 45 mil 725 estudiantes: 29 mil 305 de ellos alumnos de escuelas públicas y 16 mil 420 alumnos de escuelas privadas. Una de las problemáticas a las que se enfrenta la educación es la falta de interés por los estudiantes, en este caso niños, pues desde muy temprana edad no se interesan por nada, pues solo se les explica y que ellos lo manejen con su propia interpretación, por que no es lo mismo hablar sobre robots que trabajar directamente con uno, y eso es lo que queremos lograr, que desde niños, vean como es la vida fuera de su cabeza, que lo que imaginan lo pueden lograr.



METODOLOGÍA

Mediante el uso del lenguaje de programación Python, una tarjeta Raspberry 4, y un robot tipo tanque, se decidió enfocar el trabajo hacía el desarrollo y comprensión de la lógica en los niños. Para ellos, nos cuestionamos ¿cómo podríamos hacer que los niños entiendan esta misma lógica y parte de la codificación sin la necesidad de entender tantos tecnicismos? Nuestra metodología comprende lo siguiente: 1.- Armar el robot omnidireccional 2.- Implementar algoritmos de visión artificial para detección de objetos de color rojo 3.- Implementar algoritmos para realizar los movimientos del robot (Adelante, Izquierda, Derecha, Reversa) 3.- Adaptar los algoritmos de visión para interactuar con los movimientos del robot, para realizar el seguimiento de objetivos 4.- Establecer una estrategia por bloques para que el niño pueda dar instrucciones al robot y este los ejecute de manera secuencial. Desarrollo de la metodología Por lo tanto, nosotros empezamos de manera sencilla a realizar códigos encapsulados los cuales nos permitan reconocer distintos colores, ya sea mediante una imagen directamente o también con la cámara de la computadora, esto lo hicimos principalmente para pensar en cómo podríamos llevarlo hacia el tanque y que podríamos hacer con él, por lo que optamos en que una buena idea seria que, dependiendo de los colores que se muestren en la cámara, el robot haga distintas acciones tales como avanzar, detenerse, girar, etc. Una vez obtenida la idea, pasamos a la obtención del robot, el cual tuvimos que armar desde 0, ya que al momento de conseguirlo, este venia totalmente desarmado y tuvimos que montarlo, una vez que lo logramos, nos pusimos en marcha con la realización de todo el trabajo, encontrar la lógica para el trabajo no es algo tan sencillo como parece, mientras para un humano le es fácil identificar ciertos patrones y colores, para una computadora es totalmente distinto, nos gustaría añadir la frase que nos compartió el Dr. Néstor y es que, cuando uno llega a una casa vacía suele decir Aquí no hay nadie por lo que nosotros como humanos percibimos y captamos el mensaje en forma de que ese lugar está vacío, no contiene nada, por que esa es la lógica con la que hemos trabajado y entendido toda nuestra vida, y aunque técnicamente nosotros entendemos que ese lugar no contiene nada, para una computadora no es así, la lógica correcta dentro del Aquí no hay nadie sería Aquí hay nada/nadie, si tratamos de pasar este mensaje hacia una computadora, esta entenderá que Aquí no hay nadie quiere decir que realmente hay algo, que es la nada sino la ausencia de algo, y al decir No hay nadie se está diciendo explícitamente que ahí hay algo, al no haber ausencia, se da a entender que ese lugar contiene algo, por lo que la lógica que nosotros percibimos como humanos es un poco distinta a la lógica que percibe la computadora pero a su vez, la más razonable. Una vez que logramos realizar el código de detección de colores, detección de movimiento, de distancia y de patrones, nos tocó combinarlos y hacerlos funcionar en conjunto, se trabajaron de manera aislada para que no genere problemas, una vez realizados todos los códigos, es un poco mas sencillo encontrar la secuencia y lógica para combinarlos. Ya combinados, realizamos distintas pruebas de ejecución y logramos ver que funcionaba en la computadora, ahora lo que nos tocaba realizar era montarlo sobre la tarjeta raspberry, la cual es la mini computadora que hará trabajar al robot tanque. Nos resultó un poco mas tedioso trabajar sobre la minicomputadora ya que se maneja sobre entornos Linux y no estamos tan acostumbrados a trabajar sobre la misma, por lo que la ejecución de comandos y el manejo del sistema operativo nos costó un poco, pero al paso de los días nos fuimos acoplando. Obtenidos los códigos anteriormente mencionados, los montamos sobre el IDE de Thonny (el cual nos sirve para programar en lenguaje Python) para ver como funcionaba y si todo se encontraba en orden, afortunadamente todo salió bien después de tantas pruebas y errores, al fin lo habíamos logrado, el robot ya sabia diferenciar colores y que hacer para la detección de cada color, si encontraba el color rojo, marchaba hacia atrás, si encontraba el color verde, marchaba hacia adelante, logramos hacerlo así hasta con 6 colores.


CONCLUSIONES

Durante la estancia realizada en el periodo Junio-Julio, logramos adquirir distintos conocimientos en distintas áreas tales como robótica, ética y programación, dentro de esta rama se tocan distintos temas, esperamos que la realización de esta investigación se siga trabajando y que los gobiernos opten por mejorar sus planes de estudios e inculcar desde temprana edad la lógica programacional y se sientan atraídos por la creación de un mejor futuro.
Gomez Nuño Mauro Martin, Universidad de Guadalajara
Asesor: Dr. Rolando Arturo Cubillos González, Universidad Católica de Colombia

DISEÑO DIGITAL DE PROTOTIPOS DE VIVIENDA SOCIAL


DISEÑO DIGITAL DE PROTOTIPOS DE VIVIENDA SOCIAL

Gomez Nuño Mauro Martin, Universidad de Guadalajara. Sánchez Hermosillo Brenda Nayeli, Universidad de Guadalajara. Valderrabano Perez Acxel, Universidad Veracruzana. Asesor: Dr. Rolando Arturo Cubillos González, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

MERCURIO: PROYECTO DE DESARROLLO TECNOLÓGICO presenta el Proyecto: Prototipo de Vivienda de Interés Social que fue elaborado en el Verano de la Investigación Científica y Tecnológica del Pacifico 2024.  El objetivo principal es ofrecer una solución innovadora y eficaz para los problemas de vivienda de interés social en Latinoamérica, especialmente en México y Colombia. Los problemas comunes incluyen la poca accesibilidad debido a los altos costos, el uso de materiales de baja calidad, la falta de infraestructura adecuada, y la deficiente gestión y mantenimiento de las viviendas. Estos factores contribuyen a una planificación urbana ineficiente y a la segregación socioeconómica de las comunidades.



METODOLOGÍA

El enfoque metodológico se centró en integrar principios de sostenibilidad, eficiencia de costos y adaptabilidad para proporcionar soluciones habitacionales asequibles y de rápida implementación. Para alcanzar estos objetivos, se emplearon técnicas de diseño tridimensional, comenzando con la elaboración de 17 módulos tridimensionales de 3 m x 3 m x 3 m, cada uno con diversas variantes en su estructura. Estos módulos fueron diseñados con una tabla de dimensiones para asegurar espacios flexibles. Luego, se cuantificaron los componentes por módulo para realizar tablas de planificación y construcción de módulos con sus respectivos elementos tanto en el sentido vertical como horizontal. Posteriormente, se diseñaron tipologías espaciales, creando combinaciones espaciales a partir de los módulos propuestos, resultando en un total de 126 posibles combinaciones modulares. Obtenidos los diseños de tipologías espaciales, se procedió al diseño de diferentes prototipos de vivienda social, basados en estas combinaciones. Se desarrollaron 10 prototipos de vivienda, con variantes en sus espacios y funciones, sin alterar los módulos tridimensionales iniciales. Estos prototipos permiten adaptabilidad y personalización según las necesidades específicas de las familias, manteniendo la flexibilidad y eficiencia en la construcción. La cuantificación del valor de la vivienda se dividió en dos partes. La primera parte consistió en analizar las tipologías de vivienda social existentes e identificar sus costos en el mercado, desde el precio por metro cuadrado hasta el costo total de la vivienda en distintos sectores de varias ciudades. Este análisis incluyó la revisión de factores como materiales, mano de obra y ubicación, proporcionando una visión completa de los costos actuales. En la segunda parte, se cuantificaron los costos de los prototipos de vivienda social propuestos, evaluando sus costos a partir de sus modulaciones y espacios. Este análisis consideró no solo los costos de construcción, sino también aspectos como la durabilidad de los materiales, la eficiencia energética y el mantenimiento a largo plazo. Además, se realizó una comparación entre los costos de las viviendas existentes y los prototipos propuestos, permitiendo identificar posibles ahorros y mejoras en la eficiencia económica. Este enfoque integral asegura que los prototipos de vivienda social no solo sean viables desde el punto de vista técnico y funcional, sino también accesibles y sostenibles desde el punto de vista financiero. Al integrar principios de sostenibilidad, eficiencia de costos y adaptabilidad, se busca ofrecer soluciones habitacionales que puedan adaptarse a las necesidades cambiantes de las familias y contribuir al desarrollo de comunidades cohesionadas y sostenibles a largo plazo.


CONCLUSIONES

El proyecto "Mercurio: Prototipo de Vivienda de Interés Social", desarrollado durante el Verano de la Investigación Científica y Tecnológica del Pacífico 2024, representa un esfuerzo significativo por abordar los problemas críticos que enfrentan las viviendas de interés social en Latinoamérica, particularmente en México y Colombia. A través de una metodología innovadora que integra sostenibilidad, eficiencia de costos y adaptabilidad, se han propuesto soluciones habitacionales modulares que responden a las necesidades reales de las comunidades más vulnerables. En resumen, este proceso de diseño y cuantificación proporciona una base sólida para la implementación de proyectos de vivienda social, garantizando que las soluciones propuestas sean prácticas, económicas y beneficiosas para las comunidades destinatarias; el uso de técnicas de diseño tridimensional y la creación de módulos flexibles y polivalentes han permitido generar múltiples combinaciones espaciales y prototipos de vivienda que no solo mejoran la accesibilidad y calidad de las viviendas, sino que también fomentan el desarrollo integral de las comunidades. Estos módulos pueden adaptarse a diversas configuraciones, permitiendo a las familias personalizar sus espacios según sus necesidades específicas y posibilitando futuras expansiones. En conclusión, este proyecto ofrece un enfoque viable y eficiente para mejorar la vivienda de interés social, demostrando que es posible combinar innovación tecnológica con responsabilidad social para crear soluciones habitacionales que realmente beneficien a quienes más lo necesitan. A través de la implementación de tecnologías avanzadas, el uso de materiales sostenibles y un diseño centrado en el usuario, este prototipo de vivienda no solo aborda las necesidades inmediatas de vivienda, sino que también contribuye al bienestar y desarrollo a largo plazo de las comunidades.
Gómez Prado Juan Pablo, Universidad Autónoma de Occidente
Asesor: M.C. Jesus Osuna Cabanillas, Universidad Autónoma de Occidente

PRÓTESIS DE MANO INTELIGENTE INTEGRANDO SENSOR EMG PARA MOVIMIENTOS NATURALES Y PRECISOS


PRÓTESIS DE MANO INTELIGENTE INTEGRANDO SENSOR EMG PARA MOVIMIENTOS NATURALES Y PRECISOS

Gómez Prado Juan Pablo, Universidad Autónoma de Occidente. Asesor: M.C. Jesus Osuna Cabanillas, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La humanidad ha avanzado significativamente en la comunicación entre el cerebro y las computadoras, desde el electrocardiograma hasta las modernas lecturas de pulsos neuronales con electroencefalogramas. Este progreso es relevante para las personas que han perdido una extremidad, como en México, donde se realizan aproximadamente 75 amputaciones diarias. La creación de brazos robóticos que usan sensores de electromiografía (EMG) es una solución prometedora, ya que estos sensores capturan señales eléctricas de la contracción muscular, permitiendo un control preciso de la prótesis. Sin embargo, las prótesis actuales tienen limitaciones como alto costo, peso y limitado rango de acción, lo que demanda innovación continua en ingeniería biomédica para mejorar su calidad y funcionalidad.



METODOLOGÍA

Enfoque: Se utilizará un enfoque cualitativo para diseñar y desarrollar una prótesis de mano, entendiendo las necesidades y experiencias de los usuarios y los aspectos técnicos. Se realizarán entrevistas a personas con amputaciones y expertos para obtener retroalimentación y datos biométricos que se usarán en el desarrollo de la prótesis. Alcance: La investigación cubrirá desde la revisión de literatura hasta el diseño, desarrollo y prueba de un prototipo de prótesis de mano. Se realizarán estudios descriptivos y de campo para comprender las necesidades de los usuarios y guiar el diseño del prototipo, el cual será probado exhaustivamente. Diseño: Se empleará un enfoque no experimental y transversal, usando métodos de diseño de ingeniería y prototipado rápido para crear y mejorar el prototipo sin manipulación de variables. Este estudio observacional permitirá evaluar la funcionalidad del prototipo en un momento específico. Tipo de investigación: La investigación es aplicada, enfocada en desarrollar una solución práctica para mejorar la calidad de vida de personas con amputaciones de mano, generando conocimiento nuevo y aplicable en prótesis avanzadas.


CONCLUSIONES

El diseño de prótesis modernas requiere una combinación de conocimientos en ingeniería mecánica, materiales, electrónica e inteligencia artificial. La combinación de estos elementos de una buena manera puede resultar en prótesis más funcional, cómodas y adaptadas a las necesidades de los usuarios. Sin embargo, aún existen desafíos y áreas de investigación activa en el campo, como mejorar la precisión y la velocidad de los algoritmos de control y la integración de información sensorial para una experiencia de usuario más intuitiva y natural.
Gomez Ramirez Mariana, Corporación Universitaria Empresarial Alexander von Humboldt
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

ANáLISIS DE TIEMPOS MUERTOS EN UNA EMPRESA DE MANUFACTURA DE PRODUCTOS DE ASEO


ANáLISIS DE TIEMPOS MUERTOS EN UNA EMPRESA DE MANUFACTURA DE PRODUCTOS DE ASEO

Gomez Ramirez Mariana, Corporación Universitaria Empresarial Alexander von Humboldt. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

  En una empresa colombiana de manufactura de productos de aseo se ha identificado que la disponibilidad de los equipos en el indicador OEE (Overall Equipment Effectiveness) es baja debido a los tiempos muertos asociados al proceso productivo, estos tiempos muertos representan períodos en los que los equipos no están operativos, lo cual reduce el tiempo efectivo de trabajo y en consecuencia resulta en una menor producción de litros. La planta de producción, que es fundamental para la empresa, se ve afectada significativamente por esta baja disponibilidad. Por lo tanto, es crucial identificar y analizar los tiempos muertos más frecuentes para proponer mejoras que aumenten la disponibilidad y, por ende, la eficiencia y productividad de la planta.  



METODOLOGÍA

El proyecto se centra en el análisis de los tiempos muertos en la producción de una empresa colombiana, identificando sus causas y proponiendo mejoras para optimizar la eficiencia de la línea productiva. Se examinan tanto los paros programados como los no programados, con el objetivo de reducir el impacto negativo en la producción y maximizar el rendimiento.   La empresa tiene un proceso lineal de producción que abarca desde la mezcla de materia prima hasta el encajado del producto terminado.  Se identifican dos tipos de tiempos muertos:   Paros Programados: Incluyen descansos, reuniones, cambios de referencia, entre otros. Paros No Programados: Incluyen problemas como falta de insumos, mantenimiento correctivo, y novedades de calidad.   El objetivo principal es identificar y analizar los tiempos muertos más frecuentes y su impacto en la disponibilidad de la planta.   Se realizó un análisis de un trimestre de tiempos muertos utilizando un formato donde los maquinistas registran datos relevantes como la línea, fecha, tipo de paro, y duración. A partir de estos datos, se generaron tablas dinámicas y un diagrama de Pareto para identificar las causas más críticas.   1. Paros No Programados:    - Falta de Producto: Representa el 43% de los tiempos muertos, con oportunidades de mejora en las líneas identificadas.   - Mantenimiento Correctivo: Afecta la producción en varias líneas, con un análisis detallado de las líneas más afectadas.   2. Paros Programados:    - Cambios de Referencia: Con un 68% de los paros programados, se requiere un análisis para estandarizar los tiempos de ajuste de equipos.    - Descansos: Se implementó un nuevo sistema de rotación para que los operarios tomen descansos sin detener completamente la línea.   La metodología utilizada en el proyecto incluye los siguientes pasos:   1. Recolección de Datos: Se registraron los tiempos muertos en un formato específico por parte de los maquinistas, asegurando la precisión de la información.   2. Análisis de Datos: Se utilizaron herramientas como tablas dinámicas y diagramas de Pareto para identificar patrones y causas de los tiempos muertos.   3. Identificación de Causas: A través del análisis, se identificaron las principales causas de los tiempos muertos, tanto programados como no programados.   4. Desarrollo de Propuestas: Con base en los resultados del análisis, se diseñaron propuestas de mejora específicas para cada tipo de tiempo muerto.   5. Implementación y Seguimiento: Se planteó un plan de acción para implementar las mejoras y realizar un seguimiento continuo de los resultados, ajustando las estrategias según sea necesario.  


CONCLUSIONES

Se concluye que las siguientes propuestas de mejoras continuas planteadas impactan la disponibilidad ya que esto disminuye los tiempos muertos y aumentaría el tiempo de trabajo efectivo.   Para Paros Programados:   Realizar capacitaciones de parte de mantenimiento al maquinista sobre la manera más eficiente y rápida de realizar el ajuste de equipo.  Estandarizar el proceso de ajuste de equipo teniendo una guía de el paso a paso sobre los ajustes de equipo para que sea de apoyo para los maquinistas. Crear una matriz de tiempos en la cual se pueda observar la línea y los cambios de referencia que realiza y el tiempo que se demora realizando el ajuste de equipo pasando de una referencia a otra.   Para Paros No Programados:   Se recomienda realizar la inversión de la bomba especializada en la línea 03 para transportar los productos viscosos del tanque fabricador al pulmón ya que este proceso se realiza por medio gravedad por lo tanto es más demorado y genera un paro por falta de producto Se aconseja instalar un tanque de fabricación a la línea 04 de este modo se disminuye el tiempo muerto por falta de producto 
Gómez Segundo Gina Paola, Universidad Autónoma de Chiapas
Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca

USO DE POLIMEROS Y NANOPOLIMEROS COMO PROTECCION ANTICORROSIVA DE VARILLAS EMBEBIDAS EN CONCRETO ANTE UN AMBIENTE MARINO NATURAL Y SIMULADO


USO DE POLIMEROS Y NANOPOLIMEROS COMO PROTECCION ANTICORROSIVA DE VARILLAS EMBEBIDAS EN CONCRETO ANTE UN AMBIENTE MARINO NATURAL Y SIMULADO

Garcia Garcia Biviana, Universidad Autónoma de Chiapas. Gómez Segundo Gina Paola, Universidad Autónoma de Chiapas. Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

La resistencia y durabilidad de los materiales son aspectos importantes en diversos contextos, la resistencia de los materiales se enfoca en analizar las propiedades y características de cada material para que puedan resistir fuerzas externas, es decir se encarga de comprender como afectan las fuerzas externas a los materiales generando que estas sufran deformaciones, es por ello que cada material debe tener la suficiente durabilidad durante la vida útil para la que ha sido proyectada, esto bajo condiciones físicas y químicas a la que se expone. En México la mayoría de las viviendas son construidas a base de muros de bloques de concreto, de columnas y vigas de concreto, estas ultimas son de suma importancia debido a que son las encargadas de trasmitir las cargas sobre los cimientos.  Es por ello la importancia de proponer, conocer y mejorar estrategias que permitan que los materiales cuenten con la suficiente durabilidad y resistencia, sin importar el ambiente en el que se expongan.



METODOLOGÍA

Durante la primera semana se realizó una investigación acerca de las fibras de polipropileno que serán utilizadas para mezclarse con el concreto, esto debido a que dichas fibras mencionadas actúan como un refuerzo secundario del concreto evitando el micro agrietamiento tridimensional.  Se llevo a cabo una reunión en donde se realizo el recordatorio sobre el tema del concreto y el acero Con el conocimiento adquirido se realizaron pruebas de granulometría con el fin de conocer las características del suelo. La granulometría se aplicó para un suelo arcilloso que existe en la zona donde se está realizando el estudio. Con ayuda de la báscula se pesó un total de un kilogramo de la muestra para posteriormente obtener su peso seco. En seguida con ayuda de las mallas no, #1/2, #3/8, #1/4, #4, #10, #20, #40, #60, #100 y #200 se llevo a cabo la clasificación de las partículas y sedimentos presentes en la muestra. Una vez concluida la prueba se realizó una investigación acerca de los inhibidores de corrosión. Los inhibidores anticorrosivos son sustancias químicas que ayudan a las superficies metálicas como el acero, a evitar su oxidación y deterioro provocada por la oxidación, en la investigación realizada se pudo encontrar recubrimientos anticorrosivos conocidos como Arcatec 110 y kromer, que serán utilizadas para las pruebas que se le realizarán. El uso de los inhibidoras de corrosión será necesario para mejorar la durabilidad del acero, esto debido a que se hará una simulación de castillos que estarán expuestos a zonas costeras como Huatulco y Salina Cruz, Oaxaca. Los castillos serán ubicados en casas ubicadas en estas zonas durante un aproximado de 6 meses, posteriormente se estudiará las afectaciones que sufrieron. También se harán muestras con simuladores de olas en la Ciudad de Oaxaca de Juárez. Para comenzar con la fabricación de los castillos, se realizo la mezcla de grava, arena, cemento y agua, esta mezcla se realizó siguiendo cálculos para que se cumpla con las resistencias requeridas de 150 kg/m3 y 250 kg/m3. Se realizo la prueba de revenimiento para asegurar que la mezcla de concretó sea trabajable, fue necesario el uso del cono estándar. Se comienza con el llenado del cono a 1/3 de su volumen, se realiza un compactado del concreto varillando 25 veces, en seguida se llena con la mezcla a 2/3 varillando 25 veces de manera que la varilla penetre en la parte superior de la primera capa, finalmente se llena el cono hasta derramarse y se nivela la superficie con la varilla. Es necesario que se limpie la parte superior y en la base del cono, el encargado empujo el cono y dejo se pisar los estribos, finalmente levanto el cono de manera recta hacia arriba y el cono se coloca al revés con la varilla encima, esto con el fin de poder tomar las mediciones con las que se asentó la mezcla. Se comenzó con el llenado de probetas cubicas de 5cm x 5cm x 5cm con la mezcla de concreto, fue necesario un total de 12 probetas, se dejaron reposar por 7 días y en seguida se realizo la prueba de compresión para verificar que cumplieran con las resistencias requeridas, mediate la máquina de ensayo universal se colocaron las piezas cubicas de concreto y se sometieron a compresión, finalmente se obtuvo que las piezas cubicas cumplieron con las resistencias.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre diferentes estrategias para mejorar la durabilidad y resistencia de materiales, específicamente el acero, que con ayuda de los inhibidores de corrosión se puede reducir la oxidación, sin embargo, debido a que las pruebas de los castillos se deben realizar durante un tiempo aproximado de un año, aun no se obtuvieron datos concretos finales, pero se espera obtener datos que permitan comparar los diferentes inhibidores utilizados y ver como actúa cada uno en el acero ante un ambiente marítimo.
Gómez Tuexi Danna Bárbara, Universidad Vizcaya de las Américas
Asesor: M.C. Leslie Mariella Colunga Sánchez, Universidad Autónoma de Tamaulipas

PURIFICACIóN Y TRATAMIENTO DE CáSCARA DE HUEVO PARA SU APLICACIóN EN LA PREPARACIóN DE CONCRETO Y MORTERO SUSTENTABLE.


PURIFICACIóN Y TRATAMIENTO DE CáSCARA DE HUEVO PARA SU APLICACIóN EN LA PREPARACIóN DE CONCRETO Y MORTERO SUSTENTABLE.

Gómez Tuexi Danna Bárbara, Universidad Vizcaya de las Américas. Asesor: M.C. Leslie Mariella Colunga Sánchez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La construcción es una de las principales industrias que contribuyen a la economía de los países, sin embargo, al mismo tiempo es una de las que más perjudica al medio ambiente. Esta reportado que los edificios y construcciones son responsables de aproximadamente el 40% de las emisiones de gases de efecto invernadero (GEI), 50% de la demanda energética y consumo de materia prima no renovable, 30% de la generación de residuos, así como el 15% del uso de agua potable. (Pomponi & André, 2021) (Cihant Onat & Kucukvar, 2020). El principal material usado en la industria de la construcción es el cemento, de manera que, debido al crecimiento poblacional y desarrollo de áreas urbanas en los países, su aplicación implica producirlo en enormes cantidades, convirtiéndolo en el segundo recurso más utilizado después del agua. Actualmente la manufactura del cemento es responsable del 5-8% de las emisiones de dióxido de carbono (CO2) en todo el mundo (resultado de la calcinación de piedra caliza y la quema de combustibles fósiles), lo que se traduce en un severo impacto medioambiental considerando que, diferentes investigadores estiman que para el 2050 la demanda mundial del cemento aumente en un 400%. (Ranjetha, y otros, 2022) (León Velez & Guillen Mena, 2019). En este sentido, existen muchas investigaciones que buscan generar alternativas más amigables ambientalmente de acuerdo con los objetivos planteados por la ONU en la agenda 2030; un caso particular es la reutilización de materiales considerados desechos (que pueden provenir de diferentes sectores industriales) para reemplazar parcialmente al cemento en la construcción (principalmente en la preparación de concreto y morteros). Al dar un nuevo fin práctico a estos desechos se convierten en residuos, lo cual resulta benéfico considerando que como se mencionó anteriormente, unos de los principales desafíos que acarrea el desarrollo de las grandes ciudades es la gestión adecuada de residuos sólidos, impactando negativamente sobre la atmósfera, suelo y agua (Sanchez Muñoz, Cruz Cerón, & Maldonado Espinel, 2019). Durante esta estancia científica se buscó apoyar en la parte experimental de un proyecto de investigación donde se utilizan residuos de producción masiva generados por la industria avícola para reemplazar parcialmente al cemento en la producción de concreto y mortero sustentable; específicamente se trabajó en la metodología para la purificación y tratamiento previo a su aplicación que se le da a uno de los residuos empleados la cáscara de huevo, (ES, por sus siglas en inglés). OBJETIVOS. OBJETIVO GENERAL. Trabajar en el desarrollo de la metodología para la purificación y tratamiento de la ES, para su posterior aplicación en la preparación de muestra de concreto y mortero sustentable.   OBJETIVOS ESPECÍFICOS. Separar manualmente la membrana interna compuesta de aminoácidos de la ES. Lavar con agua corriente la ES para eliminar contaminantes. Desodorizar mecánicamente la ES empleando un baño de ultrasonido. Secar mecánicamente utilizando una estufa a 110 °C ± 5 °C Triturar mecánicamente y tamizar la ES hasta obtener un polvo de 150 µm.



METODOLOGÍA

PREPARACIÓN DE POLVO DE CÁSCARA DE HUEVO. Se empezó por lavar con agua corriente 1.024 kg de cáscara de huevo para eliminar cualquier contaminante de su recolecta que pudiera contener, posteriormente se separó la membrana interna manualmente, luego se hizo un lavado manual con acetona para terminar de remover algún contaminante que haya quedado, para posteriormente triturar en pedazos pequeños. Después se desodorizó con metanol durante 1h, finalizado este proceso, se lavó con aproximadamente 360 ml de agua destilada, y después se hizo un lavado con acetona y se vació en una bandeja para dejar secar a temperatura ambiente x 24 h. Pasado ese tiempo, se llevó a estufa a 110°C x 24 h para remover la humedad que haya quedado, posteriormente se molió para conseguir el polvo, finalmente se pasó por un tamiz de #100 (150µm).   PREPARACIÓN DE MUESTRAS DE CONCRETO SUSTENTABLE. Se prepararon dos muestras para realizar una comparación con respecto a la fuerza a la compresión de las mezclas, cada muestra con nueve especímenes, donde se utilizaron probetas cilíndricas de 10 x 20 cm; de las cuales tres especímenes se dejaron curando por 7 días, tres especímenes por 14 días y 3 especímenes por 28 días. La primera mezcla fue un blanco (con la finalidad de tener un punto de referencia) y se hizo con los elementos convencionales del concreto, es decir, arena, grava y cemento CPC. La segunda muestra se hizo reemplazando un 5% en peso del cemento por el polvo de cáscara de huevo.


CONCLUSIONES

El huevo es un producto con una alta demanda, por lo que es una industria que contribuye a la contaminación del medio ambiente debido a la gran cantidad de residuos que produce, los cuales se estiman que son 8.4 millones de kilogramos de residuo de cáscara de huevo al año que se desechan en vertederos, por lo que se ha buscado una forma alternativa de convertir estos residuos en una materia prima que pueda ayudar a otra industria a disminuir su producción de CO2. Una de estas industrias es la de la construcción, en donde el material mayor utilizado es el concreto, pero debido a su alta demanda, es uno de los que más daña al medio ambiente. Para fabricarlo, se utiliza el cemento, el cual ha abierto diversas líneas de investigación para modificarlo, de tal forma que se disminuyan sus emisiones de CO2; para ello, se han utilizado diversos residuos como el polvo de cáscara de huevo, que diversos estudios han demostrado que además de ayudar a desarrollar un concreto más sustentable, también contribuye a mantener sus propiedades mecánicas, y en algunos casos, hasta mejorarlas.   RESULTADOS. Debido a los tiempos de curado establecidos por normativa (7, 14 y 28 días) y el tiempo programado para estancia, no fue posible realizar las pruebas de resistencia a la compresión, por lo que los resultados se presentarán en el congreso.
Gómez Vázquez Alhondra, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Fermin Salomon Granados Agustin, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

MEDICIóN DEL íNDICE DE REFRACCIóN DE UNA MUESTRA DE VIDRIO USANDO UN INTERFERóMETRO DE MICHELSON


MEDICIóN DEL íNDICE DE REFRACCIóN DE UNA MUESTRA DE VIDRIO USANDO UN INTERFERóMETRO DE MICHELSON

Gómez Vázquez Alhondra, Instituto Tecnológico de Tuxtla Gutiérrez. Grajales Ocampo José Fabian, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Fermin Salomon Granados Agustin, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La medición precisa del índice de refracción de materiales ópticos, como el vidrio, es esencial en aplicaciones científicas y tecnológicas, incluyendo el diseño de lentes, la calibración de equipos ópticos y la investigación en óptica de materiales. El índice de refracción, definido como la razón entre la velocidad de la luz en el vacío y la velocidad de la luz en el material, determina cómo se comporta la luz al interactuar con el material. La precisión en la determinación de este índice es crucial para garantizar el rendimiento óptico y la calidad en múltiples aplicaciones. Este método se basa en la interferencia de la luz, generando patrones de franjas de interferencia que pueden ser analizados para determinar variaciones en la trayectoria óptica de la luz causadas por el material en cuestión. Además, se busca recrear un arreglo de menor costo y mayor accesibilidad a la educación en niveles medio y superior, contribuyendo al desarrollo de la innovación tecnológica.



METODOLOGÍA

El proceso comenzó con la configuración del interferómetro de Michelson, que divide un haz de luz monocromática en dos haces independientes mediante un divisor de haz. Los haces se reflejan en espejos situados en direcciones ortogonales antes de recombinarse, creando un patrón de interferencia en forma de franjas o anillos que se observa en una pantalla de detección. Es por eso por lo que este tipo de interferómetro es llamado de división de onda. Para observar un patrón de interferencia de colores, se utilizó luz blanca como fuente, ajustando los espejos hasta descomponer la luz blanca y revelar el patrón deseado. Se preparó una muestra de vidrio que se colocó en el camino óptico del interferómetro, entre el espejo y el divisor de haz, para medir su índice de refracción. Para asegurar mediciones precisas, se realizó una caracterización manual del sistema, ajustando los espejos y el divisor de haz para minimizar errores y garantizar una alineación adecuada. Este ajuste permitió observar claramente el patrón de interferencia de colores y obtener medidas. Posteriormente, se analizaron los resultados teóricos y se ajustó el arreglo óptico para cumplir con las condiciones de la diferencia de camino óptico (O.P.D. por su siglas en inglés Optical Path Difference). Para mejorar la precisión y automatizar el proceso de medición, se incorporó un sistema electrónico con un sensor fototransductor, como una fotorresistencia (LDR), para detectar y contar los anillos de interferencia. El microcontrolador Arduino fue integrado para automatizar el conteo y la recolección de datos en tiempo real, facilitando la programación del conteo y el monitoreo continuo de las intensidades de los anillos. Durante las pruebas, se enfrentaron desafíos relacionados con la precisión del conteo automático, incluyendo la influencia de vibraciones y movimientos bruscos, lo que resultó en una diferencia promedio de 4 anillos entre el conteo automático y el manual. Para abordar esta discrepancia, se realizó un conteo manual paralelo al automático para ajustar los resultados. Para optimizar aún más la precisión, se planeó integrar un motor para ajustar automáticamente el tornillo micrométrico del interferómetro. Se consideraron un motor Pololu y un motor paso a paso 28BYJ, que permitirían un control preciso del movimiento y la posición del eje. Se desarrolló una pieza cilíndrica para acoplar el eje del motor al tornillo micrométrico, facilitando el ajuste automático y mejorando la precisión del sistema. Tanto el sistema mecánico, así como el sistema de conteo son desarrollos propios. El sistema automatizado, con Arduino y el LDR, se configuró para diferenciar entre anillos oscuros y brillantes utilizando un valor umbral específico (lectura del LDR de 4). Se implementaron mecanismos para asegurar la estabilidad de las lecturas, con retrasos controlados y ajustes para minimizar errores. Este enfoque permitió la recolección de datos en tiempo real y el monitoreo continuo de los patrones de interferencia, proporcionando una base sólida para futuras investigaciones. La investigación sobre la medición del índice de refracción de una muestra de vidrio utilizando un interferómetro de Michelson ha mostrado que esta técnica es efectiva para obtener datos precisos. La clave para la precisión radica en una calibración cuidadosa del interferómetro, el control estricto de las condiciones sobre vibraciones, el análisis detallado de los patrones de interferencia y una correcta manipulación de los materiales y herramientas. La correcta alineación y calibración del interferómetro, junto con la compensación de factores ambientales, mejoraron significativamente la exactitud de las mediciones. Además, el uso de métodos clásicos para el análisis de datos permitió una interpretación precisa de las franjas de interferencia en comparación con los datos obtenidos por la automatización del arreglo. La preparación adecuada de ambos sistemas, óptico y electrónico garantizó resultados fiables.


CONCLUSIONES

La correcta alineación y calibración del interferómetro, junto con la compensación de factores ambientales, mejoraron significativamente la exactitud de las mediciones. Además, el uso de métodos clásico para el análisis de datos permitió una interpretación precisa de las franjas de interferencia para hacer comparación con los datos obtenidos por la automatización del arreglo. La preparación adecuada de ambos sistemas, el óptico y el electrónico garantizó resultados fiables. En conclusión, el interferómetro de Michelson, cuando se utiliza con un protocolo estandarizado, ofrece una herramienta robusta y precisa para medir el índice de refracción de vidrio, contribuyendo así a aplicaciones ópticas y científicas que requieren alta precisión.
Gonzalez Bastida Alberto Manuel, Corporación Universitaria Remington
Asesor: Dra. Marisela Ivette Caldera Franco, Instituto Tecnológico de Chihuahua II

EXPLORACIóN DE ESTADO DEL ARTE DE SOFTWARE LúDICO PARA EL APRENDIZAJE DE LAS MATEMáTICAS EN EDUCACIóN PRIMARIA


EXPLORACIóN DE ESTADO DEL ARTE DE SOFTWARE LúDICO PARA EL APRENDIZAJE DE LAS MATEMáTICAS EN EDUCACIóN PRIMARIA

Gonzalez Bastida Alberto Manuel, Corporación Universitaria Remington. Asesor: Dra. Marisela Ivette Caldera Franco, Instituto Tecnológico de Chihuahua II



PLANTEAMIENTO DEL PROBLEMA

Actualmente la educación primaria se enfrenta a un desafío significativo: integrar de manera efectiva las tecnologías digitales en el proceso de enseñanza-aprendizaje. La incorporación de herramientas tecnológicas, en particular el software lúdico, se ha convertido en una estrategia prometedora para transformar la enseñanza de las matemáticas. Estos recursos digitales interactivos y motivadores tienen el potencial de hacer el aprendizaje más dinámico y atractivo, facilitando el desarrollo de habilidades matemáticas esenciales en los estudiantes de primaria.A pesar del potencial evidente de este tipo de software, existe una necesidad crítica de evaluar de manera rigurosa y sistemática su disponibilidad y efectividad. En este contexto, surge una problemática central: la falta de información exhaustiva y comprensiva sobre los tipos de software lúdico disponibles para la educación primaria, su alineación con las metodologías educativas actuales y el impacto real que tienen en el aprendizaje de matemáticas.La oferta de herramientas digitales sigue en expansión, pero no existe una evaluación sistemática y detallada que permita discernir cuáles de estas, son más adecuadas para apoyar el desarrollo de habilidades matemáticas en los estudiantes de primaria.



METODOLOGÍA

A través de una revisión de 100 artículos seleccionados de la base de datos Redalyc, publicados entre 2020 y 2024, se pretende identificar y clasificar los recursos digitales utilizados en el contexto educativo. El análisis se centró en identificar: este tipo de software, las metodologías asociadas con su uso y su efectividad en el desarrollo de habilidades matemáticas. El estudio proporcionó una visión detallada que facilitará la selección informada de herramientas tecnológicas y contribuirá a optimizar el proceso educativo en el área de matemáticas.Este estudio se llevó a cabo mediante un análisis documental en el buscador de la base de datos de la Red de Revistas Electrónicas de América Latina y el Caribe (Redalyc), con el propósito de explorar el uso y la eficacia del software lúdico en el aprendizaje de matemáticas en educación primaria. La metodología se desarrolló en las siguientes fases:Primero, se realizó una búsqueda utilizando términos clave específicos: "lúdico", "software", "matemática" y "primaria". Esta búsqueda se restringió a artículos publicados entre los años 2020 y 2024, escritos en español, con el objetivo de garantizar que los estudios revisados fueran recientes y relevantes para el contexto actual de la educación primaria. Se aplicaron filtros adicionales para limitar los resultados a aquellos estudios que brindaran información directamente relacionada con la educación primaria y el uso de tecnologías lúdicas en matemáticas.De los resultados obtenidos, que fueron 124, se seleccionaron los primeros 100 artículos que cumplían con los criterios de inclusión definidos. Cada artículo fue revisado en función de su relevancia para el tema de investigación, considerando especialmente su enfoque en la educación primaria y la calidad de la información proporcionada. De los artículos seleccionados se registraron los siguientes datos, en una hoja de Excel: tipo de publicación, título, año de publicación, país de origen, URL de acceso, tecnologías descritas, temática específica dentro del campo de las matemáticas, tipo de aplicación del software, nombre del software utilizado, edad del usuario, y grado de educación. Este proceso permitió identificar características del software lúdico, sus aplicaciones específicas en la educación primaria, y las metodologías pedagógicas que los respaldan. Además, se realizaron comentarios sobre la concordancia de los estudios con los objetivos del análisis, y se filtraron los artículos por país y año de publicación para ofrecer una perspectiva contextualizada.


CONCLUSIONES

El análisis realizado sobre software lúdico para la enseñanza de matemáticas en educación primaria revela una amplia diversidad de recursos digitales disponibles. Los resultados indican que estos software pueden hacer el aprendizaje más dinámico y atractivo, facilitando el desarrollo de habilidades matemáticas esenciales en los estudiantes.  La revisión de la literatura mostró una variedad de metodologías pedagógicas asociadas con el uso de estos recursos. Algunos estudios utilizaron enfoques basados en el juego y la resolución de problemas, mientras que otros emplearon métodos más estructurados.  Aunque hay aplicaciones de software lúdico que muestran un potencial prometedor, su aplicabilidad en la educación primaria varía. Algunos recursos, que no fueron diseñados exclusivamente para este nivel educativo, demostraron ser adaptables y útiles con una planificación pedagógica adecuada. Los estudios revisados sugieren que el software lúdico puede tener un impacto positivo en el desarrollo de habilidades matemáticas cuando se integra efectivamente en el currículo educativo. No obstante, la efectividad real de estos recursos puede depender de factores como el diseño del software, la metodología empleada y el contexto de uso. En base a los estudios realizados, se observa que países como España y Costa Rica se destacan por su sólida y extensa investigación en el ámbito de las matemáticas y el software educativo. Estos países han producido numerosos estudios que abordan el uso de tecnologías interactivas y metodologías innovadoras en la enseñanza de las matemáticas. La mayoría de los artículos encontrados en Redalyc reflejan un enfoque significativo en la integración de herramientas digitales en la educación matemática en España, Costa Rica, Colombia y Chile.
González Becerril Daniel, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Mg. Jasmin del Carmen Herrera de la Barrera, Fundación Universitaria Tecnológico Comfenalco

APLICACIONES Y TENDENCIAS EN HERRAMIENTAS DE MEJORAMIENTO CONTINUO CON VISUALIZACIóN DE DATOS: UNA REVISIóN SISTEMáTICA


APLICACIONES Y TENDENCIAS EN HERRAMIENTAS DE MEJORAMIENTO CONTINUO CON VISUALIZACIóN DE DATOS: UNA REVISIóN SISTEMáTICA

González Becerril Daniel, Tecnológico de Estudios Superiores de Jocotitlán. Pereyra Cruz David, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mg. Jasmin del Carmen Herrera de la Barrera, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

Antecedentes: En la era de la información, las empresas generan enormes cantidades de datos, derivados de sus procesos operativos y atención al cliente. Sin embargo, a pesar de contar la información valiosa, muchas organizaciones enfrentan un desafío significativo: la desarticulación en el uso de herramientas de visualización de datos. Lo que se traduce en una capacidad para gestionar y administrar adecuadamente la información disponible, lo que puede limitar su potencial para análisis, la mejora continua y toma de decisiones estratégicas. Problema: Desarticulación que tiene las empresas en el uso de herramientas de visualización, que las empresas tienen muchos datos originados de sus procesos pero que no utilizan técnicas para gestionar y administrar los datos de tal manera que, de una forma sencilla, practica y visual los puedan utilizar para analizar, mejorar y tomar decisiones. Consecuencias: Decisiones basadas en intuiciones: sin un análisis adecuado de los daos las decisiones se basan en suposiciones o experiencias pasadas, Ineficiencia Operativa: la falta de visibilidad del proceso puede resultar en ineficiencias, y costos innecesarios afectando la rentabilidad. Oportunidades de perdida: Al no poder identificar tendencias y patrones en los datos se puede llegar a la perdida de oportunidades de negocios. Desmotivación: apoyo ineficiente para las herramientas de visualización, explicación o capacitaciones inadecuadas al personal. Preguntas de investigación: ¿Qué países publican más artículos? ¿En qué año se mostró más interés por el tema? ¿Como se aplica la toma de decisiones? ¿Qué herramientas de visualización son más utilizadas? ¿Qué sectores se involucran más en el tema?



METODOLOGÍA

En el marco de la presente investigación, se llevó a cabo una exhaustiva búsqueda en dos bases de datos científicas reconocidas las cuales fueron, Pubmed y Google Schoolar, con objetivo de encontrar artículos confiables, que puedan proporcionar información confiable sobre las aplicaciones y tendencias en herramientas de mejora continua con visualización de datos. Las fechas que se utilizaron para poder recabar los artículos fueron del 2014 al 2024, el idioma por el que optamos fue el Ingles ya que tiene mayor posibilidad Para garantizar la precisión en la recolección de información se seleccionaron palabras clave específicas, las cuales se detallan a continuación: Continuous improvement AND data visualization, Continuous improvement tools y Six Sigma AND Business Intelligence, la cual arrojo un total de 276 documentos afines al tema de interés, de los cuales se eligieron solo los que mencionan las herramientas que utilizan y Se analizará el interés creciente ya que es una técnica que está en tendencia, ¿Cómo se enfoca en la optimización de procesos? ¿Cómo se aplica la toma de decisiones? ¿Cómo se aplican técnicas y metodologías innovadoras?


CONCLUSIONES

Las herramientas de visualización de datos, como gráficos de barras, gráficos de líneas, diagramas de dispersión, mapas de calor y dashboards interactivos, son componentes fundamentales para una gestión eficiente y efectiva en cualquier organización. Para los estudiantes y profesionales, el dominio de estas herramientas es esencial para sobresalir en un entorno cada vez más orientado a los datos. La incorporación de herramientas de visualización de datos logra un significativo ahorro de tiempo, una mayor eficiencia en la gestión de datos y una mejora en la comunicación de la empresa. Además, un fácil acceso a la información para los miembros de la organización, fomentando una cultura de transparencia, y colaboración donde todos los miembros de la empresa pueden contribuir a la toma de decisiones a así lograr objetivos comunes. Además Facilita la comprensión de datos complejos mediante representaciones gráficas, permitiendo a los estudiantes y profesionales captar rápidamente patrones, tendencias y anomalías, simplificando la comunicación de información, ya que una imagen bien diseñada puede ser más efectiva que tablas de datos extensas.
Gonzalez Cabanillas Ailin, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

LOGíSTICA INVERSA EN EMPRESAS DEL SUR DE SINALOA


LOGíSTICA INVERSA EN EMPRESAS DEL SUR DE SINALOA

Cruz Regalado Ariana Daheli, Universidad Politécnica de Sinaloa. Gonzalez Cabanillas Ailin, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La logística inversa ha cobrado gran importancia en la gestión de la cadena de suministro, especialmente en un contexto donde la sostenibilidad y la eficiencia son prioritarias, la cual representa un componente crucial en la estrategia de sostenibilidad de una empresa, permitiendo un manejo más eficiente de los recursos, contribuyendo a la responsabilidad corporativa, su implementación efectiva puede generar valor a la cadena de suministro volviéndola más resiliente, contribuyendo en la empresas en analizar, optimizar sus procesos y adaptarla a los desafíos globales, esto solo se puede llevar a cabo con una mayor eficiencia en todas las operaciones de la logística de distribución. En la actualidad en la región de Mazatlán ubicada en el Sur de Sinaloa, la industria está en la búsqueda constante de mejores prácticas operativas, en un ámbito de desarrollo económico la cual pone a prueba la conciencia en estrategias en la logística de distribución, con una atención principal en procesos de logística inversa, se detecta la necesidad de abordar la problemática compleja en el tema del objetivo 9.- Industria, innovación e infraestructura de los ODS de la ONU incluidos en la agenda 2030 al realizar un estudio preliminar que nos proporcione un conocimiento para la reflexión y difusión del conocimiento derivado del impacto del crecimiento económico en la sociedad y su conciencia en la sustentabilidad. Por lo anterior se requieren actividades de identificación de paradigmas empresariales utilizando el método científico que nos permita generar conocimiento sobre el desempeño del proceso de logística inversa siendo clave en el aporte de valor en la cadena de suministro, para esta investigación se realiza el estudio en empresas del sector industrial ubicadas en la ciudad de Mazatlán Sinaloa.



METODOLOGÍA

Para este estudio científico se utiliza la metodología de investigación cuantitativa, de tipo campo la cual consiste en la recolección de datos directamente de la realidad donde ocurren los hechos, sin manipular o controlar variable alguna, con una extensión del estudio de investigación de campo con medios de instrumentos impresos, el nivel de la investigación descriptiva donde se busca el diagnosticar la relación de los hechos. Investigación titulada Logística y Cadena de suministro con título de proyecto: Logística inversa en empresas del Sur de Sinaloa. Como primera etapa del verano de investigación se define el título del proyecto siendo Logística inversa en empresas del Sur de Sinaloa describiendo el objetivo general el cual es Analizar el nivel de eficiencia y eficacia de los procesos de logística inversa, con el propósito de argumentar sobre el nivel de preparación en empresas del sur de Sinaloa, así también, se inicia con la búsqueda de información basada en fuentes auditadas sobre el tema del proyecto, posteriormente se realiza un análisis teórico de lo encontrado para proceder a el método de recolección de datos a través de un instrumento de tipo encuesta con 62 reactivos, de los cuales 6 reactivos son en el ámbito logístico, se orientó el estudio a la pregunta: ¿Qué tan eficientes y eficaces son los procesos de logística inversa en la empresa?, ambas con posibles respuestas con la siguiente escala (5) Muy de acuerdo, (4) De acuerdo, (3) En desacuerdo, (2) Muy en desacuerdo, (1) No sé, el instrumento se aplicó a empresas de diferentes sectores que para el procesamiento de datos se categorizo en industrial, con una muestra recabada de 25 encuestas contestadas por los responsables de área en campo en diversas empresas. Con los datos recabado por el instrumento se analiza la información de forma gráfica y estadística descriptiva para realizar una argumentación sustentada ante una hipótesis preliminar de que si las empresas del sector industrial mantienen un nivel de preparación en materia logística inversa son adecuadas, así también las bases de conocimiento para reflexionar del contexto actual en el aporte al objetivo 9 de los ODS de la ONU incluidos en la agenda 2030, que promueva el desarrollo de conocimiento orientado para poder argumentar en el tema de la calidad de los procesos productivos en áreas de abastecimiento desde una perspectiva Logística de Distribución.


CONCLUSIONES

De los resultados del análisis gráfico y estadístico descriptivo se argumenta que las empresas del giro industrial ubicadas en la región de Mazatlán Sinaloa desde una perspectiva del personal en campo con relación en los procesos de logística inversa describe que están muy de acuerdo (46%) en que su gestión es con eficiencia y eficacia, se detecta que un 6 % de los encuestados describen que no identifican si los procesos de logística inversa si la gestión es con eficiencia y eficacia , mientras que un 48 % describe como de acuerdo en que su gestión es con eficiencia y eficacia. Durante el verano en la línea de investigación titulada Investigación: Logística y Cadena de suministro con título de proyecto: Logística inversa en empresas del Sur de Sinaloa, se puede argumentar que las empresas del Sur de Sinaloa en la región de Mazatlán en su gran mayoría realizan una gestión de sus procesos de logística inversa con eficiencia y eficacia, contribuyendo así a la competitividad y sostenibilidad de las organizaciones, la cual aporta al ODS2030 al que contribuye: Desarrollar infraestructuras resilientes, promover la industrialización inclusiva y sostenible, y fomentar la innovación.
González Cabrera Cristian Juda, Institución Universitaria Politécnico Grancolombiano
Asesor: Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango

TORNO DUPLICADOR


TORNO DUPLICADOR

González Cabrera Cristian Juda, Institución Universitaria Politécnico Grancolombiano. Asesor: Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

En México la producción de artesanías en madera es el sustento económico de muchas familias en diversas regiones del país, su venta y comercialización se hace presente en plazas, mercados y eventos, destacando por la calidad, diseño y precio en comparación con productos realizados en otros materiales. El pueblo de Tlacomulco, en la sierra norte del estado de Puebla, municipio de Huauchinango, es productor de utensilios para cocina y elementos quiroprácticos, y su fabricación se realiza de forma manual, con poca presencia de máquinas industriales que agilicen el proceso de manufactura.    Las máquinas más usadas para este propósito son los tornos industriales, que se encuentran en diseños pensados para la producción de elementos en madera, facilitan los procesos, reducen las imperfecciones e irregularidades en el producto final si se les da un uso correcto, y son prácticos y seguros para el uso diario.   Estas máquinas se usan en la industria para el mecanizado de piezas del área metalmecánica. También existen modelos diseñados para el manejo de múltiples materiales como plásticos, resinas, y maderas. Son estos últimos los empleados en la fabricación de artesanías y con los que se busca ayudar a la comunidad de Tlacomulco, agilizando los procesos y aumentando las ganancias recibidas por los artículos venidos, con el fin de aportar a los pueblos de la comunidad de Huauchinango y resolver la pregunta problema de ¿Cómo contribuir desde la ingeniería a las necesidades de los artesanos en la sierra norte de Puebla, para el mejoramiento de su oficio y el aumento de la rentabilidad de su actividad artesanal?



METODOLOGÍA

Para la realización de este estudio se indagó sobre conceptos básicos para la obtención de información, el más importante fue el estudio de mercado que se define como una herramienta que se usa para evaluar el tamaño de un sector industrial o económico junto a las opiniones de un grupo de personas respecto a un producto o un servicio, que puede ser el gusto, los hábitos y las costumbres relacionadas con este. Al recolectar información relevante sobre el pueblo de Tlacomulco se obtuvieron datos cualitativos y cuantitativos importantes para el análisis, tales como que su producción principal son las artesanías en madera, y así mismo esta genera su sustento económico principal al integrar a la mayoría de las familias de este pueblo, haciéndolo un referente para la producción artesanal.      Junto con el estudio de mercado, se realizó una visita al pueblo de Tlacomulco, donde se implementó la herramienta de la entrevista, que consiste en una técnica oral de gran utilidad usada en la investigación cualitativa y cuantitativa para la recolección de datos de una o un grupo de personas. Al realizar esta visita se entrevistó a 2 artesanos de la región, cada uno con una modalidad diferente de trabajo, realizando sus actividades de forma manual con herramientas como machetes o cuchillos, altamente peligrosas y factible para la ocurrencia de accidentes, la información más relevante obtenida fue la necesidad de una máquina eléctrica que facilite el trabajo dando mayor comodidad, seguridad, y generando agilidad en el proceso.    Al evaluar las respuestas obtenidas en la entrevista, se orientó la búsqueda a los tornos diseñados a nivel industrial para el mecanizado de madera, y se enlistaron 3 posibles opciones: Torno para madera, torno copiador/duplicador, y torno de banco para madera. Junto a esto se realizó una tabla comparativa de características mecánicas, y un aproximado de costos, en donde se obtuvo que la opción viable para diseñar es el Torno de banco para maderas, que resulta práctica al tener versatilidad en la fabricación de múltiples formas, compacto y con un tamaño adecuado para talleres de dimensiones variables, que conlleva facilidad y seguridad al momento de usarse.   Por último se diseñaron en programas de edición 3D (SolidWorks), tres modelos con características diferentes, así fue posible elegir un torno cuya medida más importante es la distancia entre centros de 80 cm lo que lo hace práctico para el mecanizado de diversas piezas, entre las que destacan los rodillos de madera que figuran como una de las artesanías de mayor comercialización en la región, según los propios artesanos. Anexo a esto se realizó un costeo ponderado de cada una de las piezas mecánicas para la fabricación artesanal de la máquina obteniendo un valor aproximado de $14,180, muy variable en comparación con la producción a gran escala que reduce los costos de manufactura, junto a un estudio de dureza y flexibilidad, y la impresión en 3D para exhibición.  


CONCLUSIONES

Durante la investigación realizada se obtuvieron conocimientos sobre la correcta realización de un estudio de mercado, junto con herramientas tales como las entrevistas o los cuestionarios, así mismo se adquirieron habilidades comunicativas e interculturales de gran utilidad en el ámbito personal y profesional. También el estudio de las máquinas y los tornos dio una visión más amplia de la mecánica industrial, su estructura, estudios, y cómo aplicar la ingeniería a casos prácticos y reales, aportando a la comunidad en beneficio del crecimiento social.  Como resultados se realizó el estudio de mercado junto con la visita al pueblo de Tlacomulco y una entrevista a 2 artesanos en la comunidad, se diseñaron los bocetos en 3D y se hizo la comparación en costos y componentes mecánicos, también se dibujaron los planos y se obtuvo un costeo general de la fabricación artesanal de la máquina, con estudios de dureza, flexibilidad, y finalmente la impresión 3D. Adicionalmente, con esta actividad se disminuirán los tiempos de producción y se obtendrán mayores piezas, aumentando el nivel de productividad actual.  
González Cáceres Hugo Fernando, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

CREACIóN DE MATERIAL DIDáCTICO Y LúDICO PARA ENSEñAR MODELADO DE BASES DE DATOS RELACIONALES (CONCEPTUAL, LóGICO Y FíSICO) A ESTUDIANTES DE SECUNDARIA Y BACHILLERATO.


CREACIóN DE MATERIAL DIDáCTICO Y LúDICO PARA ENSEñAR MODELADO DE BASES DE DATOS RELACIONALES (CONCEPTUAL, LóGICO Y FíSICO) A ESTUDIANTES DE SECUNDARIA Y BACHILLERATO.

González Cáceres Hugo Fernando, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Tec Cahun Carlos Eduardo, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En el contexto educativo actual, la enseñanza de conceptos tecnológicos avanzados, como las bases de datos relacionales, a estudiantes de secundaria, representa un desafío significativo. La brecha entre el lenguaje técnico utilizado en el campo de las bases de datos y el nivel de comprensión de los estudiantes de secundaria constituye un obstáculo para el aprendizaje efectivo. Además, los métodos tradicionales de enseñanza pueden resultar poco atractivos para una generación de estudiantes acostumbrada a contenidos interactivos y multimedia. Esto plantea la necesidad de desarrollar materiales educativos que no solo sean informativos, sino también lúdicos y llamativos. Ante este panorama, realizamos un capítulo en el que se exponen los conceptos de Modelado de Bases de Datos, en sus fases Conceptual, Lógico y Físico, para un libro con un enfoque innovador para estudiantes de nivel secundaria, que explica las bases de datos relacionales con ejemplos prácticos, actualizados y relevantes en la experiencia cotidiana de los jóvenes, el cual les facilitará la comprensión y asimilación de estos conceptos fundamentales.



METODOLOGÍA

1 Análisis de requerimientos: Revisión de la literatura sobre bases de datos relacionales. Determinación de los conceptos fundamentales y esenciales que deben incluirse en el producto. 2 Selección y configuración de herramientas de IA: Evaluación comparativa de plataformas de IA generativa disponibles. Selección de herramientas basada en criterios como precisión, adaptabilidad y facilidad de uso. Configuración y ajuste de parámetros para optimizar la generación de contenido educativo. 3 Diseño de contenido: Desarrollo de un esquema curricular que cubra los conceptos fundamentales de bases de datos relacionales. Creación de prompts específicos para cada tema, diseñados para generar explicaciones, ejemplos y ejercicios. Iteración y refinamiento de prompts basados en la retroalimentación de expertos en la materia. 4 Generación y refinamiento de contenido: Utilización de las herramientas de IA para producir material didáctico inicial. Revisión y edición manual del contenido generado por expertos en pedagogía y bases de datos. Adaptación del lenguaje y ejemplos para asegurar la relevancia y comprensión por parte de estudiantes de secundaria. 5 Desarrollo de elementos interactivos: Diseño de componentes lúdicos e interactivos utilizando IA generativa. Integración de estos elementos en un producto publicable tanto de forma física como en línea. 6 Implementación piloto: Selección de un grupo de control y un grupo experimental en instituciones educativas colaboradoras. Capacitación de docentes en el uso del material generado. Implementación del programa educativo durante un semestre académico. 7 Evaluación y análisis: Recolección de datos cuantitativos mediante pruebas pre y post-intervención para medir el aprendizaje. Obtención de retroalimentación cualitativa a través de grupos focales con estudiantes y entrevistas con docentes. Análisis estadístico de los resultados de aprendizaje, comparando el grupo experimental con el de control. 8 Iteración y mejora: Identificación de áreas de mejora basadas en los resultados de la evaluación. Refinamiento del contenido y las herramientas de IA utilizadas. Desarrollo de una segunda versión mejorada del material didáctico. 9 Documentación y difusión: Elaboración de un informe detallado sobre el proceso, hallazgos y recomendaciones. Preparación de artículos académicos para su publicación en revistas especializadas. Presentación de resultados en conferencias educativas y tecnológicas.


CONCLUSIONES

Durante la estancia de verano se logró cumplir con las primeras 5 fases del proyecto y se obtuvo un capítulo completo correspondiente al modelado de bases de datos relacionales, en el que se explican las etapas de modelado conceptual, lógico y físico del desarrollo de una base de datos relacional, el cual se integrará al producto final con los capítulos elaborados por otros compañeros. Se espera que en el futuro cercano puedan implementarse las fases 6 a 9 de la metodología propuesta para concluir exitosamente este proyecto. En este proyecto aprendimos una metodología para la creación de materiales didácticos adecuados para la enseñanza de temas complejos, como las bases de datos relacionales, a estudiantes jóvenes, que esperamos aplicar en el futuro en otras temáticas. ¿Cómo podemos seguir mejorando la enseñanza de conceptos tecnológicos avanzados, como las bases de datos relacionales, para hacerlos más accesibles y atractivos a las nuevas generaciones de estudiantes? En lo personal me quedo con el valioso aprendizaje de que es posible trabajar en equipo de manera efectiva, integrando diferentes puntos de vista para enriquecer el resultado final. A través de este proyecto, no solo he profundizado mi conocimiento en bases de datos relacionales, sino que también he desarrollado la capacidad de transmitir estos conceptos complejos de manera más accesible y comprensible para estudiantes de secundaria y nivel medio superior.  Este proceso me ha mostrado la importancia de adaptar el contenido educativo a las necesidades y niveles de comprensión de los jóvenes, utilizando enfoques más lúdicos y prácticos. Creo que esta experiencia no solo ha fortalecido mis habilidades técnicas, sino que también me ha dado herramientas valiosas para enseñar de manera más efectiva en el futuro. ¿Qué impacto podría tener la integración de herramientas interactivas y métodos lúdicos en la comprensión y el interés de los estudiantes de secundaria por temas técnicos complejos?
González Calixto Mariana, Instituto Tecnológico de Puebla
Asesor: Dr. Francisco Manuel Pacheco Aguirre, Benemérita Universidad Autónoma de Puebla

OPTIMIZACIóN DE PARáMETROS ELéCTRICOS PARA LA PRODUCCIóN ESTABLE DE HIDRóGENO MEDIANTE ELECTRóLISIS


OPTIMIZACIóN DE PARáMETROS ELéCTRICOS PARA LA PRODUCCIóN ESTABLE DE HIDRóGENO MEDIANTE ELECTRóLISIS

González Calixto Mariana, Instituto Tecnológico de Puebla. Asesor: Dr. Francisco Manuel Pacheco Aguirre, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La producción de hidrógeno mediante electrólisis es una tecnología emergente con un potencial significativo en la transición hacia energías limpias y sostenibles. Sin embargo, uno de los desafíos que se presentan al hacer uso de estos métodos es la optimización de los parámetros eléctricos que influyen en la eficiencia y estabilidad del proceso. El problema principal que se aborda en el presente proyecto es la necesidad de desarrollar y proponer una fuente de alimentación regulada o arreglo que permita la regulación precisa de la corriente. Este parámetro es crítico para asegurar que la electrólisis se realice de manera controlada y eficiente, ya que la corriente influye directamente en la tasa de producción de hidrógeno y en la estabilidad del proceso. Por lo tanto, la capacidad de ajustar y mantener niveles óptimos de corriente es esencial para mejorar la eficiencia general del sistema.



METODOLOGÍA

La presente investigación se desarrolló siguiendo un enfoque sistemático y experimental, utilizando componentes accesibles y eficaces. El problema inicial en el reactor del laboratorio de química de la BUAP era que, al ser conectado de forma directa a una fuente lineal, los cables de conexión entre la fuente y los electrodos sumergidos en una solución de hidróxido de sodio (NaOH) presentaban sobrecalentamiento y un consumo elevado de corriente que no había sido calculado adecuadamente. Estudios han demostrado que la eficiencia energética del proceso de electrólisis puede variar significativamente dependiendo de la corriente aplicada. Corrientes demasiado altas pueden generar un sobrecalentamiento y una mayor producción de calor en lugar de hidrógeno, lo que disminuye la eficiencia del proceso. Por otro lado, corrientes bajas pueden no ser suficientes para mantener una producción estable. Con esto en mente, se observó la necesidad de regular la corriente suministrada para llevar a cabo la producción de hidrógeno de forma segura y eficiente, pues controlar este parámetro permite minimizar estos efectos y mejorar la transferencia de masa en el proceso. Diseño Inicial y Configuración del Circuito En la fase inicial, se diseñó un circuito basado en un Arduino Uno, encargado de generar señales PWM (modulación por ancho de pulso) para controlar un MOSFET IRF640N. Este MOSFET, seleccionado por su capacidad de manejar altas corrientes y voltajes, actuaba como un interruptor electrónico que modulaba la corriente suministrada a la carga. Se integró un sensor de corriente ACS712 en el circuito para monitorear en tiempo real la corriente que fluía a través del sistema. Inicialmente, se decidió no incluir un potenciómetro en el diseño, buscando simplificar el control y realizar la variación de corriente directamente mediante el PWM controlado por el Arduino. Las primeras pruebas se llevaron a cabo con una carga resistiva de alta potencia, que simulaba las condiciones de un proceso de electrólisis, permitiendo validar el funcionamiento básico del circuito sin riesgo de sobrecalentamiento. Iteraciones Experimentales y Mejora del Diseño A medida que se realizaron las pruebas iniciales, se observó que el control de corriente mediante PWM y el MOSFET ofrecía una modulación eficiente y precisa. Sin embargo, la necesidad de un ajuste más flexible de la corriente se hizo evidente, especialmente en contextos donde se requería un control más fino. Por esta razón, se decidió integrar un potenciómetro al sistema. Este componente permitió a los operadores ajustar manualmente el setpoint de corriente, proporcionando una interfaz más intuitiva para controlar las variaciones necesarias en tiempo real. Cada prueba realizada con la carga resistiva ofreció nuevas perspectivas sobre el comportamiento del circuito bajo distintas condiciones de corriente y voltaje. Por ejemplo, se observó que al ajustar el ciclo de trabajo del PWM, se podía conseguir una variación suave y controlada de la corriente, lo cual era fundamental para garantizar la estabilidad del proceso de electrólisis simulado. A partir de estos resultados, se realizaron modificaciones en la programación del Arduino para optimizar la respuesta del MOSFET a las variaciones del PWM. Optimización y Consolidación del Prototipo Final Con el potenciómetro integrado y tras varios ciclos de pruebas y ajustes, el circuito evolucionó hacia un diseño más robusto y eficiente. Se llevó a cabo una serie de iteraciones adicionales, en las que se ajustaron los parámetros del sistema para maximizar la precisión en el control de corriente, minimizando al mismo tiempo las pérdidas de energía y asegurando la estabilidad del circuito. Finalmente, el prototipo del circuito fue sometido a pruebas con elementos de potencia para verificar su rendimiento y capacidad de regulación. Aunque las pruebas se realizaron con una carga resistiva en lugar de los reactores originales, los resultados obtenidos demostraron que el circuito diseñado es capaz de controlar la corriente de manera efectiva, lo que sugiere que su implementación en un entorno de laboratorio sería viable.


CONCLUSIONES

Se desarrolló un sistema eficaz para el control preciso de la corriente eléctrica, esencial en procesos como la electrólisis para la producción de hidrógeno. Aunque no se realizaron pruebas directas en los reactores, las simulaciones con una carga resistiva demostraron que el circuito diseñado es capaz de regular la corriente de manera eficiente y ajustable. El uso de un potenciómetro permitió un control manual adicional, lo que ofrece flexibilidad en la operación del sistema. A pesar de las limitaciones, los resultados indican que este diseño podría implementarse efectivamente en el entorno inicialmente propuesto.
González Casango Eliud, Instituto Tecnológico Superior de Las Choapas
Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato

ANáLISIS Y VALIDACIóN DE DESEMPEñO MECáNICO DE LA CONFIABILIDAD DE UNA LíNEA DE TRANSMISIóN MEDIANTE PRUEBAS DE SIMULACIóN CON SOFTWARE ANSYS


ANáLISIS Y VALIDACIóN DE DESEMPEñO MECáNICO DE LA CONFIABILIDAD DE UNA LíNEA DE TRANSMISIóN MEDIANTE PRUEBAS DE SIMULACIóN CON SOFTWARE ANSYS

Candelero Juarez Jesús Adrian, Instituto Tecnológico Superior de Las Choapas. González Casango Eliud, Instituto Tecnológico Superior de Las Choapas. Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Los herrajes de una línea de transmisión están expuestos a diferentes condiciones ambientales, como humedad, cambios extremos de temperatura y esfuerzos mecánicos constantes. Al paso del tiempo estos factores provocan el deterioro y la corrosión de los materiales, lo que trae como consecuencia a una deficiencia del rendimiento mecánico y la fiabilidad de las líneas de transmisión. El objetivo del análisis es que tan confiable puede ser el herraje en una línea de transmisión a base de pruebas mecánicas, como analizar los principales causantes de corrosión y deterioro en los diferentes tipos de materiales del herraje (acero galvanizado, aluminio).



METODOLOGÍA

1. Definición de los objetivos de la prueba: determinar los requerimientos de desempeño (carga máxima, durabilidad, resistencia a la corrosión). 2. Selección de muestras: Seleccionar una muestra aleatoria de un conjunto de herrajes. 3. Inspección visual y dimensional: Realizar una inspección visual para encontrar defectos como grietas deformaciones, corrosión. 4. Pruebas de carga estática: Ejecutar prueba de carga máxima hasta que ocurra la falla. Hacer prueba de resistencia a la tensión y aplicar carga hasta el punto de ruptura. Realizar prueba deresistencia a la compresión, similar a la prueba de tensión. 5. Pruebas de carga dinámica: Desarrollar la prueba de fatiga donde se someta al herraje a ciclos de carga. Hacer prueba de impacto donde se evalúa la resistencia a golpes y vibraciones. 6. Pruebas ambientales: Se ejecutará la prueba de corrosión donde el herraje será expuesto a niebla, salinidad, humedad. La prueba de temperatura someterá al herraje a temperaturas extremas para analizar su comportamiento. 7. Registro y análisis de datos: Registrar los datos obtenidos durante las pruebas, después analizar los resultados para decidir si los herrajes son aptos de acuerdo a las especificaciones. 8. Informe de resultados: Realizar un informe detallado que contenga metodología, resultados, y conclusiones 9. Revisión: Examinar los resultados con expertos para comprobar las conclusiones.


CONCLUSIONES

Los herrajes probados cumplieron con los requisitos mínimos de resistencia a la tensión, el herraje de anclaje de grillete mostro la mayor tensión. Estos resultados indican que los herrajes de acero tienen una alta resistencia para soportar cargas extremas, lo que las hace eficientes para ´puntos críticos en la infraestructura de transmisión. Los herrajes de acero las fallas fueron ocasionadas a la fractura de alta tensión. Para aplicaciones que necesiten alta resistencia, se recomienda herrajes de acero o aleaciones con diferentes propiedades mecánicas. Los herrajes de aluminio pueden ser utilizados en aplicaciones donde se necesite menos carga mecánica y mayor flexibilidad, con esto también se podrían implementar anticorrosivos en los herrajes de acero para mejorar significativamente su durabilidad, especialmente en ambientes corrosivos, como son zonas costeras.
Gonzalez Castro Jefferson Alexander, Fundación Universitaria del Área Andina
Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios

ANáLISIS COMPARATIVO DE MODELOS DE MACHINE LEARNING PARA LA PREDICCIóN DE RENDIMIENTOS DE CACAO EN ANTIOQUIA, COLOMBIA UTILIZANDO PYTHON


ANáLISIS COMPARATIVO DE MODELOS DE MACHINE LEARNING PARA LA PREDICCIóN DE RENDIMIENTOS DE CACAO EN ANTIOQUIA, COLOMBIA UTILIZANDO PYTHON

Castro Silva Harry David Castro Silva, Fundación Universitaria del Área Andina. Gonzalez Castro Jefferson Alexander, Fundación Universitaria del Área Andina. Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

En Colombia, el cacao, conocido por su alta calidad, solo representa el 1.06% de la producción mundial con 62,158 toneladas. En el departamento de Antioquia, que contribuye con aproximadamente el 9.5% de la producción nacional, la productividad es baja comparada con otros departamentos, lo que lleva a una inestabilidad económica y reduce la competitividad global del cacao colombiano. Los bajos ingresos de los agricultores impiden la inversión en tecnologías y prácticas agrícolas mejoradas, necesarias para aumentar la producción y mejorar la calidad del cacao. El cambio climático exacerba estos problemas, provocando fluctuaciones extremas en las condiciones meteorológicas y aumentando la incidencia de plagas y enfermedades. Muchos árboles de cacao en Colombia son viejos y tienen una genética inadecuada para maximizar la producción y la resistencia a enfermedades.  Además, en regiones como Antioquia, los altos niveles de cadmio en el suelo afectan la calidad del cacao y dificultan su exportación a mercados con regulaciones estrictas. La falta de sombra adecuada y la baja densidad de árboles en las plantaciones también contribuyen a la baja productividad.  Estas problemáticas dificultan la previsión precisa de la producción de cacao y la gestión adecuada de las variables que afectan el cultivo, lo que lleva a decisiones subóptimas en la gestión de recursos y la planificación de la cosecha. La falta de herramientas y técnicas avanzadas para la gestión de recursos y la planificación agrícola impide la adaptación a condiciones climáticas variables y la optimización de la producción agrícola, contribuyendo a la baja productividad y sostenibilidad del sector del cacao en Colombia. Frente a estos desafíos, surge la pregunta de cuál es el modelo de machine learning más adecuado para predecir los rendimientos de la producción de cacao en el departamento de Antioquia, Colombia, considerando los desafíos climáticos y agronómicos actuales. Implementar un modelo de machine learning basado en datos históricos de producción de cacao y variables ambientales podría optimizar recursos y mejorar la previsión de la producción, permitiendo a los productores planificar mejor y adaptarse proactivamente a las fluctuaciones del mercado. Desarrollar predicciones precisas es crucial para la estabilidad económica y la sostenibilidad del sector agrícola. 



METODOLOGÍA

La metodología propuesta se basa en el desarrollo del modelo mediante etapas como el preprocesamiento de datos, el análisis de datos, la ingeniería de características, el proceso de entrenamiento y la evaluación posterior.  Se decidió utilizar datos abiertos proporcionados por diversas entidades públicas y privadas, seleccionando especialmente datos del Ministerio de Agricultura y Desarrollo Rural por su fiabilidad y pertinencia. Las variables incluidas abarcan desde identificadores geográficos hasta datos específicos de producción agrícola. Además, se recopilaron datos ambientales, incluyendo precipitaciones, humedad y temperatura, a través de agencias gubernamentales, para analizar su impacto en la producción de cacao en el departamento de Antioquia durante el período de 2007 a 2018. También se incluyeron datos geográficos de longitud y latitud.  El análisis de datos permitió extraer información valiosa y patrones relevantes utilizados para desarrollar los modelos de Machine Learning. Se evidenció la evolución de la producción de cacao en Antioquia desde 2007 hasta 2018, observando una tendencia con pequeñas variaciones. Se generó un diagrama de correlación para entender mejor las relaciones entre variables, identificando que la producción de cacao y el área cosechada eran las variables más correlacionadas. Esto facilitó el análisis de su comportamiento en el entorno geográfico de Antioquia.  Este proceso de ingeniería de características se enfocó en la creación, transformación y selección de variables que optimizan el rendimiento del modelo predictivo. Se transformaron los datos categóricos a valores numéricos mediante técnicas como One Hot Encoding, permitiendo que los modelos de aprendizaje automático procesen correctamente los datos no numéricos y mejoren la precisión de las predicciones.  Por otra parte, se dividió el conjunto de datos en un conjunto de entrenamiento y otro de validación para entrenar los modelos y evaluar su rendimiento. Se empleó la técnica de validación cruzada para garantizar que el rendimiento de los modelos fuera robusto y confiable. Esto permitió seleccionar el modelo que mejor predice valores no vistos previamente.


CONCLUSIONES

El análisis realizado para la predicción de la producción de cacao en el departamento de Antioquia ha proporcionado una visión integral del desempeño de diferentes modelos de Machine Learning. Los resultados muestran que el modelo de bosque aleatorio ofrece el mejor desempeño en términos de precisión, con un error de 41.72, superando al modelo de árboles de decisión y al de regresión lineal. Este hallazgo destaca la capacidad del bosque aleatorio para manejar la complejidad y las interacciones entre las variables de manera más efectiva que los otros modelos evaluados.  Asimismo, se ha observado que las regiones con mayor productividad están correlacionadas con las áreas agrícolas más extensas, según los datos analizados. Esta relación sugiere que la expansión de las áreas agrícolas puede tener un impacto positivo en los niveles de productividad. Sin embargo, es fundamental considerar que el tamaño limitado del conjunto de datos podría haber influido en los resultados. Por lo tanto, se recomienda ampliar el conjunto de datos y mejorar su calidad para obtener predicciones más precisas y representativas.  Adicionalmente, se sugiere incorporar variables como a integración de prácticas agrícolas específicas, características del suelo y variables socioeconómicas, esto podría contribuir a un mejor desempeño de los algoritmos.
González Cervantes Karla Yeray, Instituto Tecnológico de Morelia
Asesor: Mg. Nolberto Gutiérrez Posada, Corporación Universitaria Empresarial Alexander von Humboldt

MODELO DE SIMULACIóN EMPRESARIAL PARA LA FORMACIóN EN LA TOMA DE DECISIONES EN LOGíSTICA Y CADENAS DE ABASTECIMIENTO


MODELO DE SIMULACIóN EMPRESARIAL PARA LA FORMACIóN EN LA TOMA DE DECISIONES EN LOGíSTICA Y CADENAS DE ABASTECIMIENTO

Cordova Cruz Iris Adela, Instituto Tecnológico Superior de Los Ríos. González Cervantes Karla Yeray, Instituto Tecnológico de Morelia. Morales Bertruy David, Instituto Tecnológico Superior de Los Ríos. Nahuat Narvaez Gerardo Alberto, Instituto Tecnológico Superior de Los Ríos. Asesor: Mg. Nolberto Gutiérrez Posada, Corporación Universitaria Empresarial Alexander von Humboldt



PLANTEAMIENTO DEL PROBLEMA

En este proyecto se abordaron dos situaciones clave relacionadas con la toma de decisiones en la gestión empresarial. Utilizando los conocimientos teóricos adquiridos en clase, se llevó a cabo una simulación de gestión empresarial para una fábrica de automóviles. El proceso incluyó diversas áreas de trabajo y tiempos de espera en la aduana. A continuación se describe el flujo de trabajo en la simulación:   1. Recepción y Preparación de Pedidos:    - Compradores: Los compradores nacionales e internacionales preparan los pedidos utilizando un formato específico. El apartado deseado debe coincidir exactamente con el pedido.    - Confirmación de Pedido: Una vez recibido el pedido, se completa con la palabra recibido y se envía a la bodega de productos terminados. 2. Gestión de Productos Terminados:    - Verificación en Almacén: Se realiza un pedido al área de almacén de productos terminados, que verifica la disponibilidad de productos para cumplir con el pedido.    - Preparación y Envío: Los pedidos se preparan en contenedores, se confirma el pedido en un formato y se envía tanto a nivel nacional como internacional. 3. Montaje y Revisión:    - Montaje Final: Los carros de montaje final se trasladan a la bodega de productos terminados y se recibe el pedido de la bodega de insumos. Se confirma el recibo y se actualiza el inventario.    - Ensamble: Se realiza el ensamble utilizando todos los materiales disponibles en un sistema de tipo push. En el pre-ensamble, se encargan los componentes existentes para el montaje final y se confirma el pedido de la bodega de insumos. 4. Gestión de Inventario y Pedidos:    - Pedido a Bodega de Insumos: Se efectúa un pedido a la bodega de insumos utilizando otro formato. La bodega recibe los pedidos de los proveedores, realiza inspecciones, y actualiza el inventario.    - Condiciones de Pedido:       - Pedido Internacional: No se pueden solicitar más de 38 piezas. Si no requiere revisión, el pedido tarda 2 etapas en llegar (etapa 1 al 3). Si requiere revisión, el pedido tarda 3 etapas (etapa 1 al 4).      - Pedido Nacional: No se pueden solicitar más de 45 piezas. El pedido tarda 2 etapas en llegar. 5. Manejo de Proveedores:    - Recepción y Clasificación: Los proveedores entregan pedidos, que se inspeccionan y se clasifican en buen o mal estado. El material en buen estado se coloca abajo en el contenedor y el de mala calidad arriba.    - Actualización de Inventario y Envío: Se actualiza el inventario y se envían los pedidos conforme a las solicitudes recibidas. Este enfoque asegura una gestión eficiente de los recursos y tiempos de espera en la aduana México-Colombia, en base una revisión bibliográfica, optimizando el proceso de producción y distribución.



METODOLOGÍA

Basados en el layout de la cadena de abastecimiento, se estableció la condición inicial para cada una de los roles de la simulación. Se establecieron las instrucciones de desarrollo de cada rol para que la simulación se realizara bajo condiciones controladas. Se establecieron los formatos requeridoa para la requisición entre los diferentes roles. Se validó el desarrolloo operativo de la simulación bajo esquemas ofimáticos. Se realizó la comparación de la simulación con conceptos teóricos.


CONCLUSIONES

La simulación empresarial brinda a los estudiantes la capacidad de aplicar sus conocimientos teóricos en un contexto práctico. Esta herramienta fortalece sus competencias en la toma de decisiones, gestión de inventarios y optimización de la cadena de suminstro a traves de la implementación de sistemas push y pull. Asimismo, los estudiantes adquieren habilidades en la gestión financiera y de recursos, el manejo de la logistica internacional y nacinal; por otra parte, promueve el pensamiento crítico, la resolución de porblemas y el trabajo en equipo, ofrecieno una experiencia educativa completa y realista que mejora la eficiencia y reduce los costos de producción. Dentro de los resultados obtenidos se encuntran los siguientes; - Se modificaron de manera exitosa las instrucciones de cada puesto, teniendo como resultado el éxito del simulador. - Se validaron los procesos de cada puesto de trabajo para que haya una continuida. - Se realizaron los modelos graficos de las distintas áreas de trabajo. - Se realizaron modificaciones en los formatos de Excel, en la parte de inventarios, facturas y formulas para crear un flujo entre todas las hojas de cada puesto de trabajo.
Gonzalez Cobarrubias Iran Ramses, Instituto Tecnológico Superior de Apatzingán
Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios

SISTEMA DE RIEGO AUTOMATIZADO QUE REGISTRA EL MONITOREO DE HUMEDAD MEDIANTE SERVICIOS EN LA NUBE EN CULTIVOS DE LIMóN.


SISTEMA DE RIEGO AUTOMATIZADO QUE REGISTRA EL MONITOREO DE HUMEDAD MEDIANTE SERVICIOS EN LA NUBE EN CULTIVOS DE LIMóN.

Gonzalez Cobarrubias Iran Ramses, Instituto Tecnológico Superior de Apatzingán. Marin Espinosa Juan Eduardo, Instituto Tecnológico Superior de Apatzingán. Palomares Samano Kevin Brandon, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

El problema principal es la dificultad para cultivar limón en la región de Apatzingán, Michoacán, porque la mayoría cuidadores de las huertas desconocen el cuidado adecuado de esta planta, acaban regando los cultivos mucho o menos de lo que se debe y provocan problemas a los árboles cuando pueden causar daños como consecuencia el árbol puede perderse, o el cultivo llega a tener imperfecciones notables. El problema surge desde un tiempo prologado, especialmente después de la época de la pandemia, ya que un gran número de habitantes en busca de una fuente de ingresos, se encontró un gran potencial en este cultivo debido a su extensa variedad de usos, sin embargo, las instrucciones que deben llevarse a cabo para mantener saludable no suelen encontrarse. Los problemas provocados por los cuidados en la actualidad la gran mayoría de las áreas en parcelas de limón realizan el trabajo de manera manual, esto puede ser un problema ya que atrasa actividades que pudieran de mayor prioridad, además de que suele cansar a los trabajadores más aun en la época actual donde las temperaturas promedio son mucho más elevadas. ¿En qué ayuda el implementar tecnologías modernas al cultivado del Limón? A continuación, tenemos las siguientes ventajas que aportan positivamente en el cultivo de limón sobre la implementación de las tecnologías más modernas en la actualidad: Ayuda a la simplificación del trabajo mediante a la automatización la cual hace que la mano de obra humana sea nula. Hace que el cuidado del árbol del limón sea más preciso en el riego según el ambiente de estas huertas. Ayuda a los trabajadores con el ahorro de tiempo de riego para que se enforquen en otros trabajos que sean más necesarios, ya que se encargan de cosechar las frutas.



METODOLOGÍA

En Apatzingán, la producción de limón es crucial para la economía local. La implementación de sistemas de riego automatizado mejora la eficiencia y salud de las huertas, optimizando el uso del agua y ajustándose a las necesidades de las plantas y las condiciones climáticas. Estos sistemas, con sensores y control remoto, permiten un riego preciso y eficiente, promoviendo la sostenibilidad y reduciendo el desperdicio de recursos hídricos. Esto no solo aumenta la productividad y calidad de los limones, sino que también contribuye a la sostenibilidad ambiental y económica de la región. Para implementar un sistema de riego automatizado en las huertas de limón de Apatzingán, se realizaron encuestas para obtener datos sobre los cuidados necesarios para los limoneros. Las respuestas destacaron la importancia de la poda, el control de plagas, la fertilización adecuada, el uso de suelo bien drenado y ligeramente ácido, y el riego por goteo como el método más efectivo. También se mencionaron los riesgos del riego excesivo e insuficiente y la necesidad de ajustar la frecuencia de riego según la temporada. Con esta información, se identificaron los materiales necesarios para el sistema de riego automatizado, que incluye sensores de humedad, mangueras, un ESP32, computadoras, cables, software Thonny, una protoboard, un relay de corriente y un motor de agua sumergible. El funcionamiento físico del sistema implica la instalación de estos componentes y la conversión de los valores de humedad del suelo de analógico a digital para controlar la bomba de agua a través del relay. En cuanto al funcionamiento lógico, se desarrolló una base de datos virtual para almacenar los datos registrados por el sistema. Estos datos se convierten a formato JSON y se envían a la base de datos mediante el protocolo HTTP, permitiendo un monitoreo y control eficiente del riego.


CONCLUSIONES

El análisis de las arquitecturas de software y hardware del sistema de riego automatizado presenta un diseño donde el firmware programado en MicroPython permite que el microcontrolador gestione las funciones asignadas a sus pines de entrada y salida, así como retardos y condicionales. El programa, una vez ejecutado, recoge datos importantes y los convierte en un archivo JSON para su lectura y escritura en una base de datos. Estos datos se ordenan y envían a Firebase, un servicio en la nube de Google, a través de HTTP, aprovechando la conectividad WiFi del microcontrolador. En el hardware, el sistema cuenta con un sensor de humedad que, alimentado por 3.3V a 5V, envía una señal analógica convertida a digital para medir la resistencia y determinar la humedad del suelo. El ESP32, que incluye WiFi y Bluetooth, es clave para la comunicación y el control del sistema, enviando señales a un relay que, a su vez, controla una bomba de agua sumergible para el riego según la humedad detectada. La base de datos no relacional del sistema almacena registros en la tabla "sensor data", con campos como el identificador del registro, el valor del sensor, la humedad, el voltaje y la fecha y hora de cada registro, realizados cada 15 segundos. En la programación del sistema, se desarrollaron rutinas en MicroPython para la lectura de datos, comparación, activación de actuadores y envío de información a la base de datos. El proceso de actualización de datos se realiza cada 20 segundos para permitir el riego adecuado de los cultivos. El uso de tecnologías modernas, como la inteligencia artificial, en tareas de cuidado de cultivos puede tener un impacto significativo y escalable. Este proyecto, inicialmente orientado al cuidado de árboles de limón, puede aplicarse a otros campos más complejos o sencillos. Además, es esencial considerar las leyes internacionales, ya que estas pueden imponer restricciones a largo plazo que afecten el alcance del proyecto. La protección de la información es crucial para evitar la replicación del sistema o la exposición de datos de clientes finales. Un ejemplo notable de aplicación es el cuidado de Bonsáis, donde el ajuste del modelo y microprocesador puede facilitar su mantenimiento. Otro caso es el cultivo de árboles de aguacate, donde las tecnologías modernas podrían identificar condiciones adecuadas de cultivo de manera más precisa, evitando el método de prueba y error.
González Colín Danna Vanessa, Instituto Tecnológico de Acapulco
Asesor: Dra. Liliana García Sánchez, Instituto Mexicano de Tecnología del Agua

TRATAMIENTO DE AGUAS RESIDUALES POR SISTEMAS BIOLóGICOS.


TRATAMIENTO DE AGUAS RESIDUALES POR SISTEMAS BIOLóGICOS.

Flores Ruiz Alan Alexis, Instituto Tecnológico de Acapulco. González Colín Danna Vanessa, Instituto Tecnológico de Acapulco. Asesor: Dra. Liliana García Sánchez, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

En los últimos años el crecimiento de la población ha provocado el aumento desmedido de la generación de desperdicios, basura o residuos, lo que resulta en prácticas de disposiciones inadecuadas o ineficientes y lo que a su vez influye en la generación de lixiviados. Los lixiviados son residuos provenientes de la degradación de los residuos, los cuales contienen elevadas concentraciones de contaminantes que al ser liberados al medio ambiente pueden provocar efectos adversos. En México, el tratamiento que se le da a los lixiviados a escala real es solamente una recirculación en el relleno sanitario, lo que disminuye su volumen, pero incrementa su concentración, por ello el tratamiento de estos es un desafío ambiental significativo por sus altas concentraciones de materia orgánica, nutrientes, compuestos tóxicos y la variabilidad en su composición. Ante ello, se propone el uso de sistemas no convencionales como la biofiltración, el vermicompostaje y el uso de sistemas bioelectroquímicos para el tratamiento de lixiviados, los cuales han resultado ser eficientes en la remoción de materia orgánica y nutrientes además de una factible operación y mantenimiento. Por otro lado, es importante el seguimiento de la remoción de dichos contaminantes en los sistemas de tratamiento y la evaluación del efecto toxico tanto del influente como del efluente a fin de verificar el potencial impacto en el medio ambiente.



METODOLOGÍA

Se evaluaron diferentes técnicas analíticas para la determinación de contaminantes presentes en aguas residuales, entre ellas: Demanda Química de Oxígeno (DQO), Fósforo Total, Carbono Orgánico Total (COT), Nitratos, Fosfatos (Concentración Baja), Demanda Bioquímica de Oxígeno (DBO5), Alcalinidad, Nitrógeno Amoniacal y Nitrógeno Total utilizando métodos rápidos. Así como también los parámetros de campo como: pH, Temperatura (◦C), Sólidos Totales Disueltos, Conductividad y Potencial Redox (ORP). Se monitoreo la Planta piloto móvil STARBioElectroFilm (dispositivo descentralizado multietapas de biopelícula fija bioelectrocatalítico para el tratamiento de aguas residuales) que está constituida por una Celda de Electrolisis Microbiana (CEM), un filtro anaerobio sumergido (FAS), un reactor aerobio de biopelícula de lecho móvil (RaBLM), un sedimentador de alta tasa (SAT). El sistema se alimenta con agua residual real proveniente del influente de la PTAR El Texcal ubicada en Jiutepec, Morelos.  Se evaluaron tres sistemas de biofiltración con diferentes empaques, coque (BF1), coque combinado con trozos de madera (BF2) y coque combinado con composta de jardín (BF3). Los sistemas estuvieron alimentados con lixiviados provenientes del relleno sanitario la Cañada, ubicado en el Estado de México y fueron diluidos al 10%, el monitoreo de los sistemas se determinó con parámetros tales como DQO, pH, temperatura, conductividad, potencial REDOX y SDT. Se realizó la determinación del crecimiento de plántulas de col y rábano a través de pruebas de germinación de 10 d utilizando vermicomposta de residuos estabilizados provenientes de un relleno sanitario mezclados con lodo de PTAR en diferentes concentraciones. Se determinó la altura, color y ancho de las hojas, numero de plántulas, % de germinación y longitud de las raíces Finalmente, se realizó un ensayo de toxicidad con el organismo de prueba Danio Rerio o pez cebra, para determinar el grado de toxicidad de lixiviados, este pez permite estudios rápidos sobre los efectos de los contaminantes a lo largo de distintas etapas de su desarrollo, es de importancia recalcar que tiene un alto grado de homología con los humanos, lo que permite el relacionar algunos resultados con la salud humana. La técnica de toxicidad consiste en exponer a los peces a concentraciones controladas de lixiviados para poder evaluar la toxicidad presente durante un periodo de prueba generalmente de 24 a 72 horas. Al final del periodo de exposición se determina la concentración letal media (LC50), que es la concentración del contaminante que causa la muerte del 50% de los organismos expuestos.


CONCLUSIONES

Las técnicas aprendidas durante el Verano de Investigación, se pueden utilizar para caracterizar cualquier tipo de agua residual, además, los sistemas biológicos evaluados mostraron ser eficientes para la remoción de contaminantes. Estos sistemas son una opción viable, eficaz, adaptable y sostenible debido a su capacidad para la degradación amplia de compuestos orgánicos y nutrientes. 
González Díaz Ingrid Yadira, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mg. David Alfredo Ovallos Gazabon, Corporación Politécnico de la Costa Atlántica

PROPUESTA DE MODELO DE NEGOCIO FINTECH ENFOCADO EN EL SECTOR TRANSPORTE.


PROPUESTA DE MODELO DE NEGOCIO FINTECH ENFOCADO EN EL SECTOR TRANSPORTE.

González Díaz Ingrid Yadira, Instituto Tecnológico Superior de Ciudad Hidalgo. Gonzalez Mestra Mery Alejandra, Universidad Simón Bolivar. Gutiérrez Muñoz Brayan Uriel, Instituto Tecnológico Superior de Ciudad Hidalgo. López Mondragón Dulce María, Instituto Tecnológico Superior de Ciudad Hidalgo. Reguillo Rodero Lorena Sofia, Universidad Simón Bolivar. Asesor: Mg. David Alfredo Ovallos Gazabon, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

El mercado logístico en Latinoamérica, valorado en 250 mil millones de dólares en 2023, está en constante crecimiento impulsado por el comercio electrónico, la globalización y la urbanización. Se espera que crezca a una tasa anual compuesta del 6.5% hacia 2028. Factores clave incluyen el comercio electrónico, que podría representar el 15% del comercio minorista total para 2028, la globalización que impulsa nuevas oportunidades comerciales, y la urbanización que crea nuevos centros de consumo. Además, la sustentabilidad está cobrando importancia, con empresas adoptando prácticas ecológicas como el uso de vehículos eléctricos y la optimización de rutas para reducir la huella de carbono. Una de las principales problemáticas que se analizó, fue la parte de gestión de pagos, ya que se encontró  que el pago a transportistas se hace de forma manual e ineficiente, lo cual genera problemas del flujo de efectivo, derivado de camiones detenidos, ventas pérdidas y facturas no cobradas. Los más afectados son los operadores logísticos, ya que son el centro de distribución.   Como respuesta a esta problemática identificada para el sector, se plantea el uso de tecnología emergente para la creación de una Fintech enfocado en el sector logística y transporte en el contexto latinoamericano, tomando como referencia el análisis del sector logístico para Brasil, México y Colombia, uno de los objetivos principales es que reduzcan costos y tiempos implementados, buscando la satisfacción en los clientes y automatizando el acceso a financiamientos rápidos y legales. 



METODOLOGÍA

Consiste en tres fases cada una de ellas orientada a la consecución de insumos que fueron integrados posteriormente en el documento tipo articulo científico que se presenta como resultado del ejercicio investigativo desarrollado por todo el equipo. FASE 1: Se realizó la búsqueda de información y antecedentes en distintos buscadores, algunos de ellos fueron Lens, Google Academy, entre algunos otros; además de que también se realizaron entrevistas a transportistas. Para obtener la información esperada se utilizaron palabras clave como fueron Fintech, logística, transporte, industria 4.0, con ello se reviso la información obtenida y posteriormente se filtraron los artículos según la selección, se procedió a realizar una lectura y comprensión de dichos artículos, en donde se identifico la viabilidad y veracidad informativa de los trabajos. Con la información referente a Fintech y Sector Transporte-Logística se indago como aplicar estrategias para evitar que la implementación de la propuesta conlleve un riesgo económico mayor. FASE 2: Se realizó un estudio en Latinoamérica en el mercado comercial para saber el impacto que tiene, utilizando base de datos que contienen información del tema, centrándose en países de interés que son Brasil, México y Colombia. Una vez que se analizó estos 3 países, se pudo identificar porque cada vez más van en crecimiento, además del porque se han consolidado en los últimos años en este sector. Cada país ha destacado por diferentes razones, y esto hace que se diferencien del crecimiento de los otros.   FASE 3: El enfoque se basa en el Business Model Canvas, desarrollado por Alexander Osterwalder. Este modelo de negocio nos permite visualizar y estructurar de manera efectiva los nueve componentes clave de nuestra empresa, desde los segmentos de clientes hasta la propuesta de valor, los canales de distribución y las fuentes de ingresos. Utilizando esta herramienta, podemos innovar y adaptar nuestras estrategias para crear y capturar valor de manera eficiente.


CONCLUSIONES

La Pasantía Delfín 2024 representa una oportunidad invaluable para profundizar en la investigación y el desarrollo académico. Ya que durante esta estancia se logró adquirir conocimientos teóricos acerca de la integración de tecnologías Fintech en el sector transporte y logística, pues esto esta revolucionando la industria al ofrecer soluciones innovadoras que optimizan la eficiencia operativa y financiera. El desarrollo de esta solución Fintech permitiría la automatización de pagos, la mejora de gestión en la liquidez y la reducción de costos operativos, un punto importante es la mejora de relación con los transportistas al ofrecer pagos mas rápidos y transparentes. Resaltando que la adopción de las Fintech dentro de estos sectores son un paso crucial hacia la modernización y competitividad en un mercado cada vez más digitalizado.   Queremos expresar nuestro más sincero agradecimiento de parte de los integrantes que conformamos el equipo al programa Delfín por el invaluable apoyo que nos ha brindado durante este proceso. Los conocimientos teóricos adquiridos han sido fundamentales para nuestro desarrollo académico y profesional. La atención y orientación proporcionadas por el investigador han sido de gran ayuda, permitiéndonos profundizar en temas complejos y mejorar nuestras habilidades de investigación. Además, las herramientas a las que hemos tenido acceso, como los buscadores especializados y aplicaciones como Mendeley para la gestión de citas, han sido esenciales para organizar y fortalecer nuestro trabajo. Estamos profundamente agradecidos por esta oportunidad y por todo el aprendizaje obtenido durante la estancia en la Institución Politécnico de la Costa Atlántica, Barranquilla, Colombia y el apoyo de nuestras Instituciones el Instituto Tecnológico Superior de Ciudad Hidalgo Michoacán y Universidad Simón Bolivar.
Gonzalez Espindola Yamilet Guadalupe, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan

OPTIMIZACIÓN DE LA GEOMETRÍA PARA REDUCCIÓN DEL NIVEL DE ESFUERZOS.


OPTIMIZACIÓN DE LA GEOMETRÍA PARA REDUCCIÓN DEL NIVEL DE ESFUERZOS.

Gonzalez Espindola Yamilet Guadalupe, Instituto Tecnológico Superior de Ciudad Serdán. Martínez Rubiños Yadira del Carmen, Instituto Tecnológico de Aguascalientes. Asesor: Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

En el diseño mecánico generalmente se presentan dos problemas básicos, en los cuales se requiere optimizar, primero se encuentran los problemas que se requiere un nivel de esfuerzos mínimo, bajo las mismas condiciones de carga y en otras ocasiones se requiere una disminución de la masa de la pieza o elemento de máquina diseñado. Para esto existen diferentes métodos entre los que destacan diseño de experimentos y la optimización topológica, métodos que son incluidos en los módulos que contiene ANSYS Workbench. Siguiendo sobre esta mismo enfoque, en el diseño de piezas mecánicas, la selección adecuada en dimensiones como radios, en el caso de barrenos y redondeos en cambio de sección en estas piezas, es crucial para asegurar la integridad y desempeño. Una selección incorrecta puede resultar en concentraciones de esfuerzo que disminuyen la capacidad de carga. Para abordar este desafío, se propone el uso del software ANSYS Workbench y el módulo Mechanical Optimization para generar de manera automática combinaciones que cumplan con los niveles de esfuerzo deseados.



METODOLOGÍA

Se propuso el análisis de una placa a la cual se realiza en primera instancia un análisis estático, el cual sirve como base para visualizar el comportamiento cuando es sometida a una fuerza axial, una vez identificadas las regiones más críticas, se propone parametrizar las cotas de los radios y generar de manera automática las combinaciones factibles de acuerdo al análisis por diseño de experimentos. Se utilizó el software CAE ANSYS para el análisis y simulación por elementos finitos (FEA), para el análisis y optimización de las dimensiones de la geometría. En la fase de optimización, se generaron diversas configuraciones candidatas con el objeto de identificar la propuesta más factible y que presente una mejor distribución y nivel de esfuerzos. Para ello se dividió el proceso en cuatro etapas: 1.       Modelado: Representación o esquema simplificado de la estructura, que se elabora con el objeto de analizar su comportamiento. 2.       Mallado: El proceso de subdividir el modelo en pequeñas partes se llama mallado. Los programas de análisis de elementos finitos consideran al modelo como una red de elementos interconectados. 3.       Selección de cargas y condiciones de borde: La selección de apoyos y cargas en ANSYS es una función que permite aplicar cargas específicas a un modelo de elementos finitos para simular su comportamiento en diferentes condiciones: 4.       Optimización: La optimización en ANSYS es un proceso que busca encontrar el mejor diseño o configuración de un modelo para minimizar o maximizar una función objetivo, sujeta a ciertas restricciones. El objetivo es encontrar el diseño óptimo que cumpla con los requisitos y minimice el estrés, la deformación, el peso, el costo, etc. A continuación, se detalla el proceso llevado para este análisis: 1.     Modelado Se inició una nueva ventana de trabajo en ANSYS Workbech, seguido de un módulo individual de Geometry, con el propósito de poder actualizar o modificar el diseño y que las actualizaciones se puedan compartir con otros módulos; para crear el modelo 3D con la opción de modelado DesignModeler, la pieza propuesta para el análisis consistió en una placa de acero, que tiene un cambio de sección transversal al que se le agrega un redondeo en los filetes, además, en dicho modelo se agrega un barreno. A pesar de ser una geometría sencilla, al contar con un barreno y redondeos en los filetes, se dificulta obtener una buena calidad en el mallado, es por lo que previo a este paso se le realizaron seccionamientos (Slides) a la placa, obteniendo así 7 subpartes. Después a esto agregamos el módulo Static Structural a este módulo vinculamos el módulo de Geometry, y seguido se seleccionó el material con el que se trabajaría: acero estructural. 2.     Mallado Con la opción de Model en nuestro módulo de Stactic Structural, se inicia una ventana de Mechanical, en esta ventana se verificó que la geometría se haya cargado adecuadamente al igual de que a cada subparte se le aplique el material elegido. Dentro de este apartado se realizó el mallado, aplicando herramientas de Sizing y Multizone, y como método de calidad de mallado: Skewness donde se buscó que la mayor cantidad de zonal en la pieza estuvieran en un criterio de 0 - 0.25 (Bueno - Regular) y tener la menor cantidad posible de 0.5 a 1 (Suficiente - Degenerado). 3.     Selección de cargas Las condiciones a las que se someterá dicho modelo consisten en un soporte fijo en la sección de mayor área y una fuerza axial en la sección transversal menor. Se propone un caso de estudio de una placa de acero estructural que tiene como características geométricas dos filetes de radio rf, y que debe de contar con un esfuerzo permisible de 15 ksi. 4.     Optimización En esta fase se utilizó el módulo ANSYS Mechanical Optimization el cual utiliza diseño de experimentos para generar diversas configuraciones candidatas, de las cuales se analizan la mejores opciones para hacer la mejor propuesta.


CONCLUSIONES

En conclusión, el diseño mecánico de piezas requiere un enfoque cuidadoso para minimizar los niveles de esfuerzo y reducir la masa de los componentes, lo que es fundamental para garantizar su integridad y durabilidad. La implementación de métodos como el diseño de experimentos y la optimización topológica, disponibles en ANSYS Workbench, proporciona herramientas efectivas para abordar estos desafíos. La selección precisa de medidas críticas, como radios y redondeos, es esencial para evitar concentraciones de esfuerzo que puedan comprometer la resistencia y la vida útil de las piezas. Al utilizar ANSYS Workbench para optimizar estas dimensiones, se puede lograr un diseño más eficiente y robusto, mejorando así el rendimiento general de los elementos mecánicos en diversas aplicaciones. Este enfoque no solo contribuye a la seguridad y fiabilidad de los componentes, sino que también promueve la innovación en el diseño mecánico.
González Fernández Juan Rolando, Instituto Tecnológico Superior de Uruapan
Asesor: Mg. Darwin Ramos Franco, Fundación Universitaria Colombo Internacional

MODELO DE SIMULACIÓN FLEXIBLE FLOW SHOP


MODELO DE SIMULACIÓN FLEXIBLE FLOW SHOP

González Fernández Juan Rolando, Instituto Tecnológico Superior de Uruapan. Asesor: Mg. Darwin Ramos Franco, Fundación Universitaria Colombo Internacional



PLANTEAMIENTO DEL PROBLEMA

En el competitivo entorno industrial actual, las empresas deben optimizar continuamente sus procesos de producción para mantenerse eficientes y rentables. La empresa en estudio enfrenta grandes desafíos en su línea de producción flexible, donde la variabilidad y la interdependencia de los procesos generan cuellos de botella y tiempos de inactividad elevados. El rendimiento global del sistema es del 47.8%, con disparidades en el throughput de diferentes tipos de productos y altos índices de inactividad en varios procesos y estaciones. Para abordar estos problemas sin incurrir en costos adicionales ni modificar los tiempos de operación o los arribos, se busca una solución que mejore la eficiencia operativa. El objetivo es aumentar el rendimiento del sistema en un 35% mediante la reconfiguración y optimización de los procesos existentes, utilizando FlexSim, un software avanzado de simulación de eventos discretos. Diagnóstico del Problema Variabilidad de Procesos: Causa cuellos de botella y tiempos de inactividad elevados debido a la interdependencia entre estaciones. Desbalanceo de la Línea: Disparidades en el throughput entre productos indican una carga de trabajo desbalanceada. Tiempos de Inactividad: Alta inactividad en estaciones y procesos sugiere falta de sincronización y gestión ineficaz de recursos. Objetivos de Optimización Balanceo de la Línea de Producción: Redistribuir la carga de trabajo para reducir cuellos de botella y maximizar la utilización de recursos. Reducción de Tiempos de Inactividad: Implementar estrategias para minimizar tiempos muertos. Maximización de la Utilización de Recursos: Usar eficientemente los recursos disponibles.



METODOLOGÍA

Análisis Inicial con FlexSim: Modelar el sistema actual, identificar cuellos de botella y analizar la variabilidad en los tiempos de procesamiento. Implementación de Estrategias de Optimización: Balanceo de la Línea: Redistribuir tareas y reorganizar flujos de trabajo. Reducción de Tiempos de Inactividad: Mejorar la coordinación y programar mantenimientos preventivos. Optimización de Recursos: Implementar políticas que minimicen tiempos de espera y maximicen el throughput. Validación y Ajustes: Ejecutar simulaciones y ajustar estrategias basadas en los resultados para asegurar una mejora consistente en el rendimiento.


CONCLUSIONES

Resultados Esperados Se espera aumentar el rendimiento global del sistema en un 35%, mejorando el throughput de todos los tipos de productos, reduciendo tiempos de inactividad y utilizando eficientemente los recursos. Esto permitirá alcanzar un rendimiento global del 64.5%, cumpliendo con el objetivo propuesto. Conclusión La reconfiguración y optimización de la línea de producción utilizando FlexSim permitirá a la empresa mejorar significativamente su rendimiento sin incurrir en costos adicionales ni modificar los tiempos de operación o arribos. Al centrarse en el balanceo de líneas, reducción de tiempos de inactividad y maximización de la utilización de recursos, se logrará una eficiencia operativa mejorada, proporcionando una base sólida para futuras mejoras y adaptaciones.
González Franchini Diana Valeria, Instituto Tecnológico de Tepic
Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia

AUTOMATIZACIóN DE LA DISPENSACIóN DE LíQUIDOS EN LA INDUSTRIA FARMACéUTICA: DISEñO Y EVALUACIóN DE UN NUEVO PROTOTIPO


AUTOMATIZACIóN DE LA DISPENSACIóN DE LíQUIDOS EN LA INDUSTRIA FARMACéUTICA: DISEñO Y EVALUACIóN DE UN NUEVO PROTOTIPO

González Franchini Diana Valeria, Instituto Tecnológico de Tepic. González Pérez Carlos Othoniel, Instituto Tecnológico de Tepic. Sandoval Murillo Kevin Abel, Instituto Tecnológico de Tepic. Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

En la industria farmacéutica, la precisión en la dispensación de líquidos es importante para garantizar la calidad y seguridad de los productos. Sin embargo, los métodos tradicionales de dispensación manual pueden presentar algunas limitaciones significativas, tales como la variabilidad en la cantidad de líquido dispensado, la posibilidad de errores humanos y la contaminación cruzada.    Además, la creciente demanda de medicamentos y productos farmacéuticos exige procesos de producción más rápidos y eficientes. La capacidad de dispensar líquidos con alta precisión y consistencia es de vital importancia para cumplir con los estándares.    El problema radica en la necesidad de un sistema de dispensación de líquidos que no solo garantice una dosis precisa y consistente, sino que también sea capaz de integrarse fácilmente en las líneas de producción, de tal forma que se mejore la eficiencia operativa y se reduzca el riesgo de errores. La falta de automatización adecuada en estos procesos puede llevar a desperdicios de materia prima, retrasos en la producción y por lo tanto aumentos en los costos operativos y de producción.



METODOLOGÍA

Se diseñó y construyó un dispensador de líquidos automático con el objetivo de mejorar la precisión y eficiencia en la dispensación de líquidos, aumentando la calidad, esta nueva visión de la calidad es una estrategia que genera confianza en clientes, industria y organismos reguladores, respecto a la calidad de los productos farmacéuticos. El primer paso en el desarrollo fue el diseño del circuito electrónico. Se utilizó un microcontrolador Arduino como unidad de control central, encargado de coordinar la operación de todos los componentes del sistema.  Se integraron sensores de nivel para monitorear el estado del líquido. El circuito también incluía una bomba hidráulica, seleccionada por su capacidad para proporcionar un flujo constante y preciso de líquido, así como tubos de plástico que regulan el paso del líquido. Una vez finalizado el diseño del circuito, se procedió a la construcción de la estructura física del dispensador. Posteriormente, se integraron los componentes electrónicos en la estructura física. El siguiente paso fue la programación del software que controlaría el dispensador. Una vez ensamblado y programado el prototipo, se realizaron pruebas iniciales para verificar el funcionamiento de cada componente y la integración del sistema en su conjunto.  


CONCLUSIONES

La implementación de sistemas automatizados en la industria farmacéutica es crucial para mejorar la precisión, eficiencia y seguridad en los procesos de producción. Estos sistemas permiten una dosificación exacta, reducen la intervención humana y minimizan los errores, esto nos beneficia obteniendo una mayor calidad de los productos farmacéuticos.  El desarrollo del prototipo de un dispensador de líquidos automático ha demostrado que es posible alcanzar estos objetivos. A través del diseño del circuito electrónico, la construcción de una estructura física robusta y la integración de componentes electrónicos, se logró un sistema que cumple con los requerimientos de calidad. Las pruebas iniciales y los ajustes posteriores confirmaron que el prototipo funciona de manera óptima.   Enlace del video funcional: https://youtu.be/XNvL07pQG9o?si=HFt2BjUBKK9liEfz Enlace del documento del prototipo final: https://docs.google.com/document/d/1hKF2G_L0UWdH1AyVmR68DeS0offFUjnp/edit
González García Ricardo, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. Luz María Rodríguez Vidal, Instituto Tecnológico Superior de Irapuato

PLANEACIóN DEL VUELO DE AERONAVES NO TRIPULADAS USANDO RADIOFRECUENCIA


PLANEACIóN DEL VUELO DE AERONAVES NO TRIPULADAS USANDO RADIOFRECUENCIA

González García Ricardo, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. Luz María Rodríguez Vidal, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

La aeronáutica es una disciplina interesante y atractiva para las personas que tienen atracción por volar. Así mismo, el estudio, diseño y manufactura de aeronaves es de suma importancia ya que conlleva una responsabilidad enorme por salvaguardar la vida de los pasajeros que abordan un aparato mecánico que es capaz de elevarse. En la actualidad existe el desconocimiento de los diferentes principios teóricos y prácticos para comprender como es que vuela un avión. En el presente trabajo se hace una investigación teórica - práctica de los principales elementos que se deben considerar para pilotear una aeronave. Para efectos prácticos, se ensambla una aeronave no tripulada la cual puede ser controlada a distancia por medio de un protocolo de radiofrecuencia, de esta forma, se pone en práctica los conocimientos para volar una aeronave. El conocimiento adquirido y los resultados pueden servir a los estudiantes de aeronáutica para comprender los elementos principales para pilotear una aeronave.



METODOLOGÍA

Un avión vuela por las alas, muchas personas al ver un avión creen que por tener motores vuela, pero así no es en realidad, todas las alas tienen un perfil y no son rectas, son como curvadas, entonces lo que hacen los motores es dar empuje, el avión empieza a moverse al sentido contrario de la corriente de viento, donde el viento pasa por las alas, adhiriéndose al perfil alar creando una diferencia de presiones, una donde arriba es menor y abajo es mayor lo que hace que se eleve. Por ejemplo, cuando vas en el coche a una velocidad moderada y sacas la mano por la ventana y si pones la mano en línea recta no se mueve, en cambio sí creas un ángulo con la mano o la levantas un poco, se puede sentir como la corriente de aire arrastra tu mano hacia arriba, este efecto se le llama teorema de Bernoulli que son diferencias de presiones y es la razón por la cual vuela un avión. El avión tiene 3 superficies de control que son alerones, timón y elevador, con estas superficies se controlan los movimientos del avión, el alerón controla el moviendo de alabeo que ocurre en el eje longitudinal, timón controla el movimiento de guiñada y ocurre en el eje vertical, y el elevador, controla el movimiento de cabeceo y ocurre en el eje transversal. Una aeronave considerándola rígida tiene 6 grados de libertad, que son x, y, z, alabeo, cabeceo y guiñada. Cuando la aeronave comienza a despegar es necesario levantar un poco la nariz, pero no debe pasar el ángulo de ataque de la aeronave, ya que si lo sobrepasa entra en pérdida, esto quiere decir que la velocidad disminuye, sin velocidad no hay corriente de aire y sin corriente de aire no hay diferencia de presiones, lo que ocasiona que la aeronave caiga al suelo. Para las personas que les interesa volar o armar un avión resulta muy difícil comprender cómo es que vuela, controlarlo y sus partes. Para eso con el armado de la aeronave explicamos la posibilidad de volar un avión a través de modelos a escala y usando simuladores de vuelo. En este trabajo se realizó el armado de una aeronave no tripulada, la cual puede ser controlada a distancia por medio de radiofrecuencia. Se documento el armado y los grados de libertad de la aeronave para que pueda ser comprendido el vuelo desde el despegue hasta el aterrizaje. También se utilizó el simulador de vuelo Flight Simulator 2024, para practicar el vuelo e identificar el control de la aeronave en el suelo, en el aire y cuando aterriza. 


CONCLUSIONES

Los resultados del trabajo es la documentación a través de manuales y material audiovisual de los elementos que deben considerarse para pilotear una aeronave. Tambien, se documenta la experiencia de haber volado una aeronave no tripulada por radiofrecuencia. Como trabajo futuro, se determinará la integración de sensores que ayuden en el control y el registro de alguna variable durante el vuelo. 
Gonzalez Gastelum Miguel, Universidad Autónoma de Baja California
Asesor: Dr. Marcos Alfredo Hernández Ortega, Universidad Autónoma de Guadalajara

EVALUACIóN DE SISTEMAS DE POTENCIA CON PARQUES EóLICO


EVALUACIóN DE SISTEMAS DE POTENCIA CON PARQUES EóLICO

Gonzalez Gastelum Miguel, Universidad Autónoma de Baja California. Asesor: Dr. Marcos Alfredo Hernández Ortega, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La estabilidad de sistemas eléctricos es crucial para asegurar un suministro continuo y confiable de energía. En este contexto, la inclusión de generación eólica, con su naturaleza variable, presenta desafíos adicionales. Este estudio busca proporcionar una evaluación empírica de la estabilidad del sistema bajo la influencia de generación eólica y la distribución de cargas, aportando así a la comprensión de las dinámicas y limitaciones de sistemas eléctricos complejos.   Este análisis es relevante para la planificación y operación de redes eléctricas, especialmente en escenarios donde la generación renovable, como la eólica, desempeña un papel significativo. Los resultados de este estudio pueden informar decisiones sobre la configuración óptima de sistemas eléctricos para mantener la estabilidad y la eficiencia operativa en presencia de fuentes de energía variables.



METODOLOGÍA

El estudio se centró en la simulación de un sistema eléctrico compuesto por 6 buses, con el objetivo de analizar la estabilidad del sistema bajo diferentes condiciones de carga y generación. Se realizaron 90 simulaciones en total, considerando las siguientes especificaciones: El bus 1 y el bus 4 eran buses de control de voltaje, cada uno recibiendo una cuarta parte de la carga total. El bus 3 funcionaba como el bus "slack" y también recibía una cuarta parte de la carga total. El bus 2, en casos sin generador eólico, recibía el 100% de la carga correspondiente (una cuarta parte de la carga total). En escenarios con generación eólica, se reducía la carga en 75 MW por generador eólico, hasta un máximo de 150 MW. Las impedancias entre los buses eran las siguientes: Entre el bus 1 y el bus 2: 0.01 + j0.1 ohms. Entre el bus 5 y el bus 6: 2.9095 + j29.095 ohms. Entre el bus 3 y el bus 4: 0.01 + j0.1 ohms. Los buses 1, 2, 3 y 4 contaban con un generador síncrono de 20 kV. Entre los buses 2 y 3, y los buses 4 y 6 había transformadores delta-estrella de 20 kV/115 kV. La metodología empleada en este estudio involucró la realización de 90 simulaciones del sistema eléctrico, evaluando diferentes escenarios de carga y generación eólica. Los pasos principales del análisis fueron los siguientes: Configuración del sistema: Se estableció el modelo del sistema eléctrico con sus especificaciones detalladas, incluyendo la configuración de buses, generadores, impedancias y transformadores. Simulación de escenarios: Se simularon múltiples escenarios, variando la presencia de generación eólica y ajustando las cargas de los buses según las condiciones específicas de cada caso. Los generadores eólicos redujeron la carga del bus 2 en 75 MW o 150 MW, dependiendo de si había uno o dos generadores en funcionamiento. Monitoreo de variables clave: Durante las simulaciones, se monitorearon las variables clave del sistema, como los voltajes en los buses, las velocidades de los generadores síncronos y las potencias generadas por los generadores eólicos. Análisis de estabilidad: La estabilidad del sistema se evaluó de manera empírica, observando cómo las diferentes configuraciones y cargas afectaban las variables monitoreadas y determinando la capacidad del sistema para mantener condiciones estables bajo variaciones de carga y generación.


CONCLUSIONES

El análisis de las 90 simulaciones permitió obtener una comprensión detallada de la estabilidad del sistema eléctrico bajo diversas condiciones. Las principales conclusiones del estudio fueron las siguientes: Distribución de carga y estabilidad: La distribución de la carga entre los buses 1, 3 y 4 mostró ser eficaz para mantener la estabilidad del sistema. El bus 2, al estar sujeto a variaciones de carga significativas por la generación eólica, mostró mayor vulnerabilidad a inestabilidades. Impacto de la generación eólica: La inclusión de generación eólica tuvo un impacto notable en la estabilidad del sistema. Reducciones de carga de 75 MW o 150 MW en el bus 2 causaron fluctuaciones en los voltajes y velocidades de los generadores, pero el sistema mostró capacidad de adaptación. Efecto de las impedancias: Las diferentes impedancias entre los buses afectaron la distribución de potencias y la estabilidad. Las impedancias más altas, como entre los buses 5 y 6, limitaron la transferencia de potencia, influyendo en la estabilidad general del sistema. Transformadores y estabilidad: Los transformadores delta-estrella desempeñaron un papel crucial en la adaptación del sistema a diferentes niveles de voltaje y contribuyeron a la estabilidad general del sistema. En resumen, el estudio demostró que el sistema eléctrico, bajo las configuraciones simuladas, puede mantener la estabilidad bajo una variedad de condiciones de carga y generación, aunque con ciertas vulnerabilidades asociadas principalmente a la variabilidad de la generación eólica.  
González Hernández Erick Axel, Instituto Tecnológico de Morelia
Asesor: Esp. Angelica Maria Blanco Correa, Institución Universitaria de Envigado

CONDICIONES DE TRABAJO EN SALAS DE BELLEZA Y SPA DE UÑAS DEL MUNICIPIO DE ENVIGADO, ANTIOQUIA- COLOMBIA (2024)


CONDICIONES DE TRABAJO EN SALAS DE BELLEZA Y SPA DE UÑAS DEL MUNICIPIO DE ENVIGADO, ANTIOQUIA- COLOMBIA (2024)

Cuevas Ayala Bibiana Guadalupe, Instituto Tecnológico de Jiquilpan. González Hernández Erick Axel, Instituto Tecnológico de Morelia. Guijosa Hernández Brenda Estefany, Instituto Tecnológico Superior de Ciudad Hidalgo. Martínez Martínez Cecilia Lizbeth, Instituto Tecnológico Superior de Ciudad Hidalgo. Medina Tello Dulce Maria, Instituto Tecnológico Superior de Ciudad Hidalgo. Medina Tello Regina Vianeey, Instituto Tecnológico Superior de Ciudad Hidalgo. Pérez Delgado Rosario Nallely, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Esp. Angelica Maria Blanco Correa, Institución Universitaria de Envigado



PLANTEAMIENTO DEL PROBLEMA

En las salas de belleza y spa de uñas, los colaboradores se exponen a múltiples factores de riesgo que pueden afectar su salud y bienestar. Estos riesgos incluyen exposición a sustancias químicas, radiaciones no ionizantes, ruido, iluminación inadecuada, condiciones de confort térmico deficientes y factores ergonómicos debido a posturas forzadas y movimientos repetitivos. La falta de medidas preventivas específicas y el desconocimiento sobre los riesgos agravan la situación, aumentando la probabilidad de accidentes de trabajo y enfermedades laborales. Los colaboradores de las peluquerías y spa de uñas en Envigado están expuestos a riesgos ocupacionales y ergonómicos que pueden impactar negativamente su salud, y en la mayoría de los casos, no se implementan acciones preventivas adecuadas.



METODOLOGÍA

Diseño del Estudio El estudio se diseñará como una investigación descriptiva y transversal, evaluando los riesgos de higiene ocupacional y ergonómicos en los trabajadores de salas de belleza y spa de uñas en Envigado. Población y Muestra Población: Trabajadores de salas de belleza y spa de uñas en el municipio de Envigado. Muestra: Se seleccionará una muestra representativa de trabajadores de diferentes salas de belleza y spa de uñas en Envigado, utilizando un muestreo aleatorio estratificado. Instrumentos de Recolección de Datos Encuestas y Cuestionarios: Para caracterizar el perfil sociodemográfico y las condiciones de salud y trabajo de los trabajadores. Mediciones Ambientales: Para evaluar niveles de ruido, iluminación, radiación no ionizante y confort térmico en los lugares de trabajo. Análisis de Sustancias Químicas: Para identificar y medir la concentración de sustancias químicas presentes en el ambiente laboral. Evaluaciones Ergonómicas: Para identificar y analizar posturas forzadas y movimientos repetitivos. Procedimiento Recolección de Datos: Aplicación de encuestas y cuestionarios a los trabajadores. Realización de mediciones ambientales y análisis de sustancias químicas en las salas de belleza y spa de uñas. Evaluaciones ergonómicas en los puestos de trabajo. Análisis de Datos: Análisis descriptivo de los datos sociodemográficos, de salud y condiciones de trabajo. Análisis cuantitativo de los niveles de exposición a riesgos higiénicos y ergonómicos. Relación entre los riesgos evaluados y los efectos en la salud reportados por los trabajadores Elaboración de Recomendaciones: Basadas en los resultados obtenidos, se emitirán recomendaciones para mejorar las condiciones de trabajo y reducir la exposición a los riesgos identificados.


CONCLUSIONES

Perfil Sociodemográfico y Condiciones de Salud: Caracterización detallada del perfil sociodemográfico de los trabajadores y sus condiciones de salud, identificando posibles patrones o tendencias relacionadas con la exposición a riesgos. Evaluación de Riesgos: Identificación de los niveles de exposición a ruido, iluminación, radiación no ionizante, confort térmico y sustancias químicas en las salas de belleza y spa de uñas. Evaluación de los riesgos ergonómicos relacionados con posturas forzadas y movimientos repetitivos. Relación entre Riesgos y Salud: Análisis de la relación entre los riesgos ocupacionales y los efectos en la salud reportados por los trabajadores, proporcionando evidencia sobre el impacto de estos riesgos en su bienestar.
González Herrera Juan Alberto, Instituto Tecnológico de Querétaro
Asesor: Mtro. Javier Hilario Reyes Cordova, Universidad Tecnológica de Tehuacán

MEJORA DE LOS PROCESOS INSTITUCIONALES DE LA UNIVERSIDAD TECNOLóGICA DE TEHUACáN A PARTIR DE LA IMPLEMENTACIóN DE LA NORMA ISO 9001:2015


MEJORA DE LOS PROCESOS INSTITUCIONALES DE LA UNIVERSIDAD TECNOLóGICA DE TEHUACáN A PARTIR DE LA IMPLEMENTACIóN DE LA NORMA ISO 9001:2015

Avendaño Sánchez Zaira, Instituto Tecnológico Superior de Tierra Blanca. Collazos Bolaños Luisa Fernanda, Corporación Universitaria Remington. González Herrera Juan Alberto, Instituto Tecnológico de Querétaro. Romero Cordero Jhojan, Corporación Politécnico de la Costa Atlántica. Vega Hernández Adriana Sayuri, Instituto Tecnológico de Querétaro. Asesor: Mtro. Javier Hilario Reyes Cordova, Universidad Tecnológica de Tehuacán



PLANTEAMIENTO DEL PROBLEMA

En la constante necesidad de que en las instituciones de educación superior en México cuenten con un sistema que asegure la calidad de los procesos y servicios que se brindan dentro de la misma ha llevado a que todas estas instituciones busquen obtener la acreditación de un organismo que asegure que todos los procesos que se llevan a cabo dentro de las instituciones educativas cumplan con el principio de la mejora continua, a su vez la universidad tecnológica de tehuacán busca obtener la certificación en la norma iso 9001:2015, para poder demostrar ante la secretaría de educación pública que es una institución que cumple con los lineamientos básicos y que todos los procesos y servicios que se llevan a cabo dentro de la institución son de calidad y cumplen con el principio de la mejora continua por lo que una de las formas de poder lograrlo es a través de una casa certificadora que brinde el certificado y que lleva a cabo una evaluación de todos los procesos y servicios que brinda la institución y que se ven afectados por las partes interesadas, por lo que la presente investigación busca determinar si la certificación de la norma ISO 9001:2015 contribuye a la mejora de los procesos productivos en las instituciones de educación superior y los miembros de la comunidad universitaria perciben los beneficios de contar con dicha certificación, el poder evaluar los resultados que nos brinda el poder obtener una certificación como la norma ISO 9001:2015, permitirá determinar si la mejora continua contribuye hay crecimiento y desarrollo de las instituciones de educación superior, mejora las condiciones con respecto a un tiempo anterior, la presente investigación se lleva a cabo en el periodo de Enero a Septiembre del 2024, evaluando los indicadores del Programa Operativo Anual (POA) y esta supedito a la disponibilidad de la información que brinden las áreas de la Universidad tecnológica de Tehuacan.



METODOLOGÍA

La presente investigación parte del análisis de caso que ocurre en la universidad tecnológica de tehuacán y que parte de un estudio longitudinal que abarca del periodo de enero a septiembre del 2024, adicional a lo anterior el presente estudio comprende a toda la comunidad universitaria y a las partes interesadas que la conforman entendiendo qué se trata de un estudio descriptivo de cómo se lleva a cabo el proceso para lograr la certificación de la norma iso 9001:2015 en la universidad y cómo contribuye a la mejora de los procesos educativos y el alcance de los mismos en el círculo de Deming, que comprende planear, hacer, verificar y actuar que parte desde la alta dirección y el compromiso de la misma para poder llevar a cabo un proceso de certificación ya que la asignación y estrategias que mantiene la rectoría con respecto a dicha institución permiten establecer los alcances del sistema de gestión de la calidad y la evaluación de los mismos a través de algunos indicadores que ha desarrollado la institución y un análisis mixto, ya que se evalúan variables cuantitativas y cualitativas de la comunidad universitaria y se obtendrá información de primera mano mediante entrevistas a miembros de dicha comunidad para obtener su percepción con respecto a la implementación del sistema de gestión de la calidad y poder determinar mediante un análisis descriptivo de los múltiples beneficios que ofrece la universidad.


CONCLUSIONES

Lo que podemos apreciar de la presente investigación es que por cuestiones de tiempo no se podrá concluir de manera satisfactoria y que por la situación del programa delfín y el la corta estancia dentro de la misma no podremos ver de primera mano los resultados obtenidos pero sí podemos concluir que el proceso de la mejora continua dentro de las instituciones de educación superior es un proceso que se tiene que llevar a cabo de una manera muy particular de un análisis detallado y constante con la finalidad de entender qué lleva una institución de educación superior a buscar una certificación de calidad no solamente con el objetivo de cumplir con un mero requisito sino como la constante necesidad de la mejora continua de los procesos y el óptimo aprovechamiento de los recursos para lograr los fines con los que son desarrolladas las instituciones he aquí un avance que requiere más investigación y que no solamente corresponde a una cuestión de costos sino una situación en la que se tiene que atender los servicios educativos de calidad para que un alumno sea capaz de alcanzar estas metas y objetivos ya que no únicamente acude para llevar a cabo la generación del conocimiento sino para mejorar sus condiciones actuales y que las instituciones de educación superior son un medio para que éstas se logre no solamente buscando convenios con instituciones educativas homónimas sino con empresas a las que deberá de apoyar de una forma de otra brindando a alumnos de calidad y procesos y capacitación y todo aquello que le permita a la universidad mejorar su relación con las partes interesadas y con la comunidad misma en la que el desarrollo humano y la sostenibilidad junto con la sustentabilidad son mecanismos por los cuales tenemos que buscar un crecimiento constante.
Gonzalez Herrera Tatiana, Universidad Tecnológica De Bolívar
Asesor: Mg. Reinel Tabares Soto, Universidad Autónoma de Manizales

CONVOLUTIONAL VISION TRANSFORMER CON ATENCIóN DE CANAL PARA CLASIFICACIóN DEL ALZHEIMER MEDIANTE RESONANCIA MAGNéTICA Y DATOS DE HISTOGRAMA


CONVOLUTIONAL VISION TRANSFORMER CON ATENCIóN DE CANAL PARA CLASIFICACIóN DEL ALZHEIMER MEDIANTE RESONANCIA MAGNéTICA Y DATOS DE HISTOGRAMA

Gonzalez Herrera Tatiana, Universidad Tecnológica De Bolívar. Asesor: Mg. Reinel Tabares Soto, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

La enfermedad de Alzheimer es un trastorno neurodegenerativo progresivo que afecta principalmente a personas mayores. Es la causa más común de demencia, una condición caracterizada por una disminución de la memoria, el pensamiento, el comportamiento y la capacidad para realizar las actividades cotidianas. Un diagnóstico precoz de esta enfermedad puede mejorar eficazmente la calidad de vida del paciente, ya que permite la implementación de tratamientos y estrategias de manejo antes de que la enfermedad progrese significativamente. El diagnóstico del Alzheimer presenta numerosos desafíos críticos que requieren la identificación precisa y rápida de patrones y biomarcadores en imágenes cerebrales y datos clínicos. Para abordar estos desafíos, es importante explorar alternativas y desarrollar técnicas que mejoren la efectividad de los modelos basados en inteligencia artificial y aprendizaje profundo en este contexto.



METODOLOGÍA

El estudio utiliza una base de datos de Kaggle con imágenes de resonancia magnética (MRI) correspondientes a cuatro etapas de la enfermedad de Alzheimer: sin demencia, demencia moderada, demencia leve y demencia muy leve. Para la extracción de características, se emplearon tres técnicas principales que generan una representación estadística de la imagen mediante histogramas o patrones cuantizados: Local Binary Patterns (LBP), que compara la intensidad de cada píxel con sus vecinos; Histogram of Oriented Gradients (HOG), que detecta objetos y formas mediante la distribución de gradientes de intensidad; Local Phase Quantization (LPQ), que analiza la fase local de la imagen para generar patrones cuantizados resistentes a variaciones de iluminación y desenfoque. Estas técnicas se integraron en modelos basados en Convolutional Vision Transformer (CVT) con atención de canales: CVT que utiliza solo imágenes, CVT con histogramas y un modelo bimodal que combina ambos tipos de datos.


CONCLUSIONES

Este estudio propuso una nueva arquitectura que emplea un Convolutional Vision Transformer (CVT) para el diagnóstico del Alzheimer mediante el análisis de histogramas e imágenes por resonancia magnética (MRI) individuales y combinadas. Los resultados muestran que el modelo basado en imágenes logró una precisión excepcional en la clasificación binaria entre "sin demencia" y "demencia leve". El modelo bimodal también demostró un buen rendimiento, aunque ligeramente inferior al modelo basado en imágenes. Estos hallazgos resaltan la efectividad de los CVT para clasificar las etapas de la enfermedad de Alzheimer y sugieren que los histogramas pueden ser una fuente complementaria de características valiosas. La clasificación de cuatro clases logró una precisión del 99,36%. Se sugieren vías para mejoras futuras, como el equilibrio de datos, el aumento de datos y la incorporación de datos clínicos adicionales para un modelo más sólido y preciso.
Gonzalez Iñiguez Yazmin Alexandra, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Oscar Javier Montiel Mendez, Universidad Autónoma de Ciudad Juárez

ORGANIZATIONAL METASTASIS: AN ANALOGY OF DISSEMINATION AND CORPORATE COLLAPSE.


ORGANIZATIONAL METASTASIS: AN ANALOGY OF DISSEMINATION AND CORPORATE COLLAPSE.

Gonzalez Iñiguez Yazmin Alexandra, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Oscar Javier Montiel Mendez, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

El planteamiento del problema de esta investigación se centra en la adaptación del concepto de metástasis, comúnmente utilizado en oncología para describir la propagación del cáncer, al ámbito organizacional. El estudio propone que los comportamientos y prácticas disfuncionales dentro de una organización pueden expandirse de manera similar a cómo las células cancerosas se diseminan en un organismo, afectando negativamente la eficiencia, la moral y la viabilidad general de la organización. En particular, la investigación examina cómo estas prácticas tóxicas pueden evolucionar a través del ciclo de vida de una organización, que incluye etapas como el nacimiento, crecimiento, madurez y declive. La analogía busca proporcionar una comprensión más dinámica y profunda de cómo las ideas y problemas pueden propagarse dentro de una organización y cómo esto puede conducir a su eventual colapso o "muerte". El estudio se propone explorar el modelo general de metástasis organizacional, definiendo sus componentes y mecanismos, y analizando sus implicaciones y estrategias para su prevención y control. Utiliza una revisión de la literatura para identificar temas emergentes y conceptos clave, y aplica este marco teórico a casos de estudio, como el declive de Blockbuster, para ilustrar cómo los conceptos biológicos de metástasis pueden ofrecer insights sobre el manejo y adaptación de problemas dentro de las organizaciones.



METODOLOGÍA

Se ha llevado a cabo una investigación exploratoria para determinar la aplicabilidad y utilidad de la metastasis organizacional como un constructo en los estudios organizacionales y de gestión. Se realizó una revisión de alcance para explorar cuestiones contemporáneas en las corrientes de investigación mencionadas anteriormente. No se descubrió ninguna indicación de una conceptualización previa del MA a pesar de una revisión exhaustiva de la literatura realizada utilizando una variedad de bases de datos, incluyendo Google Scholar, EBSCOhost, ProQuest, Scopus, Emerald, Ingenta, JSTOR, ScienceDirect y Wiley (sin fechas precisas, bajo el criterio de "cualquier momento o tiempo"). Utilizando palabras clave como "metástasis organizacional", "falla organizacional", "muerte organizacional", "cáncer organizacional" (también hicimos esta búsqueda en español), no se encontraron artículos sobre la elaboración del OM. No introdujimos restricciones geográficas. La última búsqueda se realizó en julio de 2024. La revisión del alcance sugiere que OM tiene investigación potencial, aplicable a diversas áreas de investigación, como estudios organizacionales y de gestión, emprendimiento, empresas familiares, entre otros.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre como el declive organizacional se asemeja notablemente al proceso biológico de metástasis, donde para comprender este complejo proceso, se ha propuesto el modelo de metástasis organizacional, que analiza el declive como un proceso secuencial y sistemático. Al igual que en biología, donde las células cancerosas se propagan desde un tumor primario a otros órganos, las organizaciones experimentan una propagación de problemas desde áreas centrales hasta afectar varias partes de su estructura y operaciones. Tambien se hizo un estudio de caso para ilustrar la aplicación práctica de este modelo, donde analizamos el caso de Blockbuster quien enfrentó un declive devastador debido a su incapacidad para adaptarse rápidamente al auge del streaming digital. La compañía no logró transformar su modelo de negocios centrado en tiendas físicas hacia plataformas digitales, lo que eventualmente llevó a su desaparición del mercado. El caso de Blockbuster resalta la importancia de la agilidad estratégica y la capacidad de respuesta a los cambios disruptivos en el entorno empresarial. Las lecciones aprendidas de este declive pueden aplicarse ampliamente, destacando la necesidad crítica de anticipar y adaptarse a las transformaciones tecnológicas y del mercado para seguir siendo relevantes y competitivos. En conclusión, el estudio del declive organizacional a través del prisma de la metástasis organizacional proporciona una perspectiva integral y multidimensional. Al integrar los principios biológicos con las teorías de gestión, este enfoque no solo enriquece nuestra comprensión del comportamiento organizacional, sino que también ofrece información valiosa para desarrollar estrategias efectivas de gestión del cambio y sostenibilidad empresarial en un entorno empresarial globalizado y dinámico. Los resultados de la investigación muestran que el concepto de declive organizacional presenta notables similitudes con el proceso biológico de metástasis, donde una serie de eventos interrelacionados conducen a la disolución gradual de una organización. Este fenómeno refleja tanto la fragilidad inherente de las estructuras empresariales como su capacidad para adaptarse y resistir desafíos internos y externos.  
González Javier Braulio Miguel, Universidad de Ciencias y Artes de Chiapas
Asesor: Dr. Hector Ricardo Hernandez de Leon, Instituto Tecnológico de Tuxtla Gutiérrez

DISEÑO DE DATASET MEDIANTE UN SISTEMA DE ADQUISICION DE DATOS E IOT PARA UN MONITOREO CONTINUO DE LA CALIDAD DE AGUA POTABLE DE UNA PLANTA DE TRATAMIENTO.


DISEÑO DE DATASET MEDIANTE UN SISTEMA DE ADQUISICION DE DATOS E IOT PARA UN MONITOREO CONTINUO DE LA CALIDAD DE AGUA POTABLE DE UNA PLANTA DE TRATAMIENTO.

González Javier Braulio Miguel, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. Hector Ricardo Hernandez de Leon, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

El objetivo de este proyecto de investigacion tiene como finalidad el diseño de un dataset mediante un sistema de datos registrados en bitacoras, estos datos son obtenidos de una planta de tratamiento de agua potable, una vez obtenidos la mayoria de datos, se analizaron los datos obtenidos y a si mismo de valido la informacion arrojada mediante nuestra plataforma de datos, en este caso usamos AWS (AMAZON WEB SERVICES).



METODOLOGÍA

La estructura de esta investigacion parte de la siguiente manera. 1. RECOPILAR INFORMACION DE LAS BITACORAS DE DATOS. 2. ANALIZACION DE LOS DATOS OBTENIDOS MEDIANTE EL USO DE NUESTRO SISTEMA DE ADQUISICION DE DATOS. 3. SE ESTRUCTURO LA FORMA DE ELABORACION DEL DATASET Y  SE DIO INICIO ALA CAPTURA DE NUESTRO DATOS. 4. UNA VEZ CAPTURADOS LA MAYORIA DE  NUESTROS DATOS SE PROCESO LA INFORMACION OBTENIDA, SE SELECCIONO LA INFORMACION PARA ALMACENAR Y ANALIZAR NUESTROS DATOS, NUESTRA PLATAFORMA DE ALMACENAMIENTO QUE USAMOS PARA ALMACENAR NUESTROS DATOS ES AMAZON WEB SERVICES YA QUE BRINDA MUCHAS VENTAJAS COMPARADA CON OTRAS PLATAFORMA DE ALMACENAMIENTO DE DATOS. 5. UNA VEZ ALMACENADOS NUESTROS DATOS SE  ANALIZO LA INFORMACION Y SE VALIDO EL FUNCIONAMIENTO DE DE LA PLATAFORMA , ASI COMO DE NUESTROS DATOS. 6. CON LA INFORMACION OBTENIDA SE ELABORA UNA PRESENTACION DE NUESTROS DATOS OBTENIDOS Y DEL TRABAJO DE INVESTIGACION DESARROLLADO. 


CONCLUSIONES

Despues de seguir la metodologia de nuestro cronograma de actividades ( analizar los datos, determinar la estructura de nuestro dataset, seleccionar la plataforma de almacenamiento y validar su funcionamiento), esperamos obtener los graficos claros y eficaces para nuestro ultimo paso. Mediante amazon web services se espera observar el comportamiento de los parametros fisico-quimicos del agua los cuales son 8 parametros que se pueden arrojar y despues de ellos graficar este comportamiento que arroja la plataforma, para por ultimo analizar estos graficos y llegar ala conclusion si el agua de la planta de tratamiento de agua potable es apta o no  para su uso establecido o definido. 
González Lozano Sara Monserrath, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Angie Tatiana Ortega Ramirez, Fundación Universidad de América

APROVECHAMIENTO DE LOS RESIDUOS DE LA PRODUCCIóN DE CAFé COMO ESTRATEGIA ENERGéTICA EN TOLIMA, COLOMBIA.


APROVECHAMIENTO DE LOS RESIDUOS DE LA PRODUCCIóN DE CAFé COMO ESTRATEGIA ENERGéTICA EN TOLIMA, COLOMBIA.

González Lozano Sara Monserrath, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Angie Tatiana Ortega Ramirez, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

La energía es esencial para las actividades diarias humanas y su demanda crece con el desarrollo tecnológico y el aumento poblacional, como se observa en Colombia con incrementos en la generación y consumo de energía eléctrica. A nivel mundial, la energía renovable representa el 19.3% de la producción energética, con la biomasa contribuyendo significativamente a este porcentaje (REN21, 2017). Se proyecta un aumento del 60% en la demanda energética global para 2040 y un aumento de la temperatura global entre 1.4 y 5.8 grados Celsius debido a las emisiones de gases de efecto invernadero, con el sector energético siendo uno de los principales responsables (Word Bank, 2013). Desde 2015, el uso de energías renovables ha crecido un 2.3% anualmente, manteniendo estables las emisiones de carbono globales (Robles et. Al, 2018). La biomasa, en particular, se usa cada vez más, representando una parte considerable de la energía renovable consumida y utilizada para calefacción y cocina en países en desarrollo, donde aproximadamente el 64.5% de la biomasa que se utiliza para este fin, a nivel mundial (REN21, 2017). De esta forma, mediante procesos específicos, se puede obtener una serie de combustibles sólidos, líquidos o gaseosos que se pueden aplicar a necesidades energéticas. (Fernández, 2003). Una alternativa energética prometedora es el uso de residuos agrícolas, específicamente los derivados del procesamiento del café, una industria significativa en Colombia, que representó el 15% del PIB agropecuario en 2021 y cubre amplias zonas del país (Moreno, 2023). Aunque la producción de café es extensa, con 970 mil hectáreas cultivadas y 11,1 millones de sacos producidos en 2022 (Salazar, 2021), solo el 5% del peso del fruto se utiliza en la bebida, generando una gran cantidad de residuos que actualmente se desaprovechan en gran medida (Rodríguez, 2007). La investigación sugiere que estos residuos podrían ser valorizados para producir energía, abordando así el problema del manejo de desechos y aprovechando mejor los subproductos de la industria cafetera. El Tolima, una destacada región cafetera en Colombia, cultiva café en 106,883 hectáreas con variedades como Castillo y Caturra, produciendo una cantidad significativa de residuos, como cáscaras, pulpas y aguas residuales. Estos residuos se manejan mediante prácticas como el compostaje de pulpas para abono y el uso de cáscaras como combustible o para productos de valor agregado. El Plan Estratégico 2008-2012 de la Federación Nacional de Cafeteros busca mejorar la calidad y competitividad del café colombiano mediante la adopción de nuevas tecnologías, prácticas agrícolas sostenibles y capacitación para los productores. Desde 2008, el Comité Departamental de Cafeteros del Tolima ha implementado proyectos para cumplir estos objetivos, incluyendo el tratamiento de aguas residuales para reducir su impacto ambiental (Federación de Cafeteros, 2008).  



METODOLOGÍA

Para este trabajo se realizó una revisión sistemática de la información sobre algunos de los estudios de caso donde se utilizan residuos de café, como el mucílago, la cascarilla y la pulpa de café, a partir de técnicas de valorización energética.  Posteriormente se validó cuantitativamente esta investigación por medio de la simulación de la información obtenida a partir del uso del simulador SAM- System Advisor Model- este simulador se trata de un software tecno-económico con la finalidad de facilitar la toma de decisiones en proyectos relacionados con la industria de las energía renovables; en este caso el simulador permite modelar plantas de bioenergía que utilicen como materia prima los residuos de cultivos por medio de un componente de combustión de biomasa. Entre algunos de los datos que es posible conocer por medio de la ejecución del simulador son la tasa de calor, la eficiencia térmica y el factor de capacidad, además de que permite realizar la evaluación de la viabilidad financiera del proyecto como el costo nivelado de la energía -LCOE, el valor actual neto- VPN- y el periodo de recuperación (National Renewable Energy Laboratoy, 2011). Se ingresaron las variables técnicas, tanto de la materia prima -cascarilla de café- como de las especificaciones de la planta, las variables ambientales referidas a la zona de Tolima, Colombia y las variables financieras al proyecto realizado en el simulador SAM.


CONCLUSIONES

De acuerdo a las estadísitcas referente a las fuentes consultadas durante la investigación, la mayor proporción de las fuentes corresponden a artículos de revista con una cantidad de 25 artículos en total. Por su parte, el idioma más consultado durante la inestigación fue el español con cerca de 50 fuentes en ese idioma. Igualmente, las fuentes consultadas datan en su mayoría entre el período de años de 2018-2023, de acuerdo a la estadísticas. Por otra parte, el simulador SAM permitió obtener una serie de resultados y parámetros a partir de las especificaciones dadas. Entre estos se encuentra el porcentaje de capacidad calorífica, donde el porcentaje más alto se alcanza en el mes de julio con un valor de 174.143 %.  De manera general, se observa durante todo el año que el proceso carece de algún escape de energía ya que durante cada mes del año se observan porcentajes por arriba del 100%. Asimismo, otra de las variables obtenidas a partir del simulador fue la variación que hay mensualmente del calor suministrado al bloque de energía, del cual se observa que en el mes de enero la cantidad de calor necesario es la mayor, con un valor de 34983.5 kWh.        
González Luna Eloisa, Universidad Politécnica de Sinaloa
Asesor: Dr. Nils Murrugarra Llerena, University of Nebraska at Kearney

UNDERSTANDING PSYCHOLOGICAL TEST WITH VISUALIZATIONS


UNDERSTANDING PSYCHOLOGICAL TEST WITH VISUALIZATIONS

González Luna Eloisa, Universidad Politécnica de Sinaloa. Asesor: Dr. Nils Murrugarra Llerena, University of Nebraska at Kearney



PLANTEAMIENTO DEL PROBLEMA

Traditionally, the interpretation of psychological tests is done manually, using conventional statistical methods, or with psychology professionals. These interpretations can be limited in terms of accuracy and expert availability. These limitations may lead to partial or biased interpretations of personality and vocational profiles, affecting the usefulness of the results in practical applications like career guidance and personal development. In the current context, the need for more advanced tools for analyzing psychological tests is required. To address these challenges, we incorporate advanced techniques such as BERT (Bidirectional Encoder Representations from Transformers) [1] and UMAP (Uniform Manifold Approximation and Projection) [2] in our analysis.



METODOLOGÍA

The project began with learning and reviewing machine learning and computer vision concepts. Specifically, I developed a scene categorization system using computer vision techniques in Python, where I combined spatial pyramid representations with machine learning classifiers like KNN (K-Nearest Neighbors) [3] and SVM (Support Vector Machine) [4]. Subsequently, neural network models were trained, and layers from pre-trained networks were transferred, adding a new custom fully connected layer. Additionally, data augmentation techniques were explored, and layer freezing was experimented to optimize the training process. Then, we started our research project. Two specific tests were selected: The Holland Test [5], which classifies people into six types of vocational environments, and the 16 Personalities Test [6], which categorizes individuals into one of 16 personality types based on four pairs of opposing dimensions. Using Google Colab, a hosted Jupyter Notebook service [7], we evaluated six different Bert models (Bidirectional Encoder Representations from Transformers) [8-10].


CONCLUSIONES

Experiment 1: Evaluate Different BERT Models For this experiment, a CSV file containing questions and answers related to the test was required. The questions were true or false, and the answers depended on the environments or personalities. These files were used for tokenization and embedding. Each question from the psychological tests was processed using BERT embeddings, resulting in a 2D visualization of the questions. UMAP was then used to reduce the dimensionality of the results. The effectiveness of our previous six BERT models was evaluated. BERT-base-multilingual-uncased proved to be the most effective for the Holland test and BERT-base-uncased for the 16 personality test. These models provided the clearest correspondence between question categories and their neighborhoods in the 2D plot. The model selection was conducted manually by analyzing the plots and choosing the one that best represented the different output categories. Holland Test: From the plot [14], we observe that the questions/points have little relation between different environments. The best ambient selection is the artistic category (Sky blue color), which has the points closer than the other groups. Also, other questions are grouped together such as orange, purple, and red groups. This result indicates that it is important to train the model with additional psychological textual information so the model can understand the differences between categories. 16 Personalities Test: The best clustering [14] was observed in the Intuitive category (purple color) and the Introverted personality group (red color). Additionally, the Feeling group (sky blue color) had points that were closer together. However, while there was some differentiation between the various personality groups, not all personalities were well-defined, indicating a lack of lumping together the personalities. This highlights the need to train the model with additional psychology textual data to improve results and accuracy. Experiment 2: Train Models with Psychological Text The different Bert Models were trained with psychological texts related to the selected tests. An evaluation was conducted to identify the model that offered the best results in unseen response classification. The process included training the model with psychological contexts and visualizing the results to evaluate the accuracy and effectiveness of the obtained data. We train our model with psychological investigations [11-12] and read it to split into individual lines. Our data is split 80% for training and 20% for validation. During training, our model was trained for 30 epochs, and we selected the best model using the validation set. Then, we plotted generated embeddings with UMAP. Holland Test: We observe the groups generated from the visualization, and we group them into four categories: kind of works, work environment, preferred activities, and hobbies. For example, the Work Environment category relates to questions such as: Do you like to organize the workplace?, Do you help your colleagues? and Do you like work that involves physical effort?. These questions have keywords such as organization, colleagues, and physical effort; which are closely related to our workplace. 16 Personalities Test: We analyze the groups produced by the visualization and categorize them into five distinct groups: decision making, organization, feelings when socializing, new ideas, control, and logic. For instance, the Feelings when socializing category includes questions like: "Are you adaptable and easygoing?" "Are you reserved and quiet?" and "Do you feel energized by social gatherings?" These questions contain key terms such as perceiving, introvert, and extrovert, which are associated with personality traits. The results of the different tests were better than in Experiment 1, as they showed a clear relation to specific topics depending on the questions. The trained model was able to differentiate between diverse themes, with the Holland test relating to work environments and activities, and the 16 Personalities test relating to how a person feels or interacts with others. This demonstrates that training the model with text yielded improved results. Conclusions The project results demonstrate that computers can capture some aspects of psychological tests but they do not differentiate between categories. As a future work, we will train models with more psychological texts and clearer labels to enhance accuracy. To sum up, this investigation has served to identify areas for improvement in the field of psychological analysis. Additionally, it has contributed to the development of technical skills in machine learning and Python programming, as well as increased interest in continuing research in this area. Note: the references and the final report is at https://drive.google.com/file/d/1-DtFXD5UCuif30cmIz6nv1rVGj7q05Ue/view?usp=sharing
Gonzalez Mestra Mery Alejandra, Universidad Simón Bolivar
Asesor: Mg. David Alfredo Ovallos Gazabon, Corporación Politécnico de la Costa Atlántica

PROPUESTA DE MODELO DE NEGOCIO FINTECH ENFOCADO EN EL SECTOR TRANSPORTE.


PROPUESTA DE MODELO DE NEGOCIO FINTECH ENFOCADO EN EL SECTOR TRANSPORTE.

González Díaz Ingrid Yadira, Instituto Tecnológico Superior de Ciudad Hidalgo. Gonzalez Mestra Mery Alejandra, Universidad Simón Bolivar. Gutiérrez Muñoz Brayan Uriel, Instituto Tecnológico Superior de Ciudad Hidalgo. López Mondragón Dulce María, Instituto Tecnológico Superior de Ciudad Hidalgo. Reguillo Rodero Lorena Sofia, Universidad Simón Bolivar. Asesor: Mg. David Alfredo Ovallos Gazabon, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

El mercado logístico en Latinoamérica, valorado en 250 mil millones de dólares en 2023, está en constante crecimiento impulsado por el comercio electrónico, la globalización y la urbanización. Se espera que crezca a una tasa anual compuesta del 6.5% hacia 2028. Factores clave incluyen el comercio electrónico, que podría representar el 15% del comercio minorista total para 2028, la globalización que impulsa nuevas oportunidades comerciales, y la urbanización que crea nuevos centros de consumo. Además, la sustentabilidad está cobrando importancia, con empresas adoptando prácticas ecológicas como el uso de vehículos eléctricos y la optimización de rutas para reducir la huella de carbono. Una de las principales problemáticas que se analizó, fue la parte de gestión de pagos, ya que se encontró  que el pago a transportistas se hace de forma manual e ineficiente, lo cual genera problemas del flujo de efectivo, derivado de camiones detenidos, ventas pérdidas y facturas no cobradas. Los más afectados son los operadores logísticos, ya que son el centro de distribución.   Como respuesta a esta problemática identificada para el sector, se plantea el uso de tecnología emergente para la creación de una Fintech enfocado en el sector logística y transporte en el contexto latinoamericano, tomando como referencia el análisis del sector logístico para Brasil, México y Colombia, uno de los objetivos principales es que reduzcan costos y tiempos implementados, buscando la satisfacción en los clientes y automatizando el acceso a financiamientos rápidos y legales. 



METODOLOGÍA

Consiste en tres fases cada una de ellas orientada a la consecución de insumos que fueron integrados posteriormente en el documento tipo articulo científico que se presenta como resultado del ejercicio investigativo desarrollado por todo el equipo. FASE 1: Se realizó la búsqueda de información y antecedentes en distintos buscadores, algunos de ellos fueron Lens, Google Academy, entre algunos otros; además de que también se realizaron entrevistas a transportistas. Para obtener la información esperada se utilizaron palabras clave como fueron Fintech, logística, transporte, industria 4.0, con ello se reviso la información obtenida y posteriormente se filtraron los artículos según la selección, se procedió a realizar una lectura y comprensión de dichos artículos, en donde se identifico la viabilidad y veracidad informativa de los trabajos. Con la información referente a Fintech y Sector Transporte-Logística se indago como aplicar estrategias para evitar que la implementación de la propuesta conlleve un riesgo económico mayor. FASE 2: Se realizó un estudio en Latinoamérica en el mercado comercial para saber el impacto que tiene, utilizando base de datos que contienen información del tema, centrándose en países de interés que son Brasil, México y Colombia. Una vez que se analizó estos 3 países, se pudo identificar porque cada vez más van en crecimiento, además del porque se han consolidado en los últimos años en este sector. Cada país ha destacado por diferentes razones, y esto hace que se diferencien del crecimiento de los otros.   FASE 3: El enfoque se basa en el Business Model Canvas, desarrollado por Alexander Osterwalder. Este modelo de negocio nos permite visualizar y estructurar de manera efectiva los nueve componentes clave de nuestra empresa, desde los segmentos de clientes hasta la propuesta de valor, los canales de distribución y las fuentes de ingresos. Utilizando esta herramienta, podemos innovar y adaptar nuestras estrategias para crear y capturar valor de manera eficiente.


CONCLUSIONES

La Pasantía Delfín 2024 representa una oportunidad invaluable para profundizar en la investigación y el desarrollo académico. Ya que durante esta estancia se logró adquirir conocimientos teóricos acerca de la integración de tecnologías Fintech en el sector transporte y logística, pues esto esta revolucionando la industria al ofrecer soluciones innovadoras que optimizan la eficiencia operativa y financiera. El desarrollo de esta solución Fintech permitiría la automatización de pagos, la mejora de gestión en la liquidez y la reducción de costos operativos, un punto importante es la mejora de relación con los transportistas al ofrecer pagos mas rápidos y transparentes. Resaltando que la adopción de las Fintech dentro de estos sectores son un paso crucial hacia la modernización y competitividad en un mercado cada vez más digitalizado.   Queremos expresar nuestro más sincero agradecimiento de parte de los integrantes que conformamos el equipo al programa Delfín por el invaluable apoyo que nos ha brindado durante este proceso. Los conocimientos teóricos adquiridos han sido fundamentales para nuestro desarrollo académico y profesional. La atención y orientación proporcionadas por el investigador han sido de gran ayuda, permitiéndonos profundizar en temas complejos y mejorar nuestras habilidades de investigación. Además, las herramientas a las que hemos tenido acceso, como los buscadores especializados y aplicaciones como Mendeley para la gestión de citas, han sido esenciales para organizar y fortalecer nuestro trabajo. Estamos profundamente agradecidos por esta oportunidad y por todo el aprendizaje obtenido durante la estancia en la Institución Politécnico de la Costa Atlántica, Barranquilla, Colombia y el apoyo de nuestras Instituciones el Instituto Tecnológico Superior de Ciudad Hidalgo Michoacán y Universidad Simón Bolivar.
González Pérez Carlos Othoniel, Instituto Tecnológico de Tepic
Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia

AUTOMATIZACIóN DE LA DISPENSACIóN DE LíQUIDOS EN LA INDUSTRIA FARMACéUTICA: DISEñO Y EVALUACIóN DE UN NUEVO PROTOTIPO


AUTOMATIZACIóN DE LA DISPENSACIóN DE LíQUIDOS EN LA INDUSTRIA FARMACéUTICA: DISEñO Y EVALUACIóN DE UN NUEVO PROTOTIPO

González Franchini Diana Valeria, Instituto Tecnológico de Tepic. González Pérez Carlos Othoniel, Instituto Tecnológico de Tepic. Sandoval Murillo Kevin Abel, Instituto Tecnológico de Tepic. Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

En la industria farmacéutica, la precisión en la dispensación de líquidos es importante para garantizar la calidad y seguridad de los productos. Sin embargo, los métodos tradicionales de dispensación manual pueden presentar algunas limitaciones significativas, tales como la variabilidad en la cantidad de líquido dispensado, la posibilidad de errores humanos y la contaminación cruzada.    Además, la creciente demanda de medicamentos y productos farmacéuticos exige procesos de producción más rápidos y eficientes. La capacidad de dispensar líquidos con alta precisión y consistencia es de vital importancia para cumplir con los estándares.    El problema radica en la necesidad de un sistema de dispensación de líquidos que no solo garantice una dosis precisa y consistente, sino que también sea capaz de integrarse fácilmente en las líneas de producción, de tal forma que se mejore la eficiencia operativa y se reduzca el riesgo de errores. La falta de automatización adecuada en estos procesos puede llevar a desperdicios de materia prima, retrasos en la producción y por lo tanto aumentos en los costos operativos y de producción.



METODOLOGÍA

Se diseñó y construyó un dispensador de líquidos automático con el objetivo de mejorar la precisión y eficiencia en la dispensación de líquidos, aumentando la calidad, esta nueva visión de la calidad es una estrategia que genera confianza en clientes, industria y organismos reguladores, respecto a la calidad de los productos farmacéuticos. El primer paso en el desarrollo fue el diseño del circuito electrónico. Se utilizó un microcontrolador Arduino como unidad de control central, encargado de coordinar la operación de todos los componentes del sistema.  Se integraron sensores de nivel para monitorear el estado del líquido. El circuito también incluía una bomba hidráulica, seleccionada por su capacidad para proporcionar un flujo constante y preciso de líquido, así como tubos de plástico que regulan el paso del líquido. Una vez finalizado el diseño del circuito, se procedió a la construcción de la estructura física del dispensador. Posteriormente, se integraron los componentes electrónicos en la estructura física. El siguiente paso fue la programación del software que controlaría el dispensador. Una vez ensamblado y programado el prototipo, se realizaron pruebas iniciales para verificar el funcionamiento de cada componente y la integración del sistema en su conjunto.  


CONCLUSIONES

La implementación de sistemas automatizados en la industria farmacéutica es crucial para mejorar la precisión, eficiencia y seguridad en los procesos de producción. Estos sistemas permiten una dosificación exacta, reducen la intervención humana y minimizan los errores, esto nos beneficia obteniendo una mayor calidad de los productos farmacéuticos.  El desarrollo del prototipo de un dispensador de líquidos automático ha demostrado que es posible alcanzar estos objetivos. A través del diseño del circuito electrónico, la construcción de una estructura física robusta y la integración de componentes electrónicos, se logró un sistema que cumple con los requerimientos de calidad. Las pruebas iniciales y los ajustes posteriores confirmaron que el prototipo funciona de manera óptima.   Enlace del video funcional: https://youtu.be/XNvL07pQG9o?si=HFt2BjUBKK9liEfz Enlace del documento del prototipo final: https://docs.google.com/document/d/1hKF2G_L0UWdH1AyVmR68DeS0offFUjnp/edit
Gonzalez Rebollo Citlali Guadalupe, Universidad de Guadalajara
Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara

OBTENCIóN Y CARACTERIZACIóN DE NANOCRISTALES DE CELULOSA, A PARTIR DEL MESOCARPIO DE COCO


OBTENCIóN Y CARACTERIZACIóN DE NANOCRISTALES DE CELULOSA, A PARTIR DEL MESOCARPIO DE COCO

Gonzalez Rebollo Citlali Guadalupe, Universidad de Guadalajara. Herrera Torres Luis David, Universidad de Guadalajara. Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Muchos procesos químicos a nivel industrial o de forma individual en los laboratorios de investigación llevan consigo un emisión de residuos químicos contaminantes que no siempre son desechados y tratados de la manera en la que es debido, ocasionando su llegada al medio ambiente y con ello un impacto perjudicial para éste.  La respuesta es la búsqueda de rutas verdes o sostenibles, lo que conocemos como la química verde, la cual engloba los procesos químicos que minimicen o eliminen el uso y la generación de sustancias peligrosas para el medio ambiente y la salud humana. Un camino que se ha buscado implementar en los procesos que ya conocemos así como en los que actualmente protagonizan la investigación buscando que no haya ningún excluido. He aquí en donde se enfoca el trabajo con celulosa a partir de desechos orgánicos y la obtención de los nanocristales de celulosa (NCC). Las hidrólisis ácidas para obtener NCC dan como resultados el uso y desechos de sustancias químicas nocivas altamente perjudiciales para el medio ambiente por lo que una ruta verde y sostenible para su obtención sería un resultado de alto impacto a nivel global para el cuidado del medio ambiente.



METODOLOGÍA

El mesocarpio de coco se somete a un steam explosion rompiendo la estructura celular, facilitando la separación de los componentes de Celulosa, Hemicelulosa y Lignina. Una vez concluida la técnica, se obtiene la humedad de la muestra haciendo uso de la balanza térmica. Este valor es importante ya que será en el que nos basaremos para hacer el blanqueamiento. Justo después, con la cantidad de humedad que hay en la muestra, se calcula cuánto ácido se tiene que añadir para blanquear la fibra. A la vez, se hace una regla de tres para obtener de forma más precisa las cantidades que se van a usar en el blanqueamiento. Posteriormente, se hacen tres muestras distintas para los dos ácidos, en el caso del uso del ácido peracético las muestras tienen como nombre 40, 60 y 80 que hace referencia al tiempo que estuvieron en baño maría. Por otro lado, para el ácido peroxi-mono-sulfúrico se llevó un baño maría de una hora para las tres muestras, esto por la reacción del ácido con el agua. Tras finalizar su proceso se deja enfriar a temperatura ambiente. Terminando el blanqueamiento, se coloca una muestra de 5 gramos en distintos vasos precipitados, donde se les agregó 40 ml de ácido sulfúrico al 72%  y se agita con una varilla de vidrio por dos horas. Una vez pasado ese tiempo, se cambia la muestra a un matraz de 600 ml en plancha y se le agrega 400 ml de agua destilada y se hace hervir. Una vez que cada matraz hierva se les pone un cronómetro de 4 horas, manteniendo un volumen constante por adicción frecuente de agua caliente. Después se filtra a vacío separando la lignina en el papel filtro y así poder obtener cuanta lignina se obtiene, de ahí se llevaron al horno para que se sequen a una temperatura de 100°C y en constante revisión para que no se quemen. Para determinar α, β y ɣ-celulosa. Se coloca cerca de 5 gramos en tres vasos precipitados de 300 ml. Añadiendo 75 ml de reactivo de NaOH (Hidróxido de sodio al 17.5%), en un agitador magnético se pone a agitar hasta que esté completamente dispersa. En la determinación de α-celulosa, se pipetean 25 ml del filtrado y 10 ml de solución de dicromato de potasio en una concentración de 0.5 N, en un matraz de 250 ml, añadiendo con precaución 50 ml de  H2SO4 concentrado. Luego, se agita por 15 minutos, añadimos 50 ml de aguay se le añade 2 gotas de ferroin para iniciar su titulación con la solución de Sulfato de Amonio Ferroso 0.1 N, alcanzando un color púrpura. En la determinación de β-celulosa, se pipetean 50 ml del filtrado de la pulpa a un matraz aforado de 100 ml, a la par se agregan 50 ml de solución de H2SO4 a 3 N y mezclar completamente, en seguida se ponen a calentar en agua caliente a una temperatura de 70 a 90°C por pocos minutos y de ahí dejar reposar durante toda la noche, tras esto filtrar para obtener una solución clara. Por último, en la determinación de ɣ-celulosa, se pipetean 50 ml de la solución clara antes obtenida y 10 ml de Dicromato de potasio y se ponen en un matraz de 250 ml, añadiendo con mucha precaución 90 ml de ácido sulfúrico concentrado, se pone a calentar por unos 15 minutos para después hacer su titulación. 


CONCLUSIONES

Se logró llegar a la determinación de la ∝ y β celulosa obtenida tanto por el blanqueamiento con ácido peroxiacético como con el ácido peroxi-mono -sulfúrico, pasando por el cálculo de la lignina presente en la fibra de coco. Primero, al realizar el método para obtener el porcentaje de lignina presente en la fibra nos dimos cuenta que era un porcentaje elevado, más del esperado, repitiendo la prueba hasta 3 veces para corroborar los resultados. Una señal que nos podía ayudar a estimar esta cantidad de lignina fue durante el proceso de blanqueamiento de la fibra, la cual no presentaba un cambio tan notorio usando los tiempos estandarizados. Al momento de detectar la cantidad de lignina presente pudimos ir notando que la fibra de coco era una bastante dura y difícil de trabajar al momento de separar la lignina y hemicelulosa para poder extraer la celulosa presente de la biomasa, dificultando cada procedimiento para seguir avanzando como las titulaciones o métodos que requerían valores ya estandarizados por la norma.  El último método hecho fue como ya se mencionó anteriormente, el de la determinación de la ∝ y β celulosa. Paso requerido para poder tener ya una celulosa separada del resto de compuesto de la que se ve envuelta pero que no pudimos realizar nosotros. Y con ello, a partir de esta celulosa, comenzar a sintetizar los nanocristales de celulosa usando un ácido orgánico que no sea tan perjudicial para el medio ambiente así conseguir un método más sustentable al momento de su síntesis. Podemos concluir que la fibra de coco es una biomasa dura, difícil de trabajar al momento de querer separar sus compuestos en búsqueda de la celulosa que posee. Nos deja como evidencia de que posee una característica que lo diferencía de otros desechos agrícolas como el agave, pero sin duda mostrando avances es esta mejora e innovación del método de obtención cuidando el medio ambiente.
González Robles Sofia Arizbé, Universidad de Guadalajara
Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez

CARDIOLOGíA DIGITAL: MODELO PREDICTIVO CON ENFOQUE EN PRONóSTICO Y TRATAMIENTO


CARDIOLOGíA DIGITAL: MODELO PREDICTIVO CON ENFOQUE EN PRONóSTICO Y TRATAMIENTO

Figueroa Aranda Javier Antonio, Universidad de Guadalajara. González Robles Sofia Arizbé, Universidad de Guadalajara. Jimenez Olivares Laura Yazbeth, Universidad de Guadalajara. Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez



PLANTEAMIENTO DEL PROBLEMA

El aumento de las incidencias de insuficiencia cardíaca (IC) se debe a causas multifactoriales, incluyendo disfunción diastólica y daño cardíaco por comorbilidades como obesidad, enfermedad renal crónica (CKD), enfermedad pulmonar obstructiva crónica (EPOC) y amiloidosis cardíaca. Esta condición afecta a 64 millones de personas en todo el mundo. Una métrica crucial para su diagnóstico es la fracción de eyección ventricular izquierda (LVEF), que evalúa la capacidad del corazón para bombear sangre adecuadamente según las demandas metabólicas. Las causas del mal funcionamiento del corazón están asociadas con un mayor riesgo en personas mayores. Los síntomas de la IC incluyen alta morbilidad posterior al padecimiento. Si no se aborda adecuadamente, puede llevar a la muerte o problemas cardíacos recurrentes, obligando a los pacientes a cambiar sus hábitos de vida, consumir medicamentos y realizar visitas constantes al médico. Los tratamientos pueden volverse invasivos, incluyendo marcapasos, cirugías, trasplantes o equipos de asistencia ventricular, imponiendo una carga significativa tanto a los pacientes como a los sistemas de salud. Para mejorar el pronóstico de los pacientes, se plantea un modelo de aprendizaje automático (ML) para predecir el evento de muerte por IC basado en un historial clínico enfocado en biomarcadores y factores de riesgo. Este modelo permitiría un control y monitoreo exhaustivo posterior a un evento cardíaco, mejorando las estadísticas sobre la recurrencia de estos eventos y reduciendo la mortalidad. La predicción y el manejo proactivo mediante tecnologías avanzadas pueden ofrecer una esperanza significativa para la mejora en la calidad de vida de los pacientes con IC y una reducción en la carga global de esta enfermedad.



METODOLOGÍA

Este proyecto se desarrollará utilizando la metodología CRISP-DM (Cross Industry Process Model for Data Mining), un enfoque estructurado ideal para proyectos de inteligencia artificial que utilizan minería de datos y algoritmos de aprendizaje automático, especialmente en el procesamiento de bases de datos (KDD). Fase I: El primer paso es concretar los objetivos y la utilidad en el negocio, estableciendo el punto de partida y reconociendo recursos y límites presentes. Se buscaron materiales de estudio y un dataset relacionado con pacientes diagnosticados con IC. Fase II: El objetivo es familiarizarse con los datos y analizar la estructura. En el dataset se reconocieron 5000 filas y 12 columnas de atributos que pertenecen a datos biométricos y comorbilidades. El análisis se centra en la clase Evento de muerte, que define si el paciente murió o no. Factores de riesgo relevantes: Presencia de anemia, diabetes, hipertensión,Si es o no fumador y niveles de CK-MB, fracción de eyección, creatinina sérica, plaquetas y sodio sérico Fase III: Los atributos identificados con valores de referencia relevantes forman un conjunto definitivo que será utilizado en la siguiente fase. Los rangos utilizados en las variables numéricas permiten cumplir los objetivos del proyecto. Aunque algunos valores están fuera del rango, es importante no eliminarlos, ya que representan información real y única de cada paciente. Fase IV: En esta fase, se identificaron tres posibles modelos: Random Forest, Redes Neuronales y Regresión Logística. Cada uno tiene sus propias características y fortalezas, y se busca elegir el más adecuado para nuestro problema. Random Forest: Obtuvo una exactitud del 99%, lo cual puede indicar sobreajuste, ya que un modelo casi perfecto puede aprender demasiado bien los detalles del conjunto de entrenamiento, perdiendo capacidad de generalización. Redes Neuronales: Obtuvo una exactitud del 47%. La precisión baja puede deberse a la necesidad de más datos. Regresión Logística: Obtuvo una exactitud del 78%, siendo un resultado más realista y robusto. Este modelo es más interpretable y confiable para generalizar en diferentes conjuntos de datos. Fase V: Se necesita valorar y validar la elección del modelo para asegurar que sea eficiente en alcanzar las metas en futuras evidencias. Se calculó con el método Receiver Operating Characteristic (ROC), que permite conocer el rendimiento de un modelo, así como su sensibilidad y especificidad. La regresión logística obtuvo un valor de .86 y las redes neuronales un valor de .71.


CONCLUSIONES

Aplicando la metodología se logró desarrollar un modelo predictivo de ML basado en Regresión Logística, capaz de identificar los factores de riesgo relevantes para un evento de muerte en pacientes con IC, implementando soluciones para la atención inmediata en sectores de atención hospitalaria. El entrenamiento de la base de datos permite aplicar esta metodología en diferentes padecimientos de interés social (no necesariamente en el campo de la salud), al mismo tiempo de recabar datos con herramientas como el back-end contribuyendo a datasets más grandes con la finalidad de tener un mayor rendimiento de los modelos implementados y poder hacer un manejo de las situaciones médicas y sociales a un nivel masivo, considerando las condiciones adecuadas para un manejo eficiente y temprano
Gonzalez Rodriguez Carmen Guadalupe, Instituto Tecnológico de Tepic
Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia

AQUAGUARDIAN: SISTEMA INTELIGENTE DE GESTIóN DE AGUA


AQUAGUARDIAN: SISTEMA INTELIGENTE DE GESTIóN DE AGUA

Escalante Rodríguez Anett Michell, Instituto Tecnológico de Tepic. Espericueta Cervantes Ania Priscila, Instituto Tecnológico de Tepic. Gonzalez Rodriguez Carmen Guadalupe, Instituto Tecnológico de Tepic. Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

La falta de un control adecuado en el suministro y almacenamiento de agua puede llevar a problemas significativos, como el desperdicio de agua, la sobreexplotación de recursos hídricos y la falta de disponibilidad en momentos críticos. En muchas comunidades, la gestión del agua se realiza de manera manual, lo que puede ser ineficiente y propenso a errores humanos. La implementación de un sistema automatizado de gestión de agua puede ofrecer una solución eficaz a estos problemas, asegurando una distribución equitativa y el uso óptimo del recurso.



METODOLOGÍA

RESUMEN El proyecto "AquaGuardian: Sistema Inteligente de Gestión de Agua" tiene como objetivo diseñar e implementar un sistema automatizado para el control eficiente del agua en comunidades con escasez de este recurso. El sistema utiliza sensores para monitorear el nivel del agua en dos tanques y controla dos motores y una alarma para gestionar el llenado y vaciado de los tanques. Esta solución pretende optimizar el uso del agua y garantizar su disponibilidad en las comunidades que más lo necesitan. Como primera parte dentro del desarrollo se trabajó en la plataforma tinkercad el diseño para la simulación con el cual identificamos las conexiones de sensores, actuadores y el controlado así mismo saber los elementos que necesitaríamos para la realización del sistema mecánico de manera física. Para continuar se recopilaron cada uno de los elementos que se utilizarían (motobombas, cables, repientes, etc.) se seleccionaron de acuerdo a la necesidad del prototipo y con el diseño antes realizado. Para la realización del prototipo se inició con la realización de la base para posteriormente colocar las motobombas al igual que los recipientes a los cuales se les hicieron unos orificios para la colocación de las mangueras. Dentro del recipiente que sería llenado se colocaron los cables correspondientes para la indicación de cada nivel (nivel bajo, nivel medio y nivel alto) el cual daría la indicación de la detención del llenado. Posteriormente se colocaron las mangueras conectando los recipientes a las motobombas en el cual se absorbe el agua y de la motobomba al otro recipiente para que este pueda ser llenado. Se realizaron las pruebas para corroborar que el sistema funcionaba correctamente para que posteriormente pudiera ser sustituido en el prototipo.


CONCLUSIONES

El proyecto "AquaGuardian: Sistema Inteligente de Gestión de Agua" ha demostrado ser una solución efectiva para optimizar la gestión del agua en comunidades con escasez de este recurso vital. A través de la automatización y el control preciso del llenado y vaciado de los tanques de almacenamiento, se ha logrado reducir significativamente el desperdicio de agua y garantizar un suministro continuo y eficiente. La implementación de sensores de nivel, motores eléctricos y una alarma sonora ha permitido un monitoreo constante y una operación confiable del sistema, cumpliendo con los objetivos específicos planteados. Este proyecto no solo mejora la calidad de vida de los habitantes de las comunidades afectadas, sino que también promueve la sostenibilidad y la conservación de los recursos hídricos. Previamente se estructuro un articulo con las diferentes tematicas Video funcional, sistema control de nivel:  https://youtu.be/v6vXGqSaFm0?si=Xbx4o5ZeKYfCO7GS  Documento (Proyecto):  https://docs.google.com/document/d/1jgYWPXMf6E2U-Izjr2BByhtkB-M12r4t/edit?usp=sharing&ouid=111129496335601325388&rtpof=true&sd=true
Gonzalez Sanchez Aide Belen, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla

DISEñO E IMPRESIóN DE UN PROTOTIPO DE SENSOR NO INVASIVO PARA LA DETECCIóN DE GLUCOSA


DISEñO E IMPRESIóN DE UN PROTOTIPO DE SENSOR NO INVASIVO PARA LA DETECCIóN DE GLUCOSA

Gonzalez Sanchez Aide Belen, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En México, la diabetes se ha convertido en una preocupación de salud pública creciente, afectando a un número significativo de personas y contribuyendo a una serie de complicaciones médicas graves. En 2021 en la Encuesta Nacional de Salud y Nutrición (Ensanut) menciono que la tasa anual de fallecimiento por diabetes mellitus es de 361 por cien mil habitantes. Una estrategia crucial para abordar esta crisis de salud es la detección temprana y precisa de la diabetes. En este sentido, los desarrollos en tecnología portátil para el seguimiento médico han resaltado la efectividad de los sensores de sudor como una opción prometedora para obtener datos fisiológicos relevantes sin necesidad de procedimientos invasivos. De aquí surge el proyecto, como un prototipo innovador diseñado para medir la glucosa a través del sudor. El verano de investigación tiene como objetivos principales diseñar el modelo del prototipo a través de un programa de diseño y luego imprimirlo en resina, asegurando precisión y detalle para validar su funcionalidad. Esta etapa inicial permitirá avanzar en el desarrollo del prototipo y servirá como base para terminar el prototipo completo, incluyendo las pruebas preliminares de recolección y reacción.



METODOLOGÍA

El desarrollo de un biosensor implica una serie de pasos detallados, comenzando con una investigación y conceptualización a fondo. Esta primera fase incluye una revisión de artículos académicos y libros para comprender en profundidad los aspectos teóricos y prácticos de los biosensores electroquímicos y ópticos. Se estudian los principios y el funcionamiento de estos dispositivos, abarcando temas como los electrodos funcionalizados, las reacciones enzimáticas y la medición de corriente. También se examinan los componentes principales, incluyendo electrodos de trabajo y referencia, transductores y procesadores de señales. Además, se investigan los circuitos de comunicación necesarios para la transmisión de datos y se analiza la química y los componentes del sudor. A continuación, se procede a la definición de los requisitos del prototipo, identificando características esenciales como el tamaño y la comodidad del dispositivo para asegurar su practicidad y funcionalidad para el usuario final. Con estos requisitos en mente, se crea un esquema detallado del diseño del prototipo, que incluye todas las especificaciones de las celdas de reacción y los microcanales necesarios. Se integran las celdas de reacción enzimática y colorimétrica en el diseño y se deciden los materiales y componentes necesarios para su construcción. Una vez finalizado el diseño preliminar, se realiza un inventario de todos los componentes necesarios para la fabricación del prototipo, identificando y adquiriendo todos los materiales y piezas requeridas. Para la materialización del prototipo, se utiliza el software SolidWorks. Esta fase incluye la capacitación en el uso de SolidWorks, especialmente en el diseño de tuberías y estructuras específicas del prototipo. Es crucial aprender a utilizar todas las herramientas del software para crear un diseño preciso y detallado. Con el diseño finalizado en SolidWorks, se procedió a la fabricación del prototipo. Se realizaron cinco impresiones en total. La primera impresión del modelo falló porque la resina quedó atrapada dentro de los microcanales sin una vía de escape. Para solucionar este inconveniente, en el segundo diseño se decidió imprimir los modelos en dos mitades iguales por separado, permitiendo que el exceso de resina pudiera salir. Aunque esto resolvió el problema inicial, surgió una nueva dificultad con la unión de las dos partes del prototipo. Tras investigar varias opciones, se descubrió que la resina flexible tenía la capacidad de adherirse entre sí al ser impresa, similar a una pegatina. Por ello, la última impresión se hizo con resina flexible, lo que resultó ser la mejor opción para el prototipo deseado, ya que las piezas se unieron adecuadamente y el diseño final funcionó de manera óptima.


CONCLUSIONES

En conclusión, las pruebas realizadas han permitido identificar áreas de mejora en el diseño, facilitando así las modificaciones necesarias para futuros prototipos. Este ciclo continuo de prueba y mejora asegura que el prototipo cumpla con todos los requisitos y especificaciones iniciales. Este enfoque sistemático y detallado garantiza un proceso riguroso en el desarrollo de un biosensor, desde su conceptualización hasta la fabricación y perfeccionamiento del prototipo final. Así, se alcanzaron los objetivos establecidos al inicio de la estancia de verano.
González Uribe Iván Alejandro, Universidad de Guadalajara
Asesor: Post-doc Mario Fernando Jimenez Hernandez, Universidad del Rosario

ROBóTICA SOCIAL EN DISPOSITIVOS DE ASISTENCIA: INTEGRACIóN DE DETECCIóN DE EMOCIONES EN USUARIOS DE CAMINADORES


ROBóTICA SOCIAL EN DISPOSITIVOS DE ASISTENCIA: INTEGRACIóN DE DETECCIóN DE EMOCIONES EN USUARIOS DE CAMINADORES

González Uribe Iván Alejandro, Universidad de Guadalajara. Asesor: Post-doc Mario Fernando Jimenez Hernandez, Universidad del Rosario



PLANTEAMIENTO DEL PROBLEMA

La movilidad es una necesidad fundamental para la independencia y la calidad de vida de las personas. Sin embargo, individuos afectados por traumas, cirugías, afecciones neurológicas y el envejecimiento enfrentan desafíos significativos en este aspecto. Estos problemas motrices no solo afectan su capacidad de desplazamiento, sino que también tienen un impacto emocional considerable. La ansiedad, el estrés y otras emociones negativas pueden surgir durante el uso de dispositivos de asistencia, como caminadores, dificultando aún más su rehabilitación y movilidad. El avance en tecnologías de deep learning y reconocimiento facial ha abierto nuevas posibilidades para mejorar la interacción humano-robot en dispositivos de asistencia. No obstante, la integración efectiva de esta tecnología en un caminador presenta múltiples desafíos. La falta de precisión en la detección de emociones y la respuesta inadecuada a los estados emocionales de los usuarios pueden limitar la efectividad del dispositivo, haciendo esencial el desarrollo de un modelo robusto y preciso. Además, es crucial que el caminador actúe de manera empática y adecuada en respuesta a estas emociones para evitar la frustración y el desánimo en los usuarios. Actualmente, los caminadores tradicionales carecen de la habilidad de responder emocionalmente a las necesidades de los usuarios, lo que representa un obstáculo significativo en la rehabilitación y asistencia a personas con dificultades motrices. Sin la capacidad de ajustar su comportamiento en función del estado emocional del usuario, estos dispositivos pueden resultar ineficaces o incluso contraproducentes, provocando frustración y desánimo. La falta de apoyo empático y personalizado puede ralentizar el proceso de rehabilitación y limitar la independencia del individuo, afectando negativamente su calidad de vida.



METODOLOGÍA

Para el desarrollo del proyecto se llevó a cabo la siguiente metodología: 1. Recopilación de Datos Se inició con la recopilación de datasets necesarios para entrenar el modelo de detección de emociones. Se descargó el dataset FER2013, que contiene más de 30,000 imágenes en escala de grises de 48x48 píxeles y clasifica las emociones en felicidad, enojo, tristeza, neutral, miedo, disgusto y sorpresa. Además, se solicitó el dataset AffectNet, que contiene más de 400,000 imágenes etiquetadas manualmente en formato RGB de 64x64 píxeles, con las mismas categorías emocionales. Este último dataset está pendiente de aprobación. 2. Agrupación de Emociones Dado que la intención del caminador es detectar emociones negativas y actuar en consecuencia, se decidió agrupar las emociones de disgusto, miedo y enojo en una sola categoría. Esta decisión se basó en el modelo de activación-evaluación de Whissell, que clasifica estas emociones dentro del mismo cuadrante por su proximidad y similitud. 3. Entrenamiento del Modelo El entrenamiento del modelo pasó por varias etapas y pruebas. Inicialmente, se utilizó la técnica de transfer learning con modelos preentrenados como ResNet50 e InceptionV3, que son modelos diseñados para la clasificación de objetos. La técnica de transfer learning implica reutilizar un modelo previamente entrenado en una gran cantidad de datos y ajustarlo para una nueva tarea específica. Sin embargo, estos modelos no superaron el 65% de precisión en la detección de emociones. Debido a estos resultados, se optó por desarrollar un modelo personalizado utilizando redes neuronales convolucionales (CNN). Este enfoque mejoró la precisión a un 71% al clasificar las emociones de felicidad, enojo, tristeza, neutral y la categoría combinada de emociones de activación alta y evaluación negativa. Se observó mediante una matriz de confusión que la emoción de tristeza generaba confusión con las emociones de activación alta y evaluación negativa. Al eliminar la tristeza del modelo, la precisión aumentó a un 77%. Además, se incorporó el modelo emotions-recognition-retail-0003 de OpenVINO para su uso con la cámara OAK-D. 4. Implementación en Hardware Con los modelos entrenados, se procedió a implementarlos en la cámara OAK-D, aprovechando su capacidad para realizar inferencias en su GPU integrada para aumentar la velocidad. Se utilizó la librería DepthAI, especializada en visión por computadora, para facilitar el trabajo con la cámara. El código desarrollado realiza tres funciones principales: Detección de Rostros: Utilizando el modelo face-detection-retail-0004 para detectar rostros en tiempo real. Recorte y Preprocesamiento de Imágenes: El recorte del frame para obtener solo la cara del usuario, preparando la imagen para el modelo de detección de emociones. Esto incluye cambiar el formato de la imagen si es necesario, utilizando el nodo ImageManip de DepthAI. Detección de Emociones: Procesa las imágenes recortadas y realiza la detección de emociones a una velocidad de 30 cuadros por segundo. 5. Pruebas y Validación en Raspberry Pi Finalmente, se implementó el código en una Raspberry Pi para probar diferentes estrategias de respuesta basadas en las emociones detectadas. Se programó el dispositivo para encender distintos LEDs según la emoción detectada. Esta implementación preliminar sirve como base para futuras adaptaciones, como reproducir música o iniciar una conversación con un asistente virtual (por ejemplo, ChatGPT) cuando se detecten emociones negativas.


CONCLUSIONES

Esta investigación confirma que el sistema desarrollado permite la detección precisa de emociones y la ejecución de acciones en respuesta a las emociones detectadas. Esto establece una base sólida para la integración de tecnologías de detección emocional en dispositivos de asistencia, permitiendo futuras mejoras y adaptaciones para incrementar el apoyo emocional y funcional a los usuarios. Además, a lo largo del proyecto se han adquirido conocimientos significativos sobre emociones, deep learning y el uso de Raspberry Pi, lo cual ha sido fundamental para el desarrollo y éxito del sistema.
Grajales Ocampo José Fabian, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Fermin Salomon Granados Agustin, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

MEDICIóN DEL íNDICE DE REFRACCIóN DE UNA MUESTRA DE VIDRIO USANDO UN INTERFERóMETRO DE MICHELSON


MEDICIóN DEL íNDICE DE REFRACCIóN DE UNA MUESTRA DE VIDRIO USANDO UN INTERFERóMETRO DE MICHELSON

Gómez Vázquez Alhondra, Instituto Tecnológico de Tuxtla Gutiérrez. Grajales Ocampo José Fabian, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Fermin Salomon Granados Agustin, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La medición precisa del índice de refracción de materiales ópticos, como el vidrio, es esencial en aplicaciones científicas y tecnológicas, incluyendo el diseño de lentes, la calibración de equipos ópticos y la investigación en óptica de materiales. El índice de refracción, definido como la razón entre la velocidad de la luz en el vacío y la velocidad de la luz en el material, determina cómo se comporta la luz al interactuar con el material. La precisión en la determinación de este índice es crucial para garantizar el rendimiento óptico y la calidad en múltiples aplicaciones. Este método se basa en la interferencia de la luz, generando patrones de franjas de interferencia que pueden ser analizados para determinar variaciones en la trayectoria óptica de la luz causadas por el material en cuestión. Además, se busca recrear un arreglo de menor costo y mayor accesibilidad a la educación en niveles medio y superior, contribuyendo al desarrollo de la innovación tecnológica.



METODOLOGÍA

El proceso comenzó con la configuración del interferómetro de Michelson, que divide un haz de luz monocromática en dos haces independientes mediante un divisor de haz. Los haces se reflejan en espejos situados en direcciones ortogonales antes de recombinarse, creando un patrón de interferencia en forma de franjas o anillos que se observa en una pantalla de detección. Es por eso por lo que este tipo de interferómetro es llamado de división de onda. Para observar un patrón de interferencia de colores, se utilizó luz blanca como fuente, ajustando los espejos hasta descomponer la luz blanca y revelar el patrón deseado. Se preparó una muestra de vidrio que se colocó en el camino óptico del interferómetro, entre el espejo y el divisor de haz, para medir su índice de refracción. Para asegurar mediciones precisas, se realizó una caracterización manual del sistema, ajustando los espejos y el divisor de haz para minimizar errores y garantizar una alineación adecuada. Este ajuste permitió observar claramente el patrón de interferencia de colores y obtener medidas. Posteriormente, se analizaron los resultados teóricos y se ajustó el arreglo óptico para cumplir con las condiciones de la diferencia de camino óptico (O.P.D. por su siglas en inglés Optical Path Difference). Para mejorar la precisión y automatizar el proceso de medición, se incorporó un sistema electrónico con un sensor fototransductor, como una fotorresistencia (LDR), para detectar y contar los anillos de interferencia. El microcontrolador Arduino fue integrado para automatizar el conteo y la recolección de datos en tiempo real, facilitando la programación del conteo y el monitoreo continuo de las intensidades de los anillos. Durante las pruebas, se enfrentaron desafíos relacionados con la precisión del conteo automático, incluyendo la influencia de vibraciones y movimientos bruscos, lo que resultó en una diferencia promedio de 4 anillos entre el conteo automático y el manual. Para abordar esta discrepancia, se realizó un conteo manual paralelo al automático para ajustar los resultados. Para optimizar aún más la precisión, se planeó integrar un motor para ajustar automáticamente el tornillo micrométrico del interferómetro. Se consideraron un motor Pololu y un motor paso a paso 28BYJ, que permitirían un control preciso del movimiento y la posición del eje. Se desarrolló una pieza cilíndrica para acoplar el eje del motor al tornillo micrométrico, facilitando el ajuste automático y mejorando la precisión del sistema. Tanto el sistema mecánico, así como el sistema de conteo son desarrollos propios. El sistema automatizado, con Arduino y el LDR, se configuró para diferenciar entre anillos oscuros y brillantes utilizando un valor umbral específico (lectura del LDR de 4). Se implementaron mecanismos para asegurar la estabilidad de las lecturas, con retrasos controlados y ajustes para minimizar errores. Este enfoque permitió la recolección de datos en tiempo real y el monitoreo continuo de los patrones de interferencia, proporcionando una base sólida para futuras investigaciones. La investigación sobre la medición del índice de refracción de una muestra de vidrio utilizando un interferómetro de Michelson ha mostrado que esta técnica es efectiva para obtener datos precisos. La clave para la precisión radica en una calibración cuidadosa del interferómetro, el control estricto de las condiciones sobre vibraciones, el análisis detallado de los patrones de interferencia y una correcta manipulación de los materiales y herramientas. La correcta alineación y calibración del interferómetro, junto con la compensación de factores ambientales, mejoraron significativamente la exactitud de las mediciones. Además, el uso de métodos clásicos para el análisis de datos permitió una interpretación precisa de las franjas de interferencia en comparación con los datos obtenidos por la automatización del arreglo. La preparación adecuada de ambos sistemas, óptico y electrónico garantizó resultados fiables.


CONCLUSIONES

La correcta alineación y calibración del interferómetro, junto con la compensación de factores ambientales, mejoraron significativamente la exactitud de las mediciones. Además, el uso de métodos clásico para el análisis de datos permitió una interpretación precisa de las franjas de interferencia para hacer comparación con los datos obtenidos por la automatización del arreglo. La preparación adecuada de ambos sistemas, el óptico y el electrónico garantizó resultados fiables. En conclusión, el interferómetro de Michelson, cuando se utiliza con un protocolo estandarizado, ofrece una herramienta robusta y precisa para medir el índice de refracción de vidrio, contribuyendo así a aplicaciones ópticas y científicas que requieren alta precisión.
Granados Regalado Diego, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. Maricela Aguilar Almanza, Instituto Tecnológico Superior de Irapuato

PROTOTIPO PARA EL CONTROL DE INVENTARIO, EMPLEANDO TECNOLOGíA RFID.


PROTOTIPO PARA EL CONTROL DE INVENTARIO, EMPLEANDO TECNOLOGíA RFID.

Ayala Mercado Eduardo, Instituto Tecnológico Superior de Irapuato. Correa González José Ulises, Instituto Tecnológico Superior de Irapuato. Granados Regalado Diego, Instituto Tecnológico Superior de Irapuato. Hernández Hdz Jonathan, Instituto Tecnológico Superior de Irapuato. Rodriguez Vázquez Magdiel Dario, Instituto Tecnológico Superior de Irapuato. Torres Morales Luis Daniel, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. Maricela Aguilar Almanza, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Objetivo    Desarrollar una alternativa viable para capturar datos del control de entradas, salidas y estatus de piezas de inventario con tecnología RFID, y almacenar los datos en un manejador de base de datos para consultas y/o modificaciones posteriores.  Problemática   La problemática identificada se da en una escuela de educación básica en una comunidad del Municipio de Irapuato, en la que la directora debe realizar inventario de material y mobiliario por lo menos una vez al finalizar el ciclo escolar. Actualmente el registro del material en inventario se almacena en archivos de Excel en los que la directora debe ir identificando salón por salón la existencia y estado de cada uno de los materiales mencionados. Antes de iniciar la revisión, debe asegurarse de realizar una copia de seguridad del archivo anterior para prevenir la pérdida de información o eventualidades. La revisión es tediosa ya que debe ir filtrando y haciendo notas en el mismo archivo, lo que es tardado y extenuante, hay ocasiones en que le lleva casi una hora concluir con el inventario en un solo salón, esto depende de la organización o ubicación del material o recurso.  



METODOLOGÍA

Metodología  El prototipo se desarrolló a través de la metodología XP (Extreme Programming/Programación Extrema).  Primero, se identificó la problemática central: la dificultad y el tiempo que conlleva revisar los elementos, se realizaron preguntas clave a la persona encargada, para entender a fondo el proceso actual y explorar alternativas que facilitarían el trabajo, se inició con el proceso de planificación donde se plantearon las posibles soluciones, tales como el desarrollo de una aplicación web, una aplicación móvil o de escritorio que cubriera las necesidades mediante el uso del prototipo.    Se optó por continuar con el desarrollo de una aplicación de escritorio, ya que es más beneficiosa para realizar los movimientos específicos que indicó el cliente en su problemática.  Antes de planearse las pestañas necesarias para desarrollar la aplicación de escritorio, se debían migrar los datos de Excel a una base de datos adecuada, se propuso usar SQLite3 para manejar los datos de forma local sin afectar el rendimiento del equipo, la migración se realizará una vez que la base de datos esté normalizada.  Como se mencionó anteriormente, se requiere normalizar las tablas antes de migrarlas. El cliente indicó que desea separar los datos A de los datos B, por lo que se procedió a realizar esta separación, asignando los campos requeridos para cada uno.  Aunque inicialmente se había definido que sería una aplicación de escritorio, es necesario tener en cuenta las pestañas a utilizar, inicialmente, se había pensado en una única pestaña que recibirá los datos de lectura del prototipo, sin embargo, tras analizar nuevamente la problemática, se identificó la necesidad de varias pestañas para la elaboración de la actividad, ya que se debe cubrir un sistema de inicio de sesión así como un menú para los diferentes campos que se quieren abarcar, por consiguiente, se propusieron las siguientes ideas:  Una pantalla encargada de realizar el Log-in.  Una pantalla encargada de fungir como Menú principal.  Una pantalla encargada de recibir los datos recabados por el prototipo y validar que existan en la base de datos.  Una pantalla que reciba y permita modificar cualquier campo de los datos recopilados por el prototipo.  Después de decidir las pantallas necesarias para la aplicación y determinar a dónde migrar los datos, se procede a desarrollar el prototipo para leer y enviar los datos a la aplicación de escritorio. 


CONCLUSIONES

Conclusión  Durante el verano, se adquirieron conocimientos teóricos y prácticos esenciales para simplificar y agilizar el proceso de inventario en la escuela mencionada. Se utilizaron tecnologías como Wifi, Bluetooth e infrarrojo para mejorar la eficiencia y precisión del registro y gestión de materiales. Sin embargo, debido a la extensión del trabajo, aún se encuentra en la fase de prototipo y no se pueden mostrar los datos obtenidos. Se espera una reducción de tiempo al realizar el inventario, así como un incremento en la eficiencia del inventario y en la búsqueda de este. 
Guardado Paniagua Soni Atonalt, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Ivan Enrique Campos Silva, Instituto Politécnico Nacional

CARACTERIZACIóN DE SISTEMAS MICRO-NANO ESTRUCTURADOS.


CARACTERIZACIóN DE SISTEMAS MICRO-NANO ESTRUCTURADOS.

Guardado Paniagua Soni Atonalt, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Jiménez Torres Tomas, Instituto Politécnico Nacional. Moreno Casas Vicente Adrián, Universidad de Guadalajara. Asesor: Dr. Ivan Enrique Campos Silva, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La selección de materiales para la fabricación de componentes específicos requiere evaluar múltiples propiedades y, a menudo, mejorar estos materiales para prolongar su vida útil. En el Grupo Ingeniería de Superficies del Instituto Politécnico Nacional, se utiliza el proceso de borurado en caja asistido por un campo de corriente directa pulsante (BCDP) para mejorar la dureza y la resistencia al desgaste de aceros, creando un recubrimiento cerámico en la superficie del metal. El proceso de borurado involucra la difusión de átomos de boro en la matriz metálica, formando compuestos de boruro en la superficie del material. Este tratamiento presenta desafíos en su implementación efectiva debido a factores como la composición química del medio borurante y la estructura cristalina del material base. La caracterización de estos materiales es crucial para comprender cómo estos factores influyen en la calidad y uniformidad de la capa de boruro, y para optimizar el proceso y justificar su uso en aplicaciones industriales como en la fabricación de componentes para la industria del vidrio, química, textil, entre otras. Se sabe que el borurado mejora la resistencia al desgaste y la dureza del material, pero es necesario entender mejor los mecanismos que controlan esta mejora. La composición química del medio borurante, la estructura del material de base, la temperatura de tratamiento y la intensidad y frecuencia de la corriente aplicada son factores que deben ser investigados. Además, la evaluación económica de estos procesos es crucial para su implementación en la industria.



METODOLOGÍA

Para llevar a cabo este estudio, primero se prepararon las muestras de acero AISI 1018. La preparación de las muestras incluyó tres etapas principales: corte, desbaste y pulido, siguiendo la norma ASTM E3-95, titulada "Standard Practice for Preparation of Metallographic Specimens". Este procedimiento asegura que las superficies de las muestras estén limpias y uniformes antes de someterlas al proceso de borurado. Posteriormente, las muestras se desbastaron con lijas de diferentes granulometrías, comenzando con una lija de grano 80 y finalizando con una lija de grano 2000. Este proceso es importante para obtener una superficie uniforme y libre de imperfecciones. El siguiente paso fue el proceso de BCDP. Las muestras se empaquetaron en una mezcla de 70% B4C, 20% SiC y 10% KBF4. Esta mezcla se eligió debido a sus propiedades para promover la difusión de boro en la superficie del acero. Las muestras empaquetadas se colocaron en un contenedor de acero inoxidable que actúa como cátodo, y se añadieron dos electrodos de nicromel conectados a una fuente de corriente directa pulsante. Este sistema se introdujo en una mufla y se calentó a una temperatura de 900 °C. Durante el proceso, se aplicó una corriente de 5 amperios con cambios de polaridad cada 30 segundos durante una hora. Este tratamiento promueve la difusión de átomos de boro ionizados hacia la superficie del material, formando una capa bifásica de FeB y Fe2B. Una vez finalizado el tratamiento de borurado, las muestras se enfriaron a temperatura ambiente. Posteriormente, se realizaron cortes transversales en las muestras para observar la estructura de las capas de boruro. Se volvieron a desbastar y pulir después del tratamiento para darle acabado espejo y analizarlo. Para la caracterización microestructural, se utilizaron técnicas de microscopía óptica para observar las capas. Para evaluar la resistencia al desgaste, se llevaron a cabo ensayos de desgaste reciprocante lineal utilizando una esfera de alúmina cerámica, bajo los parámetros establecidos por la norma ASTM G133-22 (Standard Test Method for Linearly Reciprocating Ball-on-Flat Sliding Wear). Este ensayo consiste en aplicar una fuerza constante de 5 newtons sobre la muestra mientras una esfera de alúmina se desliza sobre su superficie en un movimiento reciprocante a una velocidad de 30 mm/s. Se realizó este ensayo tanto en las muestras tratadas como en las no tratadas, permitiendo comparar directamente los efectos del tratamiento de borurado en su resistencia al desgaste. La longitud de prueba fue de 10 mm, con una distancia de deslizamiento total de 100 metros, y el ensayo se realizó sin lubricante para simular condiciones de desgaste severas. La resistencia al desgaste se evaluó mediante perfilometría óptica, una técnica no destructiva que permite obtener imágenes tridimensionales de alta resolución de las muestras. Esta técnica permitió medir el volumen de material removido durante los ensayos de desgaste, proporcionando una medida cuantitativa de la resistencia al desgaste de las muestras tratadas y no tratadas.


CONCLUSIONES

El proceso de BCDP mejora significativamente la dureza y la resistencia al desgaste de aceros. Este tratamiento implica la difusión controlada de átomos de boro ionizados hacia la superficie del acero. Los resultados obtenidos mediante perfilometría óptica mostraron una mejora notable en la resistencia al desgaste del material tratado en comparación con muestras sin tratamiento. La capa de boruro formada en la superficie del acero AISI 1018 fue uniforme y consistente, lo que sugiere que el proceso de borurado fue realizado adecuadamente. La prueba que se hizo con el acero AISI 1018 mostró que este tratamiento es capaz de producir mejoras significativas en la resistencia al desgaste y la dureza en aceros. Estos hallazgos subrayan la importancia de investigar y optimizar el proceso de borurado para maximizar sus beneficios y expandir su aplicabilidad en la industria. La combinación de técnicas avanzadas de caracterización, como la microscopía óptica y la perfilometría óptica, proporciona una comprensión profunda de las propiedades de las capas de boruro, lo que es esencial para el desarrollo de tratamientos de superficie más eficientes y efectivos. Además, la adopción de estándares internacionales garantiza la reproducibilidad y la comparabilidad de los resultados obtenidos, lo cual es determinante para la validación y aplicación industrial de estos tratamientos.
Guarín Romero Henry, Universidad Nacional Abierta y a Distancia
Asesor: Dra. Eugenia Erica Vera Cervantes, Benemérita Universidad Autónoma de Puebla

IMPLEMENTACIóN DE UNA HERRAMIENTA DE GESTIóN DEL APRENDIZAJE PARA EL FORTALECIMIENTO DE HABILIDADES STEM POR MEDIO DE LA DRONóTICA EN ESTUDIANTES DE BACHILLERATO


IMPLEMENTACIóN DE UNA HERRAMIENTA DE GESTIóN DEL APRENDIZAJE PARA EL FORTALECIMIENTO DE HABILIDADES STEM POR MEDIO DE LA DRONóTICA EN ESTUDIANTES DE BACHILLERATO

Guarín Romero Henry, Universidad Nacional Abierta y a Distancia. Asesor: Dra. Eugenia Erica Vera Cervantes, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En los talleres de dronótica realizados en tres instituciones de la ciudad de Cúcuta, se identificó que el uso de aplicaciones como Genially y Google Classroom limitaba la flexibilidad y la interactividad de las lecciones. Estas limitaciones presentaban un obstáculo significativo para la integración efectiva de las TIC en la educación de forma didáctica e interactiva, especialmente en la promoción de competencias y habilidades del pensamiento computacional. La necesidad de una plataforma que permitiera una mejor gestión del aprendizaje y una mayor interactividad llevó a la consideración de Moodle. Según un estudio de Arias et al. (2018), el uso de Moodle en la enseñanza de competencias STEM mejora significativamente las habilidades digitales y el interés de los estudiantes en disciplinas tecnológicas. Por lo tanto, se planteó la pregunta: ¿Cómo implementar una herramienta de gestión del aprendizaje para fortalecer habilidades STEM en estudiantes de bachillerato mediante el uso de dronótica?



METODOLOGÍA

La metodología utilizada en este proyecto fue de investigación aplicada y experimental, debido a que el objetivo es aplicar conocimientos y técnicas existentes para mejorar la calidad del aprendizaje experimentando con la implementación de Moodle y observar su efecto en el desarrollo de competencias STEM-Drónotica entre los estudiantes. Con un enfoque mixto cualitativo y cuantitativo se recogió datos sobre el rendimiento y progreso de los estudiantes mediante pruebas, cuestionarios y registros de actividad en Moodle, con ello evaluar el impacto de Moodle en el fortalecimiento de competencias. Se adoptó el Aprendizaje Basado en Proyectos (ABP) con un enfoque STEM, donde los estudiantes participaron en proyectos para resolver problemas reales y aplicar los conocimientos de la drónotica que les exijan habilidades prácticas en programación, ingeniería y pensamiento crítico.  El diseño metodológico por fases ADDIE (Análisis, Diseño, Desarrollo, Implementación y Evaluación permitió ordenar las actividades de la investigación: Analizar los requerimientos de la herramienta de gestión del aprendizaje STEM-Dronótica. Diseñar la propuesta didáctica STEM con drones DJI Tello para la herramienta de gestión de aprendizaje. Desarrollar el entorno virtual de aprendizaje para los talleres de dronótica. Implementar los talleres de dronótica a estudiantes de bachillerato de tres instituciones educativas de la ciudad de Cúcuta. Evaluar el fortalecimiento de las competencias STEM de los estudiantes de bachillerado mediante retos de Dronótica.


CONCLUSIONES

Durante la estancia del XXIX Verano De Investigación Científica y Tecnología del Pacifico se logró adquirir conocimientos teóricos sobre la metodología ADDIE y su aplicación, de igual forma la gamificación de las lecciones de la plataforma Moodle por medio de los plugin XP y la interactividad por medio H5P. Debido al corto tiempo de la instancia se proyecta a futuro la aplicación en los tres Colegios de la ciudad de Cúcuta pudiendo evaluar la viabilidad de Moodle como herramienta que fortalezca la educación STEM.
Guerra Barron Moises Rigoberto, Universidad Autónoma de Occidente
Asesor: M.C. Jesus Osuna Cabanillas, Universidad Autónoma de Occidente

ROBOT RECOLECTOR DE BASURA


ROBOT RECOLECTOR DE BASURA

Guerra Barron Moises Rigoberto, Universidad Autónoma de Occidente. Valdez Aguilar Jesus Gael, Universidad Autónoma de Occidente. Asesor: M.C. Jesus Osuna Cabanillas, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

El trabajo aborda la problemática de la contaminación plástica, un desafío moderno derivado del uso masivo de plásticos en empaques y productos. Se estima que solo en México se producen 9 mil millones de botellas de plástico al año, de las cuales solo el 12% se recicla, resultando en residuos visibles en espacios públicos como calles y parques. Estos residuos pueden exacerbar problemas durante eventos climáticos, como inundaciones, al bloquear sistemas de drenaje. Además, afectan a la fauna, con plásticos encontrados en los estómagos de aves marinas y peces. A pesar de la existencia de robots para recoger basura en hogares o playas, no hay suficientes soluciones para recolectar residuos en áreas urbanas y naturales



METODOLOGÍA

El estudio se enmarca en un enfoque cualitativo, con un diseño no experimental y transversal. Se centra en la creación de un robot recolector de basura con inteligencia artificial, diseñado para mejorar la gestión de residuos en áreas urbanas. La recolección de datos se realizó mediante entrevistas a expertos y análisis documental de materiales relacionados con robótica, redes neuronales y electrónica. El enfoque cualitativo se justifica por la naturaleza del desarrollo del prototipo y la programación del robot


CONCLUSIONES

El trabajo concluye que la implementación de un robot recolector de basura con IA es factible y puede ser una solución efectiva para la problemática de la contaminación plástica en espacios públicos. La investigación destaca la importancia de desarrollar tecnologías innovadoras para abordar problemas ambientales y mejorar la eficiencia en la recolección de residuos​. El prototipo de robot diseñado e implementado fue capaz de identificar, clasificar y recolectar basura de manera autónoma, obteniendo un 75% de éxito en sus pruebas. Esto se logró utilizando inteligencia artificial combinada con elementos electromecánicos, lo que diferencia al prototipo de otros proyectos similares. Aunque hubo un 25% de intentos con éxitos parciales, se logró un avance significativo en el uso de IA para la gestión de residuos​
Guerrero Arenas Alondra Guadalupe María José, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato

PROTOTIPOS DE IOT


PROTOTIPOS DE IOT

Guerrero Arenas Alondra Guadalupe María José, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La calidad del aire en interiores es un problema social y de salud, debido a que pasamos el 90 %  del tiempo en espacios cerrados, exponiéndose a una cantidad considerable de gases y aeorosoles nocivos para la salud, afectando principalmente en el área respiratoria, disminuyendo la productividad y en casos extremos, provocando la muerte. 



METODOLOGÍA

Se creó un dispositivo de monitoreo de calidad de aire basado en tecnología IoT y disruptiva 4.0, con el objetivo de proporcionar una solución integral para la salud y el bienestar en espacios cerrados.  El sistema ofrece un monitoreo en tiempo real y acceso a datos precisos desde una plataforma web para conocer la concentración de contaminantes en el aire interior, así como un sistema de alertas y protocolos que permitan tomar las medidas necesarias para disminuir la concentración de gases. El uso de dispositivos para el funcionamiento del sistema es por medio de un sensor MQ-135 para la detección de calidad de aire, conectado simultáneamente a una NodeMCU ESP8266 para el monitoreo y transmisión de datos de forma inalámbrica. Por medio de una Raspberry PI se gestiona la comunicación entre dispositivo, así como el almacenamiento de datos en la nube, para finalmente, mostrarla por medio de una interfaz de usuario comprensible para el mismo desde una página web. 


CONCLUSIONES

Con base en los resultados, se dio un seguimiento en algunas áreas con diferentes estructuras de ventilación para determinar el funcionamiento del mismo, y conocer las variantes que pueden surgir al estar personas o no en la habitación y como esto puede afectar en un corto plazo la salud y el rendimiento de las personas. Es indispensable conocer las condiciones del lugar para dar soluciones óptimas de acuerdo a los recursos que se tienen, principalmente, por el aspecto económico, y generar conciencia en como desde el colocar plantas o abrir ventanas, puede cambiar el ambiente en un espacio cerrado. 
Guerrero Medina Laura Jaqueline, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Valentina Ramirez Hernandez, Universidad Pontificia Bolivariana

PRECISIóN Y EXACTITUD EN LA UBICACIóN DE VEHíCULOS AUTóNOMOS PARA MEJORA EN LA PRODUCTIVIDAD INDUSTRIAL.


PRECISIóN Y EXACTITUD EN LA UBICACIóN DE VEHíCULOS AUTóNOMOS PARA MEJORA EN LA PRODUCTIVIDAD INDUSTRIAL.

Guerrero Medina Laura Jaqueline, Instituto Tecnológico Superior de Irapuato. Asesor: Mg. Valentina Ramirez Hernandez, Universidad Pontificia Bolivariana



PLANTEAMIENTO DEL PROBLEMA

La integración de vehículos autónomos en los procesos industriales, en un control de ciclo cerrado utilizando Deep Learning e Inteligencia Artificial, es esencial para mejorar la precisión y exactitud en la ubicación, optimizando la eficiencia dentro las plantas de producción, almacenes, centros de distribución etc. Reduciendo costos operativos y aumentando la productividad. Este enfoque no solo mejora la eficiencia operativa y reduce desperdicios, sino que también contribuye a una mayor sostenibilidad y seguridad, alineándose con los objetivos de la Industria 4.0 y a los principios de economía circular, abordando los desafíos actuales con tecnologías avanzadas. En la actualidad uno de los desafíos a los que se enfrenta la industria es el incremento de su productividad mientras se adapta a modelos sustentables que disminuyan el impacto ambiental y aumenten su impacto económico y social. Es así como los vehículos autónomos son una buena alternativa como herramienta en la disminución de tiempos de transporte y precisión de su ubicación tanto para la logística interna como para la logística externa, ya que se encarga del movimiento de diferentes clases de inventarios, incluyendo los productos desechados u obsoletos generados en la fase de uso, lo cual significa que ayuda de forma considerable a los esquemas de logística inversa. Los vehículos autónomos tienen como base de funcionamiento avanzadas tecnologías, entre las que destacamos la inteligencia artificial especialmente el Deep Learning las cuales otorgan precisión y exactitud de localización, por lo que ayudarían a optimizar procesos logísticos y con ello el flujo de información y de materiales, lo que ayuda a circularizar un proceso de producción. Esto representa una mejora en los tiempos logísticos ya que no depende exclusivamente de la intervención humana. Es una excelente herramienta ante la resolución de situaciones complejas en una diversidad de entornos industriales dinámicos en donde incluso las variables pueden cambiar rápidamente.



METODOLOGÍA

Este estudio adopta un enfoque de naturaleza explorativa, descriptiva, comparativa, analitica y explicativa, permitiendo abordar diferentes aspectos del planteamiento.Los eventos de estudio identificados son: la implementación de sistemas de localización, la interacción con la línea de producción, la gestión efectiva de recursos y el sobrestock. Se analizarán las sinergias entre la integración de los sistemas con los procesos industriales en las estaciones de trabajo, así como el equilibrio entre el flujo de materiales y la demanda. Se emplea un diseño de investigación mixto que combina métodos cuantitativos y cualitativos, proporcionando una mejor comprensión del fenómeno y facilitando la validación de los descubrimientos cuantitativos con datos cualitativos. Las unidades de estudio son los vehículos y las líneas de producción en industrias manufactureras o armadoras. Su selección depende de la tecnología que poseen y la representatividad de los sistemas industriales. En donde su procedimiento se comprende de 6 etapas: Recolección de datos: Mediante GPS, Lidar, cámaras e IMU,obteniendo información sobre la posición, orientación y entorno. Utilizando mapas CAD y SLAM, actualizando el entorno, datos y tiempos de operación. Modelado y algoritmos: Empleando CNN para procesar imágenes  y detectar características, RNN para modelar la secuencia de movimientos y trayectorias, para optimizar la toma de decisiones en tiempo real. Entrenamiento y validación: Los datos se dividirán en conjuntos de entrenamiento, validación y prueba. Implementación:Se realizan operaciones simultaneas para el entrenamiento de modelos. Evaluación de resultados: Es necesario medir las variables planteadas tales como:precisión, exactitud de la localización, evaluando sus mejoras. Despliegue en entorno real: Implementación de pruebas en un entorno industrial limitado para evitar riesgos. Con ello el análisis de datos se realizará mediante las siguientes  técnicas principales: estadística descriptiva, regresión lineal y técnicas de machine learning.


CONCLUSIONES

De acuerdo con lo mencionado, durante la estancia, se adquirieron conocimientos teóricos y se identificaron métodos clave para el estudio. A través de un análisis comparativo, se especificaron los indicadores de desempeño que incluyen la precisión de la localización, los tiempos de transporte, la tasa de utilización de los vehículos, la reducción del desperdicio de inventarios y el aumento de la productividad. El proyecto se encuentra actualmente en una fase de desarrollo continuo, por lo que aún no se disponen de resultados definitivos. Sin embargo se espera  identificar patrones complejos obtenidos por los sensores,dado que con los metodos tradicionales serian dificiles de manejar. Con ello,mejorar la productividad industrial,disminuyendo el desperdicio de materilaes  en almacenes,centros de distribución o plantas,optimizando los tiempos de respuesta para una mejor eficiencia en la cadena de suministro y en la gestión de recursos. Considerando el amplio alcance  del proyecto, en un periodo limitado,se desarrollaron las variables sin la realización de practicas experimentales. Por ultimo, se espera que esta investigación sea un punto de partida ante futuras investigaciones dentro de  este campo de estudio.
Guerrero Niño Felipe Eugenio, Universidad Politécnica de Altamira
Asesor: Dr. Alejandro Garza Galicia, Universidad del Valle de Atemajac

ANALISIS DEL POTENCIAL DE LA CONCENTRACIóN SOLAR


ANALISIS DEL POTENCIAL DE LA CONCENTRACIóN SOLAR

Bernal Pérez Luis Ángel, Instituto Politécnico Nacional. Castillo Rojas Carlos Antonio, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Guerrero Niño Felipe Eugenio, Universidad Politécnica de Altamira. Jiménez Romero Aída Yolanda, Universidad de Guadalajara. Lara Amado Jesus Modesto, Tecnológico de Estudios Superiores de Valle de Bravo. Suarez Garcia Fernando Yered, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Alejandro Garza Galicia, Universidad del Valle de Atemajac



PLANTEAMIENTO DEL PROBLEMA

El cambio climático y la crisis energética representan dos de los desafíos más urgentes y complejos de nuestra era. Las emisiones de gases de efecto invernadero (GEI), resultantes principalmente de la quema de combustibles fósiles, han contribuido significativamente al calentamiento global, causando efectos adversos en el medio ambiente, como el aumento del nivel del mar, eventos meteorológicos extremos y la pérdida de biodiversidad. En el contexto de México y muchos otros países en desarrollo, la dependencia de fuentes de energía no renovables no solo agrava estos problemas ambientales, sino que también limita el acceso a energía limpia y accesible para la población. México, en particular, enfrenta una situación crítica debido a su creciente demanda de energía, la cual no puede ser satisfecha de manera sostenible con las tecnologías y recursos actuales. Esto ha generado un aumento en las emisiones de GEI, colocando al país en una posición donde debe equilibrar la necesidad de desarrollo económico con la protección del medio ambiente. A nivel global, la transición hacia energías renovables es vista como una solución clave para mitigar el cambio climático. Sin embargo, esta transición enfrenta múltiples desafíos técnicos, económicos y sociales, especialmente en países con infraestructuras limitadas y diversas condiciones climáticas.



METODOLOGÍA

El presente proyecto de investigación se centró en la evaluación de diversas tecnologías de generación de energía con el objetivo de desarrollar un software de apoyo a la toma de decisiones. Este software busca integrar consideraciones económicas, sociales, medioambientales y culturales para optimizar la generación y uso de energía en México. Se llevaron a cabo pruebas experimentales utilizando los siguientes equipos: Concentrador solar tipo CCP Estufa solar Estufa de gas Estufa eléctrica Panel solar fotovoltaico Motor Stirling Durante un periodo de siete semanas, se recolectaron datos experimentales utilizando una serie de sensores especializados, tales como anemómetros para medir la velocidad del viento, termopares para monitorear temperaturas, multímetros para registrar parámetros eléctricos y sensores de radiación para evaluar la intensidad de la radiación solar. Toda la información recopilada fue almacenada en una base de datos centralizada, diseñada para facilitar el análisis y la interpretación de los datos. Asimismo, se elaboró un software en Python que implementa conexiones a las bases de datos donde registramos las mediciones por cada tecnología implementada, factores para la toma de decisiones, variables de eficiencia y finalmente, un árbol de decisión que toma las siguientes consideraciones: Factores económicos: En donde toma en consideración el costo de implementación, operación y mantenimiento de las tecnologías evaluadas. Factores sociales: Considerando la accesibilidad de las tecnologías y su impacto en la calidad de vida de las comunidades. Factores medioambientales: Buscando la reducción de emisiones de GEI, protección a la salud humana y conservación de recursos naturales. Factores culturales: Buscando en un futuro que la escalabilidad del proyecto generé una aceptación y adaptación de las tecnologías en contextos culturales específicos.


CONCLUSIONES

Las pruebas experimentales arrojaron los siguientes resultados de eficiencia para cada tecnología evaluada: Concentrador solar tipo CCP: Eficiencia máxima de 31% Estufa de gas: Eficiencia de 63% Estufa solar: Eficiencia de 19% Estufa eléctrica: Eficiencia de 57% Estos datos proporcionan una base sólida para el desarrollo del software, que busca ofrecer recomendaciones sobre la mejor combinación de tecnologías para diferentes escenarios y condiciones locales. La implementación de colectores solares y otras tecnologías de energía renovable presenta desafíos significativos debido a la geometría solar y las condiciones climáticas adversas. Factores como la variabilidad en la intensidad de la radiación solar, la disponibilidad de recursos naturales y la infraestructura existente limitan la eficiencia y la viabilidad de estas tecnologías en ciertas regiones. Sin embargo, este proyecto ha demostrado que es posible avanzar hacia una transición energética sostenible mediante el uso de herramientas de decisión integrales y bien informadas, que consideran una amplia gama de factores y que priorizan la sostenibilidad medioambiental y el bienestar social. Este enfoque holístico es crucial para asegurar que la transición energética no solo sea técnicamente viable, sino también equitativa y respetuosa con los ecosistemas locales y las comunidades.
Guerrero Vazquez Octavio, Universidad Autónoma de Occidente
Asesor: Dr. Juan Manuel Mejia Camacho, Universidad Autónoma de Sinaloa

FISICA DE ALTAS ENERGIAS


FISICA DE ALTAS ENERGIAS

Guerrero Vazquez Octavio, Universidad Autónoma de Occidente. Asesor: Dr. Juan Manuel Mejia Camacho, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Planteamiento Introducción Durante el verano, me sumergí en un proyecto científico orientado a la física de altas energías, centrado específicamente en la calibración y análisis de datos experimentales utilizando ROOT, una poderosa biblioteca de software ampliamente empleada en este campo. Este proyecto buscaba caracterizar detectores, una tarea fundamental en la investigación experimental, especialmente en la física de partículas y áreas afines. A través de este proyecto, desarrollé habilidades cruciales en la recopilación y procesamiento de datos, así como en el ajuste y visualización de resultados. Objetivos del Proyecto El proyecto tenía varios objetivos específicos: Recopilación de Datos: Obtener datos experimentales de diversos sensores, asegurando su precisión y validez. Procesamiento de Datos: Aplicar técnicas de análisis para procesar los datos y extraer información significativa. Calibración de Detectores: Ajustar los datos para corregir las incertidumbres y mejorar la precisión de las mediciones. Desarrollo de Software: Implementar funciones en C++ utilizando ROOT para el análisis, procesamiento y visualización de los datos experimentales. Visualización de Resultados: Crear gráficos y representaciones visuales de los datos para facilitar su interpretación y análisis.



METODOLOGÍA

Metodología La metodología del proyecto se estructuró en varias etapas: Lectura y Recopilación de Datos: Los datos experimentales se leyeron desde archivos de texto. Estos archivos contenían mediciones de voltajes, incertidumbres y otros parámetros esenciales. Se utilizó ROOT para manejar y organizar los datos de manera eficiente. Procesamiento de Datos: Se implementaron funciones para calcular promedios y errores de las mediciones. Las funciones consideraban tanto los valores medidos como sus respectivas incertidumbres, garantizando la precisión en los cálculos. Un ejemplo de función utilizada fue Average_vec, que calculaba el promedio de un vector de datos, aunque en el desarrollo se optó por un enfoque más integrado dentro del flujo de trabajo de ROOT. Calibración de Detectores: Se aplicaron técnicas de ajuste lineal y no lineal para calibrar los datos. Las relaciones entre diferentes parámetros experimentales se modelaron y ajustaron para minimizar las incertidumbres y mejorar la exactitud. Los datos ajustados se compararon con los valores medidos para validar la efectividad de los ajustes. Desarrollo de Software: Se desarrollaron múltiples scripts y funciones en C++ utilizando ROOT. Estos scripts facilitaron la lectura, procesamiento, análisis y visualización de los datos. La estructura del software se diseñó para ser modular y escalable, permitiendo futuras ampliaciones y mejoras. Visualización de Resultados: Se generaron gráficos utilizando ROOT para visualizar los datos y los resultados del análisis. Los gráficos incluían histogramas, gráficos de dispersión y curvas de ajuste, proporcionando una representación clara y detallada de las relaciones entre los parámetros experimentales.    


CONCLUSIONES

Resultados Los resultados obtenidos durante este proyecto fueron significativos y diversos: Calibración Precisa: Se logró una calibración precisa de los datos experimentales, lo que permitió reducir las incertidumbres y mejorar la exactitud de las mediciones. Los valores ajustados mostraron una alta correlación con los datos experimentales, validando la efectividad de las técnicas de ajuste aplicadas. Desarrollo de Software Eficiente: Se desarrollaron y perfeccionaron múltiples funciones en C++ que facilitaron el procesamiento y análisis de los datos. El software desarrollado permitió un análisis rápido y eficiente, mejorando significativamente la productividad. Visualización Clara y Detallada: Los gráficos generados permitieron una visualización clara y detallada de las relaciones entre los diferentes parámetros experimentales. La visualización facilitó la identificación de patrones y tendencias en los datos, proporcionando una comprensión más profunda de los resultados.
Guerrero Zepeda Alfredo Ramón, Universidad de Guadalajara
Asesor: Dr. Harvey Andrés Milquez Sanabria, Fundación Universidad de América

ANáLISIS EXERGOECONOMICO EN UNA PLANTA DE PIRóLISIS DE LLANTAS USADAS.


ANáLISIS EXERGOECONOMICO EN UNA PLANTA DE PIRóLISIS DE LLANTAS USADAS.

Guerrero Zepeda Alfredo Ramón, Universidad de Guadalajara. Asesor: Dr. Harvey Andrés Milquez Sanabria, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

El incremento de gases de efecto invernadero ha afectado significativamente la producción de muchos productos, en especial las llantas usadas en los automotores en los que nos transportamos día a día. una vez terminado su ciclo de utilidad son almacenadas sin tener un segundo uso, al ser un producto no biodegradable se acumula en grandes cantidades ocasionando problemas severos para el ambiente. Tan solo en Colombia, la población durante los últimos 60 años paso de 16 a 50 millones de acuerdo a un censo poblacional en el año 2021 en donde se evalúa que el crecimiento poblacional en las grandes ciudades ha favorecido la producción de medios de transporte, en el cuál las llantas pertenecen a un accesorio indispensable para el transporte en general. el panorama no es muy alentador considerando que la producción de llantas en Colombia y en el mundo incrementa con el paso del tiempo. Lo preocupante ante la actual problemática yace en el aprovechamiento del producto una vez terminando su periodo de vida, la acumulación de llantas puede ser un foco de enfermedades para las comunidades que conviven con la acumulación de llantas en sus comunidades.



METODOLOGÍA

Ante el constante incremento de los vertederos de llantas en la ciudad, existen diversos métodos por los cuales se ha tratado el acumulamiento de llantas. Algunos muy comunes como la incineración no requieren de un tratamiento previo, sin embargo generan altos contaminantes que son expulsados a la atmosfera. siendo este el método menos sustentable. Por lo que se ha propuso la idea de implementar una planta de pirólisis en la que sea posible tratar la alta cantidad de desperdicio de producto, utilizando las llantas usadas como materia prima para generar como producto combustibles y aceites con valor comercial en el mercado. El proceso es posible debido al alto contenido de carbon presente en la materia (70-80%) favoreciendo a la descomposición de las largas cadenas de carbono en pequeñas compuestos mediante una serie de equipos de proceso que en conjunto con el proceso de pirólisis permiten obtener los hidrocarburos de interés. La pirólisis es un proceso endotérmico que trabaja en ausencia de oxigeno a altas temperaturas y que resulta eficiente para la obtención de hidrocarburos. sabiendo que la cantidad de energía suele ser muy alta para procesos de combustión que permiten la realización de la pirólisis es importante la realización de un análisis que evalúe en particular estos parametros. es aquí donde se hace el del método termoeconómico o exergetico. Para conocer los parámetros de diseño antes de la implementación y construcción de la planta se requiere del uso de simuladores que permiten conocer la cantidad de materia y energía que se transporta en cada una de las etapas del proceso. La simulación se realiza en el programa ASPEN PLUS. Con la ayuda del simulador es posible determinar la cantidad de trabajo util que el proceso demanda, en este caso hablamos del termino exergia. la realización de un análisis de exergia es importante en aquellos procesos en donde no se tenga un control en el aprovechamiento de la energía, muchas veces aumentando el valor de la producción y afectando la calidad de producto que se quiere obtener. Por esta razón realizar un análisis exergetico de la planta que nos permite conocer el metodo adecuado para reducir las ineficiencias o irreversibilidades que hacen que el proceso sea interrumpido o no cumplido en su totalidad. El metodo consiste en estudio de los flujos másicos en cada una de las corrientes, posteriormente se reconoce el tipo de proceso que involucra el sistema con sus alrededores (fisico o químico), se realiza un balance de masa y energía para poder obtener la cantidad de exergia total que involucra el proceso en relación con el estado muerto o estado de referencia. Para finalmente calcular cuanta exergia es aprovechada y cuanta exergia es destruida. calculando eficiencias y porcentajes de exergia en cada corriente se hace una evaluación en general para determinar a que variable del proceso es necesario realizar cambios para obtener un mejor rendimiento de energía que no consuma y genere consecuencias con el entorno. partiendo como principal objetivo que la planta sea viable y sustentable de operar.


CONCLUSIONES

Durante la estancia de verano se logro adquirir conocimientos que en conjunto permitieron la realización del análisis exergetico. sin embargo al ser un proceso largo de investigación antes de llegar a la implementación se requiere profundizar mejor en el análisis de costos operativos que permitan que un futuro la planta ya este en operaciones.  Sin duda alguna el análisis exergetico es solo un pequeño pero importante paso para poder aprovechar y reutilizar la acumulación de llantas en la ciudad. Sin más que añadir deseo que esta linea de investigación pronto pueda rendir sus frutos y pueda ser replicada en otras partes del planeta.  
Guevara Aguilar Ana Karen, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla

ANALISIS Y PROCESAMIENTO DE SERIES DE TIEMPO DE ACTIVOS FINANCIEROS POR MEDIO DE INTELIGENCIA ARTIFICIAL


ANALISIS Y PROCESAMIENTO DE SERIES DE TIEMPO DE ACTIVOS FINANCIEROS POR MEDIO DE INTELIGENCIA ARTIFICIAL

Guevara Aguilar Ana Karen, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Analizar cualqueir sistema físico, a través de mediciones del mismo, simpre esta limitado por la capacidad de medición, generándose un conjunto discreto de datos de los cuales es necesario extraer información o predicciones.



METODOLOGÍA

Se necesita realizar la definición del número de capas en la red neuronal, de esta manera también las diferentes funciones de activación que se utilizaran para que se pueda llevar a cabo su función correspondiente en el proceso. Recopilación de base de datos Luego con los datos recopilados con anterioridad se podrá desarrollar la red neuronal en la cual nos basaremos el 80% en programar la neurona y el 20 % para verificar que haga las predicciones de forma precisas. También se hace la limpieza de datos o eliminación de valores que se encuentren incompletos.           2.-Diseño de la red neuronal Después de haber obtenido los datos, se puede empezar a realizar la estructura de la red neuronal. En este punto se basa en el número de capas ocultas, el número de neuronas, el algoritmo de activación que utilizará para realizar su función, entre otros puntos. 3.-Entrenamiento de la red neuronal En este punto se basará en el ajuste de pesos para la conexión y así minimizar los errores que nos dará en la salida (resultado de la predicción). En este punto ya se basa en la realización de la enseñanza automática de la red neuronal.   4.-Validación Se verifica si los datos que nos dan como resultados son reales, basándonos en el 20% de los datos que tenemos para la comparación de resultados. En caso de encontrar errores se empieza a ajustar algunos de los parámetros, de esta manera tendremos una mejor predicción de los datos deseados. 5.-Implementación Después de contar con todos los puntos vistos anteriormente se puede hacer la utilidad de la red neuronal artificial en diferentes áreas y así tener un uso de forma exitosa. El éxito que tendremos depende de los datos en la cual se basaron para su desarrollo, cabe señalar que entre más datos contenga la red neuronal, será mucho más preciso el resultado.


CONCLUSIONES

Implementación de los códigos y calibración del modelo. A continuación, se mostrarán las gráficas que se han obtenido durante los procesos de con RNN, donde se visualiza la validación de los datos, las perdidas y los resultados de la predicción, como se mencionó anteriormente los datos que teníamos anteriormente se dividieron en 80% para programar y 20% para poder verificar que nuestra predicción es correcta. Aquí se mostrará si nuestra RNN es factible para nuestra investigación. También cabe señalar que se actualizaron los datos donde se trabajaba ya que no fue necesario tomar los datos desde 1954, sino que se tomaron desde el 2010, hasta el año en curso.   La grafica anterior es del año 2010, en la cual se muestra los resultados de nuestra red neuronal donde la curva azul muestra el entrenamiento de perdida y la curva roja es la validación de perdida. Se puede mostrar que se genera la misma curva y llevar el mismo resultado de los datos anteriores como los datos que se generaron.     En esta grafica también es del 2010, donde visualizamos el objetivo de nuestra predicción con círculos azules y lo que se encuentra marcado con una x, donde si los dos se encuentran es porque la predicción es más exacta o son iguales. En el cual empezamos con los datos 3.95E-01 y se concluyó con los datos 6.78E-11.   En esta tabla se muestra del año 2018, donde se aprecia que la perdida de validación se muestra que vuelve a coincidir en un punto después y después es continua entre las dos líneas del estudio.   Podemos comentar que en la gráfica anterior, tienen más puntos de encuentros donde corroboramos que nuestro predicción funciona de manera más eficiente y se han tomado datos desde el 2010 hasta el 2018, lo que genera un resultado eficiente para poder avanzar más con nuestra RNN. Donde empezamos con los datos de 1.04E-01 y terminamos con 7.65E-11.   En la anterior tabla se muestra los resultados generados en el 2020, donde las curvas de Loss se puede apreciar que tardan un poco más en coincidir las líneas de Loss y Validation Loss, pero si reacciona de manera positiva a la predicción.     En este estudio se muestra que se tomó los datos desde el 2010 hasta el 2020, donde se sigue haciendo el análisis de la programación lo que nos continua dando buenos resultados y cotejando los datos obtenidos la mayoría de los resultados ya son casi iguales de los que se obtuvieron en el proceso, lo que nos demuestra que nuestra neurona funciona.   En la nueva grafica de se muestra la del año 2021, se puede visualizar que es casi igual a la gráfica anterior del año 2020, pero se obtiene mejores resultados como se van aumentando los datos.     Se observa que tiene un excelente resultado ya que la predicción se vuelve cada vez más exacta desde año 2010 hasta el 2021, de esta manera se puede continuar la programación como se ha realizado hasta ahora.   Se demuestra que al principio tienda a varias irregulares en la línea de Validacion loss, haciendo que el resultado de Loss, reprograme y aprenda por si misma para obtener los resultados deseados a lo largo del proceso.   Se muestra en la tabla que con el aprendizaje de la neurona se sigue haciendo la predicción de manera exitosa, aunque no es el resultado exacto su variación es mínima lo que continúa haciendo que nuestro proceso nos muestre que la red neuronal aprende por si sola y nos demuestra los datos cotejando que continua sobre la misma predicción.   En la evolución del indicador loss, son los datos del año 2010 hasta abril del 2023, sigue mostrando que su procesamiento es correcto y si necesita un ajuste es de manera mínima.   En la gráfica de tipo de cambio hasta el año 2023, muestra las mejoras que se han realizado, y los resultados positivos que obtenemos en las predicciones.      
Guevara Cobos Oscar, Instituto Tecnológico de Matamoros
Asesor: Mtro. Alejandro Mendez Navarro, Instituto Tecnológico de Estudios Superiores de Zamora

OPTIMIZACIóN DE LA POTENCIA DE GENERACIóN DE ENERGíA EóLICA UTILIZANDO MODELOS DE PROGRAMACIóN MATEMáTICA


OPTIMIZACIóN DE LA POTENCIA DE GENERACIóN DE ENERGíA EóLICA UTILIZANDO MODELOS DE PROGRAMACIóN MATEMáTICA

Guevara Cobos Oscar, Instituto Tecnológico de Matamoros. Asesor: Mtro. Alejandro Mendez Navarro, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

La energía eólica es una fuente renovable de energía que ha experimentado un crecimiento significativo en las últimas décadas debido a su bajo impacto ambiental y su contribución a la mitigación del cambio climático.  A pesar de los avances de la energia eolica, la optimización de la potencia generada es al dia de hoy un desafio importante en la industria de la energía eólica. La eficiencia de una turbina o paneles solares suele ser influenciada por muchos factores, como el diseño de la turbina, las condiciones meteorológicas de cada zona, la operación y mantenimiento del equipo. El objetivo principal de esta linea de trabajo es maximizar la eficiencia y la rentabilidad de los parques eólicos por medio de algoritmos de control y modelos matematicos.  



METODOLOGÍA

Para lograr este objetivo primeramente fue necesario elaborar un anteproyecto que nos servira como punto de partida para la elaboracion del control optimo. lo que se realizo despues de esto fue: Recolectar datos meteorologicos de la zona, como la temperatura y la velocidad del viento promedios, a traves de sitios web con los datos recolectados en un periodo anual ​Elaborar un modelo matematico capaz de proporcionar el dato de la demanda que se puede cubrir con los datos y variables proporcionadas.   investigar por medio de articulos que variables se pueden incorporar al modelo para que sea mas preciso y pueda tomar en cuenta mas datos especificos que sean acordes a un parque eolico, turbina y/o paneles solares con cualidades especificas.


CONCLUSIONES

Con toda la metodologia y trabajo realizado se espera que este modelo de control optimo tenga la capacidad de: Mejorar la eficiencia energetica Reducir costos operativos y de mantenimiento aumentar la rentabilidad Generar un impacto ambiental positivo  Contribuir a la investigacion e implementacion de tecnologia en el ramo de la energia eolica. Todos estos resultados esperados nos sirven para establecer el control optimo como una alternativa que nos ayude a impulsar el buen uso y gestion de las energias renovables, ademas de crear un incentivo sobre el cuidado del ambiente por medio de estas mismas energias.
Guevara Cocolotl Hugo Jesus, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla

EDUCACIóN NUTRICIONAL Y DE HIDRATACIóN PARA NIñOS A TRAVéS DE REALIDAD AUMENTADA: EXPLORANDO EL PLATO DEL BUEN COMER Y LA JARRA DEL BUEN BEBER


EDUCACIóN NUTRICIONAL Y DE HIDRATACIóN PARA NIñOS A TRAVéS DE REALIDAD AUMENTADA: EXPLORANDO EL PLATO DEL BUEN COMER Y LA JARRA DEL BUEN BEBER

Guevara Cocolotl Hugo Jesus, Benemérita Universidad Autónoma de Puebla. Martínez Castillo Marlem, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, los problemas relacionados con una alimentación desequilibrada y una hidratación inadecuada en niños son preocupaciones crecientes. La falta de educación adecuada sobre nutrición y la ingesta correcta de líquidos puede llevar a hábitos poco saludables y a diversas enfermedades a largo plazo. Las estrategias educativas tradicionales sobre el "Plato del Buen Comer" y la "Jarra del Buen Beber" a menudo no logran captar el interés de los niños ni transmitir eficazmente la importancia de estos conceptos. Por lo tanto, surge la necesidad de desarrollar herramientas educativas innovadoras que utilicen tecnologías emergentes para involucrar a los niños y facilitar el aprendizaje sobre hábitos saludables.



METODOLOGÍA

Investigación y Desarrollo del Contenido: Se realizó una revisión exhaustiva de materiales educativos y recomendaciones oficiales sobre el "Plato del Buen Comer" y la "Jarra del Buen Beber". Esto incluyó consultas para asegurar la precisión y relevancia del contenido. Se identificaron los grupos de alimentos y las porciones recomendadas, así como las mejores prácticas para una hidratación adecuada y las consecuencias del consumo excesivo de bebidas azucaradas. Diseño de Prototipos y Contenidos: Se desarrollaron interfaces llamativas para guiar a los usuarios a través de la aplicación, utilizando un lenguaje simple y actividades interactivas que refuercen los conceptos de nutrición y hidratación. Se utilizaron herramientas como Canvas para crear prototipos de la interfaz de usuario de la aplicación, asegurando una navegación intuitiva y atractiva para los niños. Creación de Modelos 3D: Se empleó Blender para diseñar modelos 3D de alimentos y bebidas representativos del "Plato del Buen Comer" y la "Jarra del Buen Beber". Estos modelos fueron diseñados para mostrar efectos visuales atractivos. Los modelos incluyeron alimentos saludables y opciones de bebidas para ilustrar sus beneficios y efectos en la salud. Implementación en Unity: Los modelos y prototipos fueron integrados en Unity, utilizando tecnología de realidad aumentada (RA) para superponer elementos educativos en el entorno real del usuario. Se desarrollaron funcionalidades interactivas que permitieron a los usuarios usar sus camaras para identificar las partes del plato y los niveles de la jarra, y observar los resultados de sus elecciones en tiempo real. Pruebas y Evaluación: Se llevaron a cabo pruebas piloto con grupos de niños para evaluar la usabilidad, el interés y la efectividad educativa de la aplicación. Se recopilaron datos a través de encuestas, cuestionarios de conocimiento y observaciones directas, para realizar ajustes y mejorar la aplicación en base a la retroalimentación recibida.


CONCLUSIONES

Durante esta estancia de verano, se logró adquirir un conocimiento integral sobre nutrición y hidratación y se implementó este conocimiento en el desarrollo de una aplicación educativa innovadora con realidad aumentada. La aplicación ha sido completada con éxito y está ahora disponible para su uso. La versión final de la aplicación proporciona a los niños una comprensión clara y motivadora sobre el "Plato del Buen Comer" y la "Jarra del Buen Beber". Esta herramienta innovadora promueve hábitos alimenticios y de hidratación saludables, contribuyendo significativamente al bienestar general de los jóvenes usuarios.
Guevara Garay Eder Joel, Universidad Politécnica de Altamira
Asesor: M.C. Rodrigo Rodríguez Rubio, Instituto Tecnológico de Querétaro

IMPLEMENTACIóN DEL LABORATORIO DE CALIBRACIóN PARA MEDICIONES ELéCTRICAS CON LABVIEW


IMPLEMENTACIóN DEL LABORATORIO DE CALIBRACIóN PARA MEDICIONES ELéCTRICAS CON LABVIEW

Fuentes Osorio Edwin Yahir, Instituto Tecnológico de Reynosa. Guevara Garay Eder Joel, Universidad Politécnica de Altamira. Medel Toxtle Concepción Abigail, Benemérita Universidad Autónoma de Puebla. Romero Zárate Valentina, Instituto Politécnico Nacional. Asesor: M.C. Rodrigo Rodríguez Rubio, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En el Tecnológico Nacional Campus Querétaro existen las carreras de Ingeniería Electrónica, Eléctrica, Semiconductores Y Mecatrónica. Estas carreras realizan prácticas con mediciones eléctricas y cálculos, por lo que se requieren instrumentos de medición conocidos y fuentes de tensión directa confiables. Con base en la Guía BIPM/ISO para la expresión de la incertidumbre en las mediciones, se determina el nivel de confiabilidad y el error de cada instrumento con su incertidumbre.   La incertidumbre del resultado de una medición muestra la carencia de conocimiento concreto del valor del mensurando. Los componentes de incertidumbre se clasifican en dos categorías: tipo A y tipo B. La incertidumbre tipo "A" (UA) es obtenida de una distribución de frecuencia observada, mientras que la incertidumbre tipo B (UB) se obtiene de una función de probabilidad basada en las especificaciones del fabricante de cada instrumento. La raíz de la suma de los cuadrados de estas funciones hace lo que se conoce como la incertidumbre combinada (UC). La incertidumbre expandida (UE) es el producto de la incertidumbre combinada por un factor de cobertura k = 2. 



METODOLOGÍA

Inicialmente, se realizaron mediciones manuales de fuentes de tensión y resistores para observar la deriva térmica en los instrumentos. Las fuentes de tensión utilizadas en este caso fueron: Agilent y BK Precision 1785B, mientras que los resistores muestreados fueron los BP 601 A1, A2, y A3; un resistor variable Höchstbelastung y un resistor fijo. El multímetro Keithley 199 fue el instrumento de medición empleado.   La comunicación entre LabVIEW y el equipo físico del laboratorio se realizó a través de puertos GPIB, los cuales siguen la Norma IEEE 488 aplicada en el control de aparatos de medición.   Mientras tanto, se llevó a cabo un mantenimiento correctivo tanto a la fuente de tensión Amrel como al regulador de CA. Al primer dispositivo se sustituyeron dos capacitores y se hizo una limpieza a sus componentes, mientras que, al segundo se le aplicaron 3 capas de barniz, ya que generaba ruido por las vibraciones del transformador.  Para la recolección automática de datos de resistencia se realizaron mediciones de los siguientes resistores: BP 601 A1 (15 Ω), A2 (150 Ω), A3 (15 Ω); un resistor fijo (60 Ω), resistor variable Supreix (62 Ω), 2 resistores variables Höchstbelastung (33 Ω), resistor variable Elettronica Veneta (370 Ω). El circuito empleado para medir la magnitud de resistencia consistió en una conexión de cuatro terminales del resistor con el Óhmetro.  Al medir la tensión se conectó cada una de las fuentes directamente al Voltímetro. En el caso de las dos fuentes BK Precision se ajustó el intervalo automáticamente desde 0.01 V hasta 18 V, para la Agilent se ajustaron manualmente los intervalos y se tomaron muestras desde 1 V hasta 20 V y de -10 V a -20 V, por último, de la fuente Amrel se tomaron muestras para sus dos canales en el intervalo de 0.01 V hasta 30 V.  Para tomar las muestras de la magnitud de corriente se realizó un circuito en el cual se utilizó la fuente BK Precision 2 y se seleccionaron las décadas BP 601 A1 y A2, dado que los valores requeridos fueron 0.001 A, 0.005 A, 0.01 A, 0.05 A, 0.1 A, 0.5 A y 1 A. Una vez teniendo los componentes adecuados se realizaron las mediciones utilizando un Amperímetro y un Voltímetro para recolectar los valores.  En el caso de la potencia, se realizó un circuito en el cual la resistencia a muestrear se conectó en paralelo con el Voltímetro del Wattmetro, a su vez se conectan en serie con el Amperímetro del mismo y con la fuente.  Para el cálculo de incertidumbre se consideraron las siguientes: tipo A, tipo B, combinada y expandida. La UA se obtuvo a partir de las mediciones y utilizando su desviación estándar. La UB se divide en dos subtipos: B1 y B2. El primero se obtuvo mediante las especificaciones del manual, mientras que el segundo se obtuvo con la resolución del instrumento de medición.  Para calcular la incertidumbre expandida era indispensable obtener la incertidumbre combinada, que se obtuvo con una ecuación propuesta en la que se implican las magnitudes en relación con las mediciones y valores de los promedios de cada medición junto con su error. También, se requería conocer los grados efectivos de libertad de cada magnitud, tomando este valor como referencia se utilizó la tabla de T de Student para determinar el factor de cobertura respecto al nivel de confianza definido. Este dato servirá para obtener la incertidumbre expandida.  Con los valores obtenidos, se realizaron gráficos del promedio y su desviación estándar, el promedio con su error y el error con la incertidumbre expandida, esto con el fin de visualizar gráficamente la variación de cada valor por días y así determinar si el instrumento bajo a prueba es confiable y conocer su nivel de precisión y exactitud. 


CONCLUSIONES

Al analizar la incertidumbre de cada uno de los equipos mencionados en la metodología se determinó que los resistores más precisos, tomando como referencia la incertidumbre expandida (UE) de cada dispositivo; en cuanto a resistores fijos, el BP 601 A1 es el más preciso, con un factor de incertidumbre de 8%, mientras que, con los resistores variables, los más precisos son ambos dispositivos alemanes (Höchstbelastung) con una incertidumbre promedio de 5% entre un valor y otro en una escala de resistividad de 0% a 100%. Por otra parte, la fuente de tensión menos dispersa y más precisa fue la BK Precision 2, debido a esto fue viable usarla para el muestreo de corriente.  La caracterización de los equipos e instrumentos del laboratorio de Electrónica se realizó de manera satisfactoria, lo cual permitirá llevar a cabo prácticas de medición y cálculos más exactos y precisos que servirán de apoyo a la comunidad estudiantil del ITQ.  
Guevara Moreno Aiko Jocabeth, Universidad de Guadalajara
Asesor: Dra. Margarita Sanchez Dominguez, Centro de Investigación en Materiales Avanzados (CONACYT)

SíNTESIS DE MOF’S UIO-66-NH₂ NANOESTRUCTURADO USANDO MICROEMULSIONES BICONTINUAS (BCME) Y MICELAS COMO MEDIO DE REACCIóN CONFINADO


SíNTESIS DE MOF’S UIO-66-NH₂ NANOESTRUCTURADO USANDO MICROEMULSIONES BICONTINUAS (BCME) Y MICELAS COMO MEDIO DE REACCIóN CONFINADO

Guevara Moreno Aiko Jocabeth, Universidad de Guadalajara. Asesor: Dra. Margarita Sanchez Dominguez, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua con compuestos orgánicos, como colorantes, pesticidas y productos farmacéuticos, representa un desafío significativo para la salud pública y el medio ambiente. Estos contaminantes son difíciles de eliminar mediante métodos convencionales de tratamiento de aguas debido a su persistencia y complejidad química. La búsqueda de materiales adsorbentes eficientes y selectivos para la remoción de estos contaminantes es una prioridad en la investigación científica y tecnológica. A pesar del potencial del UiO-66-NH2 para la adsorción de contaminantes orgánicos, existen desafíos relacionados con su síntesis, estabilidad y capacidad de adsorción en diferentes condiciones ambientales.



METODOLOGÍA

Se utilizaron dos precursores inorgánicos: Zr-2-etilhexanoato y Zr oxinitrato, y como precursor orgánico se utilizó ácido 2-aminotereftálico. A partir de ambos precursores se realizaron microemulsiones bicontinuas y micelas de ácido 2-aminotereftálico. Posteriormente, se llevaron a reaccionar las microemulsiones bicontinuas de Zr-2-etilhexanoato y ácido 2-aminotereftálico, así como la microemulsión bicontinua de Zr oxinitrato con la microemulsión bicontinua de ácido 2-aminotereftálico. Estas reacciones se realizaron en un baño de temperatura a 27 °C, ya que a esta temperatura las microemulsiones son termodinámicamente estables, manteniéndolas en agitación constante. Las micelas de ácido 2-aminotereftálico se hicieron reaccionar con una solución de Zr oxinitrato en agitación, sin el uso del baño de temperatura. Estas mezclas se dejaron en agitación durante dos días para que se formaran los MOFs. Transcurrido este tiempo, las muestras se lavaron con etanol y se sometieron a centrifugación. Posteriormente, mediante decantación, se separó el sólido obtenido del etanol. Este proceso de lavado se repitió cinco veces. Finalmente, la muestra se dejó secando durante un fin de semana a temperatura ambiente. Una vez seco, se pasó a un vial y se pesó lo obtenido. Las muestras se caracterizaron mediante técnicas de difracción de rayos X (XRD), espectroscopias Raman y UV-Vis, así como espectroscopia de Fluorescencia.    


CONCLUSIONES

Durante el verano de investigación, se logró sintetizar y caracterizar exitosamente el MOF UiO-66-NH2. Utilizando Zr-2-etilhexanoato, Zr oxinitrato y ácido 2-aminotereftálico, se prepararon microemulsiones bicontinuas que, bajo condiciones óptimas de temperatura y agitación, permitieron la formación de UiO-66-NH2. Las técnicas de caracterización como XRD, Raman, UV-Vis y Fluorescencia confirmaron la estructura cristalina y las propiedades esperadas del material, así como la obtención de materiales nanoestructurados gracias al uso de microemulsiones bicontinuas y micelas como medio de reacción. Este proyecto proporcionó una experiencia enriquecedora en la síntesis y caracterización de MOFs  nanoestructurados. 
Guido Laínez Eberth José, Universidad Nacional de Ingeniería
Asesor: Dr. Juan Marin Quintero, Universidad de la Costa

ANáLISIS DE DESCRIPTORES EN LA CONEXIóN O DESCONEXIóN DE UNA MICRORRED ANTE DIFERENTES ESCENARIOS DE OPERACIóN.


ANáLISIS DE DESCRIPTORES EN LA CONEXIóN O DESCONEXIóN DE UNA MICRORRED ANTE DIFERENTES ESCENARIOS DE OPERACIóN.

Guido Laínez Eberth José, Universidad Nacional de Ingeniería. Asesor: Dr. Juan Marin Quintero, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

Análisis de Descriptores en la Conexión o Desconexión de una Microrred Ante Diferentes Escenarios de Operación Asesor: Dr. Juan Marín Quintero, Universidad de la Costa, Colombia Estudiante: Br. Eberth Guido Laínez, Universidad Nacional de Ingeniería, Nicaragua Una microred es un sistema local de producción y distribución de energía que puede operar de manera aislada o conectada a la red eléctrica, integrando fuentes de generación distribuida y almacenamiento. Sin embargo, su diseño y operación presentan desafíos significativos, especialmente cuando está desconectada de la red principal, donde la capacidad de detectar fallas y desconexiones se vuelve crucial. En el modo conectado a la red, la corriente de falla en las microredes puede alcanzar valores elevados que activan fusibles e interruptores. En contraste, en modo aislado, los elementos electrónicos de potencia generalmente tienen una potencia nominal mucho menor que la de la red principal (Morejón, 2018). Este estudio se centrará en el modelo de microred diseñado por CIGRE, utilizado en la red nacional canadiense, con el objetivo de analizar su susceptibilidad al conectarse o desconectarse de la red principal bajo diferentes escenarios operativos, como variaciones de carga, fallas en el sistema, cambios topológicos y salida de generadores, entre otros. El análisis se llevará a cabo mediante simulaciones en el software DIgSILENT PowerFactory.



METODOLOGÍA

Primero, se describió la microred CIGRE, determinando que es un sistema flexible que permite modelar estructuras radiales y de malla, con alimentadores conectados desde una red de 115 kV compuesta por múltiples laterales que conectan transformadores MT/BT. Luego, se caracterizó el sistema, incluyendo las modificaciones realizadas al modelo original de la microred. Esto se llevó a cabo mediante la identificación y análisis de los siguientes componentes: Barras del Sistema. Líneas Eléctricas del Sistema. Cargas Conectadas a las Barras del Sistema. Transformadores. Generadores Síncronos. Conversores. Una vez caracterizado el sistema de la Microred CIGRE, se establecieron las condiciones y escenarios de operación que serán analizados: Escenarios de Operación Para evaluar el comportamiento y desempeño de la Microred CIGRE, se plantean los siguientes escenarios de operación, que serán analizados utilizando el software DIgSILENT PowerFactory: Variación de Carga. Cambios Topológicos. Fallas en el Sistema. Sistema con Generadores Síncronos. Sistema con Conversores. Sistema combinado con Generadores y Conversores. Condiciones de Operación Los escenarios anteriormente establecidos serán evaluados bajo las siguientes condiciones de operación: Conectada a la Red. Aislada de la Red. Programación de Desconexión de un Interruptor. Definidas las condiciones y los escenarios de operación, se establecieron los puntos de medición y las variables que serán evaluadas: Puntos de Medición Medición en la barra T0, conectada a la red externa. Medición en las barras Term Conv 1, 2 y 3, donde se conectan generadores, conversores o ambos. Medición en el lado de alta de los transformadores principales. Medición en el lado de baja tensión de los transformadores conectados a generadores y conversores. Variables a Medir Tensiones de L-L (kV) y Tensiones de Fase (kV) Frecuencia Eléctrica (Hz) Corrientes trifásicas, de secuencia y de cortocircuito Finalmente, se detallan las simulaciones que se llevarán a cabo utilizando el software DIgSILENT PowerFactory para cada uno de los casos de estudio. Simulaciones Las simulaciones se programarán por 5 segundos y abordarán los escenarios de operación previamente planteados, considerando las condiciones, puntos de medición y variables definidas. Las variantes de cada simulación según la condición y escenario de operación son: Primera Simulación: Variación de Carga (conectada a la red, aislada de la red y programación de desconexión de un interruptor). Segunda Simulación: Cambios Topológicos (conectada a la red, aislada de la red y programación de desconexión de un interruptor). Tercera Simulación: Fallas en el Sistema (conectada a la red, aislada de la red y programación de desconexión de un interruptor). Cuarta Simulación: Sistema con Generadores Síncronos (conectada a la red, aislada de la red y programación de desconexión de un interruptor). Quinta Simulación: Sistema con Conversores (conectada a la red, aislada de la red y programación de desconexión de un interruptor). Sexta Simulación: Sistema combinado con Generadores y Conversores (conectada a la red, aislada de la red y programación de desconexión de un interruptor).  


CONCLUSIONES

En resumen, las variables eléctricas de tensión, corriente y frecuencia son fundamentales para determinar el estado de la microrred en diferentes condiciones operativas. Se ha observado que las tensiones de L-L experimentan una caída significativa al inicio de la simulación (0.0s a 0.05s) cuando la microrred está desconectada de la red principal. Asimismo, la frecuencia eléctrica en los puntos de medición presenta una distorsión notable al inicio de la simulación en este estado. Además, las corrientes de fase A y C de los generadores y conversores muestran variaciones en su forma de onda entre 0.0s y 0.22s cuando la red está desconectada. 
Guijosa Hernández Brenda Estefany, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Esp. Angelica Maria Blanco Correa, Institución Universitaria de Envigado

CONDICIONES DE TRABAJO EN SALAS DE BELLEZA Y SPA DE UÑAS DEL MUNICIPIO DE ENVIGADO, ANTIOQUIA- COLOMBIA (2024)


CONDICIONES DE TRABAJO EN SALAS DE BELLEZA Y SPA DE UÑAS DEL MUNICIPIO DE ENVIGADO, ANTIOQUIA- COLOMBIA (2024)

Cuevas Ayala Bibiana Guadalupe, Instituto Tecnológico de Jiquilpan. González Hernández Erick Axel, Instituto Tecnológico de Morelia. Guijosa Hernández Brenda Estefany, Instituto Tecnológico Superior de Ciudad Hidalgo. Martínez Martínez Cecilia Lizbeth, Instituto Tecnológico Superior de Ciudad Hidalgo. Medina Tello Dulce Maria, Instituto Tecnológico Superior de Ciudad Hidalgo. Medina Tello Regina Vianeey, Instituto Tecnológico Superior de Ciudad Hidalgo. Pérez Delgado Rosario Nallely, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Esp. Angelica Maria Blanco Correa, Institución Universitaria de Envigado



PLANTEAMIENTO DEL PROBLEMA

En las salas de belleza y spa de uñas, los colaboradores se exponen a múltiples factores de riesgo que pueden afectar su salud y bienestar. Estos riesgos incluyen exposición a sustancias químicas, radiaciones no ionizantes, ruido, iluminación inadecuada, condiciones de confort térmico deficientes y factores ergonómicos debido a posturas forzadas y movimientos repetitivos. La falta de medidas preventivas específicas y el desconocimiento sobre los riesgos agravan la situación, aumentando la probabilidad de accidentes de trabajo y enfermedades laborales. Los colaboradores de las peluquerías y spa de uñas en Envigado están expuestos a riesgos ocupacionales y ergonómicos que pueden impactar negativamente su salud, y en la mayoría de los casos, no se implementan acciones preventivas adecuadas.



METODOLOGÍA

Diseño del Estudio El estudio se diseñará como una investigación descriptiva y transversal, evaluando los riesgos de higiene ocupacional y ergonómicos en los trabajadores de salas de belleza y spa de uñas en Envigado. Población y Muestra Población: Trabajadores de salas de belleza y spa de uñas en el municipio de Envigado. Muestra: Se seleccionará una muestra representativa de trabajadores de diferentes salas de belleza y spa de uñas en Envigado, utilizando un muestreo aleatorio estratificado. Instrumentos de Recolección de Datos Encuestas y Cuestionarios: Para caracterizar el perfil sociodemográfico y las condiciones de salud y trabajo de los trabajadores. Mediciones Ambientales: Para evaluar niveles de ruido, iluminación, radiación no ionizante y confort térmico en los lugares de trabajo. Análisis de Sustancias Químicas: Para identificar y medir la concentración de sustancias químicas presentes en el ambiente laboral. Evaluaciones Ergonómicas: Para identificar y analizar posturas forzadas y movimientos repetitivos. Procedimiento Recolección de Datos: Aplicación de encuestas y cuestionarios a los trabajadores. Realización de mediciones ambientales y análisis de sustancias químicas en las salas de belleza y spa de uñas. Evaluaciones ergonómicas en los puestos de trabajo. Análisis de Datos: Análisis descriptivo de los datos sociodemográficos, de salud y condiciones de trabajo. Análisis cuantitativo de los niveles de exposición a riesgos higiénicos y ergonómicos. Relación entre los riesgos evaluados y los efectos en la salud reportados por los trabajadores Elaboración de Recomendaciones: Basadas en los resultados obtenidos, se emitirán recomendaciones para mejorar las condiciones de trabajo y reducir la exposición a los riesgos identificados.


CONCLUSIONES

Perfil Sociodemográfico y Condiciones de Salud: Caracterización detallada del perfil sociodemográfico de los trabajadores y sus condiciones de salud, identificando posibles patrones o tendencias relacionadas con la exposición a riesgos. Evaluación de Riesgos: Identificación de los niveles de exposición a ruido, iluminación, radiación no ionizante, confort térmico y sustancias químicas en las salas de belleza y spa de uñas. Evaluación de los riesgos ergonómicos relacionados con posturas forzadas y movimientos repetitivos. Relación entre Riesgos y Salud: Análisis de la relación entre los riesgos ocupacionales y los efectos en la salud reportados por los trabajadores, proporcionando evidencia sobre el impacto de estos riesgos en su bienestar.
Guillén Trujillo Pedro Emmanuel, Universidad Tecnológica de La Selva
Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva

SKOP KAP: UNA APLICACIÓN MÓVIL PARA LA COMUNICACIÓN CON PERSONAS CON DISCAPACIDAD AUDITIVA


SKOP KAP: UNA APLICACIÓN MÓVIL PARA LA COMUNICACIÓN CON PERSONAS CON DISCAPACIDAD AUDITIVA

García Gonzalez Andy, Universidad Tecnológica de La Selva. Guillén Trujillo Pedro Emmanuel, Universidad Tecnológica de La Selva. Jimenez Hernandez Jose Miguel, Universidad Tecnológica de La Selva. Montiel Torres Sergio Amaury, Universidad Tecnológica de La Selva. Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva



PLANTEAMIENTO DEL PROBLEMA

Actualmente, aproximadamente 430 millones de personas (5% de la población mundial) sufren de algún tipo de pérdida auditiva, 432 millones de adultos y 34 millones de niños requieren rehabilitación. La OMS prevé que para el 2050 esa cifra superará los 700 millones de personas, es decir, una de cada diez personas en el mundo sufrirá está discapacidad (OMS, 2023; Organización de las Naciones Unidas [ONU], 2021). En América Latina, cerca de 217 millones de personas cuentan con pérdida auditiva (21.5% de la población), por lo que, atender esta discapacidad, representa un gasto anual de 262 millones para la región.  La OPS prevé que para el 2050 aumente a 322 millones de personas con dicha discapacidad. (Organización Panamericana de la Salud [OPS], s.f.).    En México, más de 1.35 millones de personas presentan una discapacidad auditiva; más de 550 mil son personas mayores de 60 años, más de 400 mil tienen entre 30 y 59 años, más de 133 mil tienen entre 15 y 29 años, y más de 139 mil son niños menores de 15 años.  Esta discapacidad, el 44.4% lo adquirió por la edad avanzada que presenta, el 15.4% lo tiene de nacimiento, el 24.3% lo adquirió a causa de alguna enfermedad, el 7.3% a causa de un accidente y el 8% por otras causas (Instituto Nacional de Estadística y Geografía [INEGI], 2020a, INEGI, 2020b).  Comunicarse con personas que presentan ésta discapacidad sin tener el conocimiento de un lenguaje de señas es muy complicado, ya que nuestra sociedad está basada a través del lenguaje oral, por lo que, se excluye de cierto modo a las personas que sufren esta discapacidad. En México, existe el Lenguaje de Señas Mexicana que es utilizado por personas sordas para poder comunicarse, ésta tiene su propia sintaxis, gramática y léxico (Consejo Nacional para el Desarrollo y la Inclusión de las Personas con Discapacidad [CONADIS], 2016). En la actualidad, existen pocas herramientas tecnológicas creadas con el objetivo de ayudar a la comunicación con personas que tienen esta discapacidad, debido a la falta de interés en esta sección de la sociedad.    Desarrollar una aplicación móvil que traduzca del lenguaje oral al lenguaje de señas, mediante la implementación de inteligencia artificial, para la comunicación entre cualquier persona y una con discapacidad auditiva.  



METODOLOGÍA

Para el desarrollo de la aplicación "SK'OP K'AP", se ha optado por utilizar la metodología ágil Scrum. Esta elección se basa en la necesidad de adaptarse rápidamente a los cambios y la importancia de mantener una colaboración continua entre los miembros del equipo de desarrollo. Scrum es particularmente adecuado para proyectos de software como el nuestro, donde la interacción constante con los usuarios finales es crucial para desarrollar una solución efectiva y centrada en sus necesidades.   La elección de Scrum como marco de trabajo está fundamentada en su flexibilidad y estructura iterativa. Según Pérez, O.A. (2011)., Scrum facilita la adaptación a las necesidades cambiantes del proyecto mediante la división del trabajo en sprints (iteraciones cortas), que permiten una revisión constante y ajustes según los resultados obtenidos y el feedback de los usuarios. Esta metodología también fomenta la auto organización y la responsabilidad dentro del equipo, aspectos clave para el éxito en el desarrollo de software.   El proyecto se dividirá en sprints, cada uno con una duración de dos semanas; Sprint 1: Desarrollo del protocolo de investigación del proyecto Sprint 2: Definir la metodología para el desarrollo de la aplicación Sprint 3: Diseño y modelado 3D y programación de manos Sprint 4: Diseño y desarrollo de la interfaz de usuario de la app Móvil Sprint 5: Aprendizaje Automatizado.  


CONCLUSIONES

Durante el desarrollo de la aplicación, se logró crear una app móvil con avatares 3D que representan el lenguaje de señas mediante animaciones. Además, se integró una inteligencia artificial entrenada para traducir entre el lenguaje de señas y el lenguaje hablado de manera bidireccional. Los resultados obtenidos en este corto periodo de desarrollo fueron muy positivos, estableciendo una base sólida para futuros avances. El próximo paso será perfeccionar cada aspecto de la app, mejorando la interacción entre sus componentes y optimizando la inteligencia artificial para brindar traducciones más precisas. De esta manera, se espera ofrecer una solución de alta calidad que ayude a superar las barreras de comunicación que enfrentan las personas con discapacidad auditiva.
Gutiérrez Aguirre Pedro Alejandro, Universidad Autónoma de Baja California
Asesor: Dra. Gabriela Pérez Osorio, Benemérita Universidad Autónoma de Puebla

REMOCIóN DE CONTAMINANTES DEL AGUA MEDIANTE ADSORCIóN


REMOCIóN DE CONTAMINANTES DEL AGUA MEDIANTE ADSORCIóN

Gutiérrez Aguirre Pedro Alejandro, Universidad Autónoma de Baja California. Asesor: Dra. Gabriela Pérez Osorio, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El agua es un recurso esencial para la vida y el desarrollo de cualquier sociedad y su contaminación se ha convertido en una gran preocupación para las personas debido a sus graves consecuencias para la salud pública, el medio ambiente y la economía.  Los contaminantes del agua se pueden dividir en diferentes categorías, por ejemplo, los contaminantes de colorantes, que son sustancias químicas derivadas de los colorantes utilizados en diversas industrias (como textil y cosmética) o los contaminantes emergentes que incluyen productos farmacéuticos, productos de cuidado personal, pesticidas, plastificantes, y productos químicos industriales. Estos contaminantes al llegar en contacto con el agua representan amenazas significativas para el medio ambiente y la salud humana, ya que pueden afectar la vida acuática, causar problemas de salud, etc. En México, la creciente urbanización y la expansión industrial han incrementado significativamente la carga de contaminantes en el  agua. Este escenario plantea desafíos en la gestión y tratamiento de aguas residuales para garantizar un suministro seguro y adecuado para la población, ya que cabe recalcar, en las plantas de agua convencionales no existe una forma de eliminar los contaminantes de colorantes ni los emergentes. Por lo que, en este verano de investigación se estudiarán técnicas especiales para la remoción de contaminantes en agua mediante la adsorción y la fotocatálisis.



METODOLOGÍA

Preparamos una solución de ibuprofeno a 10 ppm con agua desionizada para las pruebas fotocatalíticas y disoluciones de 8, 6, 4 y 2 ppm para elaborar una curva de calibración, después, utilizamos 2.5 mg de los siguientes materiales como fotocatalizadores: Dióxido de Titanio (TiO2), Dióxido de Silicio (SiO2) y Clioptilolita (CLI: zeolita natural). Colocamos el catalizador en 500 ml de solución con ibuprofeno durante 2 horas en oscuridad para alcanzar el equilibrio adsorción-desorción.  Posteriormente a la prueba de oscuridad, realizamos la fotocatálisis por duplicado, más el blanco analítico, los dos días más soleados de la semana, tomando alícuotas de 10 mL cada 2 horas. Ya con las alícuotas obtenidas, analizamos tanto las pruebas de oscuridad y fotocatálisis mediante la Espectrofotometría UV-VIS y finalmente graficamos las curvas de absorbancia UV-Vis y calculamos el % de degradación del fármaco. Preparamos una solución de levofloxacino y otra de ciprofloxacino  a 50 ppm con agua desionizada  para las pruebas fotocatalíticas y disoluciones de 8, 6, 4 y 2 ppm para elaborar una curva de calibración de cada una. En ambos, utilizamos 2.5 mg de TiO2/SiO2 como fotocatalizador. Colocamos los catalizadores en 500 ml de solución con levofloxacino durante 2 horas en oscuridad para alcanzar el equilibrio adsorción-desorción.  Después, realizamos la fotocatálisis para ambos por duplicado, más un blanco analítico, en dos días soleados de la semana. Tomamos una alícuota de 10 ml por cada 2 horas. Ya con las alícuotas obtenidas, analizamos tanto las pruebas de oscuridad y fotocatálisis mediante la Espectrofotometría UV-VIS y finalmente graficamos las curvas de absorbancia UV-Vis y calculamos el % de degradación de los fármacos.  Preparamos carbón activado obtenido de cáscaras de cacahuate y pistache, en donde se utilizó la solución de ácido fosfórico al 0.2 M y una activación térmica de 550°C por 2 horas. Utilizamos soluciones con colorante azul terasil a 5 ppm y anaranjado de metilo a 10 ppm. Después, realizamos las pruebas de adsorción con 2.5 g de cada carbón activado con 100 ml de cada solución coloreada, y ajustamos el pH a 3, 5, 7, 9 y 11,en donde mantuvimos una agitación continua por 48 h. Analizamos las muestras de colorantes antes y después del proceso de adsorción mediante la Espectrofotometría UV-VIS y finalmente graficamos las curvas de absorbancia UV-Vis y calculamos el % de degradación de cada colorante para cada carbón activado.


CONCLUSIONES

Para el ibuprofeno, se observó que después de 8 horas teniendo radiación solar, el dióxido de titanio logró degradarlo hasta un 93%, mientras que en el blanco analítico a pesar de recibir radiación no se degrado en lo absoluto, por lo que es indispensable el uso de un catalizador para degradar este fármaco. Además, se observó que con la clioptilolita y el dióxido de silicio se obtuvieron porcentajes bajos de degradación, por lo que es mejor evitar utilizarlos como catalizadores. En cuanto al levofloxacino y ciprofloxacino, sin catalizador existe una degradación nula, mientras que con el catalizador se pudo observar poca degradación, esto es debido a que se utilizó una concentración alta, por lo que se recomienda realizar las pruebas fotocatalíticas con menor concentración del antibiótico para observar su efecto. Por otro lado, la muestra de 9 pH del colorante azul no se pudo medir debido a que no se logró filtrar, sin embargo, se logró la adsorción del colorante azul con el carbón creado con las cáscaras de pistache y utilizando los pH restantes. En todas se observó que la banda característica de la banda de azul de terasil presenta su máxima absorbancia en 590 nm y después del proceso de adsorción de cáscara de pistache se observa que la banda desaparece completamente, haciendo que el agua quede completamente claro, por lo que concluimos que el colorante quedó retenido en el carbón activado.  En el caso del anaranjado de metilo, después de la adsorción, su banda desaparece completamente, lo que se interpreta como una absorción total del colorante y que de igual manera se observa que las muestras de agua quedaron completamente claras. En conclusión, estas dos técnicas son procesos bastante adecuados para mejorar la calidad del agua, permitiendo su descontaminación.
Gutiérrez Barrera Alejandro, Instituto Tecnológico de Morelia
Asesor: Mg. Carolina Herrera Solera, Universidad del Sinú

RETOS DE LA INTELIGENCIA ARTIFICIAL Y LA TRANSFORMACIóN ENERGéTICA EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA INDUSTRIA MANUFACTURERA EN LA CIUDAD DE CARTAGENA – COLOMBIA


RETOS DE LA INTELIGENCIA ARTIFICIAL Y LA TRANSFORMACIóN ENERGéTICA EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA INDUSTRIA MANUFACTURERA EN LA CIUDAD DE CARTAGENA – COLOMBIA

Gutiérrez Barrera Alejandro, Instituto Tecnológico de Morelia. Zárate García José de Jesús, Instituto Tecnológico de Morelia. Asesor: Mg. Carolina Herrera Solera, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

Este proyecto analiza los retos y oportunidades en el uso de la inteligencia artificial (IA) para ayudar a las pequeñas y medianas empresas (PYMES) de la industria manufacturera en Cartagena, Colombia, en su transición hacia modelos de energía más limpias y sostenibles. Se examinan las limitaciones y problemáticas que enfrentan las PYMES, a partir de este análisis, se proponen recomendaciones específicas para aprovechar las tecnologías de IA en el contexto energético.



METODOLOGÍA

Para esta investigación se usó un método documental. En el que se implementó una recolecta de información como Estructura empresarial en Colombia, Aporte a la economía nacional, Problemas, amenazas y debilidadesFactores que afectan el crecimiento o desarrollo en 5 semanas a través de fuentes como: Google Académico, publicaciones en LinkedIn, artículos científicos y datos nacionales como DANE. Durante este proceso se siguieron varios pasos: 1. Durante la primera semana investigamos en distintos foros ya mencionados acerca de Estructura empresarial en Colombia, Aporte a la economia nacional, Problemas, amenazas y debilidades haciendo foco en las Pymes de Colombia. 2. En la primera semana investigamos Factores que afectan el crecimiento o desarrollo, Trabajos Investigativos sobre Inteligencia Artificial y Transición energética foco en las Pymes de Colombia, donde destacamos la investigación de los trabajos sobre IA. 3. A partir de la tercera semana hicimos más énfasis en lo que es las Pymes de Cartagena buscando información acerca de Industria manufacturera en Cartagena, Estructura empresarial en Cartagena, Problemas, amenazas y debilidades. Esta información documentada la utilizamos para desarrollar la investigación acerca del cambio de transición energética en las Pymes y desenvolvernos en ideas del como la Inteligencia Artificial por medio de todo el mundo de sistemas pueden ayudar a optimizar este cambio energético.


CONCLUSIONES

Las PYMES en la industria manufacturera de Cartagena, Colombia, enfrentan significativos desafíos y retos al pasar a modelos de energía más limpia y sostenible, la falta de estructura y recursos adecuados limita su capacidad para implementar cambios necesarios, además de retos como el acceso limitado a tecnologías avanzadas y la capacitación del personal hacia estas nos abre una puerta a la inteligencia artificial (IA) que se presenta como una herramienta prometedora para superar estas barreras ayudando al monitoreo y diagnóstico de equipos energéticos, la optimización del consumo energético, la predicción de fallas en sistemas y la mejora de la eficiencia. Algunas posibles implementaciones de inteligencia artificial en las PyMEs dado el contexto recaudado en la investigación son: La implementación de una herramienta de inteligencia artificial con un modelo preentrenado de fácil configuración como VoiceFlow, que permite la creación de chatbots automáticos de interacción inmediata con un lenguaje humano que evite tecnicismos y le permita al personal de las empresas realizar preguntas sobre las tecnologías involucradas. Con esta propuesta se buscaría solucionar el problema de la capacitación del personal y el desconocimiento por parte del personal sobre el uso y la implementación de nuevas tecnologías. La implementación de un modelo de inteligencia artificial creado a base de librerías multilenguaje como TensorFlow. Requiere la intervención de personal con conocimiento en programación, inversión en una base de datos, acceso a computadoras con capacidad de procesamiento paralelo suficiente para el entrenamiento de la inteligencia y acceso a información suficiente para los entrenamientos. Permitiría desarrollar un modelo para optimizar el uso de recursos energéticos, analizar el estado de los dispositivos implementados para obtener energía, entre otras aplicaciones.
Gutiérrez García Bryan Daniel, Instituto Tecnológico de Morelia
Asesor: Dra. Ana Beatriz Martinez Valencia, Universidad Michoacana de San Nicolás de Hidalgo

SíNTESIS DE HIDROXIAPATITA UTILIZANDO BAGAZO DE AGAVE ESPADíN COMO MATERIA PRIMA


SíNTESIS DE HIDROXIAPATITA UTILIZANDO BAGAZO DE AGAVE ESPADíN COMO MATERIA PRIMA

Gutiérrez García Bryan Daniel, Instituto Tecnológico de Morelia. Asesor: Dra. Ana Beatriz Martinez Valencia, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Diariamente a lo largo de todo el mundo ocurren accidentes que pueden ser o no considerados de gravedad, en muchas ocasiones estos llegan a producir fracturas e incluso pérdidas de piezas dentales, lo cual tiene repercusiones en la calidad de vida de aquellas personas que se vieron afectadas. En México es relativamente normal ver gente de todas las edades que han perdido una o varias piezas dentales ya sea por traumatismo, por una mala higiene o por algún otro factor externo que haya tenido la pérdida dental como consecuencia. Debido a esto se está buscando la forma de producir hidroxiapatita, material que es el principal componente del esmalte dental, con el fin de que los implantes nuevos cuenten con la característica de ser biocompatibles. En el país se tiene una larga tradición relacionada con la producción de destilados de agave, sin embargo, solo se aprovechan los azúcares que retiene la planta, siendo que estos se guardan en el tallo y en la zona baja de las hojas, y el resto del material es desechado, no obstante, las fibras del agave son ricas en calcio, lo cual permite que, por medio de calor, se pueda quemar la parte orgánica de la fibra, dejando así el calcio libre, mismo que por medio de una reacción química permite la formación de hidroxiapatita. De esta manera se puede aprovechar mejor el agave, y a la vez producir un material que puede ser usado para generar implantes dentales y de hueso.



METODOLOGÍA

El proyecto tiene como objetivo la producción de hidroxiapatita utilizando los residuos no útiles en la producción de bebidas destiladas de agave, siendo las hojas el principal material aprovechado, de estas se extraen las fibras internas, mismas que serán utilizadas como materia prima para la obtención de calcio, y posteriormente hidroxiapatita. El primer paso para obtener la hidroxiapatita es conseguir fibras pequeñas del desecho de agave, esto se consigue cortando el agave en partes pequeñas y por medio de un tamizado que se realizará con una apertura de 300 micras, hasta obtener una cantidad aceptable de este material. Una vez obtenidas las fibras pequeñas, estas son llevadas a destilación, esto siendo por medio del método Soxhlet, donde los aceites propios de las fibras de agave son eliminados, utilizando benceno como solvente, con la finalidad de que las muestras de agave estén lo más limpias posibles para las etapas posteriores. Una vez terminado el proceso de destilación, se procede a un secado de la muestra a una temperatura de aproximadamente 50°C durante 24 horas, para posteriormente introducir 5 gramos del agave seco en un crisol el cual fue introducido en una capsula de alúmina y esta misma en un horno convencional de microondas. Una vez ahí los tiempos que fueron usados para poder eliminar la materia volátil fueron: 15 minutos, repitiendo esta temperatura 3 veces y alcanzando en cada una, aproximadamente 700°C; 20 minutos, donde se alcanzó una temperatura de 742°C aprox.; 25 minutos, llegando casi a las 800°C; y por último 30 minutos, donde la temperatura registrada fue de aproximadamente 836°C. Al finalizar con este proceso, la cantidad de calcio obtenida fue de 0.1016 gramos, indicando que en esta muestra el porcentaje de rendimiento fue del 2%. Este calcio debe convertirse en una solución de Ca(OH)2 al 0.1 molar, esto se logra por medio de la rehidratación del calcio y luego diluyendo en agua. Para poder formar la hidroxiapatita es necesario que este hidróxido reaccione con ácido fosfórico (H3PO4) al 0.1 molar. Este debe agregarse de forma controlada hasta que se tenga un pH que ronde entre 8.5 y 9, al llegar a este punto se considera que la hidroxiapatita ha sido sintetizada de buena manera. En última instancia, lo que se debe hacer es dejar sedimentar el material, para posteriormente filtrar, lavar para eliminar los residuos, secar y finalmente moler.


CONCLUSIONES

La hidroxiapatita es un material que tiene impacto en el área de los biomateriales y la medicina, debido a sus características de biocompatibilidad. La sintetización de este material utilizando el bagazo de agave permite que aquellas partes de la planta que no contaban con un uso, puedan aprovecharse. Siendo que México es un país en el cual la cultura de la destilación de agave es muy amplia, se puede optar por este método de obtención de hidroxiapatita como uno que puede funcionar ya sea a corto o largo plazo, debido a la gran cantidad de este residuo que es desechado por las grandes destilerías donde se procesan las bebidas de agave. Esto permitiría que el ingreso de bagazo sea relativamente constante y a la vez la producción de calcio para la síntesis de la hidroxiapatita también lo sea. 
Gutierrez Gonzalez Esau Alejandro, Universidad Autónoma de Nayarit
Asesor: Dr. Jesus Guillermo Soriano Moro, Benemérita Universidad Autónoma de Puebla

SíNTESIS Y CARACTERIZACIóN DE HIDROGELES A BASE DE ACRILAMIDA Y QUITOSANO PARA LA REMOCIóN DE COLORANTES


SíNTESIS Y CARACTERIZACIóN DE HIDROGELES A BASE DE ACRILAMIDA Y QUITOSANO PARA LA REMOCIóN DE COLORANTES

Gutierrez Gonzalez Esau Alejandro, Universidad Autónoma de Nayarit. Asesor: Dr. Jesus Guillermo Soriano Moro, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

1.1 La problemática La contaminación del agua es un problema global que afecta la salud humana y los ecosistemas acuáticos. La industria textil es responsable de más del 8% de las emisiones de gases de efecto invernadero y del 20% de las aguas residuales generadas anualmente (URBINA, J. Q., 2024a). Los colorantes utilizados en diversas industrias no solo afectan la apariencia del agua, sino que también bloquean la luz esencial para los ecosistemas y pueden contaminar cultivos (Mandal, Tichit, Lerner & Marcotte, 2009). Los métodos tradicionales para eliminar colorantes, como la coagulación-floculación, degradación biológica, adsorción con carbón activado, oxidación e intercambio iónico, tienen diversas limitaciones, como la producción de lodos, costos elevados y generación de subproductos tóxicos (Ramírez et al., 2022). Por ello, es crucial desarrollar tratamientos más eficientes y sostenibles (URBINA, J. Q., 2024b). El uso de hidrogeles a base de pollacrilamida y quitosano surge como una solución potencial para la remoción de colorantes en el agua.



METODOLOGÍA

2. METODOLOGÍA 2.1 Síntesis de hidrogeles Se sintetizan hidrogeles con diferentes relaciones y concentraciones, siendo relaciones de PAM/Q 70:30, 60:40 y 50:50, en cada una de ellas variando la concentración utilizada del agente de entrecruzamiento N, N-metilen-bis-acrilamida (BIS), siendo de 0.5%, 1% y 1.5%, por lo que se tienen tres hidrogeles con la misma relación, pero diferente concentración, dando un total de 9 hidrogeles diferentes. Para esto, se requiere la preparación de diferentes soluciones, una de quitosano y poliacrilamida, una para cada concentración diferente de agente de entrecruzamiento.   2.2 Preparación de las soluciones Preparación de solución de quitosano al 2.5% Se prepara una solución acida al 2 % (V/V) de ácido acético glacial a la cual se le añade el 2.5 % (P/V) de quitosano, esta se agita magnéticamente hasta observar una solución homogénea libre de burbujas. Preparación de soluciones de acrilamida al 18% con 0.5%, 1% y 1.5% de MBA y síntesis de hidrogeles con una relación de PAM/Q 70:30, 60:40 y 50:50 Se prepara una solución de acrilamida al 18 % a la cual se le añade el 1 % de persulfato de potasio (KPS) y N,N-metilen-bis-acrilamida (BIS) en diferentes concentraciones siendo estas del 0.5, 1, 1.5 %, seguido de esto ,se lleva a un baño de ultrasonido durante 2 min con el objetivo de homogenizar la solución, al transcurrir ese lapso de tiempo se toma una alícuota de la solución de quitosano y se agrega en la solución de acrilamida en diversas relaciones que van del 70:30, 60:40 y 50:50 acrilamida/quitosano, después de esto se agitan hasta observar una solución homogénea, posteriormente se vierte 1 mL de esta solución en cajas Petri de 24 pocillos, mismas que servirán como moldes para la formación del hidrogel, estos se llevan a un estufa de vacío durante 120 min a   70 °C para la formación del hidrogel, al transcurrir ese lapso de tiempo los hidrogeles se lavan con agua destilada y una solución de agua destilada etanol (70:30) respectivamente, esto con el fin de eliminar cualquier residuo de la reacción. A continuación, los hidrogeles se secan a 35 °C en la estufa hasta obtener un peso constante y son almacenados hasta su caracterización.


CONCLUSIONES

3. CARACTERIZACIÓN Con los hidrogeles sintetizados, se siguen los siguientes métodos de caracterización con el fin de obtener más información acerca de ellos. Los procedimientos que se realizan son los de hinchamiento dinámico, cinética de hinchamiento, hinchamiento dinámico en diferentes pH, remoción de colorantes variando pH y cinética de remoción. 4.RESULTADOS Se evaluó la remoción de colorante con xerogeles de diferentes proporciones de PAM/Q (70:30, 60:40, 50:50) a pH neutro, ácido y básico. Los resultados mostraron una eficiencia de remoción de: pH neutro: 59.804% (70:30), 66.618% (60:40), 67.769% (50:50) pH 4: 50.278% (70:30), 50.257% (60:40), 52.217% (50:50) PH 9: 56.012% (70:30), 56.014% (60:40), 58.106% (50:50) Los xerogeles con mayor proporción de quitosano mostraron mejor eficiencia en todos los pH. 5. CONCLUSIONES La contaminación del agua es un problema de vital importancia, mismo que se tiene que solucionar cuanto antes, esto debido a los efectos que ocasiona en la flora y fauna. Una posible solución es la síntesis de hidrogeles para la remoción de contaminantes. Los resultados mostrados en este escrito arrojan datos de interés para el estudio de los xerogeles utilizados. Estos hidrogeles sintetizados , sirven como base para avanzar con la investigación acerca de la remoción de colorantes mediante la síntesis de hidrogeles a base de acrilamida y quitosano, si bien, se obtuvo una remoción del 76%, es necesaria la búsqueda de una mayor eficiencia, idealmente, sin alterar las bases de quitosano y poliacrilamida, pues confieren características únicas al hidrogel, una posible solución para mejorar estos números  es aumentar la concentración de quitosano utilizado, con la relación más óptima demostrada experimentalmente de 50% en solución de acrilamida  y 50% de la nueva solución de quitosano, esta suposición se basa en las características y capacidades de remoción que tiene el quitosano por sí solo, además de ser un polímero natural abundante obtenido de la quitina presente en la fauna marina.Finalmente, es así como en esta estancia de investigación se obtienen los fundamentos teóricos y experimentales de la síntesis de hidrogeles como removedores de contaminantes, desde conceptos básicos hasta sus métodos de caracterización, obteniendo así un mejor panorama la realización y aplicación de estos mismos. PDF completo:https://drive.google.com/file/d/1FvQl3_STT0FC-QR1ybq7oxLOW9pte1rA/view?usp=sharing
Gutierrez Lopez Jose Alberto, Universidad de Guadalajara
Asesor: Dra. Miroslava Cano Lara, Instituto Tecnológico Superior de Irapuato

ESTUDIO DE POSTURA EN CICLISMO MEDIANTE VISIóN COMPUTACIONAL


ESTUDIO DE POSTURA EN CICLISMO MEDIANTE VISIóN COMPUTACIONAL

Castro López Angel Gustavo, Instituto Tecnológico Superior de Irapuato. Gutierrez Lopez Jose Alberto, Universidad de Guadalajara. Llamas Ramírez Marco Eduardo, Universidad de Guadalajara. Negrete Cárdenas Jorge, Universidad de Guadalajara. Asesor: Dra. Miroslava Cano Lara, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Estudios previos del rendimiento físico en ciclistas deportistas de alto rendimiento evalúan la postura del atleta mientras realiza el movimiento en la bicicleta, a su vez, multiples estudios abordan la evaluación de la actividad muscular y cardiaca del ciclista en búsqueda de optimizar el rendimiento del ciclista. Sin embargo, tras la incursion de tecnologías de vision computacional es posible analizar la postura en tiempo real extrayendo el mapeo de los puntos claves del cuerpo obteniéndose la inclinación y ángulos de ataque a lo largo de las etapas de reposo, ciclo normal y ciclo de ataque.



METODOLOGÍA

Se seleccionó a uno de los integrantes como ciclista sujeto al estudio, empleando el entorno de Python 3 se diseñaron 2 programas mediante los cuales se tomaría un video de entrada para extraer la malla corporal proporcionada por la librería MediaPipe, los nodos extraídos son tomados para el calculo de los ángulos de flexion en rodillas, espalda y brazos para su exportación en un formato CSV. a su vez, se analizó la actividad EMG, ECG, EEG empleando la diadema Emotiv Epoc + en el programa Emotiv. Se formó una base de datos de 30 videos en los cuales el ciclista ejecuta las 3 posturas en periodos de 10 segundos en tomas de 30 segundos, se analizaron los datos obtenidos entre los entre los diferentes momentos identificándose las relaciones entre la postura del ciclista y la actividad fisiológica y biomecánica.


CONCLUSIONES

En conclusión, este estudio reveló que la postura del ciclista cambia significativamente en relación con la fase de pedaleo y la velocidad. Se observó un aumento en el ritmo cardíaco y la contracción muscular a medida que el ciclista aumentaba su velocidad, lo que sugiere una mayor demanda fisiológica. Además, se encontró que los ángulos de las articulaciones siguen secuencias similares, aunque con pequeñas variaciones, lo que indica una patrón de movimiento consistente. La tendencia del ciclista a encorvarse más a medida que aumenta la velocidad sugiere una adaptación para reducir la resistencia aerodinámica. Los hallazgos en el EEG sugieren un aumento de la actividad eléctrica en los lóbulos frontal y occipital, probablemente relacionado con la función motora y la coordinación del movimiento. Estos resultados proporcionan una comprensión más profunda de las adaptaciones fisiológicas y biomecánicas que ocurren durante el ciclismo y pueden ser útiles para optimizar el rendimiento y prevenir lesiones.
Gutiérrez Muñoz Brayan Uriel, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mg. David Alfredo Ovallos Gazabon, Corporación Politécnico de la Costa Atlántica

PROPUESTA DE MODELO DE NEGOCIO FINTECH ENFOCADO EN EL SECTOR TRANSPORTE.


PROPUESTA DE MODELO DE NEGOCIO FINTECH ENFOCADO EN EL SECTOR TRANSPORTE.

González Díaz Ingrid Yadira, Instituto Tecnológico Superior de Ciudad Hidalgo. Gonzalez Mestra Mery Alejandra, Universidad Simón Bolivar. Gutiérrez Muñoz Brayan Uriel, Instituto Tecnológico Superior de Ciudad Hidalgo. López Mondragón Dulce María, Instituto Tecnológico Superior de Ciudad Hidalgo. Reguillo Rodero Lorena Sofia, Universidad Simón Bolivar. Asesor: Mg. David Alfredo Ovallos Gazabon, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

El mercado logístico en Latinoamérica, valorado en 250 mil millones de dólares en 2023, está en constante crecimiento impulsado por el comercio electrónico, la globalización y la urbanización. Se espera que crezca a una tasa anual compuesta del 6.5% hacia 2028. Factores clave incluyen el comercio electrónico, que podría representar el 15% del comercio minorista total para 2028, la globalización que impulsa nuevas oportunidades comerciales, y la urbanización que crea nuevos centros de consumo. Además, la sustentabilidad está cobrando importancia, con empresas adoptando prácticas ecológicas como el uso de vehículos eléctricos y la optimización de rutas para reducir la huella de carbono. Una de las principales problemáticas que se analizó, fue la parte de gestión de pagos, ya que se encontró  que el pago a transportistas se hace de forma manual e ineficiente, lo cual genera problemas del flujo de efectivo, derivado de camiones detenidos, ventas pérdidas y facturas no cobradas. Los más afectados son los operadores logísticos, ya que son el centro de distribución.   Como respuesta a esta problemática identificada para el sector, se plantea el uso de tecnología emergente para la creación de una Fintech enfocado en el sector logística y transporte en el contexto latinoamericano, tomando como referencia el análisis del sector logístico para Brasil, México y Colombia, uno de los objetivos principales es que reduzcan costos y tiempos implementados, buscando la satisfacción en los clientes y automatizando el acceso a financiamientos rápidos y legales. 



METODOLOGÍA

Consiste en tres fases cada una de ellas orientada a la consecución de insumos que fueron integrados posteriormente en el documento tipo articulo científico que se presenta como resultado del ejercicio investigativo desarrollado por todo el equipo. FASE 1: Se realizó la búsqueda de información y antecedentes en distintos buscadores, algunos de ellos fueron Lens, Google Academy, entre algunos otros; además de que también se realizaron entrevistas a transportistas. Para obtener la información esperada se utilizaron palabras clave como fueron Fintech, logística, transporte, industria 4.0, con ello se reviso la información obtenida y posteriormente se filtraron los artículos según la selección, se procedió a realizar una lectura y comprensión de dichos artículos, en donde se identifico la viabilidad y veracidad informativa de los trabajos. Con la información referente a Fintech y Sector Transporte-Logística se indago como aplicar estrategias para evitar que la implementación de la propuesta conlleve un riesgo económico mayor. FASE 2: Se realizó un estudio en Latinoamérica en el mercado comercial para saber el impacto que tiene, utilizando base de datos que contienen información del tema, centrándose en países de interés que son Brasil, México y Colombia. Una vez que se analizó estos 3 países, se pudo identificar porque cada vez más van en crecimiento, además del porque se han consolidado en los últimos años en este sector. Cada país ha destacado por diferentes razones, y esto hace que se diferencien del crecimiento de los otros.   FASE 3: El enfoque se basa en el Business Model Canvas, desarrollado por Alexander Osterwalder. Este modelo de negocio nos permite visualizar y estructurar de manera efectiva los nueve componentes clave de nuestra empresa, desde los segmentos de clientes hasta la propuesta de valor, los canales de distribución y las fuentes de ingresos. Utilizando esta herramienta, podemos innovar y adaptar nuestras estrategias para crear y capturar valor de manera eficiente.


CONCLUSIONES

La Pasantía Delfín 2024 representa una oportunidad invaluable para profundizar en la investigación y el desarrollo académico. Ya que durante esta estancia se logró adquirir conocimientos teóricos acerca de la integración de tecnologías Fintech en el sector transporte y logística, pues esto esta revolucionando la industria al ofrecer soluciones innovadoras que optimizan la eficiencia operativa y financiera. El desarrollo de esta solución Fintech permitiría la automatización de pagos, la mejora de gestión en la liquidez y la reducción de costos operativos, un punto importante es la mejora de relación con los transportistas al ofrecer pagos mas rápidos y transparentes. Resaltando que la adopción de las Fintech dentro de estos sectores son un paso crucial hacia la modernización y competitividad en un mercado cada vez más digitalizado.   Queremos expresar nuestro más sincero agradecimiento de parte de los integrantes que conformamos el equipo al programa Delfín por el invaluable apoyo que nos ha brindado durante este proceso. Los conocimientos teóricos adquiridos han sido fundamentales para nuestro desarrollo académico y profesional. La atención y orientación proporcionadas por el investigador han sido de gran ayuda, permitiéndonos profundizar en temas complejos y mejorar nuestras habilidades de investigación. Además, las herramientas a las que hemos tenido acceso, como los buscadores especializados y aplicaciones como Mendeley para la gestión de citas, han sido esenciales para organizar y fortalecer nuestro trabajo. Estamos profundamente agradecidos por esta oportunidad y por todo el aprendizaje obtenido durante la estancia en la Institución Politécnico de la Costa Atlántica, Barranquilla, Colombia y el apoyo de nuestras Instituciones el Instituto Tecnológico Superior de Ciudad Hidalgo Michoacán y Universidad Simón Bolivar.
Gutierrez Pacheco Karla Itzel, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor: Ing. Emmanuel Ramírez Romero, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo

USO DE MACHINE LEARNING EN LA INTEGRACIóN DE MICRO CONTROLADORES


USO DE MACHINE LEARNING EN LA INTEGRACIóN DE MICRO CONTROLADORES

Gutierrez Pacheco Karla Itzel, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Montiel Martinez Dafne Denisse, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Ing. Emmanuel Ramírez Romero, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial (IA) busca crear sistemas que realicen tareas que normalmente requieren inteligencia humana. El "Machine Learning" (aprendizaje automático) es una subcategoría de la IA que desarrolla algoritmos para que las computadoras aprendan de la experiencia y mejoren sin ser programadas explícitamente para cada tarea. El aprendizaje automático puede ser supervisado, no supervisado o por refuerzo, dependiendo de cómo se utilicen los datos para entrenar los modelos. En resumen, la IA es el campo general que emula la inteligencia humana, y el aprendizaje automático es una técnica específica dentro de la IA para mejorar el rendimiento a partir de datos.



METODOLOGÍA

Etapa de entrenamiento,en esta parte se enviaran los datos de arduino a python y obtener sus graficas para la normalizacion de datos. Despues la validacion de datos para crear metricas de exactitud y de regresion, para crear las predicciones, utilizando arduino keras y poder exportar la red neuronal de python a arduino. En el reconocimiento de patrones y clasificaccion binaria para la generacion de datos , entrenamiento y para la umplementacion en arduino.


CONCLUSIONES

La etapa de entrenamiento de un modelo con datos de Arduino incluye la recolección y envío de datos a Python para su normalización y graficación. Luego, se entrena una red neuronal con Keras, evaluando su rendimiento con métricas de exactitud y regresión. El modelo entrenado se convierte a un formato compatible con Arduino, como TensorFlow Lite, y se implementa en Arduino para realizar reconocimiento de patrones y clasificación binaria en tiempo real. Este proceso permite aprender de los datos y hacer predicciones precisas en un entorno de hardware limitado.
Gutiérrez Palacios Julissa, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

DIAGNóSTICO PARA LA IMPLEMENTACIóN DE RESPONSABILIDAD SOCIAL (ISO 26000)


DIAGNóSTICO PARA LA IMPLEMENTACIóN DE RESPONSABILIDAD SOCIAL (ISO 26000)

Arnaud Castañeda Karina, Instituto Tecnológico Superior de Uruapan. Gutiérrez Palacios Julissa, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

En el entorno empresarial actual, la Responsabilidad Social Empresarial (RSE) se ha convertido en un factor crucial para el desarrollo sostenible de las organizaciones. Las empresas son cada vez más conscientes de la importancia de integrar prácticas responsables que aborden aspectos sociales, ambientales y económicos en sus operaciones diarias. En este contexto, una empresa ha solicitado la realización de un diagnóstico de su desempeño en términos de RSE, con el objetivo de implementar un sistema de gestión de responsabilidad social corporativa que promueva la sostenibilidad y el bienestar de todas las partes interesadas. La empresa en cuestión opera en un sector altamente competitivo y en este momento los clientes de la empresa ya tienen como requisito para aceptarlos como proveedores es ser una empresa socialmente responsable. Aunque la empresa ha adoptado algunas prácticas responsables, no cuenta con un diagnóstico integral que le permita evaluar su desempeño actual ni con un sistema formal de gestión de responsabilidad social corporativa.



METODOLOGÍA

El proyecto utiliza como metodología un enfoque descriptivo, analítico y documental, en el cual se utilizaron métodos cualitativos y cuantitativos para la evaluación en materia de responsabilidad social. En la recolección de datos, se utilizan técnicas como entrevistas a directivos y supervisores. Los datos obtenidos serán analizados con herramientas estadísticas y gestión documental de la información, la cual servirá como base para la elaboración de un plan de acción que permita a la empresa mejorar su desempeño en materia de responsabilidad social, con los lineamientos de la ISO 26000. Materiales. Documentación de la empresa:  Código de Ética y Conducta. Documentos, procedimientos, instructivos y formatos de áreas como: Revisión por la dirección, ventas, APQP, compras, desarrollo humano e informática. Manuales del SGSST & SGA. Herramientas de recopilación de datos: Formulario de evaluación de documentos. Software de análisis de datos (Excel). Programas de diseño par la presentación de resultados (PowerPoint). Equipo: Computadora con acceso a la documentación y herramientas de análisis. Métodos. Preparación para el diagnóstico: Revisión de la ISO 26000 para familiarizarse con lo requisitos de la guía. Recopilación de datos cualitativos y cuantitativos: Entrevista con el personal clave. Análisis de datos: Análisis de datos cualitativo (Codificación de las entrevistas, identificación de la documentación de cumplimiento y propuestas) Análisis de datos cuantitativos (Consolidación de los datos obtenidos en gráficos y tablas para visualizar el cumplimiento) Elaboración de gráficos y reporte final: Creación de gráficos de barras porcentuales para representar el nivel de cumplimiento de cada capitulo de la norma ( 4 a 7). Realizó un Plan de acción para cubrir todos los puntos de la ISO 26000. Redacción del informe técnico final.


CONCLUSIONES

La empresa posee un 28% de cumplimiento en materia de responsabilidad social de acuerdo al diagnóstico aplicado, se observa que el capitulo donde existe menor cumplimiento es el 5 y donde posee mayor cumplimiento es el capítulo 6. Los resultados del diagnóstico fueron  analizados mediante una técnica tipo semáforo donde el color verde representa que cumple, el amarillo que cumple parcialmente y el color rojo que no cumple. Se puede concluir que la empresa no cumple en totalidad con los requisitos de la guía ISO 26000. Los puntos en los que la empresa cumple parcialmente son porque no se hacen ciertas declaraciones, no se tienen documentados los procedimientos o por la falta agregar el contexto de la sociedad, una parte importante de la guía. Por lo cual se realizó un plan de acción para que la empresa pudiera tener la información de que pasos tenía que tomar para cumplir en su totalidad con la norma.
Guzmán Alcantar Alexander Misael, Instituto Tecnológico de Colima
Asesor: Mg. Felipe Correa Mahecha, Fundación Universidad de América

EVALUACIóN DEL PROCESO DE BIOTRANSFORMACIóN DE RESIDUOS DE ALIMENTOS PARA LA PRODUCCIóN DE BIODIESEL Y ABONOS ORGáNICOS EMPLEANDO LARVAS DE MOSCA SOLDADO NEGRA (HERMETIA ILLUCENS)


EVALUACIóN DEL PROCESO DE BIOTRANSFORMACIóN DE RESIDUOS DE ALIMENTOS PARA LA PRODUCCIóN DE BIODIESEL Y ABONOS ORGáNICOS EMPLEANDO LARVAS DE MOSCA SOLDADO NEGRA (HERMETIA ILLUCENS)

Guzmán Alcantar Alexander Misael, Instituto Tecnológico de Colima. Vázquez Ascensión Luis Manuel, Instituto Tecnológico de Colima. Asesor: Mg. Felipe Correa Mahecha, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Cada año se generan en todo el mundo más de 2.100 millones de toneladas de residuos sólidos urbanos, pero sólo alrededor del 16% se recicla y más del 46% se desecha. (Kim et al., 2021) El constante aumento de los residuos sólidos urbanos y su mala gestión generan grandes cantidades de CO2 y lixiviados que contaminan el suelo, así como los cuerpos de agua esto genera un riesgo para la salud humana, los ecosistemas y la biodiversidad. Las investigaciones sobre la larva de mosca soldado negra (Hermetia illucens) han demostrado su capacidad para descomponer residuos orgánicos siendo estos aprovechados como abono orgánico y las larvas pueden ser usadas como alimento proteico para animales o al obtener su grasa se puede generar biodiesel.



METODOLOGÍA

Se incubaron 2.1966 g de huevo de mosca soldado negra obtenidos mediante “evolutio_Col” estos mismos fueron alimentados con comida para gallina durante 5 días, las condiciones de la incubadora se establecieron en 28°C y 70% de humedad relativa. Los residuos fueron recolectados de la cafetería de la Universidad de América en Bogotá, Colombia, estos fueron caracterizados y tratados en un molino. A la edad de 5 días se comenzó con el diseño experimental se utilizó un recipiente de 50.26 cm2 preparando 4 tratamientos con 30, 40, 60 y 80 larvas, cada uno se hizo por triplicado y se utilizó un blanco. La tasa de alimentación fue de 35.69 mg (Dw) / larva*día, esta se suministró solo 1/3 los días 0, 5 y 11, esta se calculó en referencia a el autor Lalander (Lalander et al., 2019). Los días 0, 5, 7,11, 13 y 15 se realizó la medición de las larvas en donde se lavaron mediante agua de la llave y secaron con papel, se contaron las vivas y muertas, se pesaron en conjunto con una balanza analítica según el tratamiento y se comparó el tamaño por tratamiento. De cada uno de los sustratos se tomó 1g para realizar pruebas de humedad y ceniza, la prueba de humedad se realizó en un horno a una temperatura de 103°C durante intervalos de 30 minutos hasta llegar a peso constante, el análisis de cenizas se llevó a cabo en una mufla a temperatura de 900°C durante 90 minutos. En el día 15 se sacrificaron las larvas mediante congelamiento, todas las larvas se lavaron y se guardaron en bolsas ziploc según el tratamiento, se utilizó un congelador a -25°C. Se realizaron posteriormente pruebas de humedad y cenizas a cada tratamiento de larvas. A las larvas completamente secas se sometieron a una extracción de grasa por medio del soxhlet haciendo uso del hexano como solvente y se separó la grasa obtenida del solvente mediante un rotoevaporador, los matraces con grasa se sometieron a un proceso de secado en un horno a 103°C hasta alcanzar el peso constante y poder determinar la cantidad de grasa extraída.


CONCLUSIONES

De acuerdo a los resultados obtenidos sobre el sustrato encontramos que la humedad final fue de un promedio de 76.42±1.17 % entre todos los tratamientos se mantuvo constante en todo el periodo de experimentación, mientras que la ceniza encontrada en promedio este día fue de 1.29±0.16% cabe resaltar que la ceniza inicial del alimento molido fue de 6.65±0.66% debido a que la muestra usada fue más grande que en los tratamientos convencionales. En relación a las larvas se obtuvo una humedad de 65.33±2.48% y unas cenizas de 5.2±0.91%. En relación al peso unitario el mejor tratamiento fue el primero con un peso por larva de 0.1178 g, en cuanto al peso total de las larvas el tratamiento cuatro presentó un mayor rendimiento teniendo 7.9232 g, podemos relacionar esto a la cantidad de larvas que contenían los tratamientos y la cantidad de nutrientes que disponían cada larva para su alimentación. La tasa de supervivencia promedio fue de 99.37±0.79 y la mejor bioconversión la presenta el tratamiento 4 con un resultado de 22.68%(Dw). En cuanto a la extracción de grasa se encontró que el tratamiento que presenta un mejor rendimiento es el tercero con un porcentaje de 13.65% un total de 0.932g de grasa cruda, la bioconversión para este tratamiento fue de 17.38% y una eficiencia de bioconversión del 18.36% siendo así la segunda mejor en estos parámetros solo por detrás del cuarto tratamiento con unos valores de 22.68% y 20.14% respectivamente. El porcentaje de bioconversión a grasa en nuestro tercer tratamiento es de 31.55% mostrando un buen rendimiento, en cuanto a la obtención del biodiesel no es posible por la poca cantidad de grasa obtenida, además esta es solo una etapa del proyecto el cual se escalará para obtener mejores resultados.
Guzman Castañeda Francisco Gabriel, Universidad Autónoma de Tamaulipas
Asesor: Dr. Rolando Salazar Hernández, Universidad Autónoma de Tamaulipas

INVESTIGACIóN SOBRE EL USO DE CONTENEDORES PARA CREAR ENTORNOS DE SEGURIDAD


INVESTIGACIóN SOBRE EL USO DE CONTENEDORES PARA CREAR ENTORNOS DE SEGURIDAD

Guzman Castañeda Francisco Gabriel, Universidad Autónoma de Tamaulipas. Asesor: Dr. Rolando Salazar Hernández, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La creciente digitalización de procesos y servicios ha llevado a un incremento en la necesidad de crear entornos seguros para proteger los datos y aplicaciones de amenazas cibernéticas. En este contexto, los contenedores han emergido como una solución flexible y eficiente para gestionar aplicaciones en entornos aislados. La investigación sobre el uso de contenedores para crear entornos de seguridad es crucial para comprender cómo estas tecnologías pueden mejorar las prácticas de seguridad en el desarrollo y despliegue de software.



METODOLOGÍA

1. Definición del Problema y Objetivos 2. Revisión de la Literatura 3. Diseño de la Investigación 4. Implementación y Experimentación 5. Análisis de Datos 6. Conclusiones y Recomendaciones 7. Documentación y Publicación


CONCLUSIONES

En la investigación se pueden obtener varios resultados clave: Aislamiento de Aplicaciones: Los contenedores permiten aislar aplicaciones y sus dependencias del sistema operativo subyacente, lo que reduce el riesgo de comprometer todo el sistema en caso de un ataque. Control de Acceso y Privilegios: Los contenedores ofrecen mecanismos para definir políticas de acceso y gestionar los privilegios, limitando así las acciones que pueden realizar las aplicaciones dentro de los contenedores. Facilidad de Implementación de Parches: Dado que los contenedores son livianos y fácilmente desplegables, permiten una rápida implementación de parches y actualizaciones de seguridad, reduciendo la ventana de exposición a vulnerabilidades. Consistencia y Reproducibilidad: Los contenedores aseguran que las aplicaciones se ejecuten de manera consistente en diferentes entornos, lo cual es crucial para mantener la seguridad al evitar configuraciones inconsistentes que podrían ser explotadas. Integración con Herramientas de Seguridad: Las soluciones de contenedores se integran bien con herramientas de seguridad existentes, permitiendo el monitoreo y análisis continuo para detectar actividades sospechosas. Desafíos de Seguridad: A pesar de sus beneficios, los contenedores también presentan desafíos, como la necesidad de gestionar adecuadamente las imágenes de contenedores y asegurarse de que no contengan vulnerabilidades inherentes.
Guzmán Cid Edgar Jossua, Universidad Tecnológica de Tehuacán
Asesor: Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango

DISEÑO DE UN CONTROL PID Y ASIGNACION DE POLOS PARA CONTROLAR LA POSICIÓN ANGULAR DE UN AEROPÉNDULO


DISEÑO DE UN CONTROL PID Y ASIGNACION DE POLOS PARA CONTROLAR LA POSICIÓN ANGULAR DE UN AEROPÉNDULO

Guzmán Cid Edgar Jossua, Universidad Tecnológica de Tehuacán. Asesor: Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El péndulo es una planta de estudio actualmente vigente debido a su dinámica no lineal y sus aplicaciones prácticas, lo que lo convierte en un sistema clave para propósitos de investigación científica. El aeropéndulo cuenta con un motor en extremo final de una barra con longitud L, El sistema de referencia se elige de tal manera que el eje Z coincida con la articulación del aeropéndulo la cual permite la rotación, de tal forma que el eje  se posiciona en la base y  a la derecha de esté. El proyecto a realizar cuenta con prototipo en físico es decir el aeropéndulo y el motor con el cual se va a controlar la posición angular, el problema a resolver en este proyecto es el control de la planta en un tiempo finito.



METODOLOGÍA

En este proyecto se presenta la aplicación de distintos sistemas de control a un aeropéndulo el cual es una extensión del péndulo, con la diferencia de que el aeropéndulo cuenta con un motor como masa. Esta diferencia permite posicionarlo en una posición angular deseada por medio de sistemas de control. Los sistemas de control desarrollados fueron control P, PD, PID y asignación de polos, para lograr ese objetivo se modelo la dinámica del aeropéndulo usando ecuaciones de Euler- Lagrange y fue linealizado con el método de retroalimentación linealizada propuesta. Cada controlador fue probado en un entorno de realidad virtual hecho en Simulink de Matlab para verificar la efectividad de estos.


CONCLUSIONES

Se aplicaron diversos controladores sobre el aeropéndulo y se constató que todos los controladores obtienen respuestas aceptables pero alguna de las diferencias entre estos es la facilidad con la cual se obtienen o cuales influyen directamente con el tiempo que toma realizarlo, además de que algunas veces el sistema no se podrá resolver por lo métodos conocidos como fue el caso al intentar aplicar Ziegler - Nichols.
Guzmán Cornejo Juan Pablo, Instituto Tecnológico de Morelia
Asesor: Dr. Jose Lemus Ruiz, Universidad Michoacana de San Nicolás de Hidalgo

PRODUCCIóN Y CARACTERIZACIóN DE COMPUESTOS DE MATRIZ METáLICA ALN/ MG-AZ91E ELABORADOS MEDIANTE LA TéCNICA DE INFILTRACIóN


PRODUCCIóN Y CARACTERIZACIóN DE COMPUESTOS DE MATRIZ METáLICA ALN/ MG-AZ91E ELABORADOS MEDIANTE LA TéCNICA DE INFILTRACIóN

Guzmán Cornejo Juan Pablo, Instituto Tecnológico de Morelia. Asesor: Dr. Jose Lemus Ruiz, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Uno de los desafíos que se presenta al manufacturar materiales compuestos reside en la complejidad de unir cerámicos y metales debido a su baja mojabilidad. Además, las diferencias significativas en las propiedades de cada uno y el coeficiente de expansión térmica entre estos materiales plantean obstáculos para una unión efectiva, sin embargo, es crucial la combinación de estos materiales para aprovechar al máximo sus propiedades complementarias. La falta de métodos económicos y sencillos para la fabricación de compuestos agudiza la situación, y la infiltración se presenta como una alternativa viable. Por otro lado, el verdadero desafío radica en garantizar una mojabilidad adecuada, una distribución homogénea de refuerzo y una baja porosidad residual para obtener un compuesto de calidad. Esto requiere la implementación de un proceso con porosidad interconectada antes de proceder con la infiltración. Las propiedades mecánicas del compuesto final están intrínsecamente ligadas a todos los aspectos mencionados anteriormente. Por lo tanto, la dificultad radica en el proceso mismo de producción del compuesto y en cómo fomentar y mejorar las propiedades mecánicas finales para lograr un material compuesto de alto rendimiento.



METODOLOGÍA

Como materiales de inicio se utilizaron dos tipos de polvo de AlN con diferente distribución de tamaño de partícula: uno con un rango de 2 μm a 18 μm y otro de 2 μm a 20 μm. Además, se emplearon dos aleaciones metálicas, Mg-AZ91E y Al. Para crear preformas de AlN, se realizaron cálculos utilizando la regla de mezclas, considerando un dado de acero de 10 mm de diámetro, la densidad del AlN de 3.26 g/cm³ y una altura esperada de la preforma de aproximadamente 5 mm. Los polvos de AlN se vaciaron en vasos de precipitado, se les añadió PVA (Polivinil alcohol) y se mezclaron. Posteriormente, cada mezcla se vació sobre el dado de acero y se compactaron en la prensa hidráulica Truper preh-20 con una carga de 5 toneladas. Se obtuvieron dos preformas: la del polvo de 2 μm a 18 μm pesó 0.6764 g, con un diámetro de 10 mm y una altura de 3.65 mm; la del polvo de 2 μm a 20 μm pesó 0.7095 g, con un diámetro de 10 mm y una altura de 3.75 mm. Luego, se compactaron otras dos de AlN para ser usadas con la aleación de Al. Para calcular la cantidad de aleación de Mg-Z91E, se tomaron en cuenta los datos obtenidos previamente de peso, diámetro y altura, resultando en 0.1506 g para el polvo de 2 μm a 20 μm y 0.1217 g para el polvo de 2 μm a 18 μm. A continuación, se realizaron cortes en la aleación utilizando una cortadora metalográfica y se pesaron para obtener las cantidades mencionadas. También se realizaron cortes para la aleación de Al. Las preformas de AlN se colocaron en contacto con los cortes de las aleaciones en un crisol de grafito, dentro de un horno de tubo horizontal, a una temperatura de 850 °C durante 10 minutos en una atmósfera de Ar. A esta temperatura, la aleación de Mg-Z91E se fundió e infiltró en la preforma, formando el material compuesto. Sin embargo, esto no ocurrió con la aleación de Al debido a su baja o nula mojabilidad del Al en el AlN. Para la caracterización estructural de los materiales compuestos AlN/Mg-AZ91E, se realizó una preparación metalográfica. Primero, se montaron los materiales compuestos en resina y luego se realizaron cortes en las zonas de interés utilizando una cortadora metalográfica. Con las muestras montadas, se procedió al desbaste usando lijas de SiC, luego se pulieron ambas muestras en una pulidora metalográfica utilizando Al2O3 con tres tamaños de grano diferentes. Finalmente, las muestras se llevaron al MEB (Microscopio Electrónico de Barrido), donde se obtuvieron imágenes, análisis químico en línea de cada muestra y una distribución atómica de los componentes.


CONCLUSIONES

1. De acuerdo con los resultados, se observó que es factible producir compuestos por infiltración de Mg-AZ91E con AlN, asociado a una buena mojabilidad entre la aleación Mg-Z91E con el AlN. 2. Con materiales de aleación de Al, no se pueden producir materiales compuestos debido a que no hay mojabilidad entre el Al y el AlN. 3. Se observó en la microestructura una distribución homogénea de la matriz entre las partículas, con restos de porosidad residual, como lo muestran los análisis de mapeo de componentes. 4. Se observó que las partículas grandes son aglomeraciones de partículas pequeñas, observando la diferencia en composición entre las partículas y la aleación de la matriz metálica a través de los análisis en línea.
Guzman Garcia Sebastian, Instituto Tecnológico de Piedras Negras
Asesor: Mg. Raul Antonio Ortega López, Instituto Tecnológico Metropolitano

DISEñO DE DISPOSITIVOS DE METROLOGíA AMBIENTAL DE BAJO COSTO PARA EL MONITOREO DE LA CALIDAD DEL AGUA Y AIRE, CASO DE ESTUDIO: PIEDRAS NEGRAS, MEDELLíN.


DISEñO DE DISPOSITIVOS DE METROLOGíA AMBIENTAL DE BAJO COSTO PARA EL MONITOREO DE LA CALIDAD DEL AGUA Y AIRE, CASO DE ESTUDIO: PIEDRAS NEGRAS, MEDELLíN.

Guzman Garcia Sebastian, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Raul Antonio Ortega López, Instituto Tecnológico Metropolitano



PLANTEAMIENTO DEL PROBLEMA

Muchos estudios epidemiológicos han demostrado que el material particulado PM2.5 se ha asociado con una variedad de problemas de salud graves, pueden llevar a enfermedades respiratorias como el asma, bronquitis crónica, entre otros. Según la Organización Mundial de la Salud (OMS), la contaminación del aire es responsable de millones de muertes cada año.  El desarrollo de un dispositivo de bajo costo facilita el acceso a herramientas de monitoreo, con un acceso a valores precisos y en tiempo real sobre la calidad del aire, los ciudadanos pueden conocer más sobre la contaminación y así poder implementar medidas preventivas durante los periodos de alta contaminación.  La contaminacion por PM2.5 es un problema significativo tanto en Colombia como en México. En los últimos años se ha visto un gran crecimiento de contaminacion atmosférica se ha tenido un alto porcentaje de Material Particulado que exceden los niveles establecidos. Esto se debe a que en las grandes ciudades la congestión vehicular es alta, asi como también las emisiones de fábricas y plantas industriales, incluyendo la quema de combustibles fósiles. .



METODOLOGÍA

Primero se realizo una idea para el modelado 3D en la pagina Onshape para luego imprimirlo en una impresora 3D. Para los sensores a utilizar (SHT3O, que es para medir la temperatura y humedad y el sensor PMS1003 Sensor de polvo y material particulado) se necesito un arduino nano 33 IoT para calibrarlos, primero se calbraron por separado  asi ver como funcionaban, el sensor PMS1003 nos dio valores de PM10 y PM2.5 que son los mas importantes a utilizar y se realizaron pruebas para confirmar sus funciones. El sensor SHT30 dio los resultados de temperatura y hhumedad e igualmene se realizaron pruebas en diferentes ambientes para ver si cambiaban los valores. Se investigo sobre el indice de calidad del aire para tener conocimiento sobre si la concentracion de contaminacion era buena o mala y en la programacion de los dos sensores se agrego un funcion tipo semaforo para dar una idea de si el aire de acuerdo a los valores de concentracion de maerial particulado PM2.5 era bueno o dañino para la salud, verde si era bueno, amarillo si es moderado y el rojo si es dañino para la salud.


CONCLUSIONES

Durante este verano se pudo avanzar mucho en este proyecto, en base a la idea principal que era diseñar un dispositivo de bajo costo se pudo cumplir ya que los materiales utilizados entraron en el limite de precio. Los sensores utilizados fueron calibrados en el programa arduino ide y dan los valores correctamente, asi como tambien el diseño 3D pudo ser impreso y la progrmacion final del dispositivo casi es terminada. Los resultados por obtener son hacer pruebas finales con el semaforo y los leds y terminar la parte de atras del diseño 3d, como es un proyecto muy extenso aun nos faltan muchas cosas por tomar en cuenta.
Guzmán Landaverde Axel Eduardo, Instituto Tecnológico de Reynosa
Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos

EVALUACIóN DE LA SALUD Y SEGURIDAD EN EL TRABAJO Y SU IMPACTO EN LA CALIDAD DEL PRODUCTO EN LAS MIPYMES DE BALANCáN TABASCO


EVALUACIóN DE LA SALUD Y SEGURIDAD EN EL TRABAJO Y SU IMPACTO EN LA CALIDAD DEL PRODUCTO EN LAS MIPYMES DE BALANCáN TABASCO

Guzmán Landaverde Axel Eduardo, Instituto Tecnológico de Reynosa. Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

La implementación del Sistema de Gestión de la Seguridad y Salud en el Trabajo (SG-SST) como medida para garantizar que los entornos laborales seguros causan la problemática sobre si las empresas e industrias están cumpliendo con los estándares requeridos para preservar la salud y seguridad de los trabajadores, considerando las implicaciones legales y económicas de una implementación incompleta.  Esto no solo se ve afectado por la salud y el bienestar de los empleados, también en los costos por compensaciones laborales por accidentes, multas de incumplimiento y baja productividad. Sumándose que la reputación de la empresa se ve afectada por estos accidentes y enfrentar dificultades para el cumplimiento a futuro de las normativas internacionales.  Se debe de determinar cuántas empresas micro, pequeñas y medianas de la zona de Balancán, Tabasco cumplen con los estándares de seguridad y salud, y como el incumplir las normas afectan la calidad de la producción. 



METODOLOGÍA

Se realizo una investigación en base a documentos MiPymes para estudiar los estándares de salud y seguridad que son aplicados con un plan estratégico en las empresas, con los estándares requeridos analizados, se buscó una población de empleados a los que se realizó una encuesta a empleados de diferentes MiPymes de la zona de Balancán, Tabasco donde se analizó la calidad de vida laboral de acuerdo con el conocimiento de los mismos empleados. 


CONCLUSIONES

De acuerdo al instrumento de encuesta a empleados de las MiPYMES del municipio de balancan, el 92.4% opinó que la seguridad impacta en la calidad del los productos. Tambien el 22.7% de los trabajadores no tienen conocimiento sobre los protocolos de seguridad requeridos en sus areas de trabajo, esto presenta una falta en el reglamento de las MiPymes el cual se busca una solución. Se recopilaron los datos de la encuesta y se analizaron las respuestas brindadas por los empleados para el análisis comparativo con las normas de seguridad, con esto se obtuvo que las empresas presentan faltas en las normas de seguridad, por lo que se desarrollaron planes y estrategias para evitar accidentes laborales y mejorar el bienestar del empleado para una mayor calidad en la producción. 
Guzmán Leyva Sarahí, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Diego Alfredo Tlapa Mendoza, Universidad Autónoma de Baja California

APLICACIóN DE INTELIGENCIA ARTIFICIAL Y LEAN HEALTHCARE EN LABORATORIOS CLíNICOS PúBLICOS Y CALIDAD 4.0 PARA LA MEJORA DE PROCESOS DE EMPAQUE EN LA INDUSTRIA VINíCOLA


APLICACIóN DE INTELIGENCIA ARTIFICIAL Y LEAN HEALTHCARE EN LABORATORIOS CLíNICOS PúBLICOS Y CALIDAD 4.0 PARA LA MEJORA DE PROCESOS DE EMPAQUE EN LA INDUSTRIA VINíCOLA

Guzmán Leyva Sarahí, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Diego Alfredo Tlapa Mendoza, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

A pesar del avance significativo de la tecnología en los últimos años, sectores como el de la salud y la industria vinícola aún enfrentan desafíos críticos que impactan su eficiencia y calidad. La implementación de simulación de procesos y Deep Learning en estas áreas, poco exploradas en México, tiene el potencial de revolucionar la manera en que se gestionan los desafíos que presentan estos sectores, proporcionando soluciones tecnológicas avanzadas que optimizan los procesos y mejoran significativamente la calidad y la sostenibilidad. En los laboratorios clínicos públicos, uno de los principales retos es la inspección de muestras de sangre, la cual está sujeta a errores humanos que pueden generar retoma de muestras, retrasos en el análisis y riesgos de contaminación. La falta de tecnología adecuada y la ausencia de guías sobre posibles errores y acciones de mejora agravan estos problemas. La necesidad de incrementar la inspección de muestras mediante tecnología avanzada, generar un análisis de riesgos y contar con información precisa sobre el nivel de inspección actual son áreas críticas que demandan soluciones innovadoras. Además, se requiere realizar un análisis detallado de la cadena de valor y desarrollar simulaciones del proceso actual para implementar mejoras en el flujo de pacientes y materiales. En la industria vinícola, la calidad del empaque es fundamental para proteger el producto y asegurar la satisfacción del cliente. Sin embargo, el proceso de empaque de vino enfrenta distintos problemas que pueden llevar a cuestiones de calidad, como errores de etiquetado y la falta de una botella en las cajas enviadas. La aplicación de inteligencia artificial (IA) y herramientas avanzadas de análisis de datos tiene el potencial de mejorar significativamente la calidad, flujo de trabajo y eficiencia de los procesos de manufactura. Sin embargo, la información sobre el uso de la ciencia de datos en los procesos industriales en México es escasa. Ambos proyectos requieren un enfoque integral que combine el desarrollo de tecnologías avanzadas, como modelos de Deep Learning (DL) para la inspección de muestras de sangre y la mejora de procesos de empaque en la industria vinícola, con la implementación de metodologías de mejora continua como lean healthcare y Calidad 4.0. Además, debido a la marcada competitividad que existe actualmente las empresas ya no son solo consideradas exitosas por sus procesos productivos eficientes, sino que además las empresas generan invención, innovación y administran y gestionan la cadena de suministros (CS). Por tal motivo el diseño y mejoramiento continuo de la CS en las organizaciones es importante y necesario, sin embargo, el desarrollo académico de estos temas aún muestra mucha oportunidad, pues, aunque existen modelos generales para evaluar las prácticas logísticas, las futuras investigaciones pueden estar orientadas a desarrollar modelos en contextos empresariales específicos.



METODOLOGÍA

Determinar técnicas y métodos de inspección apoyados por tecnologías de Industria 4.0, aplicables tanto en laboratorios clínicos como en la industria vinícola. Revisión de literatura científica en bases de datos. Etiquetado y balanceo de imágenes para entrenamiento de los modelos de Deep Learning para el sector salud como el sector vinícola. Visitas de campo a laboratorio clínico para toma de tiempos de atención. Evaluar los modelos de Deep Learning desarrollados y definir el equipo necesario para el proceso de inspección en ambos entornos. Analizar los resultados del modelo, indicando valores de precisión por encima del 95%. Probar y validar el modelo de análisis para estimar los impactos económicos, ambientales y sociales, utilizando una base de datos exhaustiva. Programar módulo de Raspberry Pi 5 con modelos pre-cargados y cámaras para la detección de objetos. Creación de carcasas de montaje mediante diseño por computadora e impresión 3D para módulos de Raspberry Pi 5 y cámaras. Elaboración de simulación de procesos del estado actual mediante software para el análisis de flujo de la cadena de suministro. Evaluar la simulación de procesos mediante los distintos tipos de distribución, logrando una comparativa de resultados entre escenarios propuestos. Como actividades adicionales, se plantea el acopio de datos via survey sobre evaluación de cadena de suministro de industrias de manufactura de dispositivos médicos en México, además de la identificación y aplicación de encuestas a profesionales dedicados al sector de calidad dentro de la misma industria. Así mismo, la participación en un curso de introducción en Lean Manufacturing, Six Sigma y Measurement System Analysis (MSA) y desarrollo de prácticas en software Minitab para interpretación de resultados y mejora en la toma de decisiones.


CONCLUSIONES

Por medio de la contribución durante el verano científico se obtuvieron avances significativos para el desarrollo de ambos proyectos. Gracias a ello, se completó la fase inicial de la simulación del proceso de atención de pacientes dentro del laboratorio clínico en software para su posterior análisis y evaluación de resultados, así como el entrenamiento del modelo de Deep Learning, lo cual permitió un primer análisis del comportamiento de esta herramienta dentro de un ambiente real. A pesar que ambos proyectos se encuentran en una etapa de desarrollo inicial, los resultados obtenidos gracias a la colaboración del esquipo de trabajo durante la estancia de verano son el parteaguas que impulsan el esfuerzo continuo por alcanzar dentro de un periodo de dos años el objetivo planteado al principio de la investigación. Aunado a ello, el apoyo de la revisión y selección de literatura sobre la cadena de suministro en industrias manufactureras de equipo médico fue fundamental para el entendimiento del contexto actual en México. Además, se obtuvo de manera individual un crecimiento académico sobre los temas de Lean Manufacturing, Six Sigma y Measurement System Analysis (MSA), los cuales se completaron en la etapa introductoria para la interpretación de gráficos en software estadístico.
Guzmán Ortiz Ricardo, Instituto Tecnológico de La Piedad
Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara

CONTROL AUTOMáTICO PARA SISTEMAS ELECTROMECáNICOS ORIENTADOS A CIRCUITOS ELECTRóNICOS DE POTENCIA


CONTROL AUTOMáTICO PARA SISTEMAS ELECTROMECáNICOS ORIENTADOS A CIRCUITOS ELECTRóNICOS DE POTENCIA

Guzmán Ortiz Ricardo, Instituto Tecnológico de La Piedad. Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El control automático dentro del área de la electrónica implica el desarrollo e implementación de técnicas que permiten mantener constantemente una cantidad física medible en un valor ideal. Un ejemplo simple es el control de la temperatura de un refrigerador, que utiliza las técnicas de control automático para mantener la temperatura ideal de acuerdo a los parámetros establecidos por el fabricante. Permite asegurar que el sistema funcione de manera ideal para el beneficio de los clientes, manteniendo sus productos de cadena fría en condiciones adecuadas. En el desarrollo del proyecto, se diseñó un prototipo de control automático para la liberación de biocontrol con el fin de controlar oportunamente la plaga del gusano cogollero del maíz. El sistema está diseñado para mantener el biocontrol en un contenedor con un control automático de temperatura, capaz de cambiar de frío a calor y viceversa. Para mantener el biocontrol en estado de letargo, es necesario mantener una temperatura baja utilizando celdas Peltier, con un rango de 8°C a 12°C. Al momento de despertarlos, se incrementa la temperatura utilizando un Cartucho Cerámico, manteniéndola entre 16°C y 30°C.



METODOLOGÍA

En la parte de electrónica del control automático para un sistema electromecánico, se realizaron circuitos electrónicos que benefician el correcto funcionamiento del sistema, cumpliendo con las necesidades fundamentales para el uso correcto funcionamiento al momento de usar un microcontrolador con su respectivo código. Se buscaron componentes y módulos adecuados, y se realizaron diagramas electrónicos mediante un software de diseño electrónico. Al simular un diagrama, se observaba que funcionaba correctamente, procedíamos a implementarlo experimentalmente en una protoboard. Si los resultados experimentales coincidían con los simulados, se procedería a fabricar el diagrama electrónico en una PCB, a través del método del planchado, utilizando materiales como hojas de transferencia para circuitos impresos, cloruro férrico y placa fenólica. La alimentación del sistema del control automático, se implementó el uso de dos baterías Li-Po, una para la parte de control y otra para la parte de potencia. Para la parte de control (microcontrolador, sensores, actuadores, etc.) se utilizó una batería de 4 celdas con una tensión de 14.8V y una capacidad de 4000 mAh. Para la parte de potencia (celdas Peltier y Cartucho Cerámico), se utilizó una batería de 6 celdas con una tensión de 22.2V y una capacidad de 10000 mAh. Durante la etapa de potencia del Cartucho Cerámico Calentador Calefactor 12V 40W se realizó un prototipado PCB utilizando un MOSFET IRFZ44N. Este componente permite una conmutación de altas frecuencias, lo cual facilita el control del nivel de temperatura a través de PWM. Para controlar de manera eficiente la saturación y corte del MOSFET, se utilizó un optoacoplador PC817, que permite controlar la potencia del Cartucho Cerámico de acuerdo con las necesidades del sistema, además de aislar completamente la alimentación del microcontrolador de la señal de funcionamiento PWM. El Cartucho Cerámico tiene un voltaje máximo de 12V, y dado que su fuente de alimentación es una batería de 22.2V, se tuvo que implementar un Módulo XI4016 Regulador de Voltaje Step Down 8A 250W para reducir el voltaje de alimentación del Cartucho Cerámico a 12V. Además, este módulo soporta altas de cantidades de potencia, lo cual está en los parámetros que nosotros deseamos en cuestión de potencia. En el sistema de enfriamiento, se implementaron dos celdas Peltier TEC1-12706 de 12V, 6A, y 60W junto con un kit de disipador con dos ventiladores de expulsión, uno para frío y otro para calor. Los ventiladores utilizados fueron de 80mm y 40mm, ambos con una alimentación máxima de 12V. Dado que la batería suministrada es de 22.2V, se utilizó un Regulador de Voltaje DC-DC LM2596 Ajustable para bajar el voltaje a 12V. Las celdas Peltier también tienen un voltaje máximo de 12V y, al igual que los ventiladores, su fuente de alimentación es una batería de 22.2V. Por ello, se implementó un Módulo XI4016 Regulador de Voltaje Step Down 8A 250W para reducir el voltaje de alimentación de las celdas Peltier de 22.2V a 12V.


CONCLUSIONES

El sistema de control aún presenta etapas inconclusas; sin embargo, se evidenció un avance significativo en las etapas de control mediante la realización de prototipado electrónico. La etapa de enfriamiento o calentamiento mostró una mejora considerable en la variación de la temperatura, optimizando el tiempo requerido para el funcionamiento óptimo del sistema. Se desarrollaron circuitos electrónicos y se seleccionaron componentes adecuados, realizando y probando diagramas electrónicos mediante simulación y prototipos en PCB. La alimentación del sistema se gestionó con dos baterías Li-Po: una para el control y otra para la potencia. Se implementaron reguladores de voltaje y MOSFETs para un control preciso y eficiente de la temperatura. Los diagramas del sistema de control y potencia propuestos y adaptados durante la estancia de investigación se proporcionaron al investigador, para facilitar la posibilidad de modificar el sistema de manera eficiente de acuerdo con las necesidades futuras del mismo. 
Guzmán Ponce Sofia, Instituto Tecnológico de Morelia
Asesor: Dr. German Herrera Vidal, Universidad del Sinú

DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA


DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA

Guzmán Ponce Sofia, Instituto Tecnológico de Morelia. Haro Novoa Cinthia Ivonne, Instituto Tecnológico de Jiquilpan. Haro Novoa Karen Alondra, Instituto Tecnológico de Jiquilpan. Asesor: Dr. German Herrera Vidal, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

La presente revolución industrial conocida como industria 4.0 ha llevado a que la economía global transite una nueva fase que se caracteriza por la digitalización y la conectividad. Las empresas de tamaño mediano y pequeño se han visto obligadas a buscar formas para innovar y sobresalir y así ganar una mayor visibilidad y reconocimiento entre sus clientes.  Según datos de la Asociación Nacional de Industriales para el año 2019 la gran mayoría de los empresarios en Colombia conocían las tecnologías emergentes, pero no hacían uso de estas (ANDI, 2019). (Informe de la Encuesta Transformación Digital) La Industria 4.0 promete transformar los sistemas de manufactura mediante la integración de tecnologías avanzadas como la inteligencia artificial y el internet de las cosas. Para las pequeñas y medianas empresas en Cartagena, esta transición es crucial para mejorar la eficiencia y mantenerse competitivas.  En Colombia de cada 100 empresas que se crean solo 78 superan el primer año, 61 logran superar los tres primeros años, y tan solo 42 superan los cinco primeros años, esto evidencia que realmente no hay dificultades a la hora de crear estas empresas, sino que lo más difícil es mantenerlas en el tiempo. El mayor desafío actual para las pymes en Colombia es lograr competitividad, y una herramienta clave para lograrlo es el uso de la tecnología 4.0, la cual permitirá que las empresas sean capaces de innovar, mantenerse eficientes y poder competir en el mercado. En particular, la implementación de nuevas tecnologías puede hacer que los procesos en las industrias manufactureras sean aún más eficientes y confiables.



METODOLOGÍA

El método para llevar a cabo la investigación se desarrolló en cuatro etapas, (I) Búsqueda de información, (II) Contexto nacional en Manufactura, (III) Diagnóstico del contexto Local en Manufactura y (IV) Análisis y Conclusiones. A continuación, se detallan: (I) Búsqueda de información La primera etapa consistió en la búsqueda de información, donde se realizó una revisión exhaustiva de la literatura existente relacionada con la industria 4.0 en las Pymes. Esta fase implicó la recopilación de artículos científicos, libros, informes y otras fuentes académicas relevantes que proporcionaron la información necesaria. El objetivo principal de esta etapa fue establecer una base teórica que sustentara el estudio. (II) Contexto nacional en Manufactura Esta se centró en el diagnóstico del contexto nacional, que implicó un análisis detallado, en primera instancia sobre la estructura empresarial en Colombia, así como el aporte económico de las pymes a la economía nacional y los problemas, amenazas y debilidades que están enfrentan y cómo ello afecta a su favorable desarrollo económico. (III) Diagnóstico del contexto Local en Manufactura La tercera etapa se enfocó en el diagnóstico del contexto local, donde se realizó un análisis específico de información sobre las pymes en Cartagena, incluyendo datos específicos a nivel local, donde se consultó información sobre la industria manufacturera en esta ciudad, así como la estructura empresarial, incluyendo también los antecedentes, desafíos, oportunidades, problemas, amenazas y debilidades. (IV) Análisis y Conclusiones Finalmente, en la cuarta etapa se realizó el análisis y conclusiones, donde se integraron los hallazgos obtenidos en las etapas anteriores y se realizaron las interpretaciones. En esta fase, se compararon los datos nacionales y locales, además, se formularon conclusiones basadas en la información recopilada. Este análisis final permitió sintetizar la información del tema investigado.


CONCLUSIONES

Sin duda alguna, la industria 4.0 representa una gran oportunidad para transformar las pymes en Cartagena, pues la adopción de estas tecnologías les permitiría mejorar significativamente factores como la eficiencia, calidad y flexibilidad en los procesos productivos, lo que a su vez podría aumentar la competitividad de las pymes y con ello la economía local y nacional, fortaleciendo así su productividad, reduciendo costos y mejorando la calidad de sus productos. Sin embargo, esta investigación también nos permitió darnos cuenta de la brecha tan considerable que existe en la adopción de estas tecnologías, especialmente tomando en cuenta que las pymes son un sector que a menudo carece de los recursos y conocimientos necesarios para implementar soluciones avanzadas. Es por ello por lo que consideramos que, para superar estos desafíos es esencial una colaboración estrecha entre el gobierno, el sector privado y las instituciones educativas. Las iniciativas de capacitación y formación continua, la creación de incentivos financieros para la inversión en tecnología, y el desarrollo de estrategias de gobernanza adecuadas son pasos críticos que pueden ayudar a cerrar la brecha tecnológica. Además, el fortalecimiento de la infraestructura digital y la mejora en la ciberseguridad son fundamentales para proteger las operaciones y datos empresariales, lo que a su vez ayudaría a crear confianza en los empresarios y romper con los pensamientos de rechazo sobre el uso de esas tecnologías en sus empresas a causa de no verlo como una opción factible o una tendencia.  Por otro lado, consideramos que, para mejorar su competitividad y sostenibilidad, las pymes deben implementar estrategias que optimicen sus procesos productivos y minimicen su impacto ambiental. La adopción de una logística interna adecuada, acompañada de una gestión financiera eficiente y una planificación ambiental estratégica, contribuiría significativamente a mejorar el desempeño del papel en términos de competitividad.  
Guzmán Ramírez Diego, Instituto Tecnológico de Querétaro
Asesor: Dr. Esteban Elias Giraldo Salazar, Universidad del Valle

APLICACIóN DE HERRAMIENTA DE INTELIGENCIA ARTIFICIAL A UN ENTORNO DOMóTICO MEDIANTE EL USO DE FPGA´S


APLICACIóN DE HERRAMIENTA DE INTELIGENCIA ARTIFICIAL A UN ENTORNO DOMóTICO MEDIANTE EL USO DE FPGA´S

Guzmán Ramírez Diego, Instituto Tecnológico de Querétaro. Martinez Vazquez Ruth Edith, Instituto Tecnológico de Querétaro. Asesor: Dr. Esteban Elias Giraldo Salazar, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, las personas buscan maximizar su productividad en diversos ámbitos, como el trabajo, los estudios y las tareas domésticas, intentando realizar múltiples actividades eficientemente. Sin embargo, este ideal a menudo no se alinea con la realidad, ya que las horas de sueño, las comidas y el mantenimiento del hogar suelen verse sacrificados debido a la extensión de las actividades laborales. Esto puede provocar estrés y frustración, especialmente con el trabajo remoto, que complica el control del consumo de recursos en el hogar, como energía y agua. La domótica ha mejorado el control de dispositivos en el hogar, pero para lograr una verdadera autonomía se necesitan rutinas y parámetros específicos que requieren un análisis detallado y ajustes técnicos. Para abordar esto, se propone integrar dispositivos FPGA con inteligencia artificial y lógica difusa. Esto permitiría entrenar una red neuronal que monitoree y repita patrones en las actividades cotidianas del usuario. Para alcanzar un nivel adecuado de autonomía, es crucial definir las estructuras de entradas y salidas en diferentes entornos, y llevar a cabo pruebas para entrenar la red neuronal mediante machine learning y retropropagación, con el objetivo de reducir errores y aumentar la autonomía del sistema. Este enfoque se aplicará especialmente en la gestión del consumo de recursos como la energía y el agua, implementando controles inteligentes mediante una red de contactos y un sistema de riego, ambos gestionados por inteligencia artificial y dispositivos FPGA.



METODOLOGÍA

El proyecto de investigación abarca varios enfoques: exploratorio, aplicado, de observación, de vanguardia, teórico y longitudinal. Primero, explora la intersección de la inteligencia artificial (IA) y la domótica mediante FPGAs, buscando nuevas tecnologías y soluciones prácticas para optimizar recursos en el hogar. Se investiga el uso previo de tecnologías distintas, se utilizan avances en lógica difusa, y se analiza literatura existente. También se observa cómo cambian las variables a lo largo del tiempo. El proyecto comenzó con sesiones de programación para explorar temas y seleccionar el enfoque. Se realizó un estado del arte para identificar avances en domótica e IA, destacando la novedad del uso de FPGAs y lógica difusa. Se diseñó un plano del entorno doméstico en AUTOCAD, con una vivienda de aproximadamente 23x18 metros dividida en 9 zonas y un módulo de riego. Para cada zona, se definieron entradas y salidas y se utilizaron máquinas de estado para representar el funcionamiento. Los diagramas se crearon con Qfsm, abarcando: - **Zona 1**: Control de iluminación general y del espejo. - **Zona 2**: Control de aire acondicionado e iluminación en diferentes áreas. - **Zona 3**: Aire acondicionado e iluminación de la habitación. - **Zona 4**: Iluminación y contactos para lavadora y secadora. - **Zona 5**: Iluminación y apertura de la cochera al llegar el auto. - **Zona 6**: Iluminación y aire acondicionado en la sala. - **Zona 7**: Iluminación y campana en la cocina. - **Zona 8**: Iluminación trasera al abrir la puerta. - **Zona 9**: Iluminación en la entrada principal. - **Sistema de Riego**: Activación basada en sensores de humedad. El lenguaje de máquinas de estado se tradujo a VHDL usando Stateflow en MatLab, para que las FPGA puedan interpretarlo. MatLab también se utilizó para definir los parámetros de lógica difusa y entrenar la red neuronal que gestionará el sistema. Este enfoque permite automatizar y optimizar el control del hogar mediante la integración de tecnologías avanzadas.


CONCLUSIONES

Durante esta estancia de investigación, descubrimos que, a pesar del extenso estudio de la domótica, su potencial aún no se ha explotado completamente. Gracias al trabajo colaborativo y al conocimiento en inteligencia artificial, FPGAs y electrónica secuencial, hemos logrado avanzar en nuestra propuesta. Como primer resultado, hemos creado un plano inicial del entorno, que incluye la ubicación de los elementos de entrada y salida y las condiciones programadas del sistema. Dado el tiempo limitado de la estancia y la amplitud del proyecto, estamos en la fase de pruebas y recolección de datos, que esperamos utilizar para entrenar la red neuronal. Creemos que esta red es esencial para alcanzar un resultado concreto. Además, estamos enfocándonos en desarrollar una interfaz efectiva, explorando plataformas que ofrezcan la estética y precisión deseadas.
Guzman Venegas Javier Eduardo, Instituto Tecnológico de Tepic
Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato

ACCIDENTES VIALES DE GUANAJUATO


ACCIDENTES VIALES DE GUANAJUATO

Guzman Venegas Javier Eduardo, Instituto Tecnológico de Tepic. Piña Armas Roberto Carlos, Instituto Tecnológico Superior de Uruapan. Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

En Guanajuato la seguridad vial es un problema creciente a medida que aumenta el número de accidentes viales, afectando negativamente la vida de los ciudadanos y la eficiencia del transporte. La falta de datos precisos y la comprensión limitada de los patrones de estos incidentes dificultan la implementación de medidas efectivas para mejorar la seguridad vial. A pesar de los esfuerzos por reducir los accidentes, estos no han estado suficientemente enfocados y apoyados en un análisis detallado y sistemático de los puntos críticos. Es urgente identificar y analizar la distribución espacial de los accidentes de tránsito en todos los municipios de Guanajuato. Para desarrollar estrategias de prevención y corrección, es importante comprender dónde y por qué ocurren estos accidentes. Este proyecto busca satisfacer esta necesidad proporcionando un análisis integral de las escenas de accidentes utilizando técnicas de geolocalización y categorización de incidentes y presentando los datos en forma de mapas detallados. La información obtenida será crucial para las autoridades locales y los responsables de la seguridad vial, permitiéndoles tomar decisiones informadas y efectivas para reducir la frecuencia de accidentes y mejorar la seguridad vial en todo el estado de Guanajuato.



METODOLOGÍA

La metodología que llevamos fue la siguiente a través de la plataforma de transparencia de México solicitamos a todos lo municipios de Guanajuato que nos proporcionaran toda su información de accidentes de tráfico registrados en el 2023, a partir de estos datos se procedió al curado de la información que es filtras la información y ver solo los accidentes que nos sirven teniendo todos estos se realizó un código en colab a través del lenguaje de phyton en el cual se generaron archivos html de todos los puntos de accidentes por cada municipio filtrando aun más los patrones y áreas de accidentes. posteriormente con un programa Qgis se realizó un mapa con capas los cuales nos daban una vista de todos lo accidentes de tráfico de Guanajuato además en un archivo de Excel se realizaron las estadísticas de cada municipio que nos indicaba los patrones de tendencia entre los días las estaciones, horas y temporadas de mayores accidentes por cada 100000 habitantes y vehículos lo que da paso al diseño de un algoritmo de predicción de accidentes de tráfico.


CONCLUSIONES

En conclusión, el análisis de la distribución de los accidentes viales en Guanajuato ha revelado patrones críticos que pueden ayudar a mejorar la seguridad vial en el estado. La geolocalización y categorización de estos incidentes, representados en mapas detallados, proporciona una herramienta poderosa para las autoridades y planificadores urbanos. Estos hallazgos permiten la implementación de medidas preventivas y correctivas específicas, dirigidas a las áreas con mayor incidencia de accidentes. Al utilizar estos datos para formular estrategias y metas concretas, es posible reducir significativamente la tasa de accidentes y crear un entorno vial más seguro. Este proyecto no solo contribuye al bienestar de los habitantes de Guanajuato, sino que también establece una base sólida para futuros estudios y políticas de seguridad vial en la región.
Hanon Orozco Faruich Abdel, Universidad Nacional Autónoma de Nicaragua, Managua
Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato

LABORATORIO INTELIGENTE PARA REGULACIóN DE CONFORT TéRMICO DE HUMANO Y DE DISPOSITIVOS USANDO TéCNICAS DE INTELIGENTE ARTIFICIAL


LABORATORIO INTELIGENTE PARA REGULACIóN DE CONFORT TéRMICO DE HUMANO Y DE DISPOSITIVOS USANDO TéCNICAS DE INTELIGENTE ARTIFICIAL

Couttolenc Martínez Felipe, Instituto Tecnológico Superior de Guanajuato. Hanon Orozco Faruich Abdel, Universidad Nacional Autónoma de Nicaragua, Managua. Melendez Gonzalez Juan David, Instituto Tecnológico Superior de Guanajuato. Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Automatizar un laboratorio de computo para el confort térmico del personal y los alumnos que ingresaron en el, usando herramientas de programación y electrónica en el  desarrollo del proyecto para así garantizar el regulamiento de la temperatura dentro del laboratorio no solo dispositivos de computo sino que también de los alumnos.



METODOLOGÍA

En este proyecto se realizo una investigación, en la cual, recolectamos datos relacionados con proyectos sobre ambientes inteligentes; en los que se registran, almacenan y visualizan valores de temperatura. Realizamos una simulación para ver como funciona el circuito antes de construirlo físicamente, la pagina de WOKWI nos brindó los materiales necesarios para realizar las pruebas simuladas del sistema. Después de analizar los datos simulados, decidimos comenzar la construcción del sistema. Para ello, se emplearon un sensor de temperatura para recopilar información  sobre el ambiente del área. y un microcontrolador que transmita la información recibida de manera inalámbrica. Una vez construido el circuito nos dedicamos a la programación que se utilizará en el microcontrolador, para este usamos el programa Arduino IDE.


CONCLUSIONES

Durante la estancía se lograron obtener y reforzar conocimientos investigativos y técnicos, siempre con el objetivo de poner en practica las técnicas de redacción y lógica de programación, así como la construcción de circuitos electrónicos y programación de los mismos. El conocimiento adquirido fue poder llevar acabo de manera practica la epistemología que tenemos en base a los estudios hasta la actualidad, usando dispositivos y programas para la realización del proyecto, al igual que los que adquirimos en las investigaciones efectuadas de otros proyectos con temas similares al ambiente inteligente y confort térmico. Dejándonos distintos aprendizajes con relación a la carrera de mecatrónica, siendo la utilización del dispositivo ESP32 con sus distintos funcionamientos y capacidades, al igual que la aplicación Arduino IDE para la realización de nuestro código. Sin embargo la mayor enseñanza que nos dejo esta estancia es que; es importante colaborar con distintas carreras para poder lograr los objetivos de practicas, proyectos o investigaciones futuras, resaltando la importancia del trabajo en equipo de manera multidisciplinaría.
Haro Bustamante Ana Laura, Universidad de Guadalajara
Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE PROTOTIPOS: HORNO DE VITROFUSIóN, EXPRIMIDOR DE PIñAS Y EXTRUSOR DE FILAMENTO


DESARROLLO DE PROTOTIPOS: HORNO DE VITROFUSIóN, EXPRIMIDOR DE PIñAS Y EXTRUSOR DE FILAMENTO

Carlos Patricio Isaac Emmanuel, Universidad Autónoma de Ciudad Juárez. Chab Contreras Diana Elizabeth, Universidad Autónoma de Yucatán. Espinoza Franco Sofia, Universidad Autónoma de Ciudad Juárez. Haro Bustamante Ana Laura, Universidad de Guadalajara. Leon Cancino Jesus Eduardo, Instituto Tecnológico de Tuxtla Gutiérrez. Martinez Cerino Paola Yosabeth, Instituto Tecnológico de Pachuca. Rodríguez Hernández Evelyn, Universidad de Guadalajara. Suriano Natarén Amairany, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La innovación tecnológica en el desarrollo de dispositivos industriales es fundamental para mejorar la eficiencia y calidad de los procesos productivos. Sin embargo, en muchas industrias, la adopción de tecnologías avanzadas se ve limitada por la falta de herramientas adecuadas que respondan a necesidades específicas de producción. En particular, se observa una carencia de soluciones efectivas en el ámbito de la vitrofusión, el procesamiento de frutas (como la extracción de jugo de piñas), y la fabricación de filamentos para impresión 3D. Cada prototipo presenta desafíos específicos en términos de diseño, integración de componentes electrónicos y optimización de funcionalidad. Este trabajo se centra en la cotización de materiales, diseño detallado, pruebas de componentes, programación y armado, con el objetivo de producir prototipos eficientes y funcionales



METODOLOGÍA

El desarrollo del primer prototipo de un horno de vitrofusión incluyó el diseño de una estructura con apertura en el plano (X, Z). La cápsula metálica, sin considerar la altura de las patas y tomando en cuenta la tapa superior e inferior, tiene dimensiones de 140 cm x 90 cm x 60 cm, y permite un rango de temperatura operativa de 80°C a 1300°C. Definieron las especificaciones técnicas, se elaboraron los planos correspondientes en el software SolidWorks. Con estos planos y especificaciones técnicas, se procedió a la cotización y adquisición de los materiales necesarios. Con los materiales, se realizaron pruebas exhaustivas de los componentes electrónicos para asegurar su funcionalidad y compatibilidad con el diseño del horno, estos componentes fueron integrados en la estructura del horno. Finalmente, se procedió al ensamblaje de la estructura del horno, utilizando principalmente soldadura y herramientas de medición, corte y esmeril. El segundo prototipo desarrollado es un exprimidor de piñas, el cual genera jugo por presión mecánica entre la base y un mazo fijado al techo de su soporte del exprimidor. La estructura esta diseñada para acomodar diversos tamaños de fruta. El proceso de desarrollo comenzó con el diseño del exprimidor en el software SolidWorks, donde se elaboró un esquema detallado del dispositivo, incluyendo todas las partes mecánicas y su ensamblaje. Este diseño permitió definir claramente las especificaciones y requerimientos técnicos. Una vez completado el diseño con los materiales disponibles, se realizaron pruebas para asegurar la operatividad, a diferencia de sistemas automatizados, este prototipo utiliza una manivela que permite a una persona ejercer la fuerza necesaria para operar el gato hidráulico. Finalmente, se armó la estructura del exprimidor utilizando técnicas de ensamblaje como soldadura y herramientas de precisión. El desarrollo del tercer prototipo, un extrusor de filamento, consiste en un motor que impulsa un husillo conectado a una tolva que transporta los restos del material de las impresoras 3D como PLA hacia un tubo caliente para fusionar los restos y por medio de una boquilla obtener filamento de un diámetro específico. El prototipo se diseñó en SolidWorks, los componentes que necesitamos fueron integrados en el diseño, seguido por el armado de su estructura y ensamblando todas las piezas, por último, se llevaron a cabo pruebas generales para verificar el correcto funcionamiento.


CONCLUSIONES

Se logró diseñar y desarrollar tres prototipos, enfrentando y superando diversos desafíos técnicos como la identificación de los materiales adecuados para cada prototipo, técnicas de soldadura, corte, desbaste y golpe, así como la implementación de los componentes electrónicos para el horno y el extrusor de filamento. Los resultados obtenidos indican que el prototipo del horno de vitrofusión cuenta con una estructura más grande a comparación de los hornos caseros, el sistema de aislamiento es funcional e innovador y el circuito electrónico es eficiente al controlar la temperatura. Asimismo, el exprimidor de piñas cuenta con una estructura que funciona manualmente y el extrusor de filamento fue adaptado para el uso y manejo del laboratorio. Los tres prototipos cuentan con potencial para mejoras futuras, una vez completados y refinados, estos dispositivos contribuyan significativamente a sus respectivas áreas de aplicación y abran la puerta a futuras investigaciones.
Haro Novoa Cinthia Ivonne, Instituto Tecnológico de Jiquilpan
Asesor: Dr. German Herrera Vidal, Universidad del Sinú

DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA


DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA

Guzmán Ponce Sofia, Instituto Tecnológico de Morelia. Haro Novoa Cinthia Ivonne, Instituto Tecnológico de Jiquilpan. Haro Novoa Karen Alondra, Instituto Tecnológico de Jiquilpan. Asesor: Dr. German Herrera Vidal, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

La presente revolución industrial conocida como industria 4.0 ha llevado a que la economía global transite una nueva fase que se caracteriza por la digitalización y la conectividad. Las empresas de tamaño mediano y pequeño se han visto obligadas a buscar formas para innovar y sobresalir y así ganar una mayor visibilidad y reconocimiento entre sus clientes.  Según datos de la Asociación Nacional de Industriales para el año 2019 la gran mayoría de los empresarios en Colombia conocían las tecnologías emergentes, pero no hacían uso de estas (ANDI, 2019). (Informe de la Encuesta Transformación Digital) La Industria 4.0 promete transformar los sistemas de manufactura mediante la integración de tecnologías avanzadas como la inteligencia artificial y el internet de las cosas. Para las pequeñas y medianas empresas en Cartagena, esta transición es crucial para mejorar la eficiencia y mantenerse competitivas.  En Colombia de cada 100 empresas que se crean solo 78 superan el primer año, 61 logran superar los tres primeros años, y tan solo 42 superan los cinco primeros años, esto evidencia que realmente no hay dificultades a la hora de crear estas empresas, sino que lo más difícil es mantenerlas en el tiempo. El mayor desafío actual para las pymes en Colombia es lograr competitividad, y una herramienta clave para lograrlo es el uso de la tecnología 4.0, la cual permitirá que las empresas sean capaces de innovar, mantenerse eficientes y poder competir en el mercado. En particular, la implementación de nuevas tecnologías puede hacer que los procesos en las industrias manufactureras sean aún más eficientes y confiables.



METODOLOGÍA

El método para llevar a cabo la investigación se desarrolló en cuatro etapas, (I) Búsqueda de información, (II) Contexto nacional en Manufactura, (III) Diagnóstico del contexto Local en Manufactura y (IV) Análisis y Conclusiones. A continuación, se detallan: (I) Búsqueda de información La primera etapa consistió en la búsqueda de información, donde se realizó una revisión exhaustiva de la literatura existente relacionada con la industria 4.0 en las Pymes. Esta fase implicó la recopilación de artículos científicos, libros, informes y otras fuentes académicas relevantes que proporcionaron la información necesaria. El objetivo principal de esta etapa fue establecer una base teórica que sustentara el estudio. (II) Contexto nacional en Manufactura Esta se centró en el diagnóstico del contexto nacional, que implicó un análisis detallado, en primera instancia sobre la estructura empresarial en Colombia, así como el aporte económico de las pymes a la economía nacional y los problemas, amenazas y debilidades que están enfrentan y cómo ello afecta a su favorable desarrollo económico. (III) Diagnóstico del contexto Local en Manufactura La tercera etapa se enfocó en el diagnóstico del contexto local, donde se realizó un análisis específico de información sobre las pymes en Cartagena, incluyendo datos específicos a nivel local, donde se consultó información sobre la industria manufacturera en esta ciudad, así como la estructura empresarial, incluyendo también los antecedentes, desafíos, oportunidades, problemas, amenazas y debilidades. (IV) Análisis y Conclusiones Finalmente, en la cuarta etapa se realizó el análisis y conclusiones, donde se integraron los hallazgos obtenidos en las etapas anteriores y se realizaron las interpretaciones. En esta fase, se compararon los datos nacionales y locales, además, se formularon conclusiones basadas en la información recopilada. Este análisis final permitió sintetizar la información del tema investigado.


CONCLUSIONES

Sin duda alguna, la industria 4.0 representa una gran oportunidad para transformar las pymes en Cartagena, pues la adopción de estas tecnologías les permitiría mejorar significativamente factores como la eficiencia, calidad y flexibilidad en los procesos productivos, lo que a su vez podría aumentar la competitividad de las pymes y con ello la economía local y nacional, fortaleciendo así su productividad, reduciendo costos y mejorando la calidad de sus productos. Sin embargo, esta investigación también nos permitió darnos cuenta de la brecha tan considerable que existe en la adopción de estas tecnologías, especialmente tomando en cuenta que las pymes son un sector que a menudo carece de los recursos y conocimientos necesarios para implementar soluciones avanzadas. Es por ello por lo que consideramos que, para superar estos desafíos es esencial una colaboración estrecha entre el gobierno, el sector privado y las instituciones educativas. Las iniciativas de capacitación y formación continua, la creación de incentivos financieros para la inversión en tecnología, y el desarrollo de estrategias de gobernanza adecuadas son pasos críticos que pueden ayudar a cerrar la brecha tecnológica. Además, el fortalecimiento de la infraestructura digital y la mejora en la ciberseguridad son fundamentales para proteger las operaciones y datos empresariales, lo que a su vez ayudaría a crear confianza en los empresarios y romper con los pensamientos de rechazo sobre el uso de esas tecnologías en sus empresas a causa de no verlo como una opción factible o una tendencia.  Por otro lado, consideramos que, para mejorar su competitividad y sostenibilidad, las pymes deben implementar estrategias que optimicen sus procesos productivos y minimicen su impacto ambiental. La adopción de una logística interna adecuada, acompañada de una gestión financiera eficiente y una planificación ambiental estratégica, contribuiría significativamente a mejorar el desempeño del papel en términos de competitividad.  
Haro Novoa Karen Alondra, Instituto Tecnológico de Jiquilpan
Asesor: Dr. German Herrera Vidal, Universidad del Sinú

DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA


DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA

Guzmán Ponce Sofia, Instituto Tecnológico de Morelia. Haro Novoa Cinthia Ivonne, Instituto Tecnológico de Jiquilpan. Haro Novoa Karen Alondra, Instituto Tecnológico de Jiquilpan. Asesor: Dr. German Herrera Vidal, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

La presente revolución industrial conocida como industria 4.0 ha llevado a que la economía global transite una nueva fase que se caracteriza por la digitalización y la conectividad. Las empresas de tamaño mediano y pequeño se han visto obligadas a buscar formas para innovar y sobresalir y así ganar una mayor visibilidad y reconocimiento entre sus clientes.  Según datos de la Asociación Nacional de Industriales para el año 2019 la gran mayoría de los empresarios en Colombia conocían las tecnologías emergentes, pero no hacían uso de estas (ANDI, 2019). (Informe de la Encuesta Transformación Digital) La Industria 4.0 promete transformar los sistemas de manufactura mediante la integración de tecnologías avanzadas como la inteligencia artificial y el internet de las cosas. Para las pequeñas y medianas empresas en Cartagena, esta transición es crucial para mejorar la eficiencia y mantenerse competitivas.  En Colombia de cada 100 empresas que se crean solo 78 superan el primer año, 61 logran superar los tres primeros años, y tan solo 42 superan los cinco primeros años, esto evidencia que realmente no hay dificultades a la hora de crear estas empresas, sino que lo más difícil es mantenerlas en el tiempo. El mayor desafío actual para las pymes en Colombia es lograr competitividad, y una herramienta clave para lograrlo es el uso de la tecnología 4.0, la cual permitirá que las empresas sean capaces de innovar, mantenerse eficientes y poder competir en el mercado. En particular, la implementación de nuevas tecnologías puede hacer que los procesos en las industrias manufactureras sean aún más eficientes y confiables.



METODOLOGÍA

El método para llevar a cabo la investigación se desarrolló en cuatro etapas, (I) Búsqueda de información, (II) Contexto nacional en Manufactura, (III) Diagnóstico del contexto Local en Manufactura y (IV) Análisis y Conclusiones. A continuación, se detallan: (I) Búsqueda de información La primera etapa consistió en la búsqueda de información, donde se realizó una revisión exhaustiva de la literatura existente relacionada con la industria 4.0 en las Pymes. Esta fase implicó la recopilación de artículos científicos, libros, informes y otras fuentes académicas relevantes que proporcionaron la información necesaria. El objetivo principal de esta etapa fue establecer una base teórica que sustentara el estudio. (II) Contexto nacional en Manufactura Esta se centró en el diagnóstico del contexto nacional, que implicó un análisis detallado, en primera instancia sobre la estructura empresarial en Colombia, así como el aporte económico de las pymes a la economía nacional y los problemas, amenazas y debilidades que están enfrentan y cómo ello afecta a su favorable desarrollo económico. (III) Diagnóstico del contexto Local en Manufactura La tercera etapa se enfocó en el diagnóstico del contexto local, donde se realizó un análisis específico de información sobre las pymes en Cartagena, incluyendo datos específicos a nivel local, donde se consultó información sobre la industria manufacturera en esta ciudad, así como la estructura empresarial, incluyendo también los antecedentes, desafíos, oportunidades, problemas, amenazas y debilidades. (IV) Análisis y Conclusiones Finalmente, en la cuarta etapa se realizó el análisis y conclusiones, donde se integraron los hallazgos obtenidos en las etapas anteriores y se realizaron las interpretaciones. En esta fase, se compararon los datos nacionales y locales, además, se formularon conclusiones basadas en la información recopilada. Este análisis final permitió sintetizar la información del tema investigado.


CONCLUSIONES

Sin duda alguna, la industria 4.0 representa una gran oportunidad para transformar las pymes en Cartagena, pues la adopción de estas tecnologías les permitiría mejorar significativamente factores como la eficiencia, calidad y flexibilidad en los procesos productivos, lo que a su vez podría aumentar la competitividad de las pymes y con ello la economía local y nacional, fortaleciendo así su productividad, reduciendo costos y mejorando la calidad de sus productos. Sin embargo, esta investigación también nos permitió darnos cuenta de la brecha tan considerable que existe en la adopción de estas tecnologías, especialmente tomando en cuenta que las pymes son un sector que a menudo carece de los recursos y conocimientos necesarios para implementar soluciones avanzadas. Es por ello por lo que consideramos que, para superar estos desafíos es esencial una colaboración estrecha entre el gobierno, el sector privado y las instituciones educativas. Las iniciativas de capacitación y formación continua, la creación de incentivos financieros para la inversión en tecnología, y el desarrollo de estrategias de gobernanza adecuadas son pasos críticos que pueden ayudar a cerrar la brecha tecnológica. Además, el fortalecimiento de la infraestructura digital y la mejora en la ciberseguridad son fundamentales para proteger las operaciones y datos empresariales, lo que a su vez ayudaría a crear confianza en los empresarios y romper con los pensamientos de rechazo sobre el uso de esas tecnologías en sus empresas a causa de no verlo como una opción factible o una tendencia.  Por otro lado, consideramos que, para mejorar su competitividad y sostenibilidad, las pymes deben implementar estrategias que optimicen sus procesos productivos y minimicen su impacto ambiental. La adopción de una logística interna adecuada, acompañada de una gestión financiera eficiente y una planificación ambiental estratégica, contribuiría significativamente a mejorar el desempeño del papel en términos de competitividad.  
Hermosillo Sandoval Edwin Gabriel, Universidad Tecnológica de Nayarit
Asesor: Mg. María Antonieta Clemente Velarde, Instituto Nacional de Formación Técnica Profesional - INFOTEP

HERRAMIENTAS PARA EL DESPLIEGUE DE SERVICIOS DE TRANSPORTE PÚBLICO CON MOVILIDAD INTELIGENTE VERDE EN EL DEPARTAMENTO DE LA GUAJIRA


HERRAMIENTAS PARA EL DESPLIEGUE DE SERVICIOS DE TRANSPORTE PÚBLICO CON MOVILIDAD INTELIGENTE VERDE EN EL DEPARTAMENTO DE LA GUAJIRA

Beas Hernández Luis Elias, Universidad Tecnológica de Nayarit. Cruz del Angel Alan, Instituto Tecnológico Superior de Huauchinango. Hermosillo Sandoval Edwin Gabriel, Universidad Tecnológica de Nayarit. Ramos Avalos Roberto, Universidad Tecnológica de Nayarit. Asesor: Mg. María Antonieta Clemente Velarde, Instituto Nacional de Formación Técnica Profesional - INFOTEP



PLANTEAMIENTO DEL PROBLEMA

Planteamiento El estudio se centra en la infraestructura para la innovación tecnológica en el Departamento de La Guajira y las tecnologías y herramientas de movilidad inteligente verde presentes en la infraestructura del transporte público de esta localidad. El objetivo principal es describir y analizar las características actuales de la infraestructura de transporte público en relación con las tecnologías de movilidad inteligente y sostenible. Se busca identificar las oportunidades y desafíos para la implementación de estas tecnologías en el contexto de La Guajira.



METODOLOGÍA

Metodología El estudio se enmarca en un diseño de investigación no experimental y transeccional descriptivo. Esto significa que no se manipularon las variables de estudio y que los datos fueron recolectados en un solo momento temporal. Se utilizó un enfoque de investigación de campo, recolectando datos directamente de la realidad, en este caso, de las Alcaldías Municipales y Secretarías de Movilidad del Departamento de La Guajira. La población de estudio incluyó a los directores de transporte público y a los Secretarios de Movilidad de los municipios seleccionados​


CONCLUSIONES

Conclusiones Infraestructura Tecnológica Actual: La investigación reveló que la infraestructura tecnológica actual del transporte público en La Guajira es limitada. Hay una falta de sistemas avanzados de gestión y monitoreo de flotas, lo que dificulta la eficiencia operativa y la implementación de tecnologías de movilidad inteligente. Potencial para la Innovación: A pesar de las limitaciones actuales, existe un potencial significativo para la adopción de tecnologías de movilidad inteligente en La Guajira. Las autoridades locales y los actores del sector pueden aprovechar las oportunidades de innovación tecnológica para mejorar la sostenibilidad y la eficiencia del transporte público, lo cual contribuiría al desarrollo regional y al bienestar de la población​
Hernández Aboytes Aline Michelle, Instituto Politécnico Nacional
Asesor: Mg. Andrés Fernando Cuellar Cardona, Institución Universitaria Salazar y Herrera

IMPACTO DE LA INTEGRACIÓN DE INTELIGENCIAS ARTIFICIALES EN LA FORMACIÓN DE ESTUDIANTES DE DESARROLLO DE SOFTWARE DE DIFERENTES CICLOS PROPEUTICOS EN EL VALLE DEL ABURRA.


IMPACTO DE LA INTEGRACIÓN DE INTELIGENCIAS ARTIFICIALES EN LA FORMACIÓN DE ESTUDIANTES DE DESARROLLO DE SOFTWARE DE DIFERENTES CICLOS PROPEUTICOS EN EL VALLE DEL ABURRA.

Hernández Aboytes Aline Michelle, Instituto Politécnico Nacional. Asesor: Mg. Andrés Fernando Cuellar Cardona, Institución Universitaria Salazar y Herrera



PLANTEAMIENTO DEL PROBLEMA

La Inteligencia Artificial (IA) ha transformado la educación, especialmente en el desarrollo de software, proporcionando tutorías virtuales y evaluaciones personalizadas que mejoran el aprendizaje. La IA también automatiza tareas repetitivas en el desarrollo de software, permitiendo a los desarrolladores centrarse en aspectos más complejos. Sin embargo, existe una creciente dependencia de los estudiantes hacia estas herramientas, lo que puede afectar sus habilidades de análisis y resolución de problemas.  El AI se ha enfocado en el aprendizaje mixto, donde el estudiante alcanza sus propias bases a través del autoaprendizaje y en clase resuelve dudas con apoyo del profesor. Por su parte el AC, se enfoca en la construcción de habilidades que le permiten al estudiante tener bases que no se encuentran en la enseñanza tradicional de un curso (Fortanet van Assendelft, 2013] Fortanet van Assendelft) La IA transformará profundamente la educación, declaró Audrey Azoulay, Directora General de la UNESCO en la Semana del Aprendizaje Móvil de la UNESCO llevada a cabo en el mes de marzo de 2019 en París, Francia. El uso de la inteligencia artificial en la educación podría contribuir a mejorar la calidad de la enseñanza y el aprendizaje, así como a ampliar el acceso a la educación mediante el uso de plataformas de aprendizaje en línea y recursos educativos digitales



METODOLOGÍA

Se seleccionará una muestra de estudiantes de desarrollo de software de tres instituciones educativas: Institución Universitaria Salazar y Herrera SENA. La muestra incluirá estudiantes de diferentes ciclos propedéuticos (técnico, profesional y tecnologico) para capturar una amplia gama de experiencias y habilidades, se les aplicaran encuestas y entrevistas personalizadas para poder conocer las perspectivas de los estudiantes. Las encuestas serán diseñadas y validadas por un panel de expertos en educación y tecnologías de inteligencia artificial. El proceso de validación incluirá la revisión de contenido, constructo y criterio para asegurar que las preguntas sean claras, relevantes y adecuadas para los objetivos de la investigación.  Las encuestas se administrarán a grupos de estudiantes seleccionados aleatoriamente de las instituciones participantes, asegurando una muestra representativa en términos de género, edad y nivel académico. Las encuestas se realizarán en línea para mayor accesibilidad de los estudiantes. Se proporcionarán instrucciones claras y se garantizará la confidencialidad de las respuestas para fomentar la participación honesta y precisa. También se realizarán análisis descriptivos para resumir las percepciones y satisfacciones de los estudiantes con el uso de IA. Se eligieron dos enfoques, uno cuantitativo  otro cualitativo. Hablando del enfoque cuantitativo se elige debido a su capacidad para proporcionar datos objetivos y comparables sobre el impacto del uso de IA en la educación. Este enfoque permite medir el rendimiento y las habilidades de los estudiantes de manera precisa y estadísticamente significativa. De igual forma hablando del enfoque cualitativo,se implementaran tecnicas como entrevistas en profundidad y grupos focales, para complementar los hallazgos cuantitativos. Esto proporcionará una mayor comprensión de las experiencias y percepciones de los estudiantes y profesores, permitiendo explorar temas emergentes y matizar las conclusiones basadas en los datos cuantitativos.


CONCLUSIONES

La IA transformará profundamente la educación, declaró Audrey Azoulay, Directora General de la UNESCO en la Semana del Aprendizaje Móvil de la UNESCO llevada a cabo en el mes de marzo de 2019 en París, Francia.  Dentro de la estancia se logro cumplir la mayoria de los objetivos planteados, aunque enfrentamos un gran desaffio que fue lograr reunir una gran cantidad de estudiates para que les fueran aplicadas las encuestas y las entrevistas, pues al estar en periodo vacacional, son muy pocas las instituciones que se encuentran aun en actividades academicas, a pesar de eso pudimos tener resultados favorables. Podemos concluir que el uso de la inteligencia artifica en diferentes niveles de estudio ha sido de gran impacto en el desarrollo academico de los estudiantes de desarrollo en software, pues les ha permitido tener una mayor comprension de los temas que se llegan a ver en clase, han lograd tener una mejor comprension de coneptos basicos y partes de codigo. Esta herramienta la han tomado de apoyo, pues incialmente se pensaria que los estudiantes se han vuelto completamente dependientes de la inteigencia artificial, pero al realizar una investigacion un poco mas profunda, nos podemos dar cuenta que ha sido lo contrario, posiblemente porque la IA se encuentra aun en crecimiento y hasta el dia de hoy aun tiene deficiencias y limitaciones. En conclusion, la implememtacion de la IA en el campo del desarrollo de software ha sido de gran apoyo para todos los estudiantes, pues han tenido un mejor desempeño en su trayectoria academica y les ha brindado accesibilidad para aclarar sus dudas o recibir ayuda de forma inmediata, definitivamente "la IA lograra transformar la educacion"
Hernández Basilio Bryan Alexis, Instituto Tecnológico Superior de Los Reyes
Asesor: Dra. Blanca Carballo Mendivil, Instituto Tecnológico de Sonora

APLICACIóN ANALíTICA DE DATOS EN LA INDUSTRIA AVíCOLA


APLICACIóN ANALíTICA DE DATOS EN LA INDUSTRIA AVíCOLA

Hernández Basilio Bryan Alexis, Instituto Tecnológico Superior de Los Reyes. Asesor: Dra. Blanca Carballo Mendivil, Instituto Tecnológico de Sonora



PLANTEAMIENTO DEL PROBLEMA

El artículo aborda la importancia de la analítica de datos en la industria avícola, centrándose en la producción, comercialización, consumo y demanda de carne de pollo y huevo. Se destaca que la analítica de datos puede optimizar la producción y distribución, mejorar la comercialización y ajustar la oferta a la demanda del consumidor. La aplicación de estas técnicas puede conducir a mejoras significativas en la eficiencia, calidad y sostenibilidad de la producción avícola, beneficiando a productores y consumidores y contribuyendo al desarrollo económico y social de regiones productoras como Sonora, México y el Mundo en general.



METODOLOGÍA

La metodología del estudio se divide en varias etapas: Recolección de Datos: Se utilizan datos primarios (información de productores, distribuidores y consumidores) y datos secundarios (información estadística de instituciones gubernamentales e internacionales).   Análisis de Datos: Se emplean herramientas como Excel, Power BI y Python para realizar análisis descriptivos y predictivos. Los modelos predictivos incluyen técnicas de regresión lineal múltiple.   Estudios de Caso: Se llevan a cabo estudios detallados en diversas regiones para evaluar la calidad de los productos avícolas y la efectividad de las estrategias de comercialización.   Evaluación de Impacto: Se analiza el impacto de políticas públicas y programas de desarrollo en la producción y comercialización avícola


CONCLUSIONES

Las conclusiones del estudio resaltan varios puntos clave: Predicciones Futuras: El método de regresión lineal combinado con el ajuste polinomial ha demostrado ser eficaz para predecir tendencias futuras en la producción y demanda de carne de pollo y huevo a nivel mundial, utilizando librerías de Python para desarrollar un modelo preciso y fiable.   Representación Gráfica en México: Para México, se optó por una representación gráfica de los datos debido a la variabilidad y especificidad regional, lo cual facilita la comprensión y destaca las áreas con mayor producción.   Limitaciones: Se identificó una importante limitación en la falta de datos abiertos a nivel nacional en México, lo cual dificulta un análisis más detallado y exhaustivo.   Recomendaciones: Se recomienda recopilar y publicar más datos abiertos a nivel nacional para mejorar la precisión y exhaustividad de futuros estudios. Los resultados actuales son positivos y proporcionan una base sólida para la planificación y toma de decisiones en la industria avícola . Estas conclusiones subrayan la importancia de la analítica de datos en mejorar la producción, comercialización, consumo y demanda en la industria avícola y la necesidad de disponer una gran variedad de datos abiertos para optimizar estos procesos.
Hernandez Bernal Eric Santiago, Fundación Universidad de América
Asesor: Dra. Eugenia Erica Vera Cervantes, Benemérita Universidad Autónoma de Puebla

APLICACIONES DEL MODELO METACOGNITIVO PIANO A LA INVESTIGACIóN Y DESARROLLO DE MODELOS ACADéMICOS BASADOS EN TEORíA DE GéNEROS


APLICACIONES DEL MODELO METACOGNITIVO PIANO A LA INVESTIGACIóN Y DESARROLLO DE MODELOS ACADéMICOS BASADOS EN TEORíA DE GéNEROS

Hernandez Bernal Eric Santiago, Fundación Universidad de América. Asesor: Dra. Eugenia Erica Vera Cervantes, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En menos de 50 años, hemos atravesado dos revoluciones industriales y numerosos cambios sociales, culturales y de conocimiento. Hace aproximadamente 40 años, se identificaban problemas en la educación ingenieril relacionados con la burocratización (o ausencia de alma), la deshumanización (o carácter impersonal), el limitado uso de la autocrítica, la naturaleza más informativa que formativa, el desprecio por lo ético y la carencia de sentido del humor. Hoy en día, las preocupaciones han evolucionado para incluir la transición filosófica, el manejo de conflictos, la retroalimentación clara,, la escasez de habilidades de coordinación, las barreras institucionales y la confianza de los estudiantes en sí mismos. Los programas STEM, en particular, han evidenciado fallas en los enfoques humanos, en la equidad y en la consideración de retos sociales, lo cual puede llevar a una falta de diversidad y empatía. En este contexto, el modelo PIANO puede desempeñar un papel crucial en la implementación de la teoría de géneros textuales en el aprendizaje de idiomas. Al subdividir la capacidad cognitiva en pensamiento, investigación, actuación, nutrición y obrar, el modelo  ofrece un marco estructurado para abordar la enseñanza de diferentes géneros textuales. Este enfoque permite una comprensión más profunda y matizada de cada género al facilitar una integración efectiva de habilidades cognitivas y pedagógicas. Así se  puede guiar a los estudiantes no solo en la producción y análisis de textos, sino también en la reflexión crítica sobre el propósito y el contexto de cada género que no solo complementa la teoría de géneros textuales, sino que también enriquece el proceso educativo al promover una enseñanza más holística y centrada en el aprendiz.  



METODOLOGÍA

Al ingresar a la plataforma de lecciones virtuales de inglés, es esencial asegurar que el entorno digital cumpla con los principios básicos de ergonomía cognitiva. Esto incluye una interfaz clara y de fácil navegación, una disposición lógica del contenido, y la adecuación de los recursos multimedia a las necesidades del usuario. Basándose en estos parámetros, se realizarán observaciones sobre los elementos que pueden influir en la atención y el rendimiento de los estudiantes durante sesiones de 20 minutos, un tiempo óptimo recomendado para mantener la concentración, ajustado por factores como ansiedad y TDAH. Los entornos hipermedia adaptativos permiten personalizar las lecciones de acuerdo con el nivel de atención y las necesidades individuales de los estudiantes. Por ejemplo, los recursos interactivos y multimedia pueden incluir preguntas efectivas en momentos estratégicos para mantener el interés y facilitar el aprendizaje. Los datos de interacción serán recopilados a través de herramientas de análisis de comportamiento y evaluaciones automatizadas para adaptar las lecciones en tiempo real con retroalimentaciones que lleguen a ser lo más personalizadas posibles . Además, las estrategias cooperativas en el aprendizaje del inglés se adaptan a las necesidades cognitivas y emocionales de los estudiantes. El enfoque puede incluir el uso de la teoría de géneros textuales para contextualizar y personalizar el aprendizaje. Esto significa que los estudiantes interactuarán con diferentes tipos de textos (géneros) de manera dinámica, y las actividades se ajustarán en función de su respuesta y nivel de compromiso. Por ejemplo, al enseñar narraciones o cartas, se aplicará la teoría de géneros para ayudar a los estudiantes a comprender la estructura y propósito de cada tipo de texto, mejorando así su competencia comunicativa y su capacidad de producción escrita. La aplicación del modelo PIANO en este entorno virtual facilita la integración de estrategias pedagógicas adaptativas. Este modelo subdivide el proceso de aprendizaje en pensamiento, investigación, actuación, nutrición y obrar, permitiendo una personalización continua del contenido en función de las necesidades individuales. La combinación de este modelo con la teoría de géneros textuales promueve una comprensión más profunda y contextualizada de los textos, ajustando las lecciones para mejorar la eficacia del aprendizaje y mantener un equilibrio adecuado entre la enseñanza y la interacción del estudiante. Finalmente, se realizará una evaluación para medir los conocimientos adquiridos, la metacognición y cualquier impacto positivo o negativo en la salud mental de los estudiantes. Los perfiles de los estudiantes se definirán según sus niveles de metacognición, y se espera que la aplicación de estrategias cooperativas y el enfoque adaptativo resulten en un aprendizaje equilibrado y eficaz, alcanzando así un equilibrio óptimo en la dinámica del aula virtual  


CONCLUSIONES

La aplicación de entornos hipermedia adaptativos y el modelo PIANO el aprendizaje del inglés, junto con la teoría de géneros textuales, puede producir una variedad de resultados realistas y positivos. En primer lugar, se espera que los estudiantes experimenten una mayor personalización en el aprendizaje, adaptada a sus necesidades individuales, lo que puede resultar en una mejora significativa en la comprensión y producción escrita en inglés. La integración de recursos multimedia interactivos y la personalización de los contenidos basados en la teoría de géneros puede aumentar la motivación y el compromiso, al permitir una interacción más dinámica y relevante con los textos. Además, la adaptación continua del contenido en respuesta a los datos de comportamiento permitirá ajustes en tiempo real, optimizando la atención y reduciendo la fatiga cognitiva. Aunque también es posible que algunos estudiantes enfrenten desafíos en la adaptación a un entorno de aprendizaje altamente personalizado, lo que podría requerir soporte adicional y ajustes continuos para mantener un equilibrio efectivo.
Hernandez Blanco Angel Jesus, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan

DESARROLLO DE APLICACIONES MóVILES PARA SOLUCIóN DE PROBLEMáTICAS DE IMPACTO SOCIAL, ECONóMICO, ETC.


DESARROLLO DE APLICACIONES MóVILES PARA SOLUCIóN DE PROBLEMáTICAS DE IMPACTO SOCIAL, ECONóMICO, ETC.

Hernandez Blanco Angel Jesus, Instituto Tecnológico Superior de Uruapan. Romero Sánchez José Francisco, Instituto Tecnológico Superior de Uruapan. Rosas Ibarra Ricardo, Instituto Tecnológico Superior de Uruapan. Torres Loya Olga Christelle, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Uno de los mayores desafíos que enfrentan los desarrolladores de aplicaciones móviles es la fragmentación de plataformas. Con la gran cantidad de dispositivos y sistemas operativos diferentes en el mercado, puede ser difícil crear una aplicación que funcione en todos ellos.  Otro desafío común que enfrentan los desarrolladores de aplicaciones móviles es el rendimiento. Las aplicaciones móviles deben ser rápidas y fluidas para brindar una buena experiencia de usuario.



METODOLOGÍA

Las herramientas que se utilizaron para este proyecto de forma temprana son provenientes de servicios gratuitos como puede ser IDX, siendo este un codificador similar como lo es Visual Studio Code, teniendo al diferencia en que este servicio incluso nos permitirá realizar pruebas semejantes a las de un emulador, tales como un dispositivo móvil con sistema Android o de igual forma visualizando como una página web, todo ello basándose en la programación del lenguaje Dart bajo el framework Flutter, siendo este el apartado más importante ya que la aplicación funcionara con este sistema como motor. Dart permite generar un único código fuente que, al momento de compilar, posibilita la selección de diferentes plataformas de destino. Esta característica contribuye significativamente a la reducción del tiempo de producción de aplicaciones, eliminando la necesidad de escribir y mantener múltiples versiones del código para diferentes sistemas operativos. Flutter, desarrollado por Google, es un framework de código abierto que facilita la creación de aplicaciones nativas multiplataforma a partir de un único código base. Su motor gráfico Skia proporciona interfaces de usuario de alta calidad y rendimiento, ofreciendo una experiencia fluida y consistente en plataformas como iOS, Android, web y escritorio. Además, Flutter promueve un desarrollo ágil mediante su función de "hot reload" y cuenta con una amplia comunidad y recursos de soporte que optimizan el proceso de desarrollo. Uno de los objetivos principales de esta investigación es obtener una visión integral sobre las diversas herramientas, frameworks y plataformas disponibles que pueden abordar el desafío de la producción de código multiplataforma. Esta exploración permitirá identificar las soluciones tecnológicas más adecuadas para desarrollar aplicaciones eficientes en múltiples sistemas operativos, optimizando recursos y mejorando la experiencia del usuario. El entorno de desarrollo utilizado fue Project IDX, una plataforma en la nube de Google diseñada para simplificar la creación de aplicaciones web y móviles. Permite el acceso al entorno de desarrollo desde cualquier dispositivo con conexión a internet, facilitando la colaboración en tiempo real y eliminando la necesidad de configuraciones locales complejas. Además, la plataforma permite trabajar en proyectos sin necesidad de contar con hardware especializado, ya que los recursos son proporcionados por los servidores de Google. Al estar basado en la nube, Project IDX ofrece escalabilidad y recursos bajo demanda, permitiendo a los desarrolladores gestionar proyectos de cualquier tamaño sin preocuparse por limitaciones de hardware. Inicialmente, se analizó la sintaxis del lenguaje Dart y se construyeron programas sencillos. Este enfoque facilitó la familiarización con la sintaxis del lenguaje y las diversas herramientas proporcionadas por el framework Flutter para optimizar la producción de código, destacando entre ellas los widgets. En Flutter, los widgets son los componentes fundamentales para construir la interfaz de usuario, representando todos los elementos visuales e interactivos, como botones, textos e imágenes. Estos widgets están organizados jerárquicamente en un árbol, son inmutables y configurables, lo que permite realizar cambios mediante la creación de nuevos widgets en lugar de modificar los existentes. Los widgets se clasifican en varias categorías: widgets de diseño, que controlan la disposición; widgets de interfaz, que constituyen los elementos visibles; y widgets con estado, que pueden cambiar dinámicamente, frente a aquellos sin estado, que permanecen estáticos. Esta estructura permite crear interfaces complejas y dinámicas de manera eficiente. Una vez desarrollada una aplicación más compleja que incorpora diferentes tipos de menús para facilitar la navegación, se utilizó la herramienta de GitHub para trasladar el proyecto de manera local a Visual Studio Code Visual studio Code que nos permite agregar proyectos de flutter y poder visualizarlos cómo una aplicación de escritorio y emular el proyecto de flutter en un móvil Android virtual. además de poder vincularse con GitHub, lo que permite una conexión compartida entre las plataformas de project IDX y visual studio code, esto permite la visualización y edición en ambas plataformas. EJ:  Project IDX ←→ GitHub(Repositorio) ←→ Visual Studio Code


CONCLUSIONES

Flutter resuelve el problema de la fragmentación de plataformas al permitir a los desarrolladores crear aplicaciones con una única base de código que se puede compilar tanto para Android como para iOS. Esto elimina la necesidad de escribir y mantener código separado para cada plataforma, lo que ahorra tiempo, dinero y reduce la complejidad del desarrollo. También utilizando un motor de renderizado llamado Skia permite crear aplicaciones con un rendimiento nativo. Esto significa que las aplicaciones Flutter se ejecutan tan rápido y fluidas como las aplicaciones nativas escritas en Kotlin, C++ o Swift.
Hernández Bravo Jesus Eduardo, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla

REALIDAD AUMENTADA COMO TECNOLOGíA APLICADA A LA EDUCACIóN


REALIDAD AUMENTADA COMO TECNOLOGíA APLICADA A LA EDUCACIóN

Hernández Bravo Jesus Eduardo, Benemérita Universidad Autónoma de Puebla. Salazar Vega Miryam, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la educación enfrenta desafíos significativos para adaptarse a las necesidades de los estudiantes en un mundo cada vez más digital. La brecha entre la educación tradicional y las herramientas tecnológicas disponibles puede limitar el acceso a oportunidades de aprendizaje efectivas y personalizadas. En México, el sistema educativo tiene dificultades para brindar una educación de calidad y equitativa a todos los estudiantes, especialmente en áreas rurales y marginadas. Además, la falta de integración de tecnologías computacionales en el aula puede dificultar la motivación y el compromiso de los estudiantes. Por lo tanto, es necesario explorar y desarrollar soluciones que integren tecnologías computacionales innovadoras en la educación, para mejorar la calidad y accesibilidad del aprendizaje, y preparar a los estudiantes para los desafíos del mundo actual.



METODOLOGÍA

Se seleccionó como público dirigido a alumnos de educación básica en la rama de las Ciencias de la Salud, con el fin de dar conocimiento a los alumnos de manera interactiva e innovadora a través de una aplicación móvil que haga uso de la realidad aumentada. La aplicación mostrará en realidad aumentada algunos modelos 3D e información escrita y audible de los sistemas del cuerpo humano que seleccionamos (Sistema Digestivo, Sistema Óseo, Sistema Respiratorio y Sistema Circulatorio) a través de pequeñas tarjetas que contienen imágenes de estos organismos que se proporcionaran al alumnado. Una vez arranquen la aplicación aparecerán varias opciones en donde encontraran el apartado para escanear con la cámara del dispositivo móvil las imágenes que más llamen su atención. Mientras más imágenes escaneen más Conocimiento irán obteniendo y se mostrará en otra opción de la aplicación el avance que tienen de cada sistema. Para asegurarnos del correcto uso y el conocimiento adquirido desarrollamos un pequeño mini-juego en el que construirán el sistema que seleccionen con las partes de este que aparecen como opciones en la pantalla. Desarrollamos esta aplicación con el motor de videojuegos de Unity junto con la librearía de Vuforia que nos permite trabajar con la realidad aumentada en los dispositivos móviles.


CONCLUSIONES

Durante la estancia se aplicaron tecnologías para que los estudiantes tuvieran una forma innovadora de aprender, en este caso con el uso de dispositivos móviles y la realidad aumentada. Se mostró y probo la aplicación en un grupo de alumnos de entre 5 a 15 años donde la experiencia que tuvieron con la aplicación resulto agradable, innovadora y desafiante, donde el alumno obtuvo un conocimiento nuevo o reforzo lo antes ya visto gracias al uso de esta aplicación. La realidad aumentada como tecnología para la educación fue innovador para varios alumnos y despertando un interés en las tecnologías utilizadas, así como experimentar de manera más realista, en este caso, los sistemas del cuerpo humano. Sin duda este tipo de tecnología abren el camino para que se desarrollen y brinden muchas más alternativas de aprendizaje moderno.
Hernandez Calera Johan Rodrigo, Universidad Tecnológica Paso del Norte
Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas

ZIGBEE: INNOVACIóN EN LA CONECTIVIDAD Y AUTOMATIZACIóN


ZIGBEE: INNOVACIóN EN LA CONECTIVIDAD Y AUTOMATIZACIóN

Hernandez Calera Johan Rodrigo, Universidad Tecnológica Paso del Norte. Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La creciente demanda por sistemas inteligentes y automatizados en hogares y empresas ha puesto en evidencia la necesidad de contar con tecnologías de comunicación eficientes, seguras y de bajo consumo energético. Zigbee se presenta como una solución potencial para estos desafíos, ofreciendo una plataforma robusta para la conectividad y automatización de dispositivos. Sin embargo, su implementación y optimización en entornos reales requiere una comprensión profunda de sus capacidades y limitaciones. En este proyecto, se exploran las características de Zigbee y se evalúa su efectividad en diferentes escenarios de automatización.



METODOLOGÍA

Para abordar el problema planteado, se llevaron a cabo diversas actividades estructuradas en varias etapas. Inicialmente, se realizó una revisión exhaustiva de la documentación oficial de Zigbee, estudiando su arquitectura y protocolos, y comparando sus características con otras tecnologías inalámbricas como WiFi y Bluetooth. Además, se revisaron artículos y publicaciones sobre la evolución de Zigbee y su impacto en la automatización.Posteriormente, se identificaron los simuladores adecuados para trabajar con Zigbee, como NS-3, OMNeT++, y el Zigbee Network Simulator. Se eligió un simulador y se configuró para crear un entorno de simulación adecuado. Se exploraron las herramientas y funcionalidades de este simulador para comprender mejor su operación.Para el desarrollo del proyecto, se virtualizó Ubuntu en VirtualBox utilizando la versión 22.04.4 de Ubuntu. Dentro de este sistema virtualizado, se configuró una red Zigbee básica con un coordinador y varios dispositivos. Se realizaron pruebas de comunicación entre dispositivos, analizando y depurando problemas de conectividad que surgieron durante el proceso.En la siguiente fase, se desarrollaron aplicaciones básicas utilizando Zigbee en el simulador, como una aplicación para controlar dispositivos (por ejemplo, encender/apagar luces). Se utilizaron comandos y funciones básicas de Zigbee y se exploraron ejemplos de código para adaptar soluciones a las necesidades del entorno simulado.Se avanzó implementando una red Zigbee completa y escalable en el simulador con múltiples dispositivos. Esta red fue asegurada mediante métodos de cifrado y autenticación y optimizada para mejorar la cobertura y la eficiencia energética.Adicionalmente, se integró la red Zigbee simulada con un sistema domótico simulado (por ejemplo, Home Assistant), implementando interfaces de usuario para controlar y monitorear dispositivos Zigbee. También se realizaron pruebas de interoperabilidad con otros protocolos, como Zigbee a MQTT.Finalmente, se ejecutaron pruebas de estrés y rendimiento en la red Zigbee simulada, depurando y solucionando problemas identificados. Toda la implementación fue documentada y se creó un manual de usuario para el entorno simulado.


CONCLUSIONES

Durante la estancia, se adquirieron conocimientos teóricos y prácticos sobre la tecnología Zigbee y su aplicación en la automatización de sistemas. Los resultados preliminares indican que Zigbee es una solución viable para sistemas inteligentes debido a su bajo consumo energético y alta fiabilidad en la transmisión de datos. Las pruebas mostraron mejoras significativas en latencia y cobertura tras varias optimizaciones. Se espera que esta tecnología mejore la eficiencia y seguridad de sistemas automatizados en diversos entornos. En futuras fases, se realizarán ajustes adicionales para maximizar el rendimiento de la red Zigbee en condiciones reales.
Hernández Carrillo Anette Sofía, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Jeovany Rafael Rodriguez Mejia, Instituto Tecnológico de Ciudad Juárez

ACELERACIONES ALCANZADAS EN LOS IMPACTOS CON CASCO EN EL FúTBOL AMERICANO


ACELERACIONES ALCANZADAS EN LOS IMPACTOS CON CASCO EN EL FúTBOL AMERICANO

Hernández Carrillo Anette Sofía, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Jeovany Rafael Rodriguez Mejia, Instituto Tecnológico de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

En los deportes de contacto, como el fútbol americano, los atletas están expuestos a riesgos debido a los golpes constantes en diversas regiones del cuerpo, particularmente en la cabeza, lo que puede provocar alteraciones en los procesos cognitivos [1]. Investigaciones recientes han desarrollado estrategias para minimizar la gravedad de estas lesiones, incluyendo la implementación de nuevos materiales y tecnologías en el equipo de protección para prevenir los diferentes tipos de traumatismos craneofaciales [2]. Este estudio propone la medición de las aceleraciones alcanzadas durante los impactos con casco en el fútbol americano, con el objetivo de prevenir y disminuir la gravedad de dichas lesiones.



METODOLOGÍA

Consta principalmente de 3 etapas: Programación del Sensor Para la recolección de datos de aceleración en el casco, se utilizó el sensor inercial MPU6050. Este sensor se conectó al procesador ESP32, y la lógica del sistema fue programada utilizando el entorno de desarrollo integrado (IDE) de Arduino. El código para la adquisición de datos del sensor MPU6050 fue desarrollado en el IDE de Arduino. Para ello, se emplearon librerías de código abierto disponibles en la plataforma GitHub. El código fue configurado para la inicialización del sensor, la calibración y la adquisición de datos de aceleración en tres direcciones: X, Y y Z. Los datos obtenidos inicialmente fueron procesados utilizando el procesador Arduino Uno para evaluar la calidad del sensor. Posteriormente, se realizó la transición al ESP32 debido a su tamaño reducido y su capacidad para transmitir datos a través de Wi-Fi. Inicialmente, se utilizó un cable adaptador para la conexión entre la computadora y el procesador. Para la transmisión de datos vía Wi-Fi, se implementó el protocolo de mensajería ligera MQTT, utilizando el servidor Broker Mosquitto para la gestión de la comunicación. El código fue ajustado para integrar el Broker Mosquitto. Finalmente, se utilizó la herramienta de desarrollo Node-RED para presentar los datos de manera visual y clara. Esta herramienta proporciona una representación gráfica de la aceleración experimentada por el casco a lo largo del tiempo. El sistema fue alimentado con cuatro baterías AAA de 1.5V cada una, sumando un total de 6V, para proveer energía al sensor y al procesador. Diseño Una vez finalizada la etapa de programación del sensor, se procedió al diseño de la estructura que albergaría el sensor, el procesador y las baterías. El diseño fue realizado con el programa SolidWorks, asegurando dimensiones precisas y minimizando el tamaño para facilitar su integración en el casco. La estructura se imprimió en PLA (poliactida) utilizando la impresora 3D ANET ET4. Para facilitar la colocación y remoción de la estructura, se aplicó velcro en la misma y en el casco. Se realizó un escaneo tridimensional del casco de fútbol americano del Instituto Tecnológico de Ciudad Juárez utilizando el escáner láser 3D Einscan HX. Este escaneo, tanto interior como exterior, permitió determinar la mejor ubicación para el sensor dentro del casco. Se empleó un PCB (circuito impreso) para mejorar la comodidad, el diseño y la ergonomía del sistema. El diseño del circuito se simuló y diseñó utilizando el programa EasyEDA, especificando perforaciones de 1.5 mm y un grosor de pistas superior a 1 mm, sobre una placa fenólica de 15 x 15 cm. La fabricación del PCB se llevó a cabo con una máquina CNC VEVOR 3018-PRO, utilizando el programa GRBL Control Candle para la manipulación de la misma. Implementación Finalmente, se caracterizó el sensor para la correcta representación de los datos obtenidos.


CONCLUSIONES

La implementación del sensor MPU6050 junto con el procesador ESP32 y el protocolo MQTT ha demostrado ser una solución eficaz para la recolección y transmisión de datos de aceleración y fuerza en cascos de fútbol americano.  El diseño de la estructura, realizado con el software SolidWorks y la impresión en 3D con PLA, ha facilitado la integración del sistema en el casco, manteniendo un tamaño compacto y funcional.  El empleo de herramientas como Node-RED para la visualización de datos ha proporcionado una representación clara y útil de las aceleraciones experimentadas por el casco. La alimentación del sistema con baterías AAA asegura una operación continua y confiable, sin embargo, se sugiere una bateria mayor con un regulador para menor costo y tamaño. El siguiente paso será analizar los datos del sensor para validar el rendimiento del sistema y su capacidad para proporcionar información útil sobre lesiones craneoencefálicas.
Hernández Caudillo Carlos Ulises, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato

DISEñO OPTIMIZADO DE SISTEMA DE GENERACIóN DE HIDRóGENO PARA SECTOR AUTOMOTRIZ


DISEñO OPTIMIZADO DE SISTEMA DE GENERACIóN DE HIDRóGENO PARA SECTOR AUTOMOTRIZ

Hernández Caudillo Carlos Ulises, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Actualmente encontramos que la movilidad se limita en su mayoría al uso de hidrocarburos, representando un serio problema de sostenibilidad debido a las emisiones que se producen al utilizar recursos no renovables como el combustible fósil. Se ha comprobado que los automóviles son los principales causantes de las emisiones contaminantes, por lo que los desarrolladores y los gobiernos pretenden reducir las emisiones de estos a cero. Siendo un reto bastante complejo puesto que no es sencillo eliminar ni sustituir todo el parque vehicular actual, sin embargo se busca fusionar la eficiencia de la inyección electrónica y la generación de hidrógeno para mejorar la ignición e impulsar los motores de combustión tradicionales con una inversión mínima y cuidando el funcionamiento mecánico. Al complementar la mezcla de nafta con hidrógeno en un motor tradicional se reducen las emisiones de gases contaminantes y se contribuye a un futuro más limpio y energéticamente más eficiente.



METODOLOGÍA

A partir de varios prototipos funcionales que se han desarrollado se propone la actualización del diseño de una celda seca de hidrógeno que mejor se aplique de manera general a cualquier vehículo. Se busca la reducción de tamaño, la versatilidad en la sujeción, la facilidad de instalación y acceso a las piezas. La metodología es la siguiente:   Se realizaron diseños de prototipos en software CAD de cada uno de los componentes internos, externos y periféricos de la celda. Una vez realizados se eligió el mejor diseño de celda comparando los costos generales y los rendimientos en cuanto a producción de hidrógeno. Posteriormente se evaluó y realizó el prototipo de celda de hidrógeno a escala 2:1. Se implementó la celda en un vehículo de combustión y se midió la cantidad de hidrógeno generado. Finalmente se analizaron los resultados y se elaboró el reporte de investigación.


CONCLUSIONES

En los resultados obtenidos durante este verano de investigación destacan: Los diseños optimizados del sistema de generación de hidrógeno que consiste en área y forma de electrodos, sistema de flujo interno de la celda, sistema de sujeción, tanques de apoyo Se realiza un prototipo de sistema de generación de hidrógeno impreso en 3D a escala. Se está trabajando con los prototipos funcionales y realizando las pruebas de rendimiento de combustible en vehículo de gasolina. Como trabajo futuro, se pretende crear un sistema de medición para el hidrógeno generado operando en tiempo real, al mismo tiempo se planea enlazar el sistema de medición con un software que permita adquirir datos y analizarlos para en caso de ser necesario realizar ajustes en los prototipos, en cuanto al rendimiento y eficiencia del vehículo de pruebas se espera reducir alrededor del 10% en el consumo de gasolina.
Hernández Díaz Melchor, Universidad Politécnica de Victoria
Asesor: Dr. José Hugo Barrón Zambrano, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

DESARROLLO DE PLATAFORMA ROBóTICA PARA LA ENSEñANZA STEM


DESARROLLO DE PLATAFORMA ROBóTICA PARA LA ENSEñANZA STEM

Hernández Díaz Melchor, Universidad Politécnica de Victoria. Asesor: Dr. José Hugo Barrón Zambrano, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La educación STEM se ha vuelto crucial para desarrollar habilidades críticas, y la robótica educativa es una herramienta clave para fomentar el aprendizaje práctico en programación, resolución de problemas y trabajo en equipo. Diferentes plataformas de robótica educativa, como LEGO Mindstorms, kits basados en Arduino y robots con Raspberry Pi, atienden diversas necesidades educativas, desde conceptos básicos hasta tecnologías avanzadas como la inteligencia artificial. A pesar de los avances, se continúa trabajando en mejorar la rentabilidad, facilidad de uso y accesibilidad de estas herramientas. La propuesta presentada es una plataforma de robótica educativa de bajo costo, fácil de construir y aprender, destinada a motivar a los estudiantes y potenciar sus habilidades tanto en el ámbito profesional como personal.



METODOLOGÍA

Para el desarrollo de la plataforma robótica propuesta, se siguieron los siguientes pasos: Selección y Montaje de Componentes del Robot: Motores y Actuadores: Se seleccionaron motores adecuados y se integraron con los actuadores necesarios para realizar acciones específicas. Sensores: Se utilizaron sensores ultrasónicos para la detección de obstáculos y sensores de seguimiento de línea para la navegación. Cámara: Se incorporó una webcam para capturar imágenes del entorno, que son esenciales para el procesamiento visual y la detección de objetos. Desarrollo del Código: Se desarrolló un código que se ejecutó en el Arduino y la raspberry, integrado con ROS (Robot Operating System). Este código facilita la comunicación entre los componentes físicos del robot, como motores, sensores de colores, sensores ultrasónicos y cámara. Utilizando ROS, se establecieron publishers para transmitir datos de la captura de imágenes y de los sensores, y subscribers para recibir y procesar esta información. Configuración de ROS: Se configuraron publishers en ROS para enviar datos de la captura de imágenes, los sensores de colores y los sensores ultrasónicos a otros nodos en el sistema. Además, se implementaron subscribers para procesar las imágenes capturadas y recibir los datos de los sensores. Los resultados del procesamiento de imágenes y la información de los sensores se utilizaron para controlar los motores del robot, permitiendo una respuesta adecuada a las condiciones del entorno. Pruebas y Ajustes: Se realizaron pruebas para verificar la correcta integración del código con ROS y la comunicación entre el Arduino Uno, la webcam y el sistema de control. Se ajustaron los parámetros del código en ROS para optimizar el desempeño del robot, asegurando que los movimientos y la recolección de datos fueran precisos y eficaces.  Validación del Sistema: Se validó el sistema completo mediante la realización de pruebas operativas, donde se evaluó la capacidad del robot para ejecutar tareas basadas en los datos recibidos y procesados. Se verificó que la integración de ROS permitiera una comunicación fluida entre los componentes del robot y que el sistema respondiera adecuadamente a las instrucciones y condiciones del entorno


CONCLUSIONES

Durante la estancia de verano , se logró implementar una solución integral para la comunicación y control del robot utilizando ROS (Robot Operating System), Arduino Uno y una webcam. El código desarrollado permitió una interacción efectiva entre los componentes físicos del robot, como motores, sensores y cámaras, facilitando el control de movimientos y la recolección de datos del entorno.       Se espera que futuras iteraciones del proyecto permitan una integración aún más robusta y la mejora continua en el procesamiento de datos y la respuesta del robot a su entorno.
Hernández Dorasco Guadalupe, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dra. Cristina Juárez Landín, Universidad Autónoma del Estado de México

DETECCIÓN DE BACHES COCODRILO CON ROBOFLOW


DETECCIÓN DE BACHES COCODRILO CON ROBOFLOW

Hernández Dorasco Guadalupe, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dra. Cristina Juárez Landín, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Las condiciones de las carreteras son cruciales para la seguridad y eficiencia del transporte, y los baches cocodrilo representan un grave riesgo, causando daños a los vehículos y aumentando el riesgo de accidentes. La detección temprana de estos baches es esencial para mantener las carreteras y reducir costos asociados con reparaciones y seguros. Durante mucho tiempo, la detección de baches ha dependido de inspecciones manuales o sistemas de sensores. Aunque estos métodos han sido útiles, suelen ser costosos y limitados en cuanto a su alcance. Además, a menudo solo detectan los baches después de que ya han causado daño. Ahora, con los avances en inteligencia artificial y visión por computadora, tenemos la oportunidad de crear sistemas automáticos que sean más eficientes y económicos. En este contexto, se necesita un sistema capaz de detectar baches cocodrilo en tiempo real utilizando tecnologías avanzadas. Este proyecto propone la detección de baches cocodrilo empleando la plataforma Roboflow para la preparación de datos y uso de los algoritmos YOLOv7 y YOLOv8., así como la detección de los baches en dispositivos Android. La implementación de tal sistema no solo mejorará la seguridad vial, sino que también optimizará el mantenimiento de infraestructuras viales. Este sistema permitirá a las autoridades y responsables del mantenimiento de carreteras actuar proactivamente, identificando eficazmente el reconocimiento de baches en las avenidas principales de Tianguistenco.



METODOLOGÍA

Este proyecto se centra en detectar baches cocodrilo mediante técnicas avanzadas de visión por computadora e inteligencia artificial. Utilizaremos Roboflow para gestionar los datos y Google Colab para entrenar el modelo en la nube, aplicando los algoritmos YOLOv7 y YOLOv8 por su alta precisión en la detección de objetos. Recolección de Datos: Captura de Imágenes: Usaremos dispositivos android con cámaras de alta resolución para tomar imágenes bajo diversas condiciones climáticas y de iluminación, en diferentes ubicaciones y a intervalos regulares. Etiquetado: Roboflow se utilizará para etiquetar manualmente las 1700 imágenes y validar la precisión con la ayuda de expertos. Preparación del Conjunto de Datos: División del Conjunto de Datos: 70% para entrenamiento, 20% para validación, y 10% para prueba. Aumentación y Preprocesamiento: Incluye técnicas de aumentación como rotación y ajuste de brillo, además de normalización y redimensionamiento. Entrenamiento del Modelo: Algoritmos: YOLOv7 y YOLOv8, seleccionados por su precisión y rendimiento. Configuración: Utilización de Google Colab para el entrenamiento, con parámetros ajustados como tamaño del lote y tasa de aprendizaje. Se aplicarán técnicas de regularización y optimización. Implementación en Dispositivos Android: Desarrollo de la Aplicación: Utilización de Android  y TensorFlow Lite para integrar el modelo en dispositivos móviles. Se optimizará el procesamiento de imágenes y se realizarán pruebas de campo para evaluar el desempeño. Resultados Esperados: Precisión: Se espera una precisión superior al 90%. Reducción de Costos: Disminución significativa en los costos de mantenimiento vial. Seguridad Vial: Mejora en la seguridad para vehículos y conductores. Limitaciones y Consideraciones: Impacto de condiciones climáticas y de iluminación, limitaciones de hardware en dispositivos Android, y la escalabilidad del sistema. Futuras Extensiones: Implementación en dispositivos de bajo costo como Raspberry Pi, ampliación del conjunto de datos, mejora de algoritmos, integración con sistemas de gestión vial, desarrollo de un dashboard, y estudio del impacto económico y de seguridad vial. Herramientas y Tecnologías Utilizadas: Herramientas: Roboflow, Google Colab, Android Studio. Lenguaje de Programación: Python. Algoritmos: YOLOv7 y YOLOv8. Red Neuronal Convolucional: Utilización de CNNS para visión por computadora y detección de objetos en tiempo real.


CONCLUSIONES

El sistema de detección de baches cocodrilo, desarrollado con técnicas avanzadas de visión por computadora e inteligencia artificial, ha mostrado ser una herramienta eficaz para identificar baches en tiempo real. La implementación de plataformas como Roboflow y Google Colab ha facilitado una detección precisa y eficiente. Este enfoque innovador no solo mejora la identificación de baches, sino que también puede reducir significativamente los costos asociados con el mantenimiento de carreteras y las reclamaciones de seguros. Al permitir una detección proactiva, se contribuye a la reducción de daños a los vehículos y se mejora la seguridad vial. De cara al futuro, el proyecto tiene potencial para expansión, incluyendo la implementación en dispositivos de bajo costo y la integración con sistemas de gestión vial. Además, la optimización continua de los algoritmos y la expansión del conjunto de datos pueden mejorar aún más la robustez y efectividad del sistema.
Hernández Durán Kenya Nayve, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. José Antonio Perez Pimienta, Universidad Autónoma de Nayarit

PRETRATAMIENTO DEL BAGAZO DE AGAVE CON LíQUIDO IóNICO PARA LA SEPARACIóN DE LIGNINA.


PRETRATAMIENTO DEL BAGAZO DE AGAVE CON LíQUIDO IóNICO PARA LA SEPARACIóN DE LIGNINA.

Garnica López Jocelin Guadalupe, Instituto Tecnológico de Tepic. Hernández Durán Kenya Nayve, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. José Antonio Perez Pimienta, Universidad Autónoma de Nayarit



PLANTEAMIENTO DEL PROBLEMA

En los últimos años se han buscado alternativas sustentables para la producción de combustibles que sustituyan el uso de combustibles fósiles provenientes de recursos no renovables, principalmente. El aprovechamiento de residuos de índole alimentaria ha significado una respuesta a dicha búsqueda, ya que es conocido que dicha industria genera grandes cantidades de desechos, los cuales suelen tener un destino inespecífico, siendo la mayoría de las veces fuentes de contaminación, puesto que solo son desechados sin dárseles un tratamiento. Por esta razón en este proyecto de investigación se busca aprovechar los residuos que se generan de la producción de tequila como lo es el bagazo de agave, del cual se pretende obtener biocombustibles como el gas metano y etanol, los cuales pueden ser usados para la cocción de las piñas de agave o calentamiento de calderas, procesos necesarios para la producción del tequila. El agave azul (Agave tequilana Weber) es una planta que se cultiva extensamente en México, siendo su principal zona de cultivo los estados de Nayarit y Jalisco ya que es la materia prima para la producción de la bebida alcohólica denominada tequila. El bagazo es la fibra residual que se obtiene después del proceso de producción de tequila. Este residuo representa aproximadamente el 40% del peso total de agave procesado y en 2023 se generan alrededor de 891.2 ton de este residuo (Saucedo-Luna et al., 2011).    La producción de biocombustibles a partir de biomasa es un proceso que ha cobrado relevancia en la actualidad, siendo la etapa de pretratamiento de los residuos o biomasa un paso crucial para obtener mayores rendimientos, y por ende un mejor aprovechamiento.  The goal of the pretreatment process is to break down the lignin structure and disrupt the crystalline structure of cellulose, so that the acids or enzymes can easily access and hydrolyze the cellulose. Pretreatment can be the most expensive process in biomass-to-fuels conversion but it has great potential for improvements in efficiency and lowering of costs through further research and development (Alvira et al., 2010).     En este trabajo se evaluaron las condiciones óptimas para el pretratamiento de la biomasa celulósica seleccionada: el bagazo de agave; dicho pretratamiento consiste en retirar la lignina de la celulosa para separar las fibras de la celulosa puesto que esta le otorga la rigidez a las fibras lo cual dificulta disminuye el área de contacto disponible (Pérez Pimienta et al., 2022).



METODOLOGÍA

Calibración del equipo instrumental  Se calibraron las balanzas analíticas que serían utilizadas tanto para la síntesis del líquido iónico como para el pretratamiento.   Síntesis del líquido iónico   El acetato de etanolamina se sintetizó en un reactor de vidrio a partir de una reacción de neutralización ácido-base, empleando monoetanolamina con una pureza del 99% p/v y ácido acético glacial de acuerdo a un procedimiento descrito previamente en la literatura (Álvarez et al., 2010). Pretratamiento del bagazo de agave  Posterior al tratamiento de la materia prima (secado y molienda) se realiza un pretratamiento térmico y químico para retirar la lignina, el cual consiste tratar con liquido iónico en una proporción de 80% liquido 20% materia seca (biomasa), en cuatro  intervalos de 45 minutos se somete a un tratamiento térmico en horno a una temperatura de 160 grados centígrados, entre estos intervalos de tiempo es necesario realizar un mezclado, pero para esto es necesario portar el equipo de seguridad como lo es una mascara de gases y lentes ya que la reacción desprende gases ácidos los cuales al ser inhalados resultan tóxicos, por lo que además se requiere de una buena ventilación, una vez finalizados los cuatro intervalos se procede a lavar con agua destilada con la finalidad de detener la reacción, posteriormente se realizan cuatro lavados con agua de la llave y uno con agua destilada, en estos lavados se hace uso de un mezclador y una prensa con la finalidad de retirar la mayor cantidad de lignina posible, finalmente se hornea durante un periodo de 48 horas a una temperatura de 45 grados para retirar cualquier resto de agua y finalmente se realiza una molienda para obtener un tamaño de partícula pequeño, puesto que a menor tamaño de partícula se tiene una mayor área de contacto y por ende un mayor rendimiento.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos experimentales con el tratamiento térmico y químico para la eliminación de lignina de la biomasa celulósica de estudio, con el propósito de obtener biocombustibles a condiciones ambientales. Debido a que es un proyecto extenso solamente participamos en la parte experimental de la primera etapa del proyecto de investigación que es el pretratamiento de la materia lignocelulósica. Faltan los resultados de la evaluación del pretratamiento y de la caracterización del biocombustible obtenido.  
Hernández Echeverría Carmen, Instituto Tecnológico de Sonora
Asesor: Dr. Gerardo Alcalá Perea, Universidad Veracruzana

MAPEO ACúSTICO PASIVO APLICADO A INCENDIOS


MAPEO ACúSTICO PASIVO APLICADO A INCENDIOS

Hernández Echeverría Carmen, Instituto Tecnológico de Sonora. Robles Rojas Diego, Instituto Tecnológico de Sonora. Asesor: Dr. Gerardo Alcalá Perea, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

El estudio de las tendencias espacio temporales de la biodiversidad puede realizarse por distintos mecanismos tales como los inventarios de especies, muestreos visuales, trampas de captura o trampas o monitoreo acústico pasivo (PAM por sus siglas en inglés). El PAM tiene ventajas sobre los estudios en sitio pues permite incluir una mayor cobertura espacio temporal, es aplicable a sitios remotos y de difícil acceso, reduce el sesgos del observador e implica costos potencialmente más bajos. Un elemento que tiene el PAM, es que puede utilizar las aves como indicadores medio ambientales, dado que estas son sensibles a los cambios de hábitat. El PAM se basa en estimar índices acústicos globales que tengan información de la geofonía, antrofonía y biofonía a partir de grabaciones. Estas grabaciones generalmente se establecen de manera periódica (cada hora) en segmentos entre 5-10 minutos. Por otro lado, este trabajo quiere hacer una cercamiento para aplicar el PAM al monitoreo de zonas incendiadas.  Las zonas incendiadas por su parte, requieren un trabajo extensivo en los distintos sitios de las zonas incendiadas, lo que requiere la evaluación de la severidad del incendio en las distintas capas (suelo, arbustos, árboles medios y altos).   Esto conlleva a realizar valoraciones complicadas respecto a las partes incendiadas. De acuerdo a todo esto se plantean los siguientes objetivos en este trabajo: Determinar cómo afecta la elección de los periodos de grabación en el cálculo de los índices acústicos Desarrollar una aplicación que permita gestionar fotografías de las zonas incendiadas para poder mejorar la valoración de la severidad de los incendios en gabinete.



METODOLOGÍA

La idea central el PAM radica en que a partir de grabaciones del medio ambiente se puede extraer información relevante del medio ambiente. Por ejemplo a partir de grabaciones que incluyan la firma sonora de las aves, es posible determinar la presencia, abundancia, estatus y distribución de las aves. Las grabaciones se realizan de manera periódica cada hora, y pueden tener una duración de 1 a  5 minutos. Los índices acústicos son valores globales, respecto a las grabaciones. Estos pueden identificar variaciones en las distintas intensidades de las frecuencias, la variedad de frecuencias, uniformidad de los sonidos, etc. Algunos de los cuales son: Acrónimo   Nombre ADI            Acoustic Diversity Index AEI            Acoustic Evenness Index ACI            Acoustic Complexity Index BIO            Bioacoustic Index La investigación comenzó con la comprensión de los fundamentos básicos de las ondas y el sonido, lo cual fue esencial para analizar el funcionamiento del AudioMoth. Inicialmente, se identificó un problema en el dispositivo: grababa los primeros 10 minutos de cada hora, omitiendo los datos de los otros 50 minutos. Para abordar esto, se analizó el firmware del dispositivo y se grabó de manera continua durante una semana en zonas con alta biofonía y geofonía, y baja antrofonía. Se seleccionaron aleatoriamente 10 minutos de cada hora para su análisis, evaluando la significancia de los datos no recolectados. Paralelamente, se desarrolló un estuche protector para el AudioMoth mediante impresión 3D, asegurando su precisión y ajuste. Durante este proceso, se aprendieron y aplicaron conceptos clave del análisis acústico, como espectrogramas e índices acústicos, utilizando el lenguaje de programación R. El dispositivo de grabación utilizado en este estudio es el AudioMoth, un registrador acústico compacto y de bajo costo diseñado específicamente para aplicaciones de monitoreo ambiental. Este dispositivo tiene dos funciones: una por defecto y otra personalizada, donde se le asignó una forma de trabajo específica. El formato de grabación utilizado para el estudio consistió en grabaciones continuas durante 24 horas al día en dos lugares estratégicos del campus, posicionados en árboles para captar sonidos. El procesamiento de los audios se centró en analizar las grabaciones para extraer los índices acústicos previamente mencionados. Este análisis se realizó mediante un script programado en el lenguaje R, el cual recortaba las grabaciones en segmentos de 1 hora y luego seleccionaba de manera aleatoria 10 minutos de cada segmento para realizar un análisis más preciso. Estos índices se emplearon para evaluar la biodiversidad y los cambios en el entorno posterior a un incendio, proporcionando una evaluación detallada y rigurosa del impacto ambiental. Por otro lado, la severidad de los incendios requiere la valoración de muchas variables. Se desarrolló una aplicación con el objetivo de facilitar la toma de imágenes en las visitas de campo y mejorar la valoración de la severidad de los incendios. Esta aplicación tiene tres funciones principales: la creación de proyectos (visitas de campo), la toma de fotografías de los lugares incendiados (arbustos, suelo, árboles, etc.) y el etiquetado de las fotografías, asignándoles una valoración de severidad según la "Burn Severity Scale". La severidad de los incendios se evalúa mediante la "Burn Severity Scale", derivada del "Composite Burn Index" (BI). Esta tabla categoriza los estratos incendiados en cinco niveles de severidad: No Effect, Low, Moderate, High y Factor.


CONCLUSIONES

El monitoreo acústico pasivo (PAM) presenta una metodología eficaz para el estudio y evaluación de la biodiversidad y la severidad de incendios en áreas remotas y de difícil acceso.  A lo largo del desarrollo del proyecto, adquirimos conocimientos sobre varios aspectos técnicos y científicos. Comprendimos los fundamentos de las ondas y el sonido, lo que nos permitió optimizar el uso del dispositivo AudioMoth. Aprendimos a manejar y programar en el lenguaje R, lo que fue crucial para el procesamiento y análisis de los datos acústicos. Además, adquirimos habilidades en la impresión 3D, diseñando y fabricando estuches protectores para el AudioMoth, garantizando su durabilidad en condiciones de campo.
Hernandez Flores Jorge Eduardo, Universidad Autónoma de Coahuila
Asesor: Dra. Argelia Fabiola Miranda Perez, Universidad Popular Autónoma del Estado de Puebla

EFECTO DEL METAL DE APORTE INCONEL 82 SOBRE LA EVOLUCIóN DE LA MICROESTRUCTURA DE LAS UNIONES SOLDADAS MEDIANTE EL PROCESO GTAW EN ACERO INOXIDABLE SUPER DúPLEX 2507


EFECTO DEL METAL DE APORTE INCONEL 82 SOBRE LA EVOLUCIóN DE LA MICROESTRUCTURA DE LAS UNIONES SOLDADAS MEDIANTE EL PROCESO GTAW EN ACERO INOXIDABLE SUPER DúPLEX 2507

Hernandez Flores Jorge Eduardo, Universidad Autónoma de Coahuila. Asesor: Dra. Argelia Fabiola Miranda Perez, Universidad Popular Autónoma del Estado de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los procesos de unión y/o manufactura que se emplean al trabajar con el acero inoxidable super dúplex deben ser capaces de mantener las propiedades microestructurales que distinguen a este material. El proceso GTAW es una tecnología de unión ampliamente utilizada para soldar aceros inoxidables super dúplex, ya que promueve uniones de alta calidad. De lo anterior resulta necesario el adecuado control de los parámetros de operación para obtener una elevada calidad para las diversas aplicaciones de este acero.



METODOLOGÍA

Se llevó a cabo la revisión bibliográfica mediante fuentes de la literatura y del estado del arte; dicha información incluyó aspectos relacionados con la microestructura y propiedades del DSS 2507, características generales del proceso GTAW, así como el impacto de los diversos parámetros de operación del proceso en la calidad de la soldadura. Posteriormente se caracterizó el DSS 2507 en base a procedimientos estándar utilizando las técnicas de microscopía óptica y electrónica de barrido. Además, fue determinada la dureza del material base. En base a la información del estado del arte se efectuaron pruebas preliminares donde posterior a las pruebas se prepararon metalográficamente las uniones realizadas para analizarlas microestructuralmente mediante microscopía óptica y electrónica de barrido. Además, se analizaron macroestructuralmente las soldaduras con apoyo de estereoscopía. Fueron realizadas las soldaduras disímiles de las placas de acero inoxidable super dúplex 2507 con Inconel 82 mediante el proceso GTAW, empleando los parámetros de operación del proceso que garantizaran la calidad de la unión. Después se caracterizaron las soldaduras donde los resultados de la caracterización microestructural proporcionaron las bases para determinar el modelo que mejor relacione las variables de entrada con las diversas respuestas del proceso.


CONCLUSIONES

El en este apartado se muestran las conclusiones parciales obtenidas hasta el momento en base a los resultados proporcionados mediante el desarrollo experimental: Las uniones presentan buena apariencia superficial al emplear parámetros de baja corriente y velocidad de soldadura. El proceso GTAW requiere adecuar la cantidad de calor de entrada y la velocidad de enfriamiento, puesto que un bajo calor de entrada y alta velocidad de enfriamiento propicia un desbalance perjudicial en la proporción equitativa de ferrita-austenita de los aceros inoxidables dúplex, lo que afecta negativamente las propiedades del material. El empleo de polvo de Inconel 82 como material de aporte en el proceso GTAW al soldar acero inoxidables dúplex, favorece la formación de mayor contenido de la fase austenita en la zona de soldadura y afectada por el calor.
Hernández Flores Luis de Jesús, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. José Eligio Moisés Gutiérrez Arias, Benemérita Universidad Autónoma de Puebla

DISEñO Y CONSTRUCCIóN DE UN AEROGENERADOR DEL TIPO OFFSHORE CON CIMENTACIóN TIPO JACKET.


DISEñO Y CONSTRUCCIóN DE UN AEROGENERADOR DEL TIPO OFFSHORE CON CIMENTACIóN TIPO JACKET.

Hernández Flores Luis de Jesús, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. José Eligio Moisés Gutiérrez Arias, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El sector de las energías renovables ha experimentado un crecimiento significativo en las últimas décadas, y los aerogeneradores Offshore juegan un papel crucial en la diversificación y ampliación de las fuentes de energía limpia. Los aerogeneradores Offshore, instalados en áreas marinas, aprovechan los vientos más fuertes y constantes que se encuentran en alta mar, lo que les permite generar más energía en comparación con sus contrapartes terrestres. Sin embargo, la instalación de aerogeneradores en el entorno marino presenta varios desafíos técnicos y estructurales. Las condiciones extremas, como fuertes vientos, olas altas, corrientes marinas y la corrosión debido al agua salada pueden afectar significativamente la integridad y el rendimiento de estas estructuras. Por lo tanto, es esencial diseñar sistemas robustos que puedan resistir estas condiciones adversas y garantizar una operación segura y eficiente a largo plazo.



METODOLOGÍA

Se utilizó software de diseño asistido por computadora (CAD) para desarrollar planos detallados de la cimentación tipo Jacket y la estructura del aerogenerador, en el cual, se dividió en 4 etapas, las cuales fueron: Cimentación Base cuadrada superior Placa superior Torre Como se mencionó, la cimentación se basó en el tipo Jacket en donde las medidas definidas fueron de un metro y treinta centímetros de altura con una base inferior de un metro por un metro y una base superior de medio metro por medio metro. Una vez teniendo el diseño de la cimentación, se procedió a agregar una base cuadrada en la parte superior para que el peso que estaría sobre la cimentación se repartiera uniformemente por sus cuatro patas. Esta base, se realizó con una medida de cincuenta y seis centímetros por cincuenta y seis centímetros y se le agregó dos travesaños de tal manera que formaran una cruz puesto que esto ayudaría a colocar la torre. Posteriormente, se agrego la placa superior con las medidas antes mencionadas puesto que se deseaba que existiera más soporte a la base cuadrada. La torre obtuvo la medida de tres metros de altura con un diámetro de cuatro pulgadas y media de diámetro a la cual se le agregaron cuatro soportes para que el peso descansará uniformemente por la placa y base antes mencionadas. Por último, se realizó un análisis de esfuerzos y deformaciones a la estructura realizada. Una vez teniendo el diseño de la estructura a realizar, se procedió a trabajar en el Laboratorio de Diseños y Prototipos Mecatrónicos de la Facultad de Ciencias de la Electrónica de la BUAP. Para dicha estructura, se realizó con el siguiente material: Ángulo de acero de 3/16" x 2" x 236.22" y de 3/16 " x 1-1/2" x 236.22" Placa de Acero de 1/8 " x 53cm x 53cm. Tubo de acero de 3/16 x diámetro de 4.5" x 3metros Tornillo tipo maquina cabeza hexagonal de acero galvanizado de 1/4" x 1" y de 1/2" x 1-1/2" Arandela de presión de acero de 1/2" y 1/4" Tuerca hexagonal de acero galvanizado de 1/2" y 1/4" De igual manera, la realización de la estructura se dividió en 4 etapas. Para la cimentación, se ocupó el ángulo de 3/16" x 2" para sus cuatro patas y para los travesaños se ocupó el ángulo de 3/16 " x 1-1/2" donde para unir toda la cimentación se ocuparon ochenta tornillos de 1/4" x 1" con sus arandelas y tuercas respectivamente. Para la realización de la base cuadrada superior, se ocupó el ángulo de 3/16 " x 1-1/2" el cual se une con ocho tornillos de 1/2" x 1-1/2" a la cimentación con sus arandelas y tuercas respectivamente. La placa superior se soldó con la torre, el cual, ya contaba con cuatro soportes previamente soldados, esta parte se une con ocho tornillos de 1/2" x 1-1/2" a los travesaños de la base cuadrada con sus arandelas y tuercas respectivamente. De esta manera, se obtiene la estructura para el aerogenerador tipo Offshore.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos para el diseño y construcción de la estructura, se pusieron en practica técnicas de corte, soldado y uso de herramientas de dicho laboratorio, sin embargo, al ser un extenso trabajo de investigación aún falta la parte de la góndola y con ello obtener completamente el aerogenerador para posteriormente implementar ocho acelerómetros con la finalidad de obtener una base de datos.
Hernández Franco Cindy Elizabeth, Universidad Tecnológica de Nayarit
Asesor: Dra. Soraida Quezada Ascencio, Instituto Tecnológico Superior de Pátzcuaro

PLAN DE PRUEBAS Y CALIDAD DE SOFTWARE PARA EL ECOSISTEMA DEL ITSPA.


PLAN DE PRUEBAS Y CALIDAD DE SOFTWARE PARA EL ECOSISTEMA DEL ITSPA.

Garcia Marquez Jesus Efren, Universidad Tecnológica de Nayarit. Hernández Franco Cindy Elizabeth, Universidad Tecnológica de Nayarit. Asesor: Dra. Soraida Quezada Ascencio, Instituto Tecnológico Superior de Pátzcuaro



PLANTEAMIENTO DEL PROBLEMA

El proyecto del ecosistema de software del Instituto Tecnológico Superior de Pátzcuaro (ITSPA) nació para abordar necesidades específicas identificadas en diversos departamentos del instituto. Catalogado como un proyecto de investigación educativa bajo el folio LGAC-2022-SPAT-IGEM-2, ha resultado en el desarrollo de tres sistemas funcionales y cinco en proceso. La participación de los estudiantes en el servicio social ha sido un factor crucial para estos avances, permitiendo la aplicación práctica de sus conocimientos en ingeniería de software y programación. Este ecosistema se configura como un ERP (Sistema de Gestión Empresarial) compuesto por múltiples programas interconectados. En este documento se aborda el plan de pruebas para el sistema de idiomas del ITSPA, diseñado para gestionar módulos como calificaciones, reportes, materiales de consulta e inscripciones. La ausencia de un plan de pruebas integral podría dar lugar a problemas de calidad y usabilidad, afectando negativamente la experiencia del usuario. Por lo tanto, se propone un modelo de plan de pruebas con el objetivo de asegurar la funcionalidad, usabilidad y confiabilidad del sistema.  



METODOLOGÍA

La metodología adoptada se basa en la investigación aplicada, orientada a garantizar la calidad y el funcionamiento óptimo del sistema desde su implementación. La metodología abarca varias fases: análisis de necesidades, diseño, desarrollo, pruebas, implementación y mejora continua. El plan de pruebas desarrollado incluye: Matriz de requerimientos Casos de uso Mockups Formatos Matriz de trazabilidad de requerimientos Matriz de riesgos Documentación de casos de uso Casos de pruebas   1. Análisis de la matriz de requerimientos: Se realizó una revisión y actualización exhaustiva de la matriz de requerimientos inicial, proporcionada por los profesores del ITSPA. Este análisis identificó nuevos requerimientos esenciales para el funcionamiento del ecosistema, permitiendo una definición más precisa de las necesidades y expectativas de los usuarios finales. La nueva matriz clasifica los requerimientos por colores, facilitando la visualización y gestión de los diferentes actores del sistema. 2. Reingeniería de los casos de uso: Se elaboraron diagramas de casos de uso utilizando la herramienta StartUML, que emplea el lenguaje UML para representar los casos de uso del sistema. Se identificaron y detallaron los actores involucrados (sistema, coordinador, profesores y alumnos) y sus interacciones. Este proceso mejoró y amplió los casos de uso previos, asegurando una cobertura completa de las funcionalidades necesarias. 3. Matriz de trazabilidad de requerimientos: Se desarrolló una matriz de trazabilidad para seguir el progreso de los requerimientos a lo largo del desarrollo del sistema. Esta matriz categoriza los requisitos en función de aceptación, complejidad, objetivos, estrategias de implementación, pruebas asociadas y prioridad. La matriz facilitó la organización, priorización y gestión de los requerimientos, asegurando que los aspectos críticos se abordarán de manera oportuna. 4. Rediseño de los Mockups: Se realizó un análisis y rediseño de los mockups del sistema, evaluando el diseño visual y funcional propuesto. Las modificaciones y mejoras se basaron en los requerimientos establecidos para asegurar que el diseño del sistema fuera coherente con los objetivos del proyecto y satisfactorio para los usuarios en términos de usabilidad y eficacia. 5. Elaboración de Formatos: Se crearon diversos formatos necesarios para la documentación y la implementación efectiva del sistema, incluyendo plantillas para reportes, formularios de entrada de datos y otros documentos operativos. La estandarización de estos formatos asegura consistencia y calidad en la documentación a lo largo del ciclo de vida del proyecto. 6. Matriz de Riesgos: Se elaboró una matriz de riesgos para identificar y evaluar los posibles riesgos asociados con el desarrollo y operación del sistema. Esta matriz incluye una evaluación de la probabilidad e impacto de cada riesgo, así como estrategias de mitigación. La identificación proactiva y la planificación de respuestas adecuadas son fundamentales para minimizar impactos negativos y garantizar una implementación exitosa. 7. Documentación de Casos de Uso: Se documentaron los casos de uso del sistema de manera detallada, especificando nombre, creador, fecha, descripción, actores, condiciones previas, poscondiciones, flujo de actividades, flujos alternativos y excepciones. Esta documentación proporciona una guía clara para el desarrollo y las pruebas, asegurando que todas las funcionalidades requeridas sean abordadas y validadas adecuadamente. 8. Casos de Pruebas: Se elaboraron casos de pruebas basados en la documentación de casos de uso y la matriz de requerimientos. Estos casos están diseñados para verificar que el sistema cumpla con los criterios de aceptación y los estándares de calidad. Incluyen identificadores, escenarios, criterios de aceptación, datos de prueba, pasos a seguir, resultados esperados, resultados actuales y evaluación final.  


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos valiosos en la planificación y ejecución de una metodología integral para asegurar la calidad del software. La elaboración detallada de la matriz de requerimientos, el análisis de mockups, el desarrollo de formatos, la creación de una matriz de riesgos, la documentación de casos de uso y la definición de casos de pruebas han sido fundamentales para el éxito del proyecto, garantizando un sistema robusto y eficaz. Aunque algunos requerimientos aún están pendientes de integración, se prevé su incorporación y se anticipan actualizaciones para mejorar el funcionamiento del sistema en el futuro.  
Hernández García Galilea, Universidad Veracruzana
Asesor: Dra. Silvia Lucia Villabona Gonzalez, Universidad Católica de Oriente

DIGESTIóN DE VEGETACIóN ACUáTICA DE HUMEDALES Y SU CAPACIDAD DE ABSORCIóN DE PARTíCULAS ANTROPOGéNICAS


DIGESTIóN DE VEGETACIóN ACUáTICA DE HUMEDALES Y SU CAPACIDAD DE ABSORCIóN DE PARTíCULAS ANTROPOGéNICAS

Hernández García Galilea, Universidad Veracruzana. Asesor: Dra. Silvia Lucia Villabona Gonzalez, Universidad Católica de Oriente



PLANTEAMIENTO DEL PROBLEMA

Las partículas antropogénicas constituyen una amplia categoría de partículas producidas incidentalmente por actividades humanas. En esta categoría se incluyen las partículas de plástico (micro y nano) (Mattsson et al., 2021). La contaminación por plásticos se ha convertido en un problema ambiental importante, donde los desechos plásticos que se encuentran en entornos naturales son persistentes y móviles en entornos terrestres y acuáticos, incluidas las zonas urbanas, rurales y remotas (Hartmann et al., 2019). Una vez se encuentran los macroplásticos en vertederos a cielo abierto o en cuerpos de agua naturales como ríos, humedales y océanos, se fragmentan en piezas más pequeñas, llegándose a microplásticos (<5 mm) (Crawford & Quinn, 2017). No obstante, se ha prestado muy poca atención a evaluar los posibles impactos de los microplásticos en las especies de plantas que se encuentran dentro de los humedales, teniendo como resultado, una falta de investigación y literatura sobre los efectos de estos en la vegetación acuática y la contaminación en este tipo de ecosistemas. Por tal motivo, en el presente documento, se busca determinar la metodología adecuada para la caracterización de partículas antropogénicas en las raíces y tallos de plantas acuáticas en la zona de transición acuático terrestre de humedales urbanos andinos en temporada de lluvias.



METODOLOGÍA

El área de estudio se centra en tres humedales urbanos ubicados en el altiplano del Oriente antioqueño a lo largo de la cuenca del río Negro, siendo una de las zonas con mayor crecimiento urbanístico del departamento (Quijano-Abril, M.A. et al., 2022). De tal forma, los humedales que se tomaron en cuenta para esta investigación fueron: el Llanito, Piamonte y EP Río. Para la determinación del tipo de partículas plásticas encontradas en la muestra se debe realizar una digestión química o digestión enzimática para la degradación de materia orgánica y lograr la liberación de las partículas no naturales o de origen antropogénico. De tal modo que se logren observar en un estereoscopio los microplásticos y, después, clasificar por tipo de polímero con ayuda del análisis de Espectroscopía de infrarrojos transformada de Fourier (FTIR), de acuerdo al sistema de categorización de microplásticos dado por Crawford en el año 2014 (Crawford C., Quinn B., 2016). Inmediatamente se vertió sobre los beakers una solución de ácido nítrico hasta cubrirlas, a continuación, se llevaron al shaker durante 48 horas. Pasado este tiempo se les adicionó una solución de peróxido de hidrógeno introduciéndose al shaker nuevamente. Más tarde, a las muestras se le añadió una cantidad específica de NaCl, esta mezcla pasa nuevamente al shaker para pasar a reposar. Una vez que ya se sedimentó la parte más densa, se extrajo el sobrenadante y este se pasa a través de filtros de fibra de vidrio, haciendo uso de la bomba al vacío. El filtro se deposita en una caja de Petri de vidrio, para continuar con el secado en el horno. Finalmente, en los papeles filtro se realiza el análisis en estereoscopio, donde se visualizan y clasifican según la cantidad, color (azul, rojo, negro, transparente o azul verde agua), forma (filamentos o fragmentos) y tamaño.


CONCLUSIONES

Los humedales son centros importantes que conectan los ecosistemas terrestres y marinos y también son áreas con intensos ciclos biogeoquímicos (Zhang et al, 2023). Los estudios han demostrado que los organismos en humedales pueden ingerir MP en diversos grados, por dicho motivo, es de gran importancia seleccionar un método adecuado para el análisis de la panta, dependiendo sus características y entorno. Así, luego de revisar la literatura y realizar el protocolo, es posible decir que al añadir H2O2 al ácido nítrico, la degradación tuvo mejores resultados, tal como muestra Rossini-Oliva et al. (2007) en su estudio, sin embargo, el tiempo en el shaker estipulado en la metodología, no fue suficiente para poder ver degradada toda la materia vegetal, dificultando la extracción del sobranadante. Así pues, este protocolo puede tener mejores resultados. Sin embargo, se debe de tener en consideración que, autores como Herrera et al. (2018), han informado de daños a partículas de plástico mediante la digestión con HNO3. Es posible concluir que se sugiere emplear el protocolo con ácido nítrico y peróxido de hidrógeno, aumentando los tiempos de agitación con estos dos reactivos, vigilando constantemente el cambio, esto con el fin de evitar la menor degradación de plástico posible. Referencias  Crawford, C. B. & Quinn, B. (2017). Microplastic pollutants. (1° ed.). Elsevier Science. https://doi.org/10.1016/C2015-0-04315-5 Mattsson, K., da Silva, V.H., Deonarine, A., Louie, S.M. & Gondikas, A. (2021). Monitoring anthropogenic particles in the environment: Recent developments and remaining challenges at the forefront of analytical methods. Current Opinion in Colloid & Interface Science, 56, 1-22. Quijano-Abril, M.A., Castaño-López, M.A., Cardona-Ramírez, D.E. & Echeverri-López, D. (2022). Los humedales del Altiplano del Oriente antioqueño y su conceptualización. Fondo Editorial Universidad Católica de Oriente. Rossini-Oliva, S., Raitio, H. &Mingorance, M.D. (2007). Comparison of two wet digestion procedures for multi-element analysis of plant samples. Communications in soil science and plant analysis 34 (19-20) 2913-2923. http://dx.doi.org/10.1081/CSS-120025216
Hernández García Jorge Ricardo, Instituto Politécnico Nacional
Asesor: M.C. Auro Andres Gonzalez Hernandez, Universidad Tecnológica de Nayarit

DISEñO PARAMéTRICO CAD/CAM APLICADO AL DESARROLLO DE PROTOTIPOS DIDáCTICOS PARA EL áREA ELéCTRICA.


DISEñO PARAMéTRICO CAD/CAM APLICADO AL DESARROLLO DE PROTOTIPOS DIDáCTICOS PARA EL áREA ELéCTRICA.

Esquivel Fernández Renata Guadalupe, Instituto Politécnico Nacional. Hernández García Jorge Ricardo, Instituto Politécnico Nacional. Muciño Infante Valeria Angelica, Instituto Politécnico Nacional. Asesor: M.C. Auro Andres Gonzalez Hernandez, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

En muchos centros educativos, especialmente con recursos limitados, la falta de material didáctico en los laboratorios o talleres representa un gran obstáculo para adquirir un aprendizaje efectivo y de calidad sobre unidades de aprendizaje prácticas, particularmente en el área eléctrica/ electrónica. Por otro lado, la educación ha evolucionado en los últimos años gracias a la introducción de nuevas tecnologías como CAD/CAM, que tienen diversas aplicaciones en la educación, como la fabricación digital y la programación CNC, estableciendo un sistema de parámetros variables y restricciones para la creación de objetos versátiles.  Con relación a esto, el uso de CAD/CAM para la elaboración de prototipos didácticos que puedan contribuir a la enseñanza en el área eléctrica/electrónica resultaría benéfico y útil para los estudiantes.



METODOLOGÍA

1. Primeramente se requiere un diseño en CAD del prototipo o pieza, este es realizado con el software de Autodesk Inventor para crear un modelado paramétrico de un sólido en 3D, y después obtener los archivos .stl a partir de los realizados.   2. Posterior, el diseño realizado pasa al proceso de CAM, donde se utiliza una maquina CNC para realizar cortes. Para esto, obtenemos los archivos .g (gerber) desde Autodesk Inventor, previamente se tiene que configurar los parámetros necesarios para el CNC, seleccionar las herramientas de corte, definir trayectorias y establecer parámetros de maquinación.   3. Asimismo, a partir de los archivos .stl, se utiliza una impresora 3D (Ender 3Pro) para la fabricación de las piezas, previamente se realiza una investigación sobre los distintos tipos de filamento que pueden ser compatibles con la impresora (PLA, ABS, TPU, etc.) y posterior se utiliza un software para la impresión en 3D, UltiMaker Cura. En este software se modifican los parámetros de impresión, como la calidad, relleno, material, temperatura, velocidad, altura de las capas, etc. Y después se transforma a código G, para que la impresora pueda fabricar la pieza.   4. Finalmente se obtienen las piezas impresas y cortadas, posterior se realiza el ensamblaje junto con los componentes electrónicos contemplados para cada prototipo.


CONCLUSIONES

El uso de CAD/CAM se ha convertido en una herramienta de suma importancia en varias áreas, sin embargo, en el área de la educación ha tenido un gran impacto. Dadas las posibilidades que brindan estos softwares para el desarrollo de proyectos, haciendo posible los modelados, ensambles, proyecciones en dos y tres dimensiones, y sobre todo el manejo del dibujo paramétrico, así como también la fabricación de piezas en 3D. Es por esto por lo que al usar estos softwares se obtuvo un resultado positivo al poder fabricar prototipos didácticos, que presentan múltiples beneficios, incluyendo la mejora del rendimiento académico, una mayor comprensión de los conceptos y el desarrollo de habilidades prácticas. En conclusión, gracias a uso de CAD/CAM para la fabricación de prototipos resulto beneficioso y eficaz para los estudiantes del área eléctrica/electrónica.
Hernandez Gomez Oscar Ivan, Universidad de Guadalajara
Asesor: M.C. Judith Pérez Marcial, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE UN SITIO WEB PARA LA OBTENCIóN DE DATOS DE BIENESTAR EMOCIONAL ACADéMICO EN ESTUDIANTES UNIVERSITARIOS UTILIZANDO LA IA COMO HERRAMIENTA PARA LA GENERACIóN DE CóDIGO


DESARROLLO DE UN SITIO WEB PARA LA OBTENCIóN DE DATOS DE BIENESTAR EMOCIONAL ACADéMICO EN ESTUDIANTES UNIVERSITARIOS UTILIZANDO LA IA COMO HERRAMIENTA PARA LA GENERACIóN DE CóDIGO

Hernandez Gomez Oscar Ivan, Universidad de Guadalajara. Asesor: M.C. Judith Pérez Marcial, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El bienestar académico y emocional de los estudiantes universitarios es fundamental para su rendimiento y calidad de vida. Este proyecto tiene como objetivo demostrar cómo la inteligencia artificial puede facilitar el desarrollo de sitios web para el análisis de datos sobre el bienestar académico y emocional de los estudiantes. A través de la implementación de herramientas como ChatGPT y DALLE, se busca explorar el potencial de estas tecnologías para mejorar el proceso de desarrollo y proporcionar soluciones eficientes y efectivas.



METODOLOGÍA

El desarrollo del proyecto se llevó a cabo en varias etapas, utilizando diferentes tecnologías y herramientas de inteligencia artificial, estructurando el trabajo por semanas para un enfoque sistemático y organizado. 1.- Presentación y Encuadre Introducción al proyecto y objetivos. Definición del alcance y las expectativas del proyecto. 2.- Revisión del Marco Teórico e Identificación de Herramientas Investigación el marco teórico relacionado con el desarrollo de aplicaciones web a través del uso de Inteligencia Artificial. Identificación de herramientas de inteligencia artificial relevantes para el proyecto. 3.- Investigación de Herramientas de IA para la Generación Automática de Código Evaluación y elección entre diversas herramientas de IA, centrándose en ChatGPT, Microsoft Copilot, Github Copilot, Tabnine y DALLE. Diseño de la metodología. Prompt Engineering con ChatGPT: Utilizar ChatGPT para generar y refinar ideas, así como para obtener recomendaciones sobre las mejores prácticas en el desarrollo de aplicaciones web. Este proceso incluyó: Definición de Requisitos: Identificación de las necesidades del proyecto y establecimiento de los objetivos principales. Plan de Desarrollo: Estructuración del plan de desarrollo, incluyendo la asignación de tareas y la definición de plazos. Generación de Código: Uso de ChatGPT para generar fragmentos de código y scripts, facilitando la implementación de diversas funcionalidades. 4.- Personalización y Capacitación de las Herramientas de Desarrollo Ajuste de ChatGPT para la generación de código específico del proyecto. Capacitación en el uso de DALLE para la creación de imágenes personalizadas. Integración de las herramientas en el flujo de trabajo. 5.- Desarrollo de la Aplicación Frontend Tecnologías: HTML, CSS y JavaScript. • Framework CSS: Bootstrap para un diseño responsivo. Interactividad: JavaScript y AJAX para la comunicación asíncrona con el backend. Generación de Imágenes con IA: Se utilizó DALLE para crear imágenes que mejoraran la experiencia visual del usuario en la página. DALLE permitió la generación de gráficos personalizados que complementaron los datos presentados, haciendo la interfaz más atractiva y comprensible. Backend Lenguaje de Programación: Python. Framework: Flask para la creación de la API RESTful. Base de Datos: PostgreSQL para almacenar los datos de las encuestas. ORM: SQLAlchemy para la gestión de la base de datos. Dependencias: Gestión de dependencias a través de un archivo requirements.txt. Endpoints: Implementación de endpoints para el manejo de encuestas, incluyendo rutas para la obtención, creación y actualización de datos. 6.- Pruebas, Análisis de Resultados y Definición de Ventajas y Desventajas del Uso de las Herramientas Realización de pruebas funcionales y de usabilidad. Análisis de los resultados obtenidos y evaluación del desempeño de las herramientas de IA. Identificación de ventajas y desventajas del uso de ChatGPT y DALLE en el desarrollo del proyecto. 7.- Documentación de la Configuración, Redacción de Informe y Preparación de la Presentación Final Elaboración de documentación sobre la configuración y uso de las herramientas. Redacción del artículo científico. Preparación de la presentación para mostrar los resultados y conclusiones del proyecto.


CONCLUSIONES

El proyecto demostró que es posible desarrollar un sitio web eficiente para la obtención de datos sobre el bienestar emocional y académico de los estudiantes universitarios utilizando herramientas de inteligencia artificial como ChatGPT y DALLE. Se logró desarrollar un sitio web funcional utilizando ChatGPT de manera ética, lo que permitió la implementación correcta de la aplicación conforme a la metodología y los objetivos planteados. Gracias a esto, se han podido recopilar datos relevantes sobre el bienestar emocional y académico de los estudiantes, facilitando la evaluación de su bienestar. La combinación de estas tecnologías ha mostrado un impacto significativo en la calidad del desarrollo, haciendo posible la creación de un sitio útil para la comunidad académica. A futuro, se planea ampliar la base de datos mediante la realización de más encuestas y la recopilación de datos adicionales para obtener una visión más completa del bienestar estudiantil. Analizar estos nuevos datos permitirá identificar tendencias y áreas de mejora continua en el bienestar emocional y académico de los estudiantes. Además, se buscará extender las capacidades de la aplicación para incluir más aspectos del bienestar estudiantil, como el seguimiento a largo plazo del estado emocional y académico, así como la incorporación de recomendaciones personalizadas basadas en los datos recopilados. Esta herramienta tiene el potencial de ser adaptada y utilizada en diferentes instituciones educativas, permitiendo un enfoque más amplio y generalizado. Es fundamental asegurar el uso ético de los datos recopilados, garantizando la privacidad y confidencialidad de los usuarios, y promover la utilización responsable de herramientas de IA, asegurándose de que los resultados generados sean precisos y útiles.
Hernández Gracia Reyna Esmeralda, Universidad Veracruzana
Asesor: Mg. Pablo Andrés Cubides Guerrero, Universidad Católica de Colombia

TRATAMIENTOS DEL AGUA


TRATAMIENTOS DEL AGUA

Camacho Chiñas Hannia Sheccid, Universidad Veracruzana. Hernández Gracia Reyna Esmeralda, Universidad Veracruzana. Asesor: Mg. Pablo Andrés Cubides Guerrero, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

En medio de una crisis mundial del agua, la capital colombiana, Bogotá, está implementando racionamientos de agua cada diez días debido a la sequía que afecta a los embalses que abastecen de agua a la ciudad y a sus municipios aledaños. Esta medida, aunque necesaria para conservar el recurso, ha generado dificultades en la vida diaria de los ciudadanos, especialmente en zonas como Chapinero y Teusaquillo. Por otro lado, en México, la escasez de agua no solo impacta a la población, sino que también limita actividades económicas como la agricultura, la ganadería y la industria, además de tener consecuencias negativas en el medio ambiente. La composición de las aguas residuales domésticas comprende entre un 55% y un 75% de aguas grises. Esto significa que una gran parte del agua que se utiliza en los hogares se desaprovecha. Por lo anterior, es importante buscar soluciones innovadoras y sostenibles para la reutilización y aprovechamiento de las aguas grises. Esto puede ser una estrategia prometedora para conservar recursos hídricos y mitigar el impacto de la escasez de agua. En este estudio, se propone la implementación de un humedal basado en un sistema natural para tratar y reutilizar el agua proveniente de lavadoras, con el fin de evaluar la eficacia del humedal en la reducción de contaminantes y su vialidad para reutilizarse en diversos fines domésticos, como llenar el inodoro, lavar patios y trapeadores, y regar plantas. Este enfoque no solo busca contribuir a la sostenibilidad ambiental de la ciudad, sino también ofrecer una solución práctica y eficiente para enfrentar la crisis hídrica actual.



METODOLOGÍA

Se empleó un humedal artificial modular, proporcionado por la Universidad Católica, diseñado para el tratamiento de aguas residuales. Este sistema constaba de seis etapas secuenciales, cada una con características específicas: PRIMERA ETAPA: Compuesta por un lecho de arena y grava de diferentes tamaños (1 pulgada, mayor a pulgada y 1.75 pulgadas), colonizado por lirios acuáticos, esta etapa se encargó de la retención de partículas de mayor tamaño y la eliminación de nutrientes a través de procesos biológicos. SEGUNDA ETAPA: Sedimentador, tiene un espacio donde se deposita el agua jabonosa a través de un tubo pvc al aire libre, además, esta etapa se divide en dos, en la primera división se aprecian antracita, gravilla mona y piedras de río grandes, luego se encuentra el separador para atrapar partículas o basura que se haya colado, del otro lado del separador pasa el agua a la siguiente etapa. TERCERA ETAPA: Caracterizada por la presencia de piedras de río de tamaño medio (1.25 y 1.5 pulgadas) y la planta Sansevieria trifasciata, esta etapa contribuyó a la eliminación de nutrientes y contaminantes orgánicos a través de procesos biológicos. CUARTA ETAPA:Está dividido en 3 partes, la primera es la entrada en donde se observan 4 tubos pvc agujereados, para la segunda sub etapa, esta sección incluía un lecho de grava y arena, colonizado por papiro enano y bambú, y un lecho de piedras de río de gran tamaño (1 pulgada y 1.75 pulgadas). Estas sub-etapas promovieron la remoción de nutrientes y la estabilización de la materia orgánica; en la tercera división es la salida de las capas, y aquí también se encuentran 4 tubos pvc agujereados. QUINTA ETAPA: Similar a la primera etapa, esta sección finalizó el proceso de tratamiento, reteniendo las últimas partículas en suspensión y proporcionando un acabado estético al sistema. Contiene arena, piedras grandes y medianas (de una pulgada, mayores a una pulgada y ¾ de pulgada) y en la parte superior se aprecian los lirios. SEXTA ETAPA: Cuenta con una capa de piedras de río, aquí es el almacenamiento del agua ya tratada. Se realizaron las siguientes pruebas con nuestra agua problema: 1. TEST DE JARRAS A CONCENTRACIÓN 0.1 DE LOS REACTIVOS. 2. TEST DE JARRAS A CONCENTRACIÓN 0.5 DE LOS REACTIVOS. 3. TEST DE JARRAS PARA ENCONTRAR DOSIS ÓPTIMA DE POLICLORURO DE ALUMINIO. 4. TRATAMIENTO SIN COAGULANTES Y DIRECTO AL HUMEDAL. 5. TEST DE JARRAS A CONCENTRACIÓN 0.5 + HUMEDAL  


CONCLUSIONES

Respecto a los resultados obtenidos de las pruebas de jarras se obtuvo que el Policloruro de aluminio es el coagulante que mejor actuó ante nuestra agua problema. En la segunda prueba de jarras se ocupó una dosis de coagulante del 0.5 lo que nos dio una reducción de turbidez del 80% y una remoción de color del 86%. Por lo anterior, se buscó la dosis optima de este coagulante, siendo una dosis de 0.8 la que mejor resultados tuvo. El humedal por sí solo actúo de manera extraordinaria contra nuestra agua problema, dando resultados de reducción de turbidez del 99.23% y remoción de color de 98.49%. Lo anterior, fue resultado de dejar el agua circular en el humedal 4 días, se llevó el monitoreo diario del humedal y según los resultados desde el primer día el humedal mejoraba la calidad del agua. Cabe destacar que después del sexto y séptimo día hay un desmejoramiento en la calidad del agua por lo que es importante utilizar el agua a partir del cuarto y quinto día. El éxito del humedal está en la recirculación constante del agua por las diferentes etapas del humedal, y las plantas que lo conforman. Al realizar coagulación como pretratamiento para posteriormente verterlo al humedal da una mejora en la calidad del agua más rápido que el humedal por sí solo, al segundo día ya se tenía resultados de reducción de turbidez de 99.81% y remoción de color de 100.08%, aunque al mejorar más rápidamente la calidad del agua la desmejora de esta también se acelera, en este caso fue al cuarto y quinto día. Si bien el sistema que mejor tuvo resultados fue el Test de Jarras con Humedal, el uso por sí solo del humedal tiene excelentes resultados, los resultados no varían en gran medida de un sistema al otro por lo que se puede hacer uso solamente del humedal, y de esta manera se economiza y se convierte en una manera sustentable de tratar el agua de lavadora, pues no se están usando elementos químicos, sino que todo el proceso de tratamiento es natural, lo que presenta un menor impacto ambiental.  
Hernandez Guillen Zury Saday, Universidad Tecnológica Paso del Norte
Asesor: Lic. Arisbeth Álvarez Marín, Tecnológico de Estudios Superiores de Villa Guerrero

SISTEMA WEB PARA LA CREACIóN Y ASIGNACIóN DE HORARIOS.


SISTEMA WEB PARA LA CREACIóN Y ASIGNACIóN DE HORARIOS.

Aquino Cruz Josue, Universidad Tecnológica Paso del Norte. Corona Núñez Carlos Enrique, Universidad Mexiquense del Bicentenario. Hernandez Guillen Zury Saday, Universidad Tecnológica Paso del Norte. Melchor Mariscal Andres Daniel, Universidad Tecnológica Paso del Norte. Asesor: Lic. Arisbeth Álvarez Marín, Tecnológico de Estudios Superiores de Villa Guerrero



PLANTEAMIENTO DEL PROBLEMA

El proyecto de investigación "Sistema Web de Creación y Asignación de Horarios para la División de Ingeniería en Sistemas del Tecnológico de Estudios Superiores de Villa Guerrero" tiene como finalidad desarrollar una plataforma digital que mejore la planificación y asignación de horarios académicos dentro de la división. Este sistema está diseñado para optimizar la gestión de horarios, facilitando la coordinación entre profesores, estudiantes y la asignación de recursos disponibles. Objetivos del Proyecto Automatización de la Creación de Horarios: Desarrollar un sistema que genere automáticamente horarios académicos eficientes, adaptados a las necesidades específicas de la División de Ingeniería en Sistemas, considerando restricciones como disponibilidad de docentes, asignaturas y aulas. Optimización de Recursos Académicos: Mejorar el uso de espacios y recursos, evitando conflictos y solapamientos en la programación de clases y actividades. Interfaz Intuitiva y Accesible: Diseñar una interfaz de usuario sencilla y fácil de usar que permita a docentes y estudiantes consultar y gestionar sus horarios de manera eficiente. Mejora de la Comunicación y Coordinación: Implementar un sistema de notificaciones para informar a todos los usuarios sobre cambios en los horarios y actividades, mejorando la coordinación interna.



METODOLOGÍA

Metodología El proyecto sigue una metodología ágil que se desarrolla en varias fases: Análisis de Requisitos: Se realizan entrevistas y encuestas con docentes, estudiantes y administradores de la División de Ingeniería en Sistemas para identificar las necesidades y desafíos actuales en la planificación de horarios. Diseño del Sistema: Se diseña la arquitectura del sistema y se crean prototipos de interfaz utilizando tecnologías web modernas, asegurando que el sistema sea escalable y fácil de usar. Desarrollo e Implementación: Se lleva a cabo la programación del sistema utilizando herramientas como HTML5, CSS3, JavaScript, y bases de datos como MySQL, siguiendo prácticas de integración continua para garantizar la calidad del software. Pruebas y Validación: Se realizan pruebas exhaustivas con usuarios finales, incluidas pruebas de usabilidad y funcionalidad, para asegurar que el sistema cumpla con los requisitos y expectativas. Despliegue y Capacitación: Se despliega el sistema en el entorno académico y se ofrece capacitación a los usuarios para asegurar que puedan utilizarlo de manera efectiva. Evaluación y Mejora Continua: Se monitorea el desempeño del sistema y se recopila feedback de los usuarios para implementar mejoras continuas y adaptar el sistema a las necesidades cambiantes de la división.


CONCLUSIONES

Resultados Esperados La División de Ingeniería en Sistemas del Tecnológico de Estudios Superiores de Villa Guerrero dispondrá de una herramienta eficiente para la gestión de horarios, mejorando la organización y uso de recursos académicos. El sistema contribuirá a aumentar la satisfacción de estudiantes y profesores al facilitar la consulta y administración de horarios, así como a optimizar los procesos administrativos relacionados con la programación de actividades académicas.
Hernández Hdz Jonathan, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. Maricela Aguilar Almanza, Instituto Tecnológico Superior de Irapuato

PROTOTIPO PARA EL CONTROL DE INVENTARIO, EMPLEANDO TECNOLOGíA RFID.


PROTOTIPO PARA EL CONTROL DE INVENTARIO, EMPLEANDO TECNOLOGíA RFID.

Ayala Mercado Eduardo, Instituto Tecnológico Superior de Irapuato. Correa González José Ulises, Instituto Tecnológico Superior de Irapuato. Granados Regalado Diego, Instituto Tecnológico Superior de Irapuato. Hernández Hdz Jonathan, Instituto Tecnológico Superior de Irapuato. Rodriguez Vázquez Magdiel Dario, Instituto Tecnológico Superior de Irapuato. Torres Morales Luis Daniel, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. Maricela Aguilar Almanza, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Objetivo    Desarrollar una alternativa viable para capturar datos del control de entradas, salidas y estatus de piezas de inventario con tecnología RFID, y almacenar los datos en un manejador de base de datos para consultas y/o modificaciones posteriores.  Problemática   La problemática identificada se da en una escuela de educación básica en una comunidad del Municipio de Irapuato, en la que la directora debe realizar inventario de material y mobiliario por lo menos una vez al finalizar el ciclo escolar. Actualmente el registro del material en inventario se almacena en archivos de Excel en los que la directora debe ir identificando salón por salón la existencia y estado de cada uno de los materiales mencionados. Antes de iniciar la revisión, debe asegurarse de realizar una copia de seguridad del archivo anterior para prevenir la pérdida de información o eventualidades. La revisión es tediosa ya que debe ir filtrando y haciendo notas en el mismo archivo, lo que es tardado y extenuante, hay ocasiones en que le lleva casi una hora concluir con el inventario en un solo salón, esto depende de la organización o ubicación del material o recurso.  



METODOLOGÍA

Metodología  El prototipo se desarrolló a través de la metodología XP (Extreme Programming/Programación Extrema).  Primero, se identificó la problemática central: la dificultad y el tiempo que conlleva revisar los elementos, se realizaron preguntas clave a la persona encargada, para entender a fondo el proceso actual y explorar alternativas que facilitarían el trabajo, se inició con el proceso de planificación donde se plantearon las posibles soluciones, tales como el desarrollo de una aplicación web, una aplicación móvil o de escritorio que cubriera las necesidades mediante el uso del prototipo.    Se optó por continuar con el desarrollo de una aplicación de escritorio, ya que es más beneficiosa para realizar los movimientos específicos que indicó el cliente en su problemática.  Antes de planearse las pestañas necesarias para desarrollar la aplicación de escritorio, se debían migrar los datos de Excel a una base de datos adecuada, se propuso usar SQLite3 para manejar los datos de forma local sin afectar el rendimiento del equipo, la migración se realizará una vez que la base de datos esté normalizada.  Como se mencionó anteriormente, se requiere normalizar las tablas antes de migrarlas. El cliente indicó que desea separar los datos A de los datos B, por lo que se procedió a realizar esta separación, asignando los campos requeridos para cada uno.  Aunque inicialmente se había definido que sería una aplicación de escritorio, es necesario tener en cuenta las pestañas a utilizar, inicialmente, se había pensado en una única pestaña que recibirá los datos de lectura del prototipo, sin embargo, tras analizar nuevamente la problemática, se identificó la necesidad de varias pestañas para la elaboración de la actividad, ya que se debe cubrir un sistema de inicio de sesión así como un menú para los diferentes campos que se quieren abarcar, por consiguiente, se propusieron las siguientes ideas:  Una pantalla encargada de realizar el Log-in.  Una pantalla encargada de fungir como Menú principal.  Una pantalla encargada de recibir los datos recabados por el prototipo y validar que existan en la base de datos.  Una pantalla que reciba y permita modificar cualquier campo de los datos recopilados por el prototipo.  Después de decidir las pantallas necesarias para la aplicación y determinar a dónde migrar los datos, se procede a desarrollar el prototipo para leer y enviar los datos a la aplicación de escritorio. 


CONCLUSIONES

Conclusión  Durante el verano, se adquirieron conocimientos teóricos y prácticos esenciales para simplificar y agilizar el proceso de inventario en la escuela mencionada. Se utilizaron tecnologías como Wifi, Bluetooth e infrarrojo para mejorar la eficiencia y precisión del registro y gestión de materiales. Sin embargo, debido a la extensión del trabajo, aún se encuentra en la fase de prototipo y no se pueden mostrar los datos obtenidos. Se espera una reducción de tiempo al realizar el inventario, así como un incremento en la eficiencia del inventario y en la búsqueda de este. 
Hernández Hernández Adrian Oswaldo, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. María Guadalupe Amézquita Delgado, Instituto Tecnológico Superior de Irapuato

SISTEMA DE APOYO EN EL REGISTRO DE EVALUACIONES EN PREESCOLAR


SISTEMA DE APOYO EN EL REGISTRO DE EVALUACIONES EN PREESCOLAR

Almanza Chavez Martin, Instituto Tecnológico Superior de Irapuato. Hernández Hernández Adrian Oswaldo, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. María Guadalupe Amézquita Delgado, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

La educación preescolar en México es un servicio educativo fundamental que puede mejorar significativamente las oportunidades académicas de los niños, especialmente aquellos en condiciones socioeconómicas desfavorables. La obligatoriedad y universalidad de la educación preescolar para niños de cuatro y cinco años ha incrementado la demanda de servicios educativos, generando desafíos significativos en la evaluación del progreso de los alumnos. Uno de los mayores retos que enfrentan los docentes es la evaluación continua y flexible de los alumnos. La actualización reciente del sistema educativo indica que la evaluación en preescolar debe basarse en la observación directa y en la interacción constante con los niños, en lugar de pruebas escritas. Sin embargo, la gran cantidad de alumnos por clase dificulta enormemente este proceso, requiriendo una inversión significativa de tiempo y esfuerzo para observar, registrar y analizar el progreso individual de cada niño. Ante estos desafíos, surge la necesidad de un software especializado que facilite a los docentes la evaluación continua y detallada del desarrollo de los alumnos. Este proyecto propone crear una herramienta tecnológica que apoye a los educadores en la observación y seguimiento del progreso infantil, reduciendo la carga administrativa y permitiendo una atención más personalizada y efectiva a cada niño.



METODOLOGÍA

Análisis de necesidades educativas y requisitos del sistema. Diseño del software utilizando herramientas de diseño. Desarrollo de las interfaces. Implementación de herramientas de observación y generación de informes. Pruebas y evaluación con usuarios finales.


CONCLUSIONES

El software facilita la evaluación continua y detallada de los alumnos en preescolar, los docentes pueden dedicar más tiempo a la interacción educativa y menos a tareas administrativa, la implementación del software mejora la calidad de la educación preescolar.
Hernández Hernández Gilberto, Universidad Mexiquense del Bicentenario
Asesor: Mg. Andres Yamil Martinez Choles, Universidad de la Guajira

PERSPECTIVAS DE LA IMPLEMENTACIóN DE TECNOLOGíAS LIMPIAS PARA EL TRATAMIENTO DE AGUAS RESIDUALES EN LA FRONTERA NORTE DE COLOMBIA Y MéXICO


PERSPECTIVAS DE LA IMPLEMENTACIóN DE TECNOLOGíAS LIMPIAS PARA EL TRATAMIENTO DE AGUAS RESIDUALES EN LA FRONTERA NORTE DE COLOMBIA Y MéXICO

Hernández Hernández Gilberto, Universidad Mexiquense del Bicentenario. Ortíz Pérz Eduardo, Universidad Mexiquense del Bicentenario. Asesor: Mg. Andres Yamil Martinez Choles, Universidad de la Guajira



PLANTEAMIENTO DEL PROBLEMA

Éste trabajo de investigación tiene como principal tema de estudio el qué tipo de tecnologías se están utilizando actualmente dentro de la frontera norte de Colombia y México. Tomamos la iniciativa de realizar investigación, porque se tomaron en cuenta grandes factores de afectación en diferentes puntos de México, principalmente y de Colombi,  los cuales tienen un impacto, desgraciadamente, muy negativo; tanto en el aprovechamiento de estas tormentas durante ciertas temporadas anuales, tanto del cómo se está lidiando en cada una de nuestras comunidades con este problema que genera no sólo un desaprovechamiento de una fuente de agua natural, sino que a diversas comunidades problemas como inundaciones, exceso de agua en el drenaje, fatiga y ahogamiento de la fauna silvestre o de 1 a controlada. Además, se toma en cuenta el tipo de tecnología que existe actualmente en ambos países, y que no está siendo aprovechada al 100% durante estas temporadas la cual se puede innovar por medio de un diseño bastante moderno y que nos permite dar uso a materiales reciclables y resolver dos situaciones que de igual manera Representan afectaciones a nuestras regiones y dar pie a la modernización de ciertas comunidades dentro de ellas.   Dando pie a la investigación de 1 a de oportunidad en donde con la guía, el desarrollo y cada uno de los antecedentes trabajados de la manera correcta, podemos encontrar no sólo una sino varias soluciones, de acuerdo a todas estas problemáticas que se necesitan abordar para proponer una solución fija aplicable y sobre todo sustentable en cuanto al aspecto económico y ecológico. Siendo esta la principal razón del aprovechamiento tanto del agua pluvial como de los materiales reciclables para la fabricación de estas tecnologías.  Las intenciones de realizar esta investigación sobre el uso de esta tecnología son para ayudar a nuestras comunidades a poco a poco ir aprovechando las cosas que tenemos, es decir los recursos con los que contamos y que pueden resolver los problemas que tiene cada uno de nuestras comunidades. las afecciones directas como las inundaciones o algunas veces el desabasto de agua por el sistema de redes en el que estamos habitando, queremos dar pie a las innovaciones a que cada vez más personas se sumen a realizar proyectos y que este sea un ejemplo de lo que se puede lograr con iniciativa, visión y sobre todo trabajo en equipo.



METODOLOGÍA

Se comenzará analizando el tema de investigación de manera clara, donde los integrantes darán su aportación de lo que sabe cada uno, para tener a grandes rasgos conocimiento de lo que va a tratar la investigación, debatiendo puntos clave donde cada integrante brindará comentarios y posibles aportes, debatir sobre las posibles fuentes de consulta para la indagación de lo que se pide, poniendo en consideración la manera de trabajar, como organizarse en cuanto al tiempo y medio para trabajar de la manera más adecuada posible donde todos los integrantes tengan la posibilidad de coincidir en sus tiempos, considerando un tiempo de siete semanas para la realización de la investigación, realizando una revisión semanal del avance. Después de tener claro el tema de procederá a buscar fuentes de consulta confiables, generando fichas de bibliográficas, donde colocará la fuente, la bibliografía y un resumen del artículo o fuente consultada, esto servirá como base para tener conocimiento más preciso del tema y ayudará a entender de mejor manera lo que la investigación puede llegar a beneficiar y su impacto en la sociedad, una vez que cada integrante tenga sus fichas se procede a juntar todas y verificar que ninguna se repita, teniendo artículos internacionales, nacionales y regionales. Se procede a realizar el llenado del formato correspondiente para el desarrollo de la investigación, donde cada integrante deberá aportar, dividiendo la carga de trabajo, con ayuda de las fichas bibliográficas se procederá a llenar el formato, y de ser necesario se buscará más información para ir completando la investigación, de tal manera que la investigación sea precisa y abarque de manera clara y adecuada el tema de la implementación de tecnologías limpias en zonas fronterizas del norte de Colombia y México, además de buscará los beneficios que las tecnologías limpias tendrán para las comunidades donde se implementaran, y se realizará un análisis donde los integrantes con ayuda de lo recabado darán las posibles soluciones al problema planteado al comienzo, de manera acertada y adecuada siendo críticos en su manera de expresar sus resultados obtenidos durante la investigación, se tendrá un monitoreo constante, además de manera semanal se buscará que se revise el avance hasta ese momento, una vez que sea revisado el avance se dará la observación pertinente y se harán los cambios correspondientes. Con base en lo que se obtuvo en a la investigación, los integrantes realizarán una propuesta donde demuestran todo lo que han recabado, dónde demuestran que lo indagado sirve como base teórica sólida donde buscan dar solución al problema que se planteó, siendo objetivos con lo que se obtuvo, posteriormente al terminar el llenado del formato se realizará la respectiva revisión, para que sea avalado, si es necesario se realizarán los cambios pertinentes del documento de investigación.


CONCLUSIONES

  Llegamos a la conclusión de qué es viable este proyecto siempre y cuando se tenga bien identificado cuál es el punto clave para llegar a una base de estudio concreta, lo cual es de qué manera aprovechamos esta agua y hacia dónde va direccionada, no sólo saber para que no sirve el filtro, si no conocer los beneficios que va a tener aprovechar esta agua y de qué forma va a impactar también a nuestro medio natural. ¨Las cuestiones de salud e higiene han pasado a un plano prioritario en nuestras rutinas y prestamos más atención a los agentes contaminantes que podrían afectar a nuestra salud a largo plazo¨.  (s.f , 2024) Finalizando así, con un producto positivo, de acuerdo a la obtención de datos y nuevos conocimientos que se realizaron durante estas siete semanas.
Hernández Hernández Yareli, Universidad Tecnológica Fidel Velázquez
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

COMPUESTOS DE ALMIDóN TERMOPLáSTICO (TPS), QUITOSANO Y PLA PARA APLICACIONES EN MATERIALES TERMOFORMADOS


COMPUESTOS DE ALMIDóN TERMOPLáSTICO (TPS), QUITOSANO Y PLA PARA APLICACIONES EN MATERIALES TERMOFORMADOS

Hernández Hernández Yareli, Universidad Tecnológica Fidel Velázquez. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El proyecto aborda varias problemáticas  que se presentan en nuestro país relacionadas con la contaminación ambiental y la gestión de residuos plásticos. Al desarrollar plásticos biodegradables, se busca mitigar la contaminación ambiental causada por los plásticos convencionales que pueden persistir en el medio ambiente durante décadas o más. Los plásticos biodegradables tienen el potencial de descomponerse en un tiempo corto bajo condiciones adecuadas, lo que podría reducir significativamente su impacto negativo en ecosistemas terrestres y acuáticos. Actualmente las cifras de desecho de plásticos han ido en aumento, De acuerdo al Informe Estado del plástico 2018 de ONU Ambiente, alrededor de 13 millones de toneladas de plástico son vertidas en los océanos cada año. El plástico convencional puede tardar cientos de años en descomponerse, por lo que, cuando se desecha, se acumula en el medio ambiente hasta alcanzar un punto crítico. Esta contaminación asfixia a la fauna marina, deteriora el suelo, envenena las aguas subterráneas y puede causar graves consecuencias para la salud humana. Por tanto, es importante buscar nuevas alternativas que sustituyan a los plásticos convencionales. El mayor problema de los plásticos comunes es su resistencia a la degradación, en consecuencia se está impulsando el desarrollo de polímeros biodegradables, ya que estos tienen la propiedad de degradarse mediante acción enzimática de microorganismos como bacterias, hongos y algas produciendo principalmente CO2, CH4, agua, biomasa y otras sustancias que no son perjudiciales para el entorno. Los bioplímeros deben satisfacer como mínimo las normas ASTM D5338 Y D6002, estas normas exigen que el grado de degradación por acción enzimática debe ser de al menos el 60% y 90% si se trata de un composito. En la Universidad de Guadalajara, en el Departamento de Ingeniería Química, se impulsa el desarrollo de Biopolímeros, actualmente, muchas de las líneas de investigación se centran en investigar y diseñar nuevos biopolímeros para el sector del plástico, embalaje, envasado y empaquetado. Buscan encontrar la resistencia adecuada para aplicarlos en distintas áreas y puedan sustituir a los plásticos convencionales. El desarrollo de ellos se centra en seguir las normas principales del ASTMD 7611, D5038 y D6002. El proyecto desarrollado en la Universidad de Guadalajara durante el XXIX Verano de la Investigación Científica y Tecnológica del Pacifico busca desarrollar un nuevo biopolímero compuesto de Ácido Poliláctico (PLA), Almidón Termoplástico (TPS), Quitosano Termoplástico (TPQ) y realizar el estudio de las propiedades mecánicas para aplicaciones en materiales termoformados.



METODOLOGÍA

La metodología para la elaboración del biopolímero y su estudio de pruebas mecánicas consta de realizar lo siguiente: Preparación del Quitosano Termoplástico Completo. a). Se preparó una mezcla de quitosano (17%), ácido acético (2%), glicerol (33%) y agua (50%). Primero se añadió el glicerol al quitosano, luego se incorporó una solución al 2% de ácido acético para formar una pasta. Finalmente, se añadieron 1% de ácido esteárico y 1% de ácido cítrico. 2. Reparación del Quitosano Termoplástico Sin ácido esteárico. b). Se preparó una mezcla de quitosano (17%), ácido acético (2%), glicerol (33%) y agua (50%). Primero se añadió el glicerol al quitosano, luego se incorporó una solución al 2% de ácido acético para formar una pasta. Finalmente, se añadio 1% de ácido cítrico. 3. Elaboración de placas Antes de hacer las placas, se muele el material en una licuadora Oster y se extruye en un Mini-Extrusor de Doble husillo. Luego, se prensan en una Termo-prensa de compresión. La molienda previene burbujas de aire y fusión parcial del material. 4. Pruebas de tensión. Se llevaron a cabo pruebas de tensión en la cortadora láser, eligiendo el modelo de Probeta 5. 5. Pruebas mecánicas de torsión. Se utilizó una Máquina de pruebas Universales Instron 3345 para realizar las pruebas mecánicas de Tracción ASTM D638


CONCLUSIONES

Se logró obtener un nuevo material biopolimérico mediante la combinación de PLA, TPS y Quitosano utilizando equipos de termoprensado. Según las pruebas mecánicas realizadas, se determinó que la muestra más efectiva es la muestra 8 TPQ completa, dado que presenta una mayor resistencia en comparación con la muestra 7 TPQ sin ácido esteárico, la cual exhibe una menor tenacidad. Al comparar los módulos de Young, se observó que la muestra 7 posee una mayor elasticidad, pero una capacidad máxima de esfuerzo de tracción menor. En contraste, la muestra 8 muestra una elasticidad superior a la de la muestra 7, acompañada de una mayor capacidad máxima de esfuerzo por tracción. Es importante destacar que el aditivo ácido esteárico proporciona una mayor resistencia a la tracción a la muestra 8, lo cual mejora las propiedades del composite. Este desarrollo de proyecto ha facilitado la innovación de un nuevo biopolímero con potenciales aplicaciones en materiales termoformados. En resumen, la investigación realizada representa un avance significativo hacia el desarrollo de materiales más sostenibles y ecológicos, con aplicaciones prácticas en diversas industrias. Este campo ofrece un potencial emocionante para contribuir positivamente al medio ambiente y a la sostenibilidad industrial.
Hernández Lacayo Lorena Esmeralda, Universidad Nacional de Ingeniería
Asesor: Dra. Ana Cecilia Borbón Almada, Universidad de Sonora

CONSTRUCCIóN SUSTENTABLE


CONSTRUCCIóN SUSTENTABLE

Hernández Lacayo Lorena Esmeralda, Universidad Nacional de Ingeniería. Asesor: Dra. Ana Cecilia Borbón Almada, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El sector de la construcción tradicional en México y Nicaragua se caracteriza por un alto consumo de recursos naturales y energía, así como por la generación de residuos y emisiones contaminantes. Esto contribuye de manera significativa a problemas con el cambio climático y a la degradación ambiental. Es bajo esa circunstancias,que surge la necesidad de adoptar prácticas de construcción sustentable que promuevan el uso eficiente de los recursos, la reducción de residuos y la minimización de impactos ambientales negativos. Una de las estrategias más eficaces para lograr una construcción sustentable es el uso de materiales ecológicos y renovables. El adobe, por ejemplo, es un material de construcción tradicional que ofrece numerosos beneficios ambientales y económicos. Este material, compuesto principalmente de tierra, agua y paja, es abundante y de bajo costo en ambos países. 



METODOLOGÍA

La metodología de estudio para el tema de la Construcción Sustentable, comenzó con un análisis detallado de las prácticas constructivas en México y Nicaragua, con el objetivo de idetificar las características comunes y diferentes en ambas zonas. Posteriormente, se llevó a cabo un estudio de las envolventes de los edificios, enfocándonos en techos y paredes, para evaluar su impacto en el confort térmico de las edificaciones. Para establecer propuestas en la sostenibilidad de los envolventes, se eligió un material de construcción con el fin de estudiarlo y proponerlo como sustentable. Se elaborará un póster informativo que incluirá todos los datos recopilados sobre el material de envolvente. Este póster presentará cálculos sobre las propiedades térmicas del adobe, demostrando su efectividad en la construcción sustentable y destacando su viabilidad para su uso en paredes en los contextos de México y Nicaragua.


CONCLUSIONES

En el análisis de las prácticas constructivas, se identificaron características comunes, notando que en ambas zonas se emplean prácticamente los mismos materiales tradicionales para la construcción, como concreto, ladrillo y madera. En el caso de otros envolventes, se usan con similitud el acero, los paneles W y otros prefabricados. Se encontró una diferencia en el envolvente techo, donde en México hay una predominancia de la Losa de concreto, a diferencia de Nicaragua, donde predomina el uso de zinc.  Se eligió un material de construcción, para proponerlo como sustentable, mientras se evalua esa veracidad mediante cálculos. Se propuso el adobe como material principal. La elección del adobe se fundamentó en sus múltiples beneficios: es un material abundante y económico, tiene excelentes propiedades térmicas que mejoran la eficiencia energética de las edificaciones y es altamente sostenible debido a su baja huella de carbono. Seguido a esto, se obtendrán resultados sobre las propiedades térmicas del material, lo que permitirá calificarlo como material sustentable o no sustentable.
Hernández López Zaira Citlalli, Instituto Tecnológico de Cuautla
Asesor: Mtro. Víctor Manuel López Martínez, Universidad Politécnica de Atlacomulco

SIMULACIóN DE ABSORCIóN DE IMPACTOS DE FLUIDOS NO NEWTONIANOS MEDIANTE USO DE SOFTWARE.


SIMULACIóN DE ABSORCIóN DE IMPACTOS DE FLUIDOS NO NEWTONIANOS MEDIANTE USO DE SOFTWARE.

Hernández López Zaira Citlalli, Instituto Tecnológico de Cuautla. Asesor: Mtro. Víctor Manuel López Martínez, Universidad Politécnica de Atlacomulco



PLANTEAMIENTO DEL PROBLEMA

Los fluidos no newtonianos representan una clase de materiales cuya viscosidad cambia con la tensión cortante aplicada, a diferencia de los fluidos newtonianos, cuya viscosidad se mantiene constante independientemente de la fuerza aplicada. La problemática a la cual se llegó dar una solución es el poder simular específicamente el comportamiento de un fluido no newtoniano ante un impacto. ¿Cómo logramos esto?, mediante el uso de softwares que nos ayudan en la simulación experimental de distintos fenómenos físicos como por ejemplo ANSYS.



METODOLOGÍA

Antes de empezar la práctica abordemos dos conceptos importantes de ansys. Polyflow: ANSYS Polyflow acelera el tiempo de diseño y al mismo tiempo reduce la demanda de energía y materia prima para los procesos de fabricación. Polymat: Polymat en ANSYS es una herramienta especializada en la modelización de materiales no newtonianos. Una vez visto ya la teoría en este proyecto es hora de pasar a la práctica para ello utilizaremos ANSYS workbench que es una estación de trabajo donde ANSYS guarda todos sus paquetes del software. Así que le dan clic aquí y se va desplegar una pantalla. Ahora nos vamos en el apartado de Polyflow es ahí donde ocupamos uno de los paquetes si no lo encuentra solo damos click en component systems y ahí estará esa opción. Ya encontrado el paquete le damos clic y nos aparecerá una pestaña emergente. Seleccionamos en el apartado de Setup y damos clic derecho y ahí se nos desplegara una pestaña con más opciones dentro de las cuales vamos a seleccionar Polyflow. Lo que haremos es tratar de determinar las constantes de modelos de viscosidad y  encontrar un modelo de viscosidad determinado para datos experimentales, una vez encontrado un modelo de viscosidad, yo lo encontré en una página llamada Campus Plastic donde esta empresa se encarga del manejo y venta de diferentes tipos de polímeros. Elegimos este polímero de baja densidad en este caso ellos pueden ofrecerles a ustedes alguno y así decir las propiedades, Contiene una curva del comportamiento en función de la temperatura y lo que yo hice aquí es robarme los datos de la tabla e insertarlos en ANSYS. Seleccionamos control points y nos dará esta tablita, seleccionamos la de 204 C. Una vez ya teniendo la tabla nos vamos a ANSYS y seleccionamos el apartado que dice create new curve. Nos arrojara una tabla y ahí pondremos los datos del polímero que nos dio Campus Plastic. Le damos en okey y nos dibujara una curva algo dispersa, donde nos indica cada punto que nosotros le dimos de la tabla. Esta tabla la debemos guardar, solo seleccionamos la opción sabe the selected curve, posteriormente la guardamos en alguna carpeta, en este caso la guardaremos con el nombre de la tabla de la página de Campus Plastic. Ya guardado nos posicionamos en el menú y seleccionamos Automaticfifthing. Esta opción te dará los valores de las constantes dependiendo de la fórmula que se utilice e igual depende del método que estemos utilizando. Escogemos esta opción para poder encontrar el valor de k y n (valores de la formula) que se ajusten mejor a la curva. Una vez entendido esto daremos click a add experimental curves. En esta opción nosotros añadiremos la curva que guardamos antes. Y luego de añadirla regresaremos al menú anterior con la opción Upper level menú. Y podremos ver que ya aparece el nombre de la curva, ahora estaremos trabajando con es curva. Regresamos al menú anterior, una vez cargado los datos experimentales nos daremos cuenta de que vamos a regresar una vez más al anterior menú para darle en la opción Material Data. En este apartado del programa podemos visualizar que tenemos un modelo generalizado newtoniano. Expliquemos para que sirve cada opción. Modify material name = Material Data: Modificar el nombre del material. Shear - rate dependence of viscosity: Establecer cuál es la dependencia dependiendo de la viscosidad y la velocidad de corte. Density: Cambiar la densidad del fluido. Seleccionamos la opción número 2. La siguiente pantalla nos mostrara diferentes tipos de modelos, comencemos con la ley de potencias que es por el momento la más simple y sirve excelente para hacer un ejemplo. Nos aparecerá una pantalla con opciones donde la vamos a identificar como shear-reat dependance of viscosity. Daremos click en Power law. Y después de ahí en este apartado de la izquierda nos da la ecuación que se utiliza para hacer los cálculos de la curva. Regresamos dos veces antes al menú con la opción Upper level menú, hasta llegar en Polymat que un menú el cual vamos ocupando una y otra vez para realizar los ejemplos que se muestran en este proyecto. Vamos a seleccionar la opción Automatic fitting y después nos saldrá algunas opciones. Le damos click en la opción Run fitting, Esta opción nos dibujara una línea lo mas cercana a los puntos con la ley de potencias. Después de esto veremos como cambia la curva, ahora nos dibuja una línea recta la cual tiene los puntos que dibujamos anteriormente solo que nos da una simulación de como se comportarían los componente y propiedades del fluido. Ahora vamos a visualizar si los datos en la ecuación cambiaron regresamos una vez con Upper level menú, y entramos en Material Data. Después de ahí le daremos click en la opción Shear - rate dependence of viscosity, volvemos a entrar en power law. En esta última instrucción se pudo visualizar los tres distintos modelos que ocupamos para simular el comportamiento de modelo de fluido newtoniano, hemos realizado bastantes pruebas y podemos concluir exitosamente esta práctica con el programa ANSYS, el cual lleva distintas herramientas que nos facilitan muchas actividades como lo es el dibujar curvas del comportamiento de los fluidos.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los diferentes tipos de softwares para la simulación de fenómenos físicos específicamente la absorción de impactos con fluidos no newtonianos.Con los resultados obtenidos se espera una mejora automática a la hora de tratar de predecir si un fluido no newtoniano protegería algún objeto, por ello los distintos softwares nos dieron mucha ayuda a la hora de hacer cálculos con los componentes del fluido.
Hernández Magaña Laura Citlalic, Universidad de Guadalajara
Asesor: Mg. Gabriel Jaime Rivera León, Universidad Nacional Abierta y a Distancia

IMPLEMENTACION DE ANALISIS DE DATOS PARA EL DESARROLLO DE CIUDADES INTELIGENTES: UN ESTUDIO DE CASO EN MEDELLIN


IMPLEMENTACION DE ANALISIS DE DATOS PARA EL DESARROLLO DE CIUDADES INTELIGENTES: UN ESTUDIO DE CASO EN MEDELLIN

Hernández Magaña Laura Citlalic, Universidad de Guadalajara. Hernández Montero Miriam Alejandra, Universidad de Guadalajara. Asesor: Mg. Gabriel Jaime Rivera León, Universidad Nacional Abierta y a Distancia



PLANTEAMIENTO DEL PROBLEMA

Implementar eficazmente el análisis de datos para impulsar el desarrollo de ciudades inteligentes, con un enfoque específico en el estudio de caso de Medellín y necesidad de adaptación y flexibilidad en la implementación de tecnología, destacando la importancia de enfoques ágiles, procesos iterativos y aprendizaje continuo para navegar en paisajes tecnológicos en evolución y dinámicas urbanas cambiantes. La colaboración público-privada emerge como un factor crítico de éxito, enfatizando la importancia de las asociaciones entre entidades gubernamentales, organizaciones del sector privado, academia y sociedad civil para impulsar la innovación tecnológica y la resolución colectiva de problemas en proyectos de ciudades inteligentes.



METODOLOGÍA

La metodología utilizada para este estudio de caso se basa en un enfoque cualitativo y cuantitativo para examinar la implementación de análisis de datos en el desarrollo de ciudades inteligentes en Medellín. Se realizaron entrevistas en profundidad con actores clave involucrados en los proyectos de ciudades inteligentes en Medellín, incluidos funcionarios del gobierno, académicos, representantes de la comunidad y expertos en tecnología. Estas entrevistas proporcionaron información valiosa sobre las experiencias y percepciones de los actores interesados, así como los desafíos específicos y las oportunidades que enfrentan al implementar el análisis de datos en la ciudad. Además, se utilizaron datos secundarios de informes, artículos académicos y documentos de políticas para contextualizar y complementar los hallazgos de las entrevistas.


CONCLUSIONES

La implementación de análisis de datos en el desarrollo de ciudades inteligentes ofrece una avenida prometedora para mejorar la vida urbana, particularmente en ciudades como Medellín. Este estudio ha proporcionado un análisis integral de los desafíos, estrategias y resultados asociados con el viaje de Medellín hacia convertirse en una ciudad inteligente.
Hernández Mayorquin Andrea Monserrat, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

ESTRATEGIAS DE INTRALOGíSTICA EN EMPRESAS DEL SUR DE SINALOA


ESTRATEGIAS DE INTRALOGíSTICA EN EMPRESAS DEL SUR DE SINALOA

Hernández Mayorquin Andrea Monserrat, Universidad Politécnica de Sinaloa. Salazar Ibarra Isela Donahi, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La intralogística también conocida como logística interna se refiere a la gestión y optimización de los flujos de materiales, capital e información dentro de una organización. Su objetivo principal es garantizar la fluidez de diversos procesos productivos, que en este verano de investigación se abordan el proceso de abastecimiento con enfoque operativo en proveedores, almacén e inventario. En la actualidad en la región de Mazatlán ubicada en el Sur de Sinaloa, las organizaciones productivas (empresas) del sector servicio mantienen una constante en su productividad y calidad en sus operaciones, dentro de las mismas operan procesos de logística interna, en esta investigación para el procesamiento y análisis de datos  lo abordaremos con la siguiente categorización: Eventos, Turismo, Comercial y Transporte, analizando factores como el almacenaje, inventario y proveedores, es decir el proceso de abastecimiento para la continuidad de la cadena productiva. En un ámbito de desarrollo económico de la región de Mazatlán en el Estado de Sinaloa, la cual pone a prueba la conciencia en estrategias de intralogística en un ámbito de calidad en procesos productivos, con una atención principal en las empresas de servicios, siendo necesario abordar la problemática compleja con relación al tema del objetivo 9.- Industria, innovación e infraestructura de los ODS de la ONU incluidos en la agenda 2030 al realizar un estudio preliminar que nos proporcione un conocimiento para la reflexión y difusión del conocimiento derivado del impacto del crecimiento económico en la sociedad y su conciencia en la sustentabilidad.  



METODOLOGÍA

Para nuestro estudio científico se utiliza la metodología de investigación cuantitativa de tipo campo la cual consiste en la recolección de datos directamente de la realidad donde ocurren los hechos, sin manipular o controlar variable alguna, con una extensión del estudio de investigación de campo con medios de instrumentos impresos, el nivel de la investigación descriptiva donde se busca el diagnosticar la relación de los hechos. Como primera etapa del verano de investigación se define el título del proyecto siendo Estrategias de Intralogística en empresas del Sur de Sinaloa describiendo el objetivo general el cual es Investigar y analizar los principios, metodologías y herramientas de gestión de calidad  y procesos productivos, con el fin de identificar propuestas de estrategias efectivas para la mejora continua, optimización de la eficiencia operativa y la satisfacción del cliente, contribuyendo así a la competitividad y sostenibilidad de las organizaciones, así también, se inicia con la búsqueda de información basada en fuentes auditadas sobre el tema del proyecto, posteriormente se realiza un análisis teórico de lo encontrado para proceder a el método de recolección de datos a través de un instrumento de tipo encuesta con 62 reactivos, de los cuales 6 reactivos son en el ámbito logístico, se orientó el estudio a las preguntas ¿Se selecciona y evalúa a los proveedores con métodos asertivos? y ¿Se aplica una gestión precisa en el inventario y almacenamiento?, ambas con posibles respuestas con la siguiente escala (5) Muy de acuerdo, (4) De acuerdo, (3) En desacuerdo, (2) Muy en desacuerdo, (1) No sé, el instrumento se aplicó a empresas de diferentes sectores que para el procesamiento de datos se categorizo en turístico, comercial, transporte y eventos, con una muestra recabada de 26 encuestas contestadas por los responsables de área en campo en diversas empresas. Con los datos recabado por el instrumento se analiza la información de forma gráfica y estadística descriptiva para realizar una argumentación sustentada ante una hipótesis preliminar de que si la empresa del sector servicio aplican métodos y gestión pertinente para desarrollar procesos productivos y de calidad en el ámbito intralogística.


CONCLUSIONES

De los resultados del análisis gráfico y estadístico descriptivo se argumenta que las empresas del giro servicios ubicadas en la región de Mazatlán Sinaloa desde una perspectiva del personal en campo con relación a la gestión de proveedores describe que están muy de acuerdo (50%) en que utilizan métodos asertivos con los proveedores, se detecta que un 15 % de los encuestados no describe si utilizan métodos asertivos con los proveedores, mientras que un 35 % describe como de acuerdo en que utiliza métodos asertivos con los proveedores. Seguidamente en el ámbito de almacenamiento e inventario, arroja que más de la mitad con un 54 % aplican una gestión que facilita y agiliza los procesos de operaciones dentro del contexto del área de almacén, sin embargo se presenta un porcentaje del 15 % el cual indica que deberían de aplicar una mejor gestión que contribuyan a la mejora de los diferentes procesos que se desenvuelven en este rubro. Se puede argumentar que las empresas del Sur de Sinaloa en la región de Mazatlán en su gran mayoría utilizan metodologías y herramientas de gestión de calidad  y procesos productivos, con el fin de identificar propuestas de estrategias efectivas para la mejora continua en el ámbito Intralogística, contribuyendo así a la competitividad y sostenibilidad de las organizaciones, la cual aporta al ODS2030 al que contribuye: Desarrollar infraestructuras resilientes, promover la industrialización inclusiva y sostenible, y fomentar la innovación.
Hernández Medrano Mariandrea, Universidad Nacional de Ingeniería
Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos

ANáLISIS DE LOS ESTILOS DE LIDERAZGO PARA GENERAR ESTRATEGIAS DE MEJORA EN LAS MIPYMES


ANáLISIS DE LOS ESTILOS DE LIDERAZGO PARA GENERAR ESTRATEGIAS DE MEJORA EN LAS MIPYMES

Estrada Gonzalez Samantha, Universidad de Guadalajara. Hernández Medrano Mariandrea, Universidad Nacional de Ingeniería. Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

El liderazgo es un componente esencial para la competitividad y el desarrollo sostenible de las organizaciones, particularmente en las MiPymes, que representan el 99.8% de las unidades económicas y generan el 72% del empleo formal en México (INEGI, 2020). En este contexto, el liderazgo influye en la moral de los empleados, la capacidad de innovación, adaptación a cambios del mercado y productividad empresarial. El municipio de Balancán, con su emergente actividad industrial, ofrece un entorno ideal para evaluar la influencia de los estilos de liderazgo en las MiPymes. Estas empresas enfrentan desafíos únicos, como limitaciones de recursos y la necesidad de adaptarse a un mercado en evolución. La implementación de estilos de liderazgo adecuados podría ser clave para superar estos desafíos y mejorar la productividad.



METODOLOGÍA

Esta investigación empleará un enfoque mixto, combinando métodos cuantitativos y cualitativos para obtener una comprensión integral de cómo los estilos de liderazgo afectan las estrategias de mejora en las MiPymes de Balancán, Tabasco. El enfoque mixto permite explorar tanto la extensión del impacto de los estilos de liderazgo (cuantitativo) como la profundidad de las experiencias y percepciones de los líderes y empleados (cualitativo).   Se distribuirán cuestionarios estructurados a una muestra representativa de líderes y empleados de MiPymes en Balancán. Estas encuestas estarán diseñadas para recopilar datos sobre las percepciones de los estilos de liderazgo predominantes y su impacto en aspectos clave como la motivación, la productividad y la cohesión del equipo. Los datos cuantitativos permitirán medir la extensión del impacto de los estilos de liderazgo.


CONCLUSIONES

Los resultados de la Investigación muestran una fuerte inclinación hacia el liderazgo democraticio por un 40% en las MiPymes de Balancán, Tabasco,teniendo como resultados A demás del liderazgo democrático en un 40%, tenemos el liderazgo transformacional en un 30%, el liderazgo autocrático en un 15%, el liderazgo liberal en un 5% y el liderazgo situación al un 10%. Por lo cual se destaca la comunicación abierta, la participación de los empleados, y el fomento de la participación activa y el consenso entre los miembros del equipo y el reconocimiento del esfuerzo individual. Este estilo de liderazgo fomenta un ambiente de trabajo positivo y motivador, lo cual es crucial para la innovación y la adaptabilidad en un mercado en constante cambio. Para mejorar aún más el impacto de este liderazgo, se recomiendan varias estrategias: Capacitación en Liderazgo Programas de Mentoría Evaluaciones Continuas Estas acciones no solo fortalecerán el liderazgo existente, sino que también asegurarán una adaptación constante a los cambios del entorno, mejorando la competitividad y la sostenibilidad de las MiPymes en Balancán.
Hernández Montero Miriam Alejandra, Universidad de Guadalajara
Asesor: Mg. Gabriel Jaime Rivera León, Universidad Nacional Abierta y a Distancia

IMPLEMENTACION DE ANALISIS DE DATOS PARA EL DESARROLLO DE CIUDADES INTELIGENTES: UN ESTUDIO DE CASO EN MEDELLIN


IMPLEMENTACION DE ANALISIS DE DATOS PARA EL DESARROLLO DE CIUDADES INTELIGENTES: UN ESTUDIO DE CASO EN MEDELLIN

Hernández Magaña Laura Citlalic, Universidad de Guadalajara. Hernández Montero Miriam Alejandra, Universidad de Guadalajara. Asesor: Mg. Gabriel Jaime Rivera León, Universidad Nacional Abierta y a Distancia



PLANTEAMIENTO DEL PROBLEMA

Implementar eficazmente el análisis de datos para impulsar el desarrollo de ciudades inteligentes, con un enfoque específico en el estudio de caso de Medellín y necesidad de adaptación y flexibilidad en la implementación de tecnología, destacando la importancia de enfoques ágiles, procesos iterativos y aprendizaje continuo para navegar en paisajes tecnológicos en evolución y dinámicas urbanas cambiantes. La colaboración público-privada emerge como un factor crítico de éxito, enfatizando la importancia de las asociaciones entre entidades gubernamentales, organizaciones del sector privado, academia y sociedad civil para impulsar la innovación tecnológica y la resolución colectiva de problemas en proyectos de ciudades inteligentes.



METODOLOGÍA

La metodología utilizada para este estudio de caso se basa en un enfoque cualitativo y cuantitativo para examinar la implementación de análisis de datos en el desarrollo de ciudades inteligentes en Medellín. Se realizaron entrevistas en profundidad con actores clave involucrados en los proyectos de ciudades inteligentes en Medellín, incluidos funcionarios del gobierno, académicos, representantes de la comunidad y expertos en tecnología. Estas entrevistas proporcionaron información valiosa sobre las experiencias y percepciones de los actores interesados, así como los desafíos específicos y las oportunidades que enfrentan al implementar el análisis de datos en la ciudad. Además, se utilizaron datos secundarios de informes, artículos académicos y documentos de políticas para contextualizar y complementar los hallazgos de las entrevistas.


CONCLUSIONES

La implementación de análisis de datos en el desarrollo de ciudades inteligentes ofrece una avenida prometedora para mejorar la vida urbana, particularmente en ciudades como Medellín. Este estudio ha proporcionado un análisis integral de los desafíos, estrategias y resultados asociados con el viaje de Medellín hacia convertirse en una ciudad inteligente.
Hernandez Montes Emanuel, Instituto Tecnológico de Iztapalapa
Asesor: Dr. Jaime Cerda Jacobo, Universidad Michoacana de San Nicolás de Hidalgo

UN CLASIFICADOR BASADA EN INCEPCION V3 Y METADATOS PARA LA DETECCIóN DE CANCER DE PIEL


UN CLASIFICADOR BASADA EN INCEPCION V3 Y METADATOS PARA LA DETECCIóN DE CANCER DE PIEL

Hernandez Montes Emanuel, Instituto Tecnológico de Iztapalapa. Asesor: Dr. Jaime Cerda Jacobo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El proyecto se centra en la clasificación de imágenes médicas para detectar la presencia de tumores malignos y benignos. La detección temprana de tumores es crucial para mejorar las tasas de supervivencia, y el objetivo de este trabajo es desarrollar un modelo eficiente y preciso que pueda ayudar a los profesionales de la salud en el diagnóstico temprano. Este enfoque puede proporcionar una herramienta complementaria valiosa en el proceso de diagnóstico, reduciendo el tiempo y los recursos necesarios para una evaluación precisa.



METODOLOGÍA

Se utilizó un enfoque de aprendizaje profundo utilizando el modelo InceptionV3 para clasificar imágenes en categorías de tumores benignos y malignos. Además, se entrenó un modelo adicional con metadatos que fue combinado con el modelo de imágenes. Los datos de entrenamiento y validación fueron preprocesados y escalados utilizando pandas y scikit-learn. La integración de ambos modelos se realizó utilizando TensorFlow y Keras, y se evaluaron mediante métricas como la precisión y la sensibilidad Preprocesamiento de Datos: Las imágenes fueron preprocesadas mediante técnicas como la normalización, la reducción de ruido y el aumento de datos, lo que incluyó rotaciones, recortes y ajustes de brillo y contraste para aumentar la diversidad del conjunto de datos de entrenamiento. Los datos tabulares fueron limpiados, normalizados y codificados adecuadamente. Modelado: Modelo de Imágenes: Se utilizó un modelo de aprendizaje profundo basado en la arquitectura InceptionV3, que ha demostrado un alto rendimiento en tareas de clasificación de imágenes. El modelo fue ajustado para identificar características específicas de tumores benignos y malignos mediante un proceso de entrenamiento supervisado. Esto como resultado nos dio una perdida de 0.155 Modelo de MetaDatos: Para los datos , se utilizó un modelo de regresión logística, que es adecuado para la clasificación binaria. El modelo se entrenó con los datos preprocesados y codificados. Los datos se dividieron en conjuntos de entrenamiento (90%) y validación (10%) para evaluar el rendimiento del modelo. Tras el entrenamiento, el modelo fue evaluado utilizando el conjunto de validación para medir su precisión y capacidad predictiva. Esto como resultado nos dio una perdida de 0.160 Integración de Modelos: Ambos modelos fueron integrados utilizando un enfoque de aprendizaje de ensamblaje. Las salidas del modelo de imágenes y del modelo tabular se combinaron para formar una entrada para un meta-modelo, entrenado para proporcionar una clasificación final más precisa. Evaluación: Ambos modelos fueron integrados utilizando un enfoque de aprendizaje de ensamblaje. Las salidas del modelo de imágenes y del modelo tabular se combinaron para formar una entrada para un meta-modelo, entrenado para proporcionar una clasificación final más precisa utilizando multicapas, entrando y siendo salida empezando con las dos de 1 o 0 si es malignos o benignos y por la parte de metadatos teniendo como salida las 50 características obtenidas y ya codificadas como lo era las columnas como genero o algunas que tenían NAN, una vez pasado todo eso y juntando los modelos o entrenamientos dando como resultado una predicción  mejorada


CONCLUSIONES

Los resultados del modelo combinado mostraron una mejora significativa en la precisión de la clasificación de tumores en comparación con el uso de modelos individuales. La integración de datos de imágenes y metadatos proporcionó una visión más completa y precisa del diagnóstico. Sin embargo, se identificaron algunas limitaciones, como la necesidad de un mayor volumen de datos para mejorar la robustez del modelo. Futuras investigaciones podrían explorar el uso de técnicas de aumento de datos y la implementación de modelos más avanzados Empezar en el campo del Machine Learning puede ser un desafío abrumador ya que no es estado tanto en esta área por mi carrera de ingeniería mecatrónica me he enfocado más en otra parte precisamente en automatización y control, pero también es una experiencia increíblemente gratificante. Al finalizar este proyecto, siento una gran satisfacción por los avances y el conocimiento adquirido a lo largo del camino. A lo largo de este proyecto, mi comprensión del Machine Learning ha crecido significativamente. He aprendido no solo a aplicar técnicas y algoritmos, sino también a abordar problemas complejos de manera estructurada y eficiente. Este proyecto no solo me ha proporcionado habilidades técnicas, sino que también ha reforzado mi confianza en mi capacidad para llevar a cabo proyectos de Machine Learning en el futuro. En resumen, completar este proyecto ha sido una travesía educativa y personal profundamente enriquecedora. Me siento más preparado y motivado para continuar explorando el vasto campo del Machine Learning y contribuir con soluciones innovadoras en este emocionante ámbito.  
Hernández Mora Juan Carlos, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara

SISTEMA DE MANUFACTURA DE CELDAS SOLARES MEDIANTE EL DEPóSITO SECUENCIAL DE PELíCULAS DELGADAS


SISTEMA DE MANUFACTURA DE CELDAS SOLARES MEDIANTE EL DEPóSITO SECUENCIAL DE PELíCULAS DELGADAS

Cardoso Magaña Jesús Eduardo, Instituto Tecnológico Superior de Puruándiro. Hernández Mora Juan Carlos, Benemérita Universidad Autónoma de Puebla. López Fonseca Carlos Alberto, Instituto Tecnológico Superior de Puruándiro. Torres Mendoza Annel Paola, Instituto Politécnico Nacional. Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La creciente demanda de energía en el mundo, así como la necesidad de reducir la contaminación que generan las fuentes de energía no renovables, han llevado a la búsqueda y desarrollo de nuevos métodos y tecnologías más eficientes y sostenibles. En este contexto, las celdas solares de silicio se destacan como una de las opciones más prometedoras debido a su abundancia, su potencial de conversión energética y su tiempo de vida. Sin embargo, la fabricación de estas celdas solares tradicionales presenta desafíos significativos, como el alto costo de producción y la complejidad de los procesos involucrados. El método de "Depósito por Inmersión Sucesiva de Reactantes Químicos" (SILAR, por sus siglas en inglés), se presenta como una alternativa viable para la fabricación de celdas solares. No obstante, enfrenta desafíos técnicos que limitan su aplicación a gran escala debido al control del grosor y la composición de las películas. En este contexto, la presente investigación se ha centrado en el desarrollo y optimización de un sistema de manufactura de celdas solares basado en el método SILAR.



METODOLOGÍA

Para el desarrollo de un sistema de manufactura centrado en automatizar el método SILAR, se ha considerado una metodología estructurada. El proceso comenzó con la revisión de documentación científica para identificar los avances más recientes; a continuación, se identificaron los requisitos y especificaciones para replicar el sistema SILAR en un sistema de manufactura. Con esta base, se diseñó la arquitectura de un sistema de manufactura, desarrollando prototipos de los componentes clave, como la unidad de inmersión, el control de temperatura, el de agitación magnética y el control de dos grados de libertad; uno para la selección de una solución entre 4 posibles y el otro para la inmersión del sustrato en la secuencia y tiempos necesarios. El desarrollo e integración del sistema se implementó en el software SolidWorks 2022, en el que, adicionalmente, se llevó a cabo la reconstrucción digital de un mecanismo ya existente que se pretendía usar en el sistema de manufactura; también se realizaron diseños propios de los mecanismos necesarios para cada uno de los sistemas descritos anteriormente, asegurando las tolerancias adecuadas para integración del sistema y asegurar la funcionalidad. Finalmente, se ensamblaron virtualmente y mecánicamente los componentes para verificar el ajuste y la interacción cinemática. De igual manera, se desarrolló un sistema de control para gestionar la temperatura de hasta 4 soluciones salinas. Esto con la integración de microcontroladores y sensores, además de un control PID para tener un buen control sobre este parámetro. Asimismo, se implementó un sistema agitador magnético con control de RPM para cada una de las soluciones químicas.


CONCLUSIONES

A través de la presente investigación hemos logrado ensamblar y acoplar los mecanismos de un sistema de manufactura basado en el método SILAR para la producción de celdas solares multicapas. Con esto se ofrece una solución alternativa prometedora para los desafíos actuales en la industria fotovoltaica. El logro del proyecto se ha dado integrando de manera efectiva el diseño de los mecanismos, así como de la instrumentación necesaria. Durante esta estancia de investigación, se alcanzó un avance notable en la optimización de la parte mecánica del sistema, con una integración precisa de los componentes que permitió verificar su función, así como en las funciones de control: de selección, inmersión, temperatura y agitación.
Hernández Murillo José Alejandro, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato

BúSQUEDA Y ASEGURAMIENTO DE VULNERABILIDADES (HARDENING) EN RED LAN, PARA SERVIDORES Y CLIENTES (WINDOWS Y LINUX), CON EL USO DE LA METODOLOGíA DE PTES


BúSQUEDA Y ASEGURAMIENTO DE VULNERABILIDADES (HARDENING) EN RED LAN, PARA SERVIDORES Y CLIENTES (WINDOWS Y LINUX), CON EL USO DE LA METODOLOGíA DE PTES

Hernández Murillo José Alejandro, Instituto Tecnológico Superior de Guanajuato. Pérez Rivera Fernando, Instituto Tecnológico Superior de Guanajuato. Ramírez Ramos Geovanni de Jesús, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El uso intensivo de la tecnología, donde todo está conectado a través de la vasta red que es Internet, conlleva a un aumento en los peligros cibernéticos. Por esta razón, es crucial desarrollar esquemas que analicen diferentes escenarios para mitigar o reducir las amenazas que puedan afectar el funcionamiento óptimo de una red empresarial o institucional. Gracias a esta conectividad, se pueden ofrecer servicios como transferencia de archivos, envío de correos electrónicos, mensajería, videollamadas y llamadas IP, entre otros. En este contexto, la implementación del hardening permite crear estrategias y herramientas tecnológicas para mejorar la seguridad de los servidores y proteger la infraestructura tecnológica de la institución. Además, facilita el análisis y la evaluación de la situación actual en términos de vulnerabilidades y buenas prácticas de seguridad para servidores y clientes Windows-Linux. La justificación de este enfoque se basa en los siguientes aspectos de hardening: 1.Hardening del servidor Se centra en implementar medidas de seguridad de los datos a través de protocolos aplicados a nivel de hardware, software y firmware. 2.Hardening de la red Busca identificar y corregir las vulnerabilidades de seguridad que pueden presentarse en los canales y sistemas de comunicación entre servidores, así como en la configuración de los dispositivos. 3.Hardening de las aplicaciones Se enfoca en la protección de las aplicaciones instaladas en el servidor, asegurando que estén adecuadamente configuradas y actualizadas para prevenir posibles ataques. 4.Hardening del sistema operativo Implica la actualización regular del sistema, la identificación y aplicación oportuna de parches para fallas de seguridad, y la eliminación de controladores no deseados.



METODOLOGÍA

La metodología utilizada a lo largo de todo el proyecto de investigación fue la PTES, la cual significa Penetration Testing Execution Standard y la cual consiste en un marco de trabajo diseñado para llevar a cabo pruebas de penetración, también conocidas como ethical hacking, con el objetivo de evaluar la seguridad de sistemas, redes y aplicaciones. PTES está diseñado para ser utilizado por profesionales de la seguridad y de las pruebas de penetración, ofreciendo una metodología clara y organizada para la ejecución de proyectos de seguridad. El marco de trabajo PTES se compone de siete fases, que son: 1.Pre-ataque En esta fase se lleva a cabo la planificación del proyecto de pruebas de penetración, se define el alcance y se establecen los objetivos. Esta etapa es crucial para asegurar que todas las partes involucradas entiendan las expectativas y los límites del proyecto. 2.Recolección de información Se recopila información detallada sobre el objetivo de la prueba de penetración, incluyendo sistemas, redes y aplicaciones, para identificar posibles vulnerabilidades. Esta fase implica el uso de diversas técnicas de reconocimiento y herramientas de escaneo para construir un perfil completo del objetivo. 3.Detección de vulnerabilidades En esta fase se realiza una exploración exhaustiva de los sistemas y aplicaciones para descubrir vulnerabilidades y debilidades. Esto incluye la utilización de herramientas automatizadas y manuales para identificar fallos de seguridad que podrían ser explotados. 4.Explotación Se llevan a cabo intentos de explotación de las vulnerabilidades identificadas en la fase anterior para evaluar la efectividad y precisión de los ataques. Esta etapa permite verificar si las vulnerabilidades pueden ser aprovechadas por un atacante real. 5.Post-explotación Inmediatamente después de explotar una vulnerabilidad, se realiza un análisis de las consecuencias y/o daños causados, buscando obtener el mayor provecho posible de los cambios realizados en el sistema. Esta fase incluye la evaluación de los accesos obtenidos y la identificación de información sensible comprometida. 6.Generación de informes Se prepara un informe completo que documenta los hallazgos, vulnerabilidades y debilidades descubiertas durante el proceso de pruebas de penetración. El informe debe incluir recomendaciones detalladas para mitigar las vulnerabilidades identificadas y mejorar la seguridad general del sistema. 7.Limpieza En esta fase final, se eliminan todas las huellas del ataque y se restaura el sistema a su estado anterior, asegurándose de que no queden rastros de las actividades de prueba de penetración. Este paso es esencial para mantener la integridad del sistema y evitar interrupciones en su funcionamiento normal.


CONCLUSIONES

El proyecto de hardening llevado a cabo con el uso de Kali Linux y firewalls de pfSense ha permitido identificar y mitigar múltiples vulnerabilidades en la infraestructura de una red LAN, que comprende tanto servidores y clientes Windows como Linux. A través de un enfoque sistemático y la implementación de una variedad de técnicas de ataque, se han podido evaluar las debilidades en servicios como Correo, FTP, DNS, Telefonía y Web. Los principales logros alcanzados en este proyecto incluyen la identificación de vulnerabilidades, mitigación de amenazas y mejora de la seguridad. En cuanto a la identificación de vulnerabilidades, se logró detectar varias mediante el uso de herramientas especializadas como CamPhish, Bettercap, Wireshark, Hydra, Zphisher, Social Engineering Toolkit y John the Ripper. Estas herramientas permitieron una evaluación detallada y exhaustiva de los puntos débiles en la infraestructura de red, facilitando una comprensión profunda de las posibles amenazas. En lo que respecta a la mitigación de amenazas, una vez identificadas las vulnerabilidades, se implementaron políticas de seguridad robustas en el firewall pfSense. Estas políticas incluyeron reglas de acceso más estrictas, monitoreo continuo y medidas preventivas que lograron una significativa reducción en la exposición a posibles ataques. Esta fase del proyecto fue crucial para asegurar que las debilidades identificadas no pudieran ser explotadas por actores malintencionados.
Hernández Murillo Luz Karime, Universidad Nacional Abierta y a Distancia
Asesor: Dra. Frixia Galán Méndez, Universidad Veracruzana

OPTIMIZACIóN DE PROCESOS TéRMICOS EN EL PROCESAMIENTO DE CARNES: UN ENFOQUE EN LA CALIDAD Y SEGURIDAD ALIMENTARIA Y EL DESARROLLO SOSTENIBLE


OPTIMIZACIóN DE PROCESOS TéRMICOS EN EL PROCESAMIENTO DE CARNES: UN ENFOQUE EN LA CALIDAD Y SEGURIDAD ALIMENTARIA Y EL DESARROLLO SOSTENIBLE

Hernández Murillo Luz Karime, Universidad Nacional Abierta y a Distancia. Asesor: Dra. Frixia Galán Méndez, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

El acceso al consumo de productos cárnicos está limitado en algunas regiones del mundo debido a las dificultades para la obtención de materias primas y los desafíos en su producción. A esto se suman los altos niveles de consumo energético y las prácticas de manejo del ganado que impactan negativamente al medio ambiente. Además, las ineficiencias en los procesos industriales de producción y distribución contribuyen a elevados niveles de desperdicio de alimentos, exacerbando la disparidad entre la disponibilidad de alimentos y las necesidades nutricionales de la población. En la industria cárnica, la optimización de los procesos térmicos es crucial para mejorar tanto la calidad como la seguridad alimentaria. Los tratamientos térmicos, esenciales para eliminar patógenos y asegurar la inocuidad de los productos cárnicos, deben ser perfeccionados para mantener las propiedades organolépticas y nutricionales del producto. Es fundamental implementar tecnologías avanzadas y prácticas eficientes que no solo garanticen la seguridad del consumidor, sino que también reduzcan el consumo energético y las emisiones contaminantes asociadas con estos procesos. Abordar estos desafíos requiere una perspectiva integral en la ingeniería de alimentos, que contemple la mejora de la eficiencia en el uso de recursos, la reducción de desperdicios y la adopción de prácticas sostenibles a lo largo de toda la cadena de producción y distribución. Solo mediante la optimización de los procesos industriales se podrá garantizar un suministro alimentario seguro, de alta calidad y sostenible, capaz de satisfacer las crecientes demandas de la población mundial, contribuir al desarrollo sostenible del sector alimentario y al objetivo de desarrollo sostenible dos hambre cero.



METODOLOGÍA

La presente investigación es de tipo aplicada con un enfoque mixto (cuantitativo y cualitativo), la ejecución de este proyecto tendrá lugar en cuatro fases: Primera Fase: Revisión de literatura en bases de datos científicas sobre la temática: Ciencia y Tecnología de procesamiento de productos cárnicos. Segunda Fase: Diseño y redacción de un artículo de revisión. Tercera Fase: Análisis y conclusiones de la revisión. Cuarta Fase (seguimiento posterior de la estancia): Publicación y socialización del artículo generado de la investigación.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos teóricos sobre la trazabilidad y la optimización de los procesos térmicos en la industria cárnica, enfocados en la seguridad alimentaria. Se demostró que la conservación adecuada de las materias primas y de sus productos derivados, mediante el uso continuo de la cadena de frío, es esencial para asegurar esta seguridad. La mejora en los tratamientos térmicos no solo garantiza la calidad e inocuidad de los productos cárnicos, sino que también incrementa su disponibilidad al minimizar las pérdidas durante el procesamiento y el consumo. Esto contribuye significativamente al Objetivo de Desarrollo Sostenible 2: Hambre Cero. El trabajo aún tiene pendiente finalizar la redacción de un artículo de revisión sobre este tema. Este proceso implica una exhaustiva búsqueda y análisis de documentos científicos y técnicos relevantes. Se requiere leer, sintetizar y criticar la literatura existente para proporcionar una visión completa y actualizada sobre la optimización de procesos térmicos en el procesamiento de carnes. Esta tarea es fundamental para consolidar los conocimientos adquiridos y aportar nuevas perspectivas a la comunidad científica y al sector industrial.
Hernandez Nuñez Karen Mary Jose, Universidad de Guadalajara
Asesor: Dra. Maria Morin Castillo, Benemérita Universidad Autónoma de Puebla

PROPUESTA DE DISEñO DE DISPOSITIVO DE ASISTENCIA PARA CANINOS CON MOVILIDAD REDUCIDA EN EL TREN INFERIOR, CON UN SISTEMA QUE FACILITE EL DESCANSO


PROPUESTA DE DISEñO DE DISPOSITIVO DE ASISTENCIA PARA CANINOS CON MOVILIDAD REDUCIDA EN EL TREN INFERIOR, CON UN SISTEMA QUE FACILITE EL DESCANSO

Hernandez Nuñez Karen Mary Jose, Universidad de Guadalajara. Asesor: Dra. Maria Morin Castillo, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los perros con enfermedades que afectan la parte inferior del cuerpo, como la displasia de cadera, tienen movilidad limitada, afectando su calidad de vida. Esta condición es común en razas grandes y gigantes y se caracteriza por el desarrollo anormal de la articulación coxofemoral, causando subluxación o luxación en perros jóvenes y osteoartritis en perros mayores. El tratamiento conservador se centra en aliviar el dolor y mejorar la función articular. Las sillas de ruedas caninas proporcionan soporte robusto a las extremidades posteriores, permitiendo movilidad y estabilidad. Mientras que, los exoesqueletos caninos ofrecen soporte activo mediante mecanismos que imitan los movimientos naturales, útiles para casos graves de displasia, aunque son más complejos y costosos que las sillas de ruedas.



METODOLOGÍA

La primera fase del proyecto consistió en una revisión de la literatura científica y técnica relacionada con la anatomía del perro, enfocado en las estructuras óseas y articulares del tronco inferior. Así como el análisis de la locomoción y puntos claves a considerar como la relación de las estructuras anatómicas y el equilibrio estructural del perro. A la vez, se estudió la displasia de cadera en perros, la marcha animal y los dispositivos de asistencia como sillas de ruedas y exoesqueletos. Se consultaron libros especializados, artículos de investigación, tesis, y se revisaron las ofertas comerciales actuales de dispositivos ortopédicos veterinarios. Como una segunda fase, se realizó una revisión comparativa de los dispositivos de asistencia veterinaria existentes, como sillas de ruedas y exoesqueletos. Se analizaron sus características, ventajas y limitaciones, destacando cómo estos productos pueden mejorar la movilidad y calidad de vida de los perros con displasia de cadera. Esta revisión se basó en la literatura disponible y en las ofertas comerciales actuales. De manera concreta, se utilizaron los siguientes trabajos académicos "Sistema mecánico para la recuperación motriz en perros con debilidad muscular en las extremidades" y "Diseño de un producto de ortopedia en plástico para animales discapacitados: silla de ruedas para perros para proporcionar una perspectiva sobre lo que se está creando en el ámbito de la formación de estudiantes. Además, se consideraron estudios más enfocados en exoesqueletos humanos, los cuales fueron útiles para extrapolarlos al ámbito de los canes y plantear el modelo propuesto de tres grados de libertad. Entre estos estudios se incluyeron la Tesis "Control y Simulación de un Dispositivo de Asistencia Activo", los artículos de investigación "Modelado y Control de un Exoesqueleto para la Rehabilitación de Extremidad Inferior con dos grados de libertad", "Desarrollo de un exoesqueleto para rehabilitación de tobillo y rodilla" y Modelado y simulación de un robot rígido de dos grados de libertad. En una tercera fase, se desarrolló el análisis de un modelo dinámico para la estructura del dispositivo de asistencia con tres grados de libertad (cadera, rodilla y tarso). Este modelo se basó en enfoques y teorías presentados en literatura relacionada con la robótica, así como en investigaciones previas y tesis relacionadas. El modelo dinámico permitió entender y predecir cómo se moverá y responderá el sistema ante fuerzas y torques aplicados, guiando el diseño y control del movimiento para optimizar la funcionalidad y seguridad del dispositivo. A partir de la información recopilada y el análisis realizado en las fases anteriores, se crearon bosquejos del diseño conceptual del dispositivo de asistencia. Se propuso un arnés ajustable combinado con una estructura de soporte para las patas traseras, integrando un sistema de suspensión hidráulica con bisagras y muelles como actuadores. Este diseño preliminar se modeló utilizando el software TinkerCAD y Fusion 360 de Autodesk, permitiendo visualizar y ajustar el diseño antes de su desarrollo físico.


CONCLUSIONES

Este análisis global que se realizó permitió identificar las mejores prácticas y enfoques en el diseño de dispositivos de asistencia, así como las limitaciones y desafíos actuales. Se establecieron las bases teóricas y conceptuales para futuros trabajos, permitiendo que en investigaciones posteriores se pueda avanzar hacia la creación y prueba del dispositivo de asistencia propuesto. Este trabajo contribuye significativamente al campo de la ingeniería biomédica veterinaria, ofreciendo un enfoque integral y práctico para mejorar la calidad de vida de los perros con displasia de cadera. AGRADECIMIENTOS Quisiera expresar mi más profundo agradecimiento a todas las personas e instituciones que hicieron posible la realización de este proyecto durante mi estancia de investigación. En primer lugar, agradezco a la Doctora María Monserrat Morin Castillo por su constante orientación y apoyo a lo largo del desarrollo del proyecto. Sus consejos han sido sumamente enriquecedores, tanto en el ámbito académico como en el personal, brindándome nuevas perspectivas sobre la vida. También quiero reconocer el respaldo del Doctor José Ángel Arias Cruz, quien, a través de su asesoramiento académico, facilitó significativamente nuestro trabajo. Asimismo, mi agradecimiento se extiende a mis compañeros de estancia, Marlenne Castro Sánchez e Isaac Maliachi Von Der Rosen, por ser tan buenos colegas y permitirme esta grata experiencia. 
Hernández Ocampo Bryan Abdiel, Instituto Tecnológico Superior de Irapuato
Asesor: Mtro. José Miguel García Guzmán, Instituto Tecnológico Superior de Irapuato

ANáLISIS DE ESTABILIDAD ESTáTICA DE TENSIóN MEDIANTE LAS CURVAS V-P Y V-Q


ANáLISIS DE ESTABILIDAD ESTáTICA DE TENSIóN MEDIANTE LAS CURVAS V-P Y V-Q

Alanis Sánchez Julio Alejandro, Instituto Tecnológico Superior de Irapuato. Hernández Ocampo Bryan Abdiel, Instituto Tecnológico Superior de Irapuato. Marín Pérez Miguel Angel, Instituto Tecnológico Superior de Irapuato. Asesor: Mtro. José Miguel García Guzmán, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

El análisis de estabilidad de tensión es uno de los tópicos importantes que se utilizan ampliamente alrededor del mundo para evaluar la seguridad de los sistemas de potencia. Los fenómenos de colapso de tensión provocados por una inestabilidad de tensión se han convertido en una de las mayores preocupaciones en los sistemas eléctricos de potencia para llevar a cabo un correcto suministro hacia las cargas, por lo que, es necesario llevar a cabo estudios y análisis que permitan evaluar el nivel de seguridad que posee cada sistema de potencia.   La mayor problemática que se presentan son los colapsos de tensión o el caso más crítico que son los grandes apagones. Durante el verano de investigación se estudian los resultados obtenidos en base a la estabilidad estática de tensión para conocer el punto máximo de potencia antes de que aparezca una inestabilidad o colapso en el sistema de potencia.



METODOLOGÍA

Como primer paso en el verano de investigación se realizó una investigación bibliográfica de los tópicos requeridos para desarrollar los algoritmos computacionales y entender de mejor manera la teoría para la interpretación de resultados.   Para la obtención de los resultados de la estabilidad estática de tensión se implementó un algoritmo computacional basado en la teoría de flujos de potencia mediante el método Newton-Raphson.   El algoritmo computacional implementado para el análisis de la estabilidad de tensión en los sistemas eléctricos de potencia basado en la interpretación de las curvas V-P y V-Q consta de las siguientes etapas: 1. Selección del Tipo de Análisis Al ejecutar el programa se muestra un mensaje en la pantalla el cual solicita la selección del tipo de análisis de potencia que se desea realizar: Carga automáticamente los datos del sistema eléctrico desde los archivos Data_5. A continuación, el programa identifica los nodos de carga del sistema y los almacena para un análisis posterior. 2. Análisis de Flujos de Potencia Dependiendo de la selección realizada en el paso anterior, se define un vector de potencia demandada, el cuál calcula las magnitudes de tensión en el sistema para cada valor de potencia demandada utilizando el método de Newton-Raphson. Estos cálculos se realizan al ejecutar el programa n veces de manera iterativa para cada nodo de carga identificado. Así mismo, se identifica el punto en el cual la tensión en un nodo de carga deja de disminuir significativamente, con el fin de conocer el punto máximo de cargabilidad que el nodo puede soportar (Pmax o Qmax). 3. Visualización de Resultados El programa genera gráficas que muestren la relación entre la potencia demandada y la magnitud de la tensión en cada nodo de carga (V-P y V-Q). Las gráficas incluyen: Potencia activa máxima en cada nodo. Potencia reactiva máxima en cada nodo. De acuerdo con los resultados obtenidos y por los comportamientos de las gráficas V-P y V-Q se conoce el nodo más débil con respecto a la potencia máxima que puede soportar y se realiza la comparativa con los demás nodos del sistema analizado.      


CONCLUSIONES

La estancia en el verano fue muy productiva, ya que se adquirieron conocimientos de la estabilidad de tensión en sistemas eléctricos de potencia, específicamente la estabilidad relacionada con la tensión nodal, la cual fue analizada mediante las curvas V-P y V-Q con la finalidad de conocer el límite de estabilidad de voltaje nodal de sistemas de potencia. Con los resultados obtenidos de la investigación y la implementación del algoritmo computacional se logró identificar los límites de potencia que puede soportar el sistema analizado antes de presentarse una inestabilidad de tensión, el trabajo de investigación fue realizado con éxito y fue concluido en tiempo y forma.
Hernandez Ortega Fernando Daniel, Instituto Politécnico Nacional
Asesor: Dr. José Hugo Barrón Zambrano, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

DISEÑO EN SOLIDWORKS DE UNA ORTESIS PARA EXTREMIDADES CON PERDIDA PARCIAL DE LOCOMOCION Y RETROMOCION O PIE CAIDO.


DISEÑO EN SOLIDWORKS DE UNA ORTESIS PARA EXTREMIDADES CON PERDIDA PARCIAL DE LOCOMOCION Y RETROMOCION O PIE CAIDO.

Hernandez Ortega Fernando Daniel, Instituto Politécnico Nacional. Asesor: Dr. José Hugo Barrón Zambrano, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La caída del pie, también conocida como pie caído, es un término general que se refiere a la dificultad para levantar la parte delantera del pie. Si tienes caída del pie, es posible que arrastres la parte delantera del pie por el suelo cuando caminas. La caída del pie no es una enfermedad. Es más bien un signo de un problema neurológico, muscular o anatómico subyacente. El proyecto tiene como objetuvo la rehabilitacIon de un pasciente con dicha condicion medica la cual le impide la movilidad correcta de la extremidad. Las aplicaciones  la industria medica son bastante variadas debido a que puede ser usado en la rehabilitacion de algunas otras condiciones medicas que tengan essa imposibilidad ademas de poder agregarse a proyectos mas grandes como ortesis para personas con deficiencia motriz de las extremidades inferiores hasta personas con la perdida de las funciones musculares en parte de su cuerpo.



METODOLOGÍA

Proponer, diseñar e implementar una ortesis experimental denominada Ortesis con los conocimientos previamente adquiridos sobre  2D y 3D en software especializado (Solidworks) Requerimientos de diseño  El presente trabajo se centra en el diseño y simulación de un modelo 3D capaz de adaptarse a diversos pacientes los cuales pueden padecer esta enfermedad o alguna afluencia medica similar. Como referencia nos centramos en diversos puntos del diseño mecánico del sistema: Adaptabilidad para cualquier usuario: El diseño mecánico debe contar con diversos mecanismos para ser adaptable a diversos pacientes en cuanto altura se refiere y grosor de las extremidades. Campo de mejora: Se busca la adaptabilidad de mayor tecnología para su utilización a futuro con diversas adaptaciones más avanzadas que facilitarían al usuario y podría ser fácilmente reutilizado disminuyendo mayor cantidad de estos instrumentos.  Dimensiones y lugar de aplicación: El diseño debe considerar las dimensiones y lugar de aplicación para su implementación. Se busca tener un diseño compacto que pueda ser adaptable en cualquier lugar donde puede ser atendido un paciente de rehabilitación médica o incluso en su propio entorno cotidiano Facilidad de uso: La ortesis será utilizada por usuarios poco experimentados, se busca la adaptabilidad y comprensión de todo el mecanismo, así como una fácil comprensión del ajuste de cada una de sus piezas y movimientos. 


CONCLUSIONES

La elaboración del diseño en SolidWorks de una ortesis para personas con el pie caído representa un avance significativo en la ingeniería de dispositivos ortopédicos personalizados. Resultados En este apartado del proyecto se presentan los resultados del diseño 3D en planos isométricos, la resolución al problema del arco de apertura de las piernas, la optimización del actuador en el tobillo volviéndolo más simple. Diseño 3D: el modelo tridimensional y explosionado nos muestra todos los componentes y partes que conforman este proyecto, además de su estructura detallada y enumerada. Mediante el software Solidworks, se logra una representación del sistema, como funciona y alguna aplicación práctica en el ámbito de la medicina. Arco de apertura: Se comenzó con una investigación bastante amplia sobre la condición médica, cuales sonsa sus causas y que alternativas había, además de precedentes, los cuales se buscaba optimizar en cada pieza además de simplificar sus movimientos, en este caso se buscaba implementar un arco de giro para la apertura entre los pies de cada persona, el cual pueda ser fácil y rápido de usar, además de cómodo y simplificando el mecanismo a solo dos rieles curvos, los cuales están acoplados entre sí, cuidando bordes curvos para evitar roses con alguna superficie de la piel. Conjunto con un sistema de ajuste manual la cual consta de dos piezas acopladas una dentro de la otra con similares dimensiones del diámetro, las cuales están acopladas una dentro de la otra, aumentando así su durabilidad ante degaste o torsión mecánica del usuario, con una serie de agujeros entre ambas las cuales están dentro del estándar corporal latinoamericano (Fig. 2-5), entrando entre los 365mm hasta los 450mm siendo cubierto gran parte del estándar antes mencionado. Actuador del tobillo: Se buscaba tener un movimiento mas simple el cual pudiera ser oscilatorio además de adaptable a un estándar latinoamericano (Fig. 2-5), el cual ronda en las dimensiones de un estándar latinoamericano previamente estudiado el cual ronda entre los 18 a 65 años entre trabajadores industriales como estándar.   
Hernández Ramos Luisa Daniela, Instituto Tecnológico de Ciudad Juárez
Asesor: M.C. Jesús Francisco Escalante Euán, Universidad Autónoma de Yucatán

UBICACIóN óPTIMA DE NUEVAS ENTIDADES COMERCIALES EN ZONAS URBANAS


UBICACIóN óPTIMA DE NUEVAS ENTIDADES COMERCIALES EN ZONAS URBANAS

Hernández Ramos Luisa Daniela, Instituto Tecnológico de Ciudad Juárez. Juarez Rosas Lesly Daniela, Instituto Tecnológico de Ciudad Juárez. Asesor: M.C. Jesús Francisco Escalante Euán, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

Este estudio presenta un modelo integral de optimización de instalaciones que busca mejorar la eficiencia operativa, reducir costos y optimizar la asignación de recursos. Los resultados indican que este enfoque puede generar beneficios significativos al reorganizar espacialmente y asignar estratégicamente los recursos, lo que conduce a un flujo de trabajo óptimo, menor congestión y mejor utilización de los recursos. Además, el modelo considera factores dinámicos como los patrones de demanda cambiantes y la disponibilidad variable de recursos, asegurando la adaptabilidad a entornos operativos fluctuantes. Se destaca la importancia de la recopilación y análisis de datos sólidos, así como el papel central de técnicas de optimización y modelado matemático. Se enfatiza la necesidad de un enfoque holístico que considere múltiples objetivos y limitaciones, y se subraya la importancia de la revisión periódica de las estrategias de ubicación de las plantas.



METODOLOGÍA

La metodología de ubicación de instalaciones a través de la optimización es un campo crítico dentro de la investigación de operaciones y la gestión de la cadena de suministro, cuyo enfoque es determinar las ubicaciones más eficientes y efectivas para instalaciones como fábricas, almacenes, centros de distribución y centros de servicio. El alcance de esta metodología es amplio y abarca varios aspectos de la toma de decisiones sobre la ubicación de las instalaciones. Nuestro aporte genera una solución óptima local para múltiples centros de abasto, bajo el supuesto de la logística de distribución de productos.


CONCLUSIONES

Este proyecto se ha diseñado para ser eficiente, sustentable, flexible, seguro, funcional y emblemático, con el objetivo de poder conocer y como escoger nuevas ubicaciones y oportunidades de entidades comerciales.
Hernández Rivas Brayan Miguel, Universidad Tecnologica de León
Asesor: Dr. Alan David Blanco Miranda, Universidad Tecnologica de León

USO DE HERRAMIENTAS STEM PARA CONTROL DE SISTEMA PLC EN AMBIENTES INDUSTRIALES


USO DE HERRAMIENTAS STEM PARA CONTROL DE SISTEMA PLC EN AMBIENTES INDUSTRIALES

Hernández Rivas Brayan Miguel, Universidad Tecnologica de León. Lucio Florido Ricardo Emmanuel, Universidad Tecnologica de León. Asesor: Dr. Alan David Blanco Miranda, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

Tradicionalmente, los sistemas PLC se han gestionado mediante software propietario y herramientas específicas que, aunque eficaces, limitan la flexibilidad y aumentan los costos de implementación y mantenimiento. La dependencia de software propietario también restringe la capacidad de personalización y adaptación a necesidades específicas de cada industria. En primer lugar, la dependencia de software propietario para la programación y monitoreo de sistemas PLC limita la flexibilidad y aumenta los costos operativos. Otro problema relevante es la gestión de datos generados por los sensores conectados a los PLCs. La falta de una herramienta que muestre los valores almacenados complica el análisis de datos y la identificación de tendencias y patrones que pueden optimizar los procesos industriales. La seguridad y gestión de usuarios también representan un área de oportunidad crítica. El sistema actual no proporciona un mecanismo robusto para el acceso o registro de nuevos usuarios, lo que puede comprometer la seguridad y la integridad de los datos operativos. Estos problemas resaltan la necesidad de una solución integrada que combine el uso de software libre y tecnologías IoT para el diseño, programación y monitoreo de sistemas PLC.



METODOLOGÍA

La metodología implementada en el proyecto abarcó una secuencia ordenada de actividades y técnicas, siguiendo los objetivos definidos. Diseño de interfaces gráficas en software libre Se utilizó Qt Designer como la herramienta principal para el diseño de la interfaz gráfica de usuario, debido a su compatibilidad con Python y su capacidad para crear interfaces intuitivas y personalizables. Se elaboraron prototipos iniciales en papel y se validaron con el encargado del desarrollo de las interfaces para asegurar que cumplían con los estándares y expectativas. La interfaz gráfica fue diseñada en Qt Designer, utilizando componentes estándar y personalizados para facilitar la interacción del usuario con el sistema de monitoreo. Se creó una estructura jerárquica de widgets y elementos de interfaz, que incluía botones, tablas y gráficos para la visualización de datos en tiempo real. La programación de la lógica de la interfaz se realizó en Python, asegurando la funcionalidad adecuada de todos los componentes y su integración con el sistema de monitoreo. Se verificó la funcionalidad de la interfaz en diferentes escenarios operativos, asegurando su estabilidad y desempeño en condiciones reales. Se implementó una base de datos para almacenar los datos de los usuarios que tienen acceso a los controles. Los usuarios cuentan con la opción de recuperar sus credenciales para acceder al sistema, ya que se implementó la opción para que las recuperen vía correo electrónico. Control y monitoreo de un sistema industrial con tecnología IoT Se realizó una investigación sobre las tecnologías IoT disponibles. Se llevaron a cabo pruebas de conexión y comunicación entre los dispositivos IoT (sensores) y el sistema PLC, utilizando protocolos estándar como OPC-UA. Se desarrollaron scripts en Python para la recolección de datos de los sensores IoT y su transmisión al sistema de monitoreo. La programación de estos scripts incluyó la implementación de protocolos de comunicación y la gestión de eventos en tiempo real. Se realizaron pruebas de monitoreo en tiempo real, verificando la exactitud y la eficiencia de la recolección de datos. Integración de la recolección y visualización de datos Se diseñó una base de datos relacional para almacenar los datos recolectados por los sensores del PLC. La estructura de la base de datos incluyó tablas para la captura de datos en tiempo real, así como mecanismos de consulta para el análisis posterior. Se programaron scripts en Python para la captura y almacenamiento de datos, asegurando la integridad y la coherencia de los datos recolectados. La implementación de estos scripts incluyó la configuración de conexiones a la base de datos. Se desarrolló una tabla en la interfaz gráfica para mostrar los valores almacenados de las entradas del PLC. Se implementaron gráficos y otras herramientas de visualización para facilitar el análisis de los datos. Se llevaron a cabo pruebas exhaustivas para asegurar que los datos recolectados se almacenaban y visualizaban correctamente. La funcionalidad de la visualización de datos fue validada mediante pruebas de uso en diferentes condiciones operativas.


CONCLUSIONES

Para concluir, el proyecto ha demostrado ser una iniciativa significativa y beneficiosa. A través del desarrollo y la implementación de diversas tecnologías y herramientas de software libre, se han logrado avances notables en la optimización de los procesos industriales. La creación de interfaces gráficas intuitivas y personalizables en QtDesigner, programadas en Python, ha mejorado considerablemente la usabilidad y eficiencia operativa. La integración de tecnologías IoT con los sistemas PLC ha proporcionado capacidades avanzadas de monitoreo. La capacidad de recolectar y transmitir datos en tiempo real ha permitido un análisis más detallado y preciso de los datos operativos. En términos de seguridad, el desarrollo de un sistema de gestión de usuarios seguro y robusto ha asegurado que solo el personal autorizado tenga acceso a los controles de operación, protegiendo la integridad de los datos y la continuidad operativa. El proyecto ha cumplido con éxito la mayoría de los objetivos planteados. La implementación de soluciones basadas en herramientas STEM y software libre ha sentado las bases para futuras innovaciones y mejoras a este ambicioso proyecto que representa un paso significativo hacia la modernización y optimización de los procesos industriales.
Hernández Robles Alma Raquel, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. Dennise Ivonne Gallardo Alvarez, Instituto Tecnológico Superior de Irapuato

OPTIMIZACIóN DE LA VISUALIZACIóN DE DATOS EN POWER BI PARA LA ACREDITACION DE PROGRAMAS ACADéMICOS


OPTIMIZACIóN DE LA VISUALIZACIóN DE DATOS EN POWER BI PARA LA ACREDITACION DE PROGRAMAS ACADéMICOS

Cervantes Ortega Dana Keren, Instituto Tecnológico Superior de Irapuato. Hernández Robles Alma Raquel, Instituto Tecnológico Superior de Irapuato. Rojas Arredondo Gisell Deliani, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. Dennise Ivonne Gallardo Alvarez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Históricamente, la recopilación y presentación de información requerida para los estándares de acreditación en universidades ha dificultado el proceso de acreditación. En la actualidad, las instituciones educativas han comenzado a adoptar tecnologías BI (Business Intelligence) como herramienta de gestión de datos. Esta tecnología es amigable en el uso, tiene capacidad amplia para optimizar y analizar bases de datos, proporcionando a los responsables de la toma de decisiones una visión clara y detallada del desempeño de sus programas académicos. El objetivo principal de esta investigación es desarrollar una herramienta utilizando la tecnología BI como base para el proceso de acreditación de la carrera de Ingeniería en Gestión Empresarial del ITESI (Instituto Tecnológico Superior de Irapuato) y con ello crear una alternativa de cumplimiento de los estándares establecidos para la acreditación en una sola herramienta. 



METODOLOGÍA

Definición del Organismo Acreditador:El primer paso del proyecto consistió en identificar y definir el organismo acreditador en el que se basaría la optimización de la visualización de datos. Para este proyecto, se seleccionó el Comité Interinstitucional para la Evaluación de la Educación Superior (CIEES). Selección del Eje de Evaluación:Dado que el proyecto se realizó en un período limitado, se decidió enfocar la optimización en uno de los ejes de evaluación específicos de CIEES (estudiantes). Esto permitió una profundización adecuada en el análisis y visualización de datos dentro de un área manejable. Selección del Caso de Estudio:Para aplicar la metodología, se seleccionó la carrera de Ingeniería en Gestión Empresarial del ITESI como caso de estudio. Esta elección permitió una aplicación práctica y específica de las herramientas de Business Intelligence en un contexto real. Diseño de la Base de Datos:Con el eje de evaluación y el caso de estudio definidos, se procedió al diseño de una base de datos que pudiera contener toda la información relevante para el proceso de acreditación. Este diseño incluyó la estructuración de una tabla son sus respectivos campos. Población de la Base de Datos:Para evitar la publicación de datos confidenciales, la base de datos fue poblada con datos ficticios. Estos datos ficticios replicaron patrones y características reales de los datos institucionales, permitiendo así una prueba efectiva de las visualizaciones sin comprometer la privacidad. Desarrollo del Tablero en Power BI:Finalmente, se desarrolló un tablero de datos en Power BI. Este tablero fue diseñado para proporcionar una visualización clara y detallada de los datos relevantes al eje de evaluación seleccionado.


CONCLUSIONES

La implementación de la tecnología BI ayuda a observar mejor los datos que se obtienen para el proceso de acreditación de la carrera de Ingeniería en Gestión Empresarial, y con ello tomar mejores decisiones y de manera eficiente.  De acuerdo con los resultados obtenidos del cuestionario que se les aplicó a los alumnos de la carrera de Ingeniería en Gestión Empresarial, se obtuvo información sobre cómo califican los alumnos las instalaciones, su rendimiento académico y las habilidades que han desarrollado durante su formación académica. Esta información ayuda a tomar mejores decisiones en el proceso de acreditación de la carrera para poder mejor la calidad del programa educativo.  El proceso de acreditación de la carrera es fundamental para garantizar que los alumnos reciban una educación de calidad y, brindando confianza a los alumnos, se puede lograr obtener reconocimiento a nivel nacional; ayudando a los alumnos a tener reconocimiento en el mundo laboral. 
Hernández Rodríguez Estephany Paola, Universidad Vizcaya de las Américas
Asesor: Dra. Ana Cecilia Borbón Almada, Universidad de Sonora

RESISTENCIA TERMICA DE UN MURO DE BLOCK DE CONCRETO CELULAR- HEBEL


RESISTENCIA TERMICA DE UN MURO DE BLOCK DE CONCRETO CELULAR- HEBEL

Hernández Rodríguez Estephany Paola, Universidad Vizcaya de las Américas. Asesor: Dra. Ana Cecilia Borbón Almada, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

En este trabajo se pretende mostrar la resistencia térmica que tiene un muro de concreto utilizando el block de la marca Hebel, el cual es para mampostería reforzada, estos son prefabricados con concreto celular curado en autoclave, por lo cual permitirán que la edificación este a una buena temperatura y dependiendo el clima o la temperatura a la que estemos, la edificación tenga guanacias de calor o perdidas de calor.



METODOLOGÍA

Se realizará un póster en el que se van a incluir una introducción que hable acerca del tema y el materiales que se está utilizando, su uso y se realizara un análisis del costo que tendrá aplicarlo en las construcciones, realizaremos un análisis para saber la resistencia térmica que tiene este material por m2, en un apartado del póster también se hará una descripción del método constructivo que se estará analizando para que el lector pueda conocerlo y entenderlo. El póster se realizará de manera que el lector pueda observar todos los detalles que se analizarán del sistema constructivo.


CONCLUSIONES

Al realizar este póster se llego a la conclusión de que el aislamiento es algo muy importante en la construcción de una edificación ya que permite garantizar que los edificios sean energéticamente eficientes y cómodos para sus habitantes. El aislamiento con bloques de hormigón se ha convertido en el método preferido para mejorar la eficiencia energética de los edificios.
Hernandez Rodríguez Martín David, Universidad Veracruzana
Asesor: Ing. Prócoro Barrera Nabor, Instituto Mexicano del Petróleo

GEOTECNIA Y GEOFíSICA MARINA


GEOTECNIA Y GEOFíSICA MARINA

Galindo Enriquez Angel Roman, Benemérita Universidad Autónoma de Puebla. Hernandez Rodríguez Martín David, Universidad Veracruzana. Asesor: Ing. Prócoro Barrera Nabor, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

PEMEX necesita instalar plataformas marinas fijas para extraer hidrocarburos y proporcionar combustible a la industria petrolera nacional. Estas plataformas también ofrecen servicios como compresión de gas, procesamiento, hospedaje y telecomunicaciones. Se fijan al lecho marino con pilotes de cimentación, cuyo diseño depende del tipo de estructura y suelo. Para un diseño adecuado, se realizan estudios geofísicos y geotécnicos para identificar las condiciones del sitio y obtener los parámetros necesarios para la cimentación.



METODOLOGÍA

Previo a la construcción de una plataforma marina, sea cual sea el uso, se tiene que hacer siempre un estudio de rasgos y riesgos para determinar si un sitio es viable para llevar a cabo la instalación de  una plataforma marina y caso de confirmarse, proceder a la ejecución de un sondeo geotécnico para la obtención de muestras de suelo, que serán llevadas al laboratorio de mecánica de suelos para realizar pruebas que proporcionen los parámetros para el diseño de la cimentación para el tipo de estructura requerida. Exploración Geofísica El método de exploración geofísica se aplica para el reconocimiento de un área de estudio con sísmica 2D de alta resolución, el cual se realiza en un área cuadrada de 2.1 x 2.1 Km, dentro de la cual se trazan líneas ortogonales para el recorrido de la embarcación, donde serán instalados los equipos para la exploración, donde se recolectará 1 muestra en cada vértice con un pistón de gravedad. Los equipos requeridos para la exploración se listan a continuación: Embarcación para la exploración geofísica (Tipo abastecedor) Embarcación remota WAM-V 22 ASV Equipo geodésico de posicionamiento global Ecosonda multi haz - (Norbit Winghead i177h) Sonar de barrido lateral -(Edgetech 4125) Perfilador somero (SBP - Innomar Medium 100) Perfilador profundo (Sercel Seal Multichannel Seismic). El perfilador somero trabaja con altas frecuencias y alcanza muy poca penetración bajo el fondo marino y el profundo con bajas frecuencias y logra una mayor penetración; ambos instrumentos registran las ondas que viajan a través del subsuelo, con las que se puede generar un modelo estratigráfico, identificar el tipo de material del que se componen las capas y localizar rasgos geológicos o naturales como: Bolsas de Gas de bajo, medio y de alto riesgo. Chimeneas de gas Fallas geológicas Arrecifes sepultados Canales sepultados Canales de erosión superficial Socavaciones y/o Pockmarks Montículos de lodo La embarcación de exploración geofísica recorre las líneas de la retícula de 2.1 x 2.1 Km, emitiendo las señales sísmicas y registrando los tiempos doble vía y recolectándolo los datos en tiempo real, los cuales son procesados e interpretados para la generación de mapas de rasgos y riegos. Finalmente, durante la exploración se recolecta una muestra en cada uno de los vértices, para su análisis mediante pruebas geotécnicas en los laboratorios de Mecánica de -Suelos, que permiten la caracterización del fondo marino. Exploración Geotécnica Después de obtener la factibilidad del proyecto a través de los estudios geofísicos, se procede a la exploración y muestreo geotécnico. El primer paso es la debida posición del barco de exploración en las coordenadas solicitadas Se realizan dos sondeos a no más de 10 m de distancia de las coordenadas iniciales y no menos de 5 m entre los sondeos. En ambos sondeos, mixto y PCPT, se la realiza la medición de la profundidad de agua y la corrección del nivel de profundidad por la variación de mareas. El sondeo mixto permite la recuperación de muestras de suelo y el PCPT realiza la medición de la resistencia por punta, fricción y presión de poro. Después de la exploración geotécnica, se procede con la ejecución de las pruebas de laboratorio. Es importante especificar que algunas pruebas se realizan en el barco y otras en el laboratorio en tierra. Se realizan las pruebas Índice tales como límites de consistencia, contenido de humedad, peso volumétrico, tamaño de partícula, contenido de carbonatos, etc. Al mismo tiempo, se llevan a cabo las pruebas de Resistencia. Dentro de estas, se encuentran las de resistencia estimada como Penetrómetro de Bolsillo, Torcometro o pruebas de resistencia exactas, veleta miniatura o pruebas triaxiales. Una vez que se han realizado todas las pruebas necesarias, se procede a la interpretación y evaluación de los resultados. Este paso es crucial, debido a que los parámetros muchas veces pueden estar dispersos respecto a los diferentes tipos de pruebas. Finalmente, se obtiene una caracterización de cada estrato que conforma el perfil estratigráfico. Con esta información, se procede al análisis de capacidad de carga. Este análisis se realizará posteriormente para determinar, por ejemplo, las dimensiones de las placas temporales de apoyo de las plataformas fijas, el análisis de penetración de zapatas de plataformas autoelevables, el diámetro de los pilotes cimentación que transmitirán la carga de la subestructura y super estructura hacia los estratos del suelo.


CONCLUSIONES

La geofísica y la geotecnia son esenciales para la instalación segura de plataformas marinas. La geofísica identifica riesgos en el lecho marino, como bolsas de gas y fallas geológicas, para evitar problemas futuros. La geotecnia caracteriza las propiedades del suelo marino mediante pruebas que determinan límites de consistencia, contenido de humedad y peso volumétrico. Estos datos son cruciales para diseñar y construir plataformas, ya que permiten determinar la capacidad de carga del suelo y las dimensiones adecuadas de la plataforma y los pilotes. Ambas disciplinas, al trabajar juntas, garantizan la seguridad y eficiencia de las plataformas, permitiendo a PEMEX satisfacer las necesidades de combustible de manera segura y efectiva.
Hernández Romero Laisa Monselin, Instituto Tecnológico Superior Purépecha
Asesor: Dra. Natiely Hernández Sebastián, Centro de Investigaciones en Óptica (CONACYT)

FABRICACIÓN Y CARACTERIZACIÓN DE UN ARREGLO DE MICROELECTRODOS FLEXIBLES PARA LA ESTIMULACIÓN ELÉCTRICA DE LA CÓRNEA HUMANA


FABRICACIÓN Y CARACTERIZACIÓN DE UN ARREGLO DE MICROELECTRODOS FLEXIBLES PARA LA ESTIMULACIÓN ELÉCTRICA DE LA CÓRNEA HUMANA

Chávez Martínez Marlen, Instituto Tecnológico Superior Purépecha. Hernández Romero Laisa Monselin, Instituto Tecnológico Superior Purépecha. Lamadrid Avila Fernando, Universidad de Guadalajara. Mondragon Palma Bruno Gael, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dra. Natiely Hernández Sebastián, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La estimulación eléctrica (EE) en los ojos se ha estudiado como un novedoso proceso terapéutico que mejora la percepción visual en pacientes con enfermedades degenerativas de la retina. Es un procedimiento no invasivo en el que se aplica una corriente eléctrica de baja intensidad sobre la superficie de la córnea para activar la retina y las estructuras posteriores y, por lo tanto, ejercer efectos terapéuticos en los pacientes. Bajo esta premisa, en el presente proyecto de investigación se fabricó y caracterizó un arreglo de microelectrodos flexible para la EE selectiva y variable de la córnea humana.



METODOLOGÍA

  1. Consulta bibliográfica. Realizamos la revisión bibliográfica de diversos artículos científicos, así como reportes de investigación, tesis y artículos varios de internet para familiarizarnos con temas relacionados al proyecto. 2. Capacitación del uso del laboratorio y técnicas de fabricación. Durante la estancia de investigación asistimos como oyentes a la materia Tecnología de películas delgadas impartida en el Centro de Investigaciones en Óptica, A.C., con la finalidad de capacitarnos en las diferentes técnicas de fabricación de microelectrónica y conocer los aspectos esenciales del Laboratorio Nacional Conahcyt en Microtecnología y BioMEMS (LaNMiB). 3. Fabricación del arreglo de microelectrodos flexibles. Las etapas de fabricación del arreglo de microelectrodos flexibles son las siguientes: 3.1 Limpieza química húmeda El proceso de limpieza química húmeda permite eliminar la contaminación orgánica de la superficie de los substratos. Los pasos para realizarla consisten en: (i) limpieza ultrasónica en acetona y alcohol para eliminar residuos por contaminación orgánica, (ii) enjuague exhaustivo en agua desionizada, (iii) decapado de oxido nativo en buffer de HF. 3.2 Depósito de poliimida Realizamos el depósito de poliimida (PI) por la técnica de spin coating haciendo tres depósitos consecutivos: un depósito de PI2610 para mejorar la adherencia del substrato y dos depósitos de PI2611 para aportar mayor espesor final al substrato. 3.3 Desgaste de la poliimida Debido a que las películas de PI se caracterizan por tener una superficie lisa libre de defectos, entre cada depósito hicimos un proceso de desgaste en plasma de oxígeno con la finalidad de incrementar el área de adherencia de la superficie de la PI. 3.4 Depósito de Al/Ti El material estructural de los microelectrodos es una bicapa metálica compuesta de aluminio/Titanio (Al/Ti).  Ambos materiales fueron depositados por la técnica de sputtering. El primer depósito que fue de Al con un espesor de 150 nm y enseguida, el depósito de Ti con un espesor de 50 nm. 3.5 Fotolitografía, primer nivel La fotolitografía es el proceso por el cual se transfieren patrones de manera fiel a un material. En el primer nivel de mascarilla nos permitió definir los pads, las pistas y el arreglo de microelectrodos en la bicapa metálica. 3.6 Grabado del metal (Al/Ti) El proceso de grabado de la bicapa metálica de Al /Ti se hizo con la solución Ti-Etch. Para efectuar el proceso de grabado, sumergimos la muestra en la solución durante 35 segundos; luego en agua DI y el secado fue con aire comprimido. 3.8 Depósito de poliimida 2610 de protección Debido a que el prototipo estará en contacto con medio biológico, las estructuras metálicas se recubren con una película delgada de poliimida con propiedades biocompatibles y flexibles, así como alta resistencia química. 3.9 Depósito de Al Depositamos una película de Al de 80 nm de espesor por la técnica de sputtering como material de recubrimiento para el proceso de grabado de la PI 2610. 3.10 Fotolitografía, segundo nivel La fotolitografía del segundo nivel de mascarilla permite definir las ventanas en la parte superior de los pads y microelectrodos, así como, el corno del dispositivo. El proceso realizado se detalla en el apartado 3.5. 3.11 Grabado de Aluminio El proceso de grabado del Al se hizo con la solución comercial Al-Etch. Para el proceso de grabado sumergimos la muestra en solución a 45°C durante 60 segundos. 3.12 Grabado de Poliimida Para crear el contacto eléctrico entre los microelectrodos y el medio biológico, la última capa de PI-2610 se graba de manera selectiva en plasma de oxígeno. 3.13 Forma del dispositivo Si bien, la forma del dispositivo se define en la fotolitografía del segundo nivel de mascarillas, en este proceso se realiza el corte del substrato flexible de PI con un cúter, cuidando de no aplicar demasiada fuerza durante los cortes. 3.14 Decapado de aluminio Se realizó un decapado de aluminio de protección al igual usando el mismo método que en el grabado de aluminio. 3.15 Desprendimiento del dispositivo Finalmente, sumergimos la muestra en agua DI y con pequeños movimientos en los bordes del dispositivo logramos su desprendimiento. El prototipo se libera del soporte mecánico por los pads, luego por las pistas y finalmente por los petalos. 3.16 Caracterización del prototipo El prototipo fabricado se caracterizó a nivel laboratorio para evaluar su comportamiento eléctrico basándose en las curvas I-V de cada pad microelectrodo.


CONCLUSIONES

1. Durante este proyecto elaboramos en total cuatro dispositivos funcionales, de estos, tres se enviarán a la universal Iberoamérica de la ciudad de México para su evaluación in-vivo. El cuarto dispositivo se utilizará para realizar pruebas de conectividad eléctrica con un conector comercial. 2. Los dispositivos obtenidos son mecánicamente flexibles, biocompatibles, de bajo costo, cuentan con excelente integridad estructural y son espacialmente selectivos, características que representa un avance significativo hacia el objetivo de la EE selectiva de la córnea humana. Por lo anterior, se puede concluir que cumplimos los objetivos principales de este proyecto, ya que no solo se fabricó y caracterizo el arreglo de microelectrodos, también, tuvimos la oportunidad de desarrollar una propuesta de diseño para la siguiente etapa del prototipo.
Hernández Ruiz Helena, Universidad de Guadalajara
Asesor: Dra. Didilia Ileana Mendoza Castillo, Instituto Tecnológico de Aguascalientes

ADSORCIóN DE FLUORUROS EN SISTEMAS DINáMICOS CON CARBONIZADO DE HUESO


ADSORCIóN DE FLUORUROS EN SISTEMAS DINáMICOS CON CARBONIZADO DE HUESO

Hernández Ruiz Helena, Universidad de Guadalajara. Asesor: Dra. Didilia Ileana Mendoza Castillo, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

La contaminación de fluoruros en las aguas subterráneas ha sido reconocida como uno de los problemas más graves a nivel mundial (He et al.,2020). El consumo prolongado de agua con niveles de fluoruros superiores a 1.5 mg/L puede tener repercusiones para la salud, ya que concentraciones elevadas de fluoruros están asociadas con diversas condiciones adversas, tales como fluorosis esquelética, parálisis, insuficiencia orgánica y cáncer (Caminos de agua 2023; Huyen et al., 2023). Debido a esta problemática se han propuesto diversos métodos que tienen por objetivo la reducción de este contaminante en efluentes contaminados. La adsorción se presenta como una técnica fundamental para la eliminación de fluoruros (Alkurdi et al., 2019). El carbón de hueso ha emergido como un adsorbente alternativo prometedor debido a su perfil ecológico y potencial costo reducido (Shimabuku et al., 2023) Considerando lo anterior, en el presente estudio se evaluó la adsorción de fluoruros en condiciones dinámicas utilizando un carbonizado de hueso.



METODOLOGÍA

Se empleó carbón de hueso comercial para preparar columnas empacadas de lecho fijo. Los estudios de adsorción se hicieron a 30 °C con una alimentación de 20 mg/L de fluoruros a pH 7 y un flujo de 3 mL/min. La solución inicial de fluoruros fue preparada con una sal de fluoruro de sodio y agua desionizada. Se determinaron las curvas de ruptura operando las columnas durante 10 h. Por último, se calculó la capacidad de adsorción de fluoruros y se caracterizó el adsorbente mediante Espectroscopia de Infrarrojo con Transformada de Fourier antes y después de los estudios de adsorción.


CONCLUSIONES

Bajo las condiciones experimentales evaluadas, se obtuvo una capacidad de adsorción de 3.75 mg/g. Se está trabajando en la interpretación de los resultados de caracterización.  
Hernández Ruiz Obeth, Instituto Tecnológico de Morelia
Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales

INGENIERíA DE MéTODOS Y ACCIONES POR EL CAMBIO CLIMáTICO EN CLúSTER AGROINDUSTRIALES


INGENIERíA DE MéTODOS Y ACCIONES POR EL CAMBIO CLIMáTICO EN CLúSTER AGROINDUSTRIALES

Hernández Ruiz Obeth, Instituto Tecnológico de Morelia. Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Uno de los pilares de la Ingeniería Industrial es la Ingeniería de Métodos, en la cual se analiza el trabajo mediante estudios de tiempos y movimientos buscando la optimización y su realización segura, además de minimizar el desperdicio de recursos, tiempo y esfuerzo. Según la Organización Internacional del Trabajo: El estudio de métodos es el registro y examen crítico sistemático de los métodos para realizar actividades, con el fin de efectuar mejoras. (Kanawaty, 1996, pág. 77) Incorporar las herramientas de ingeniería de métodos en la producción agroindustrial permitiría a os productores y empresarios maximizar sus ganancias y/o reducir sus costos, así como facilitar la toma de decisiones más planificadas y soportadas en estudios en un marco de desarrollo sustentable. El trabajo en el campo es muy susceptible a las condiciones meteorológicas, por lo que el cambio climático es un factor muy importante a considerar sobre todo desde el enfoque de la ingeniería de métodos; si hay una temperatura considerablemente alta, los trabajadores se verán afectados, al igual que la producción y lo mismo sucede si hay demasiada lluvia o frío. Con la ingeniería de métodos se pretende analizar y cuantificar estos efectos; por otra parte, el análisis de la literatura científica permite identificar buenas prácticas y medidas de adaptación y mitigación al cambio climático que puedan ser incorporados en las aglomeraciones clúster que buscan sinergias para mejorar la productividad y la competitividad. En los procesos agroindustriales se tienen una serie de problemas por efecto de las condiciones ambientales en las fincas como son: tiempos improductivos, desgaste por sol y humedad, riesgos ergonómicos y afectación del cambio climático en la función de las labores de los trabajadores y en la productividad de las fincas. En este sentido, este estudio plantea responder a la pregunta: ¿Cuáles son los aportes de la ingeniería de métodos en el desarrollo sustentable de los clúster agroindustriales? Este trabajo se relaciona con los Objetivos de Desarrollo Sostenible (ODS) 12 Producción y consumo responsables y 13 Acción por el clima que forman parte de la agenda 2030, mediante una revisión de literatura en ingeniería de métodos que conlleve a la formulación de recomendaciones para los productores y las iniciativas clúster.



METODOLOGÍA

Objetivo General Analizar los aportes de la ingeniería de métodos en el desarrollo sostenible de los clúster agroindustriales. Objetivos Específicos Llevar a cabo una revisión de artículos científicos relacionados con ingeniería de métodos y cambio climático. Identificar las aplicaciones de software en el análisis del trabajo. Recomendar acciones sostenibles que involucren la ingeniería de métodos en los clúster agroindustriales. Etapas Metodológicas Capacitación en manejo de bases de datos. Búsqueda y preselección de artículos relacionados con tiempos y movimientos dando prioridad a los de giro agroindustrial. Selección final de 30 artículos. Análisis estadístico de los artículos encontrados. Revisión de literatura analizar metodologías, hallazgos y conclusiones de los autores. Exploración de software para realizar estudios de trabajo y riesgos ergonómicos.


CONCLUSIONES

Del analisis estadístico se obtuvo que los tres temas más recurrentes fueron industria, agricultura y silvicultura, encontrando la mayoría de articulos en Colombia y México a travez de EBSCO, Redalyc y Scielo pincipalmente, todo en el orden escrito. También se encontró que los artículos referentes a ingeniería de métodos tienen enfoques distintos según el país, en México se enfocan en la aplicación, mientras que en Colombia se enfocan en el análisis. Es relevante hacer una observación referente a la cantidad de artículos en el tema de ingeniería de métodos; es evidente la falta de investigación en esta área del conocimiento, se desconoce el origen de esta situación. Esto representa un problema debido a que el estudio del trabajo es uno de los pilares de la ingeniería industrial por lo que un rezago en el tema podría reflejarse como un atraso en toda la carrera. En el tema del software que se utiliza para realizar los estudios de trabajo y análisis de riesgos ergonómicos se observó una gran utilidad para hacer mediciones de ángulos y realizar pruebas ergonómicas rápidas. Sin embargo, una carencia que se encontró fue que no mide el tamaño de las partes del cuerpo, esto es necesario al querer diseñar una estación de trabajo. En los artículos leídos se encontró que en tiempos y movimientos se utilizaron las metodologías ya conocidas como: diagrama de flujo, balanceo de línea, cálculo del tiempo estándar, MOST, MTM, MODAPST, cronometraje y análisis de movimientos. No encontré alguna particularidad o situación que se haya salido de los métodos comúnmente utilizados. Desde el punto de vista de ingeniería de métodos se recomienda a los productores: Hacer un análisis de las operaciones al proceso actual para identificar y evitar actividades innecesarias. Realizar las jornadas laborales en las horas que hace menos calor. Tener un sistema de canales que permitan el flujo del agua para evitar inundaciones en los sembradíos que puedan dificultar las operaciones o dañar las plantas. Utilizar equipo de seguridad y realizar las actividades con la técnica adecuada. Realizar un estudio ambiental del lugar para evitar utilizar productos y operaciones innecesarias que solo incrementen los costos.
Hernández Sánchez Adriana, Instituto Tecnológico Superior de Guanajuato
Asesor: Esp. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato

MéTODO DE SECADO EN GARBANZO (CICER ARIETINUM) Y GRILLO (ACHETA DOMESTICUS) PARA LA ELABORACIóN DE HARINA Y SU APLICACIóN EN CHURROS COMO BOTANA.


MéTODO DE SECADO EN GARBANZO (CICER ARIETINUM) Y GRILLO (ACHETA DOMESTICUS) PARA LA ELABORACIóN DE HARINA Y SU APLICACIóN EN CHURROS COMO BOTANA.

Flores Morales Yahaira Stephania, Instituto Tecnológico Superior de Guanajuato. Hernández Sánchez Adriana, Instituto Tecnológico Superior de Guanajuato. Vargas Hernandez Paola Dannae, Instituto Tecnológico Superior de Guanajuato. Yañez Aguirre Miriam Alondra, Instituto Tecnológico Superior de Guanajuato. Asesor: Esp. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

De acuerdo en el mercado de botanas en México se ha observado que la mayoría de los productos aporta nutrientes deficientes como lo es el exceso de carbohidratos, déficit de proteínas, grandes cantidades de grasas, sodio y calorías, así como también una falta significativa de fibra. Estos productos ocasionan una mala alimentación, lo que provoca la probabilidad de desarrollar factores de riesgo como lo es la obesidad, que es agente importante para el desarrollo de enfermedades crónicas como puede ser la diabetes, hipertensión, colesterol alto e insuficiencia cardíaca. En México, 36.7% de los adultos vive con obesidad, y 37.4% de los niños de 5 a 11 años presenta sobrepeso y obesidad. Esto coloca a nuestro país en el quinto lugar a nivel mundial en obesidad y sobrepeso. Un aspecto adicional por considerar es la limitada variedad de opciones disponibles para personas con alergias alimentarias, como la intolerancia al gluten. La presencia de alérgenos en muchas botanas comerciales reduce aún más las alternativas para aquellos con necesidades dietéticas específicas. Ante esta situación, surge la necesidad de desarrollar un producto de botanas que ofrezca una opción saludable y apta para personas que busquen una opción saludable. Este producto debe abordar las deficiencias nutricionales observadas en el mercado actual, proporcionando un equilibrio adecuado de nutrientes, bajos niveles de grasas y sodio, y una fuente de fibra satisfactoria. La industria alimentaria plantea necesidades de producción específicas para cada sector y producto, desarrollando nuevos productos que sean capaces de cubrir las exigencias nutricionales.



METODOLOGÍA

En primer lugar, se coció un kilogramo de garbanzos únicamente con agua. Este paso es crucial para ablandar los garbanzos y facilitar su posterior procesamiento. Una vez cocidos, se dejaron enfriar ligeramente antes de ser triturados con una licuadora. Durante este proceso, se aseguró que los garbanzos quedaran en trozos muy pequeños, para facilitar el siguiente paso de secado. Después de triturar los garbanzos, los extendimos en una bandeja para horno y los sometimos a un proceso de secado que duró tres días, para eliminar toda la humedad y ser convertidos en harina. Sin embargo, al finalizar el secado, no se logró la consistencia deseada, ya que los garbanzos no se habían convertido en un polvo fino. Por ello, se volvió a licuar la mezcla y tamizarla, hasta asegurar obtener la textura fina. Para preparar la masa, se colocó un 50% de harina de garbanzo y 30% de harina de grillo, se añadió 330 ml de agua tibia y una cucharadita de aceite de oliva. Mezclamos bien todos los ingredientes hasta obtener una masa homogénea y suave. Luego, se introdujo la masa en una churrera para darle forma. En una sartén, se calentó aceite de oliva, cuidando de alcanzar la temperatura adecuada para freír los churros sin quemarlos. Una vez que el aceite estuvo lo suficientemente caliente, se comenzó a freír los churros. En otra prueba, se experimentó añadiendo chía a la masa. La chía actúa como un ingrediente emulsificante, lo que puede ayudar a mejorar la cohesión y textura de la masa. Donde se repitió el proceso de mezcla y cocción, observando cómo la adición de chía afectaba al resultado final.


CONCLUSIONES

Ambas pruebas experimentales no lograron replicar la textura de productos ya comercializados. A pesar de los esfuerzos, la combinación de estas harinas resultó en un producto final demasiado blando y pastoso, que no se pudo llevar a cocción. Esto sugiere que la proporción de harinas utilizada puede no ser la ideal o que se requiere la adición de otros ingredientes para mejorar la cohesión. Futuras pruebas deberán enfocarse en ajustar la proporción de harinas o explorar la incorporación de otros componentes que puedan potenciar las características deseadas en el churro, sin comprometer el valor nutricional.
Hernández Servin Maribel, Instituto Tecnológico de Morelia
Asesor: Dra. Nelly Flores Ramirez, Universidad Michoacana de San Nicolás de Hidalgo

USO DEL ETILENGLICOL COMO PLASTIFICANTE EN BIOPLÁSTICOS: IMPACTO EN LA MORFOLOGÍA Y PROPIEDADES FÍSICAS.


USO DEL ETILENGLICOL COMO PLASTIFICANTE EN BIOPLÁSTICOS: IMPACTO EN LA MORFOLOGÍA Y PROPIEDADES FÍSICAS.

Hernández Servin Maribel, Instituto Tecnológico de Morelia. Asesor: Dra. Nelly Flores Ramirez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La producción masiva de plásticos sintéticos ha propiciado la enorme contaminación en el planeta, se estima que alrededor del 48% de los residuos plásticos en México no se gestionan adecuadamente, lo que significa que terminan en vertederos ilegales, cuerpos de agua y otros entornos naturales, esta problemática ha impulsado la creación e invención de nuevos polímeros orgánicos que no generen repercusiones al medio ambiente y que sean fáciles de degradar. Algunos biopolímeros se desarrollan a base de materiales biológicos como lo son los hongos, un hongo común en nuestro país, México, es el Pleurotus Ostreatus el cual se presenta como una opción viable para la creación de nuevos bioplásticos debido a su nula toxicidad y gran capacidad de descomposición y cultivación.



METODOLOGÍA

Para obtener el bioplástico, el micelio del hongo Pleurotus ostreatus se lava y remoja para eliminar posibles organismos no deseados. Posteriormente, se toman alícuotas del micelio para proceder con la incubación. Se utilizó papa de agar dextrosa como medio nutritivo, el cual se prepara disolviendo el agar dextrosa en un litro de agua destilada. La mezcla se calienta y agita frecuentemente durante un minuto y luego se esteriliza en una autoclave a 121.5°C durante 15 minutos a una presión de 1 atmósfera. Tras la esterilización, el medio nutritivo se vierte en cajas de Petri y se deja enfriar durante 24 horas. Una vez preparado el sustrato en un ambiente estéril, se coloca el micelio en las cajas de Petri, las cuales se sellan para evitar la contaminación por otros hongos o microorganismos. La incubación se lleva a cabo durante 9 días, registrando el crecimiento radial del micelio cada 24 horas. Para la elaboración de las muestras para los bioplásticos, fue empleada y modificada la metodología descrita por Ocegueda, (2021). Se diseñaron tres sustratos: T1: olote, T2: astillas, T3: aserrín. Los sustratos se prepararon ajustando el pH a 6.5, los sustratos se hidrataron durante 24 horas y esterilizaron durante 35 minutos a 125 °C y 1 atm. Posteriormente se utilizaron moldes cúbicos de 5 cm x 5 cm, para inocular el micelio y se incubaron inicialmente durante 30 días con temperatura y humedad relativa controladas, después los sustratos con micelio se desmoldaron y secaron hasta peso constante a 60°C. Una vez teniendo varias muestras de olote-micelio, aserrín-micelio y astilla-micelio, éstas se usaron para el análisis del bioplástico con plastificante de etilenglicol. Inicialmente se preparó glicerol y agua destilada en una relación 30:70 %v/v, la solución se deja reposar por 24 horas. También fue preparada la mezcla del plastificante etilenglicol al 10%, la solución se agita por 5 minutos y se deja reposar por 24 horas, la preparación se realizó con la seguridad necesaria que incluye bata, guantes, cubrebocas y lentes protectores ya que el etilenglicol es tóxico. Para el recubrimiento de las muestras se llevó a cabo el siguiente procedimiento: 1.- Se añade una fina capa de glicerol al 30% a cada uno de los 3 sustratos (aserrín, astilla, olote), esto se logra moviendo la muestra en la mezcla por 5 minutos por cada lado. 2.- Se deja reposar la muestra al aire libre por 24 horas. 3.- Después de las 24 horas de añade la fina capa de etilenglicol al 10%. 4.- Se deja en la etapa de curado por 48 horas. 5.- Se colocan las muestras en la estufa de secado a 40°C a peso constante. Se pesaron y midieron las dimensiones de cada una de las muestras, tanto con recubrimiento y sin recubrimiento del plastificante, para realizar el cálculo de densidad aparente y a su vez se realizaron las pruebas de dureza Shore A al ser un material flexible con ayuda de un dispositivo de inspección de la marca DeFelsko. Se analizó la morfología por medio de un Microscopio electrónico de barrido (MEB),de la marca JEOL, modelo JSM-7600F, para el análisis por MEB, la preparación de las muestras se realizó un secado total en una estufa MERMMET a 45°C durante 24 horas, además para ser analizadas se les aplicó un recubrimiento de cobre el cual mejora la conductividad eléctrica y permite mayor calidad en las imágenes. Una vez preparadas las muestras, fueron analizadas a 2500x, 3500x y 10000x y se midieron algunos de sus diámetros para sacar posteriormente el promedio entre ellos, además se revisó el EDS para ver la composición de las hifas.


CONCLUSIONES

Durante la estancia de investigación se adquirieron conocimientos teóricos y prácticos sobre bioplásticos, un campo de creciente relevancia en el contexto tecnológico actual. Dado el carácter amplio del tema, el estudio se enfocó específicamente en el hongo Pleurotus ostreatus, que continúa siendo objeto de investigación para identificar variantes en sus propiedades que puedan mejorar su desempeño como bioplástico. A través del trabajo experimental con muestras de olote-micelio, aserrín-micelio y astilla-micelio, tanto con recubrimiento de glicerol y etilenglicol como sin él, se comprobó que la adición de estos plastificantes influye significativamente en las características de los bioplásticos. Además, durante la estancia, se adquirieron habilidades en diversas técnicas instrumentales de análisis, incluyendo espectroscopía infrarroja por transformada de Fourier, medición del ángulo de contacto y microscopía electrónica de barrido (MEB).
Hernández Tenorio Carlos, Universidad Mexiquense del Bicentenario
Asesor: Esp. Karina Fiorella Gutiérrez Allccaco, Universidad Femenina del Sagrado Corazón

REVISIóN SISTEMATICA DE LAS CARACTERíSTICAS A CONSIDERAR EN UN CENTRO GERIáTRICO


REVISIóN SISTEMATICA DE LAS CARACTERíSTICAS A CONSIDERAR EN UN CENTRO GERIáTRICO

Hernández Tenorio Carlos, Universidad Mexiquense del Bicentenario. Asesor: Esp. Karina Fiorella Gutiérrez Allccaco, Universidad Femenina del Sagrado Corazón



PLANTEAMIENTO DEL PROBLEMA

El envejecimiento de las personas es un fenómeno que afecta a la población mundial, y aún más tomando en cuenta que no hay espacios diseñados correctamente para atender las necesidades que surgen apartir de cierta edad, por ello es necesario investigar y definir los criterios necesarios a consulta diseñar o adaptar espacios que funcionarán como centros geriátricos



METODOLOGÍA

En cuanto a la metodología, la investigación adopta un enfoque cualitativo y descriptivo. Haciendo una investigación de campo entrevistando a personas de las comunidades cercanas, pero también tomando referencias de trabajos antes realizados sobre el tema y considerando las leyes establecidas para estos lugares


CONCLUSIONES

Todos llegaremos en algún momento a una edad avanzada y necesitaremos de la existencia de lugares apropiados para seguir viviendo con una buena calidad de vida y recibiendo la atención adecuada, pero en la actualidad no es algo que preocupe a las autoridades, es por ello que está investigación es de suma importancia para que con lo obtenido de la investigación influir en la búsqueda de mejorar en esos aspectos
Hernández Tomas Johan Manuel, Instituto Tecnológico de Morelia
Asesor: Mg. Eliana Maria Noriega Noriega Angarita, Universidad de la Costa

ANALISIS BIBLIOGRAFICO DE LA CALIDAD DE LA POTENCIA ELECTRICA EN SISTEMAS ELECTRICOS INDUSTRIALES


ANALISIS BIBLIOGRAFICO DE LA CALIDAD DE LA POTENCIA ELECTRICA EN SISTEMAS ELECTRICOS INDUSTRIALES

García Garcia Endy, Instituto Tecnológico de Morelia. Garduño León Victor Hugo, Instituto Tecnológico de Morelia. Hernández Tomas Johan Manuel, Instituto Tecnológico de Morelia. Rivera Ramos Jose Angel, Instituto Tecnológico de Tepic. Solorio Aguila Edgar Jair, Instituto Tecnológico de Morelia. Asesor: Mg. Eliana Maria Noriega Noriega Angarita, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

En los últimos 15 años, el aumento de cargas no lineales en sistemas eléctricos de potencia (SEP) e industriales (SEI) ha generado preocupación por problemas de calidad de la potencia eléctrica que afectan a los usuarios finales [1]. El sector industrial, que representa el 37% del consumo global de energía eléctrica [3], ha incrementado el uso de equipos electrónicos para la automatización de procesos. Aunque existen estudios bibliométricos sobre calidad de la potencia eléctrica en diferentes sectores [5], [6], [7], no se han realizado estudios específicos para el sector industrial, crucial por el uso intensivo de equipos electrónicos que aumentan los problemas de calidad de la potencia eléctrica.



METODOLOGÍA

Paso 1. Selección de la base de datos: Para el análisis bibliométrico se seleccionó Scopus como la base de datos principal de búsqueda, dado su reconocimiento internacional y su amplia cobertura de literatura científica de alta calidad. Paso 2. Selección de palabras clave y construcción de la ecuación de búsqueda: Este paso consiste en identificar y seleccionar las palabras claves para la búsqueda de artículos científicos en la base de datos Scopus. Las palabras claves fueron: Power Quality, Harmonics, Voltage Sag, Voltage Swell, Flicker, Transients, Total Harmonic Distortion (THD), Power Quality Standards, Load Imbalance, Voltage Fluctuations, Energy Efficiency y Technical Standards. Para llevar a cabo la búsqueda y recopilación de información, se construyen ecuaciones de búsqueda utilizando combinaciones de estas palabras clave con Industrial Electrical Systems debido al contexto de la investigación. Se emplearon operadores lógicos (AND y OR). Las ecuaciones de búsqueda se ajustaron iterativamente para lograr un equilibrio óptimo entre la cantidad de artículos y su relevancia. Paso 3. Recopilación de artículos: Una vez seleccionada la base de datos y construida las ecuaciones de búsqueda, se procedió a realizar una búsqueda preliminar de artículos científicos. Los criterios para esta búsqueda preliminar incluyeron el título de los artículos y la cantidad de palabras claves en sus resúmenes. De esta primera búsqueda se obtuvieron 184 artículos. De estos 184 artículos recopilados, se aplicaron dos criterios adicionales para hacer un filtro de los estudios más relevantes. El periodo de publicación (2016 a 2024) y la relevancia del contenido, evaluando cada artículo en función a su adecuación a la temática del estudio. Como resultado, se seleccionaron 103 artículos considerados los más relevantes y pertinentes para el análisis. Paso 4. Análisis bibliométrico: Este paso consiste en realizar un análisis de los estudios recolectados utilizando para ello la herramienta VOSviewer. Los pasos que se llevaron a cabo para utilizar VOSviewer fueron los siguientes:1. Exportar la lista de los artículos seleccionados desde la base de datos Scopus en un formato adecuado; 2. Importar la lista de artículos al software VOSviewer; 3. En la pestaña de inicio del software, en la columna File, seleccionar la opción Create; 4. En la pestaña Choose type of data, seleccionar la opción Create a map based on bibliographic data. Esta opción permite crear mapas de coautoría, co-ocurrencia de palabras clave, citas, acoplamiento bibliográfico, o mapas de citas basados en datos bibliográficos; 5. En la pestaña Choose data source, seleccionar Read data from bibliographic database files y especificar el tipo de documentos que el software debe leer, como Web of Science, Scopus, Dimensions, o PubMed; 6. En la pestaña Select files, elegir el tipo de base de datos correspondiente al archivo; 7. Finalmente, en la pestaña Choose type of analysis and counting method, seleccionar el tipo de dato que se desea visualizar en el gráfico y hacer clic en "Finish".


CONCLUSIONES

En esta sección se presentan los resultados del análisis bibliométrico sobre la calidad de la potencia eléctrica en el sector industrial.Este análisis destaca la evolución de la investigación en calidad de la potencia eléctrica en el sector industrial, identificando las principales fuentes, autores, y colaboraciones que han contribuido significativamente al campo. A continuación, se detallan los resultados obtenidos del análisis realizado: Red de Fuentes de Información más Citadas: Journal of the International Measurement Confederation lidera con 71 citaciones, seguido de IEEE Access con 58 citaciones. Otras fuentes importantes incluyen IEEE Transactions on Instrumentation and Measurement, International Transactions on Electrical Energy Systems y Microprocessors and Microsystems. Red de Acoplamiento Bibliográfico por Autores: Autores como Baja M., Palanisamy R., Thentral T.M.T, y Usha S. son los más centrales en la red, indicando un alto número de citaciones y una fuerte interconexión con otros autores. Red de Acoplamiento Bibliográfico por Países: India destaca por su prominente posición en la red global de investigación, con muchas citaciones y colaboraciones internacionales. Otros países notables incluyen Arabia Saudita, Estados Unidos, Brasil, Egipto, Pakistán y Malasia. Red de Acoplamiento Bibliográfico de Organizaciones:Organizaciones como el Department of Electrical and Computer Engineering son influyentes y centrales en la red, indicando una fuerte colaboración y contribución en investigaciones conjuntas. Red de Co-ocurrencia de Palabras Clave: "Power Quality" es el término más central y relevante, con términos relacionados como "harmonic analysis", "total harmonic distortions (thd)", y "quality control" siendo también muy citados. Red de Co-citation de Fuentes Citadas: Energies, IEEE Trans Power Electron, y IEEE Access son las fuentes más citadas y relevantes en el campo.
Hernández Villalobos Nalani, Instituto Tecnológico de Morelia
Asesor: Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)

FORMACIÓN DE EQUIPOS DE DESARROLLO DE SOFTWARE


FORMACIÓN DE EQUIPOS DE DESARROLLO DE SOFTWARE

Hernández Villalobos Nalani, Instituto Tecnológico de Morelia. Asesor: Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En el desarrollo de software las interacciones entre los integrantes del equipo, junto con las herramientas y la formación del mismo son los que determinan el desempeño de un equipo de software. Las herramientas mal integradas o ineficientes sin tomar en cuenta las particularidades del equipo, pueden crear barreras en la comunicación, por lo tanto, es fundamental identificar y abordar estos problemas para lograr que los equipos sean altamente efectivos. Por lo tanto, se hace evidente que no solo  son importantes las habilidades técnicas; las habilidades interpersonales, la inteligencia emocional, los rasgos de personalidad y la compatibilidad entre los integrantes tienen la misma importancia siendo factores cruciales para conseguir una adecuada integración de un equipo la cual impacta significativamente en el desempeño del equipo. Por lo tanto, al formar un equipo existe un equilibrio entre las competencias, habilidades y rasgos de personalidad de los individuos que se integran en el equipo. En este contexto, las decisiones sobre la asignación de los miembros de un equipo influyen de manera significativa, este trabajo de investigación se enfoca en falta de una correcta asignación de los miembros a un equipo desde el principio del proyecto, ya que una asignación adecuada, puede aportar muchos beneficios, como la reducción del tiempo de producción, aumento de la calidad, la reducción de los costes y del riesgo. Este trabajo se enfoca en identificar las técnicas, métodos y herramientas actualmente utilizadas para la formación de equipos.



METODOLOGÍA

Para la realización de esta investigación se implementó la metodología de mapeo sistemático para identificar las las técnicas, metodologías/métodos y herramientas actualmente utilizadas para la formación de equipos. Los pasos se listan a continuación: Definir una pregunta de investigación. La siguiente pregunta se definió para identificar los recursos que se estaban usando para formar equipos eficientes, la cual fue la siguiente:            P1. ¿Qué estrategias, técnicas y métodos son utilizados para la formación de equipos eficientes? Identificar palabras clave. Se identificaron palabras clave para la elaboración de una cadena de búsqueda que permitiera encontrar los estudios relevantes para la investigación. Algunas palabas que se identificaron fueron equipos de desarrollo de software, herramientas de formación, juegos serios, construcción de equipos eficientes, etc. Definir la cadena de búsqueda. Para identificar los estudios primarios se realizó una cadena de búsqueda para reducir los parámetros de la misma, enfocadas en la pregunta de investigación. Las palabras clave identificadas fueron pensadas para los equipos de software, sobre estrategias de formación y equipos eficientes. Lo que permitió estructurar la cadena de búsqueda de la siguiente manera. (Teams) AND (Software development) AND (Formation OR Integration) AND (Techniques OR Tools OR Practices) Las bases de datos escogidas para aplicar la cadena de búsqueda para comenzar con la selección de los artículos fueron IEEE Xplore y Springer Link. Utilizando los criterios de inclusión y exclusión se rechazaron los resultados considerados no relevantes para la investigación, aceptando solo aquellos que contaran con palabas claves específicas. Los criterios considerados fueron los siguientes: Inclusión: Artículos con fechas del 2019 hasta junio del 2024 Artículos en inglés Artículos sobre Journals y conferencias Artículos que incluyan al menos uno de las palabras clave de la investigación Exclusión: Artículos en idioma diferente al inglés o español Artículos duplicados Artículos enfocados a IA Libros, posters, etc. Cualquier artículo que no sea de journals o conferencias Artículos antes del 2019 Con los pasos descritos, en total se obtubieron 23 estudios para la elaboración de reporte técnico, en ellos se identificaron 3 técnicas, 4 metodologías, 2 procesos y 14 herramientas  para la formación de equipos eficientes.  Dentro de las técnicas encontradas se resalta la técnica mencionada por Farhangian et al.[5]  para medir el rendimiento de los equipos en función de la personalidad y la competencia de habilidades. Sobre los métodos encontrados están los métodos de IA, encuestas y métodos matemáticos. Se destaca además el uso tradicional de herramientas de minería de datos[1] y árboles de decisión[13] para reconocer los patrones basados en habilidades necesarias y gestión de conflictos, comunicación, liderazgo, entre otros. Además de presentar resultados cuantitativos y específicos, se complementan con indicadores de personalidad MTBI [13]y los cinco rasgos de personalidad[3]para considerar diferentes perspectivas. Sobre los recursos como los juegos serios y el THI [3](Índice de Homogeneidad del Equipo), hay menor cantidad de ellas a comparación de los otros recursos. Al contrario se destaca el uso de herramientas, entre ellos algoritmos, metodologías de roles, herramientas tradicionales de minería de datos[1] y árboles de decisión[13] para reconocer los patrones basados en habilidades y gestión de conflictos, comunicación, liderazgo, etc. 


CONCLUSIONES

Durante la estancia de verano  se identificaron las herramientas, procesos, métodos y técnias que son usadas para selección de integrantes de un equipo de desarrollo.  Se tuvieron en cuenta 23 estudios primarios, en los cuales se encontraron 3 técnicas, 4 metodologías, 2 procesos y 16 herramientas. De los cuales solo se identificó el uso de gamificación en una minoría de los estudios primarios siendo un área de oportunidad de investigación.  Además, se resalta que los recursos encontrados hacen uso de diferentes perspectivas para su formación, resaltando características interpersonales, habilidades técnicas y experiencias. Otros estudios mencionan con mayor frecuencia el parámetro por personalidad.
Herrera Aguayo Juan Manuel, Instituto Tecnológico de La Piedad
Asesor: Mg. Yesenia Areniz Arévalo, Universidad Francisco de Paula Santander Seccional Ocaña

PROCESAMIENTO EN TIEMPO REAL PARA LA UNIVERSIDAD DE OCAñA CON LA HERRAMIENTA YOLO


PROCESAMIENTO EN TIEMPO REAL PARA LA UNIVERSIDAD DE OCAñA CON LA HERRAMIENTA YOLO

Herrera Aguayo Juan Manuel, Instituto Tecnológico de La Piedad. López Espinoza Jesús Emiliano, Instituto Tecnológico de La Piedad. Asesor: Mg. Yesenia Areniz Arévalo, Universidad Francisco de Paula Santander Seccional Ocaña



PLANTEAMIENTO DEL PROBLEMA

El proyecto aborda la implementacion de la herramienta YOLO para el reconocimiento facial en tiempo real de estudiantes y docentes de la Universidad Fransisco de Paula Santander Ocaña. El objetivo es evaluar la utilidad y la eficiencia de YOLO en ese contexto, dado que esta tecnologia puede mejorar procesos internos de la Universidad mediante el uso de inteligencia artificial. 



METODOLOGÍA

La investigación es de tipo descriptivo con un enfoque cuantitativo. Se realizaron revisiones documentales, se diseño un cuestionario con 15 preguntas y se definio una muestra de estudiantes y docentes de la Universidad para recolectar datos. La herramienta YOLO fue evaluada en terminos de funcionamiento, ventajas y desventajas, y se documentaron sus capacidades y limitaciones a traves de revisión de literatura y pruebas practicas.


CONCLUSIONES

YOLO resulto ser eficiente para aplicaciones en tiempo real debido a su alta velocidad y simplicidad en la implementación. Sin embargo, se identificaron limitaciones en la precisión para detectar objetos pequeños y en situaciones de superposición de objetos. A pesar de estos desafios, YOLO es una herramienta prometedora para el reconocimiento facial en entornos universitarios con la posibilidad de futuras mejoras en precisión y adaptabilidad.
Herrera Alejo Maria Guadalupe, Universidad de Ixtlahuaca
Asesor: Mtra. Selene López Cameras, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.

ELABORACIóN DE UNA LOSETA DE TIERRA ALIGERADA Y COMPACTADA A BASE DE MATERIALES LOCALES DE LA FINCA ZOQUE, ACALA, CHIAPAS, MéXICO.


ELABORACIóN DE UNA LOSETA DE TIERRA ALIGERADA Y COMPACTADA A BASE DE MATERIALES LOCALES DE LA FINCA ZOQUE, ACALA, CHIAPAS, MéXICO.

Herrera Alejo Maria Guadalupe, Universidad de Ixtlahuaca. Illescas Mena Natalia, Universidad Autónoma de Baja California. Ruiz Lopez Amberth Darlene, Universidad Veracruzana. Asesor: Mtra. Selene López Cameras, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.



PLANTEAMIENTO DEL PROBLEMA

En la actualidad es un hecho que el sector de la construcción brinda una base física y tangible a la sociedad, pero, así como tiene beneficios estos producen grandes emisiones de contaminantes y residuos. Un ejemplo de ello son los residuos originados por la construcción de infraestructura urbana y desarrollado inmobiliario. los cuales terminan en sitios de disposición de materiales no tratados y generan focos de contaminación ambiental. Ante esta problemática, surge la necesidad de investigar y desarrollar alternativas constructivas sustentables que mitiguen el impacto ambiental y promuevan un entorno habitable y saludable. En este contexto, se plantea como objetivo principal de esta investigación el estudio de las características y propiedades de un material de construcción alternativo: Losetas a base de materiales naturales, como la tierra y la paja, son biodegradables y no tóxicos, siempre que provengan de fuentes no contaminadas. Esto significa que, al final de su vida útil, pueden reintegrarse en el medio ambiente sin causar daño, a diferencia de muchos materiales modernos que son difíciles de reciclar y pueden contener sustancias perjudiciales.



METODOLOGÍA

El proceso para la elaboración del producto se llevo acabo siguiendo las etapas del método LUMEX el cual consta de 6 etapas que se explican a continuación. La primera etapa del proceso implica la identificación de los elementos naturales disponibles en la finca zoque que se utilizarán para la creación de la pieza final. Entre los elementos naturales se incluyen los diferentes tipos de tierra que existen en el predio, además de las fibras que se utilizaran. La segunda etapa del proceso consiste en la extracción de los recursos naturales necesarios, utilizando maquinaria especializada para asegurar la eficiencia y calidad del material recolectado. La extracción se llevó a cabo en la finca Zoque, se utilizó una payloader con una capacidad de 3 m³. La tercera etapa se centra en la producción de la materia prima necesaria para la fabricación de las losetas, esta se llevó a cabo en las oficinas de LUMEX Durante esta fase, se implementan técnicas y procedimientos específicos para tamizar y cribar los materiales recolectados, tales como la paja y la tierra rosa y jagüey. La cuarta etapa del proceso implica la tecnificación del material constructivo. En esta fase, los materiales previamente cribados y clasificados se organizan según el tamaño de sus granos. Este ordenamiento es fundamental, ya que considera la interacción con elementos como el agua, el aire y el suelo. La correcta combinación de estos materiales resulta en un material de construcción, con propiedades específicas deseadas para las losetas de tierra. Durante esta fase, se elaboraron losetas con diferentes proporciones de materiales hasta encontrar las combinaciones óptimas que satisfagan los requisitos específicos del proyecto. La mezcla óptima se logró en la loseta número 25, la cual obtuvo una consistencia plástica ideal para su moldeado. Esta loseta presentó caras homogéneas y aristas bien formadas, lo que fue un punto destacado en su evaluación. La ultima etapa es la sistematizacion,en esta  se realiza la producción en serie de 10 losetas, con base en las proporciones de la loseta 25  hasta llegar a un objetivo de 30 losetas como minino, pare ello se ajustan las proporciones a esas cantidades


CONCLUSIONES

El estudio realizado para evaluar la hipótesis planteada sobre la fabricación de losetas con materiales naturales utilizando el método LUMEX ha sido exitoso en confirmar la validez de nuestra hipótesis. Las proporciones utilizadas en la mezcla (75 ml de tierra rosa, 25 ml de tierra Jagüey, 200 ml de paja, 85 ml de cal en pasta y 50 ml de agua) demostraron ser efectivas para alcanzar los objetivos. La mezcla de materiales, utilizando las proporciones precisas, resultó en una consistencia plástica óptima. Este resultado permitió que la loseta se moldeara fácilmente y que el desmoldeo se realizara sin dificultades, además esta consistencia da pie a la elaboración de estas piezas en diversos formatos debido a la estabilidad alcanzada. Por otro lado, las propiedades mecánicas de la loseta, tales como su ligereza, resistencia a la caída y a la inmersión, fueron evaluadas satisfactoriamente. La loseta final, con un peso de 170 gramos, resultó significativamente más ligera en comparación con las losetas de tierra cruda tradicionales. Esta ligereza se logró gracias a la inclusión de paja como fibra natural, que no solo redujo el peso, si no que este enfoque no solo fomenta la colaboración de diversos grupos de la comunidad, sino que también reduce las barreras físicas que tradicionalmente limitan su participación en tareas de construcción. Además, la loseta ligera pretende ser eficiente y práctica, contribuyendo a procesos constructivos más accesibles.  
Herrera Carvajal Juliana, Institución Universitaria Pascual Bravo
Asesor: Mg. Sandra Lucia Aguirre Franco, Unidad Central del Valle del Cauca

COMPARACIóN DE LOS CONTEXTOS ORGANIZACIONALES DE LA EMPRESA COOPERATIVA DOS PINOS (COSTA RICA) Y COLANTA (COLOMBIA) EN EL MARCO DE LA RESPONSABILIDAD SOCIAL EMPRESARIAL.


COMPARACIóN DE LOS CONTEXTOS ORGANIZACIONALES DE LA EMPRESA COOPERATIVA DOS PINOS (COSTA RICA) Y COLANTA (COLOMBIA) EN EL MARCO DE LA RESPONSABILIDAD SOCIAL EMPRESARIAL.

Herrera Carvajal Juliana, Institución Universitaria Pascual Bravo. Ruiz Garnica Isabella, Institución Universitaria Pascual Bravo. Asesor: Mg. Sandra Lucia Aguirre Franco, Unidad Central del Valle del Cauca



PLANTEAMIENTO DEL PROBLEMA

La responsabilidad social empresarial (RSE) es vital para las organizaciones que buscan equilibrar el crecimiento económico con el bienestar social y ambiental. Este proyecto compara las estrategias de dos empresas líderes del sector lácteo: Dos Pinos en Costa Rica y Colanta en Colombia. Se busca entender cómo estas prácticas varían según los contextos organizacionales específicos.



METODOLOGÍA

El objetivo principal es comparar los contextos organizacionales de Dos Pinos y Colanta en este ámbito. Se analizan y comparan sus estrategias, destacando enfoques comunes y diferenciadores, y se evalúa cómo sus estructuras organizacionales afectan la efectividad de sus programas.


CONCLUSIONES

La responsabilidad social en el sector lácteo es fundamental para el desarrollo sostenible de las empresas, mejorando las condiciones sociales, ambientales y económicas. La implementación de programas fortalece la cadena de suministro y contribuye a la competitividad. Además, la innovación en el diseño de productos y servicios, junto con la integración de estrategias de mercadeo, gestión financiera y procesos de producción eficientes, es crucial para la competitividad de las empresas lácteas. La planificación, organización, dirección y control son esenciales para garantizar la eficiencia en la producción y comercialización. Este estudio ofrece una comprensión profunda de cómo Dos Pinos y Colanta abordan la responsabilidad social desde sus contextos organizacionales y administrativos, proporcionando valiosas lecciones para otras empresas del sector lácteo.
Herrera García María Fernanda, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Shuang Gu, Wichita State University

ADVANCED ELECTRODIALYSIS FOR WATER DESALINATION AND PRODUCTION OF VALUE-ADDED CHEMICALS


ADVANCED ELECTRODIALYSIS FOR WATER DESALINATION AND PRODUCTION OF VALUE-ADDED CHEMICALS

Herrera García María Fernanda, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Shuang Gu, Wichita State University



PLANTEAMIENTO DEL PROBLEMA

Statement of the problem This project addresses the increasing global demand for water and the necessity for sustainable solutions. Although 70% of the Earth's surface is covered with water, over 90% is saltwater, limiting its availability for human consumption and other needs. Desalination, the process of converting saltwater into potable water, is costly, energy-intensive, and generates pollution due to saline waste. This project utilizes advanced electrodialysis, an innovative separation technique that employs electric fields and ion-exchange membranes. These membranes selectively allow cations and anions to pass, enhancing desalination efficiency and reducing saline waste, thus addressing global water scarcity and supporting sustainable water management. This technique aims to desalinate saltwater more efficiently and economically, significantly reducing saline waste by extracting value-added chemicals and enhancing energy efficiency through renewable sources. The objective is to develop a desalination method that is economical, environmentally friendly, and sustainable, aligning with the UN Sustainable Development Goals, specifically SDG 6 (Clean Water and Sanitation). The main research challenges are achieving a desalination rate higher than 80% and precisely assembling the components to avoid leaks and ensure efficient operation. If the assembly fails, the process must be repeated, which is laborious and time-consuming.



METODOLOGÍA

Methodology The assembly of the electrodialyzer and system was meticulous and precise, involving the careful layering of polycarbonate (PC) components, electrodes, and membranes. Initially, the membranes were hydrated in a salt solution, such as NaCl or KNO3, for over three hours to ensure optimal functioning. The meshes were pre-cut using an Omtech laser cutter to ensure a perfect fit. The assembly began by placing the PC end frame on a flat surface, using blocks, PC guides, and a stainless-steel plate to provide a stable base. Next, gaskets, electrodes, and Nylon turbulence mesh were layered in sequence, ensuring precise alignment of each component. The pre-hydrated membranes were then carefully positioned in their corresponding locations. To prevent leaks, nuts were tightened in a diagonal pattern, allowing for uniform adjustment across the entire structure. Finally, the inlet and outlet fittings were installed, integrating the cell into the flow system. Electrodialysis operates using electrodes and an electrolyte solution. When voltage is applied, sodium ions are attracted to the cathode and chloride ions to the anode. Selective ion-exchange membranes block certain ions, creating two streams: one with a concentrated solution (brine) and another with a diluted solution. Cation-exchange membranes allow only cations to pass, while anion-exchange membranes allow only anions.


CONCLUSIONES

Key results The calibration curve for NaCl, showing the relationship between NaCl concentration (mM) and conductivity (mS/cm). The equation is y=0.0743x2+8.3699x with an R2 value of 1, indicating a highly accurate fit. This calibration is crucial for determining NaCl concentration in solutions based on conductivity measurements. The voltage required over time for a 25 mM NaCl solution. Initially, a higher voltage is needed to drive ion movement, but as ions are removed, the voltage decreases. This decline reflects the reduced ion concentration, meaning less energy is needed to remove the remaining ions. The voltage over time for a 50 mM NaCl solution. Similar to the 25 mM test, the voltage starts at the same level and gradually decreases as ions are removed. However, the overall voltage required is maintained at a higher level for the 50 mM solution compared to the 25 mM solution as the ions are removed. These results confirm the effectiveness of the electrodialysis process in reducing ion concentration over time, with the required voltage decreasing as fewer ions remain in the solution. Key findings In the advanced electrodialysis experiment, two tests were conducted with NaCl solutions of initial concentrations of 25 mM and 50 mM. For the 25 mM solution, the final concentration was reduced to 6.77 mM, with conductivity decreasing from 2,990 µS/cm to 857 µS/cm, representing a 72.92% reduction in NaCl concentration. The coulombic efficiency for this solution was 98.49%, indicating that nearly all the applied electrical current was effectively used to move ions through the membranes. For the 50 mM solution, the final concentration was reduced to 10.60 mM, and conductivity decreased from 5,575 µS/cm to 1,432 µS/cm, representing a 57.6% reduction in NaCl concentration. The coulombic efficiency for this solution was 78.8%, suggesting that a significant portion of the electrical current was not efficiently used for ion transport. Coulombic efficiency measures the fraction of the electrical current effectively used for ion movement during the electrodialysis process. A high value indicates that nearly all the applied current contributes to desalination, while a lower value suggests efficiency losses in the system. It is important to highlight that the reduction efficiency for the 25 mM solution exceeded 80%, indicating a highly effective process. In contrast, the reduction efficiency for the 50 mM solution fell below 80%, which is considered low and may be attributed to improper assembly of the electrodialyzer layers or other technical factors affecting process efficiency. 
Herrera Hermosillo Joselynne Guadalupe, Universidad de Sonora
Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa

EFECTO DE LOS MOVIMIENTOS SíSMICOS EN ESTRUCTURAS DESPLANTADAS EN SUELO BLANDO DE LA CDMX


EFECTO DE LOS MOVIMIENTOS SíSMICOS EN ESTRUCTURAS DESPLANTADAS EN SUELO BLANDO DE LA CDMX

Herrera Hermosillo Joselynne Guadalupe, Universidad de Sonora. Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La creciente urbanización en zonas sísmicas ha incrementado la necesidad de diseñar edificios que puedan resistir terremotos. Es crucial desarrollar estructuras que no solo sean duraderas, sino que también ofrezcan un alto nivel de seguridad ante eventos sísmicos. El principal desafío radica en integrar estrategias de diseño que aseguren la estabilidad y la integridad de las construcciones durante y después de un sismo. Este estudio se enfoca en analizar estructuras sismorresistentes.



METODOLOGÍA

Se llevó a cabo una investigación general que incluyó una revisión de literatura especializada en comportamiento sísmico de edificios, analizando diversas técnicas en la predicción de la respuesta sísmica de sistemas estructurales. Se seleccionaron y analizaron estructuras utilizando sistemas de un grado de libertad (S1GL) para demostrado el efecto que causan los sismos de la Ciudad de México (CDMX). Se obtuvo la respuesta de diferentes sistemas estructurales mediante espectros de respuesta, bajo la influencia de estos registros sísmicos típicos de suelos blandos de la CDMX. Finalmente, se identificaron y evaluaron algunas medidas de intensidad sísmica relevantes para entender mejor el comportamiento sísmico de las estructuras.


CONCLUSIONES

Este análisis resalta la importancia de implementar estrategias de resistencia sísmica en la construcción de edificios para garantizar la seguridad en áreas propensas a terremotos. Es fundamental tener un conocimiento profundo sobre los sismos y sus efectos, así como comprender conceptos clave como la intensidad y la magnitud sísmicas. El análisis de estructuras sismo-resistentes es esencial para mejorar la seguridad de las construcciones. El estudio de los espectros de respuesta se ha destacado como una herramienta crucial para evaluar la vulnerabilidad de las edificaciones y optimizar sus diseños. La investigación y el desarrollo continuos en este campo son esenciales para minimizar los riesgos sísmicos y asegurar la estabilidad y continuidad de las infraestructuras críticas durante eventos sísmicos.
Herrera Hernández Mónica, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Mg. German Herrar Vidal, Fundación Universitaria Tecnológico Comfenalco

PLANEACIóN Y DISTRIBUCIóN DE LA PRODUCCIóN


PLANEACIóN Y DISTRIBUCIóN DE LA PRODUCCIóN

Herrera Hernández Mónica, Tecnológico de Estudios Superiores de Jocotitlán. Rodriguez Magaña Erika Susana, Instituto Tecnológico Superior de Puruándiro. Asesor: Mg. German Herrar Vidal, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

Las empresas manufactureras que enfrentan problemas relacionados con la planeación y distribución de la producción no cuentan con información o referentes donde se mencionan situaciones similares o iguales en donde se especifiquen técnicas y herramientas que se utilizaron y que les sirva como guía o que lo puedan retomar las organizaciones, por lo que las problemáticas no las solucionan en un lapso de tiempo corto lo que genera un exceso o deficiencia en el inventario, un incremento de los costos tanto de producción como de distribución, inclusive que se tenga una cadena de suministro ineficiente ocasionando retrasos en la entrega de los pedidos e insatisfacción en los clientes.



METODOLOGÍA

Para la realización de este proyecto se llevaron a cabo una serie de pasos comenzando por la búsqueda de datos de investigaciones con respecto a la planeación y distribución de la producción, obteniendo un total de 209 artículos, los cuales se concentraron en una base de datos en excel, posteriormente se identificaron los objetivos, es decir, lo que los autores pretendían alcanzar con su investigación, después se extrajo el problema o desafío de cada artículo, así como las técnicas y herramientas empleadas para solucionar las problemáticas encontradas, además se citó en APA cada artículo y se obtuvo el identificador DOI, luego se analizaron los objetivos del año 1976 al 2024 y de los últimos cinco años, es decir, del 2020 al 2024, cabe destacar que esto también se aplicó pero considerando los problemas y finalmente se generó un análisis de las técnicas y herramientas para saber cuáles se emplean con mayor frecuencia y las que no son tan comunes, por lo que se empleó la técnica del paloteo y se creó una gráfica en la cual se visualizaron los resultados. 


CONCLUSIONES

Durante la realización de la estancia de verano se revisaron y analizaron 209 artículos acerca de la planificación y distribución de la producción. De acuerdo con los resultados se destaca que los principales objetivos que persiguen las empresas manufactureras son desarrollar modelos de optimización, minimizando los costos de producción y distribución y maximizando los niveles de servicio, aunque actualmente se tiene un énfasis en la planificación de la producción y distribución de tipo integrada. Para el caso de los problemas, los que se presentaron con mayor frecuencia fueron el gestionar los inventarios considerando los productos perecederos, también se tiene una preocupación por la optimización de los costos de múltiples productos en una cadena de suministro integrada y se hace alusión a que se gestione la planificación de la producción y distribución de una cadena de suministro verde de circuito cerrado, con respecto a la tendencia actual se tiene un enfoque en la gestión de una red de producción y distribución multiproducto, así como del inventario, de igual forma se centran en la optimización de una cadena de suministro verde que incluye varios centros de reciclaje, cabe destacar que se mantiene el enfoque por la parte ecológica. En cuanto a las técnicas y herramientas, se identificó que se emplea programación lineal y el algoritmo de optimización metaheurístico, mientras que entre las técnicas que se utilizaron menos se encuentran la simulación, programación matemática difusa y agentes inteligentes. Cabe destacar que esta experiencia fue muy grata y enriquecedora, debido a que logre adquirir conocimientos sobre la planeación y distribución de la producción, así mismo me ayudo a mejorar mi capacidad de investigación y de análisis. 
Herrera Mendoza Kevin, Instituto Tecnológico de Iztapalapa
Asesor: M.C. Ana Claudia Zenteno Vázquez, Benemérita Universidad Autónoma de Puebla

VIRUS MAKER TOOLS


VIRUS MAKER TOOLS

Herrera Mendoza Kevin, Instituto Tecnológico de Iztapalapa. Asesor: M.C. Ana Claudia Zenteno Vázquez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

en este articulo se habla sobre el uso de las herramintas usadas para crear virus. Tambien se toca su funcionamiento y si en la actualidad aun es viable hacer uso de estas herramintas. que son los virus, los tipos de virus existentes y el como protegerse de ellos.



METODOLOGÍA

Todos los días escuchamos hablar sobre tener cuidado de no contagiar nuestro equipo con un virus informático, pero antes de ver que es un virus informático debemos saber que es la ciberseguridad. La ciberseguridad son tecnologías o programas que nos ayudan a prevenir cualquier tipo de ciberataque o en su defecto a reducir el impacto que estos puedan tener. Ahora los ciberataques son un acto delictivo de infiltración en sistemas informáticos. Estos pueden llevarse a cabo para el robo de información, extorsión de una persona o empresa, dañar sistemas informáticos, alterar información o exponer información.   


CONCLUSIONES

en la actualidad el desarrollo de virus con una de las herrramintas de este articulo no es algo a tener en cuenta. las herramintas mencionadas son herramintas que en la actualidad carecen de funionamiento. para el ueso de estas herraminetas es necesario con contar con equipos descontinuados, esto para su correcto fncionamiento, ya que los sistemas operativos actuales estan protegidos contra todas las alteraciones que se pedan hacer apartir de las herramintas.  
Herrera Muñoz Sebastian David, Universidad Simón Bolivar
Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica

DESARROLLO DE UN PROTOTIPO PARA EL MONITOREO Y CONTROL DE ASPERSORES CON TECNOLOGíA DE INTERNET DE LAS COSAS ORIENTADO AL MEJORAMIENTO DE LA CALIDAD DEL AIRE EN EL SECTOR MINERO Y SUS POBLACIONES ALEDAñAS.


DESARROLLO DE UN PROTOTIPO PARA EL MONITOREO Y CONTROL DE ASPERSORES CON TECNOLOGíA DE INTERNET DE LAS COSAS ORIENTADO AL MEJORAMIENTO DE LA CALIDAD DEL AIRE EN EL SECTOR MINERO Y SUS POBLACIONES ALEDAñAS.

Arenas Monsalve Juan Arenas, Universidad Simón Bolivar. Bautista Vivanco Denisse Yemirel, Instituto Politécnico Nacional. Herrera Muñoz Sebastian David, Universidad Simón Bolivar. Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

La Guajira, al ser una región con una dependencia económica significativa a la minería, enfrenta un dilema crucial entre el desarrollo económico, la preservación del medio ambiente y la salud comunitaria, pues acorde a los reportes de la Fundación Hemera y  a los estudios de Urrea y Calvo, se han documentado efectos negativos de la minería en la calidad del aire de dicha zona sobre todo en la mina Cerrejón, como consecuencia de la emisión de gases  tales como dióxido de azufre (SO2) y óxido de nitrógeno (NOx), así como de partículas finas por  la considerable extracción de carbón, generando problemas de salud respiratoria en los residentes locales.  Además, la contaminación del agua y la alteración de los ecosistemas acuáticos también se han registrado como impactos secundarios de la actividad minera. Las soluciones convencionales, como la aspersión manual de agua, han sido insuficientes para enfrentar la dimensión del desafío, resaltando la necesidad de enfoques innovadores y tecnológicos. Este proyecto aborda la contaminación del aire en la minería de La Guajira mediante la integración de tecnologías de la industria 4.0, como el Internet de las Cosas (IoT), para desarrollar un sistema de aspersión inteligente. Este enfoque promete mejorar la calidad del aire de forma efectiva y eficiente, beneficiando la salud de las comunidades locales y el medio ambiente. La importancia del estudio radica en su enfoque integral para abordar un problema ambiental crítico en una región económicamente importante por la minería, alineándose con políticas de sostenibilidad, transformación energética y desarrollo tecnológico.



METODOLOGÍA

Considerando las condiciones de la zona, se empleó el controlador I/O LoRa Wan Dragino LT-22222-L como nodo de comunicación a larga distancia y bajo consumo de energía. Junto con un sistema compuesto por un Arduino Nano, relevadores externos y un banco de baterías, permite el control de la aspersión inteligente a distancia, operando los relevadores internos del controlador para abrir y cerrar válvulas de aspersores. Se definió el diagrama de conexiones del sistema a implementar con el controlador I/O LoRaWan Dragino LT-22222-L y otros elementos. Luego, se realizó el dimensionamiento integral del sistema considerando las fichas técnicas de los componentes, a partir de ello se diseñó un contenedor para proteger el sistema, considerando alta resistencia a impactos, aislamiento eléctrico, resistencia al agua y polvo, sostenibilidad en condiciones de humedad y temperaturas de 45-55°C, y protección UV. El contenedor se modeló en 3D usando Onshape, determinando tolerancias y añadiendo pernos y orificios para el ensamblaje y sellado adecuado. Paralelamente, se trabajó en la comunicación a larga distancia con el Dragino LT-22222-L, basado en el microcontrolador STM32L072 y el chip LoRa sx1276. Se configuró adecuadamente según el hardware, adquiriendo el firmware adecuado para la versión y frecuencia del equipo (915MHz para la Guajira). Usando un módulo conversor TTL-USB y el software STM32 Cube Programmer, se cargó el firmware en formato .hex tras reiniciar el dispositivo. Con el software serial port utility, se configuró el controlador con los siguientes comandos AT: AT+FDR: Restablecimiento de fábrica. AT+NJM=1: Modo de unión a la red LoRaWan por OTAA. AT+ADR=1: Ajuste dinámico de la tasa de datos. AT+DEUI= xx xx xx xx xx xx xx xx: Identificador único de 64 bits. AT+APPEUI= xx xx xx xx xx xx xx xx: Identificador único de aplicación de 64 bits. AT+APPKEY=XX XX XX XX XX XX XX XX XX XX XX XX XX XX XX XX: Clave criptográfica de 128 bits. AT+JOIN: Unión del dispositivo a la red. Tras la configuración, se vinculó y registró el dispositivo en The Things Network (TTN), mediante la creación de una aplicacion y la captura de las claves del dispositivo en ella, con ello se obtuvo el envío-aceptación de una solicitud de unión a la red. A través de la aplicación en TTN en la sección de Downlinks, se realiza el control remoto de los relevadores del controlador con el envío de comandos con la estructura: 03 XX XX, donde el tercer y cuarto dígito controlan el relevador 1, y el quinto y sexto, el relevador 2 (00 abre y 01 cierra los relevadores). El controlador y demás componentes se resguardan en el contenedor diseñado para su instalación en zonas mineras de la Guajira, Colombia. Una vez instalado, se realizan pruebas de alcance y se incluye el Gateway DLOS8 para recibir retroalimentación del controlador, facilitando la toma de decisiones y procesamiento de datos, determinando cuándo activar y desactivar la aspersión de agua. El Gateway, junto con su antena, debe ser instalado donde haya un operador para verificar y probar el alcance, que según el fabricante de Dragino, puede cubrir kilómetros.


CONCLUSIONES

Durante esta estancia de verano, se logró adquirir conocimiento en la implementación de la tecnología LoRaWan, así como también se reforzó y se puso en práctica los conocimientos previos sobre diseño 3D para implementación física. Gracias a lo anterior, se obtuvo la generación de un diseño 3D de contenedor para zonas con condiciones ambientales complejas, se seleccionó PET-G como material apto para las condiciones y, además, se realizó la configuración del controlador y la configuración en TTN. No obstante, al tratarse de un proyecto de larga extensión, aún se encuentra en la fase de configuración y pruebas de alcance, y no se puede mostrar datos del alcance en distancia de la comunicación obtenidos. Se espera lograr establecer comunicación a una distancia de 10km entre el nodo (controlador) y la zona de operación, donde se encuentra el Gateway para la operación remota de los relés. Por otra parte, se espera una autonomía del sistema de 6 meses en la zona de implementación hasta su próximo mantenimiento, gracias al aislamiento por el contenedor diseñado.
Herrera Rivas Martin, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

ANáLISIS DE FACTORES QUE ORIGINAN LA ROTACIóN DE PERSONAL EN EL SECTOR EMPRESARIAL DE LA REGIóN Y SUS ESTRATEGIAS DE MITIGACIóN


ANáLISIS DE FACTORES QUE ORIGINAN LA ROTACIóN DE PERSONAL EN EL SECTOR EMPRESARIAL DE LA REGIóN Y SUS ESTRATEGIAS DE MITIGACIóN

Herrera Rivas Martin, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

En el verano de 2023, se hizo un pequeño estudio a nivel regional que tenía como objetivo saber qué factores psicosociales originaban la inestabilidad de los colabores dentro de sus centros de trabajos, en otras palabras, esta investigación mostraba porque las personas abandonan sus puestos de trabajo, las conclusiones fueron claras y concisas siendo el factor psicoemocional del clima organizacional como uno de los principales razones por las cuales las personas abandonan sus centros de trabajo, por otro lado Lima Limón comenzó como un pequeño emprendimiento de desayunos y comidas, sin embargo, a lo largo del tiempo este negocio fue crecimiento económicamente hasta desarrollarse como empresa debido a la demanda que sus clientes exigían por parte de esta misma organización. La demanda que surgió dentro de este restaurante trajo consigo cambios tecnológicos, financieros y de talento humano; aunque Lima Limón es perceptivo a los cambios la misma empresa debe invertir no solo en infraestructura y materiales, sino que también debe invertir en las actitudes y aptitudes a sus colaboradores, sobre todo debe persuadir en ellos que su entorno está cambiando y debe ofrecer herramientas que les permitan dar una adaptabilidad al cambio. Sin embargo, Lima Limón no es la excepción y está expuesta a que esta problemática afecte con sus colaboradores atentando principalmente con su recurso humano lo que en un futuro podría traer consigo problemas sociales y económicos para la empresa. El objetivo general de esta investigación es aumentar el nivel de clima organizacional en los colaboradores de Lima Limón para reducir y mitigar los factores que origina un nivel bajo de clima organizacional para prevenir la rotación de personal que hay en la misma empresa  



METODOLOGÍA

El instrumento a utilizar fue el cuestionario EDCO (Evaluación de clima organizacional), el mismo cuestionario fue aplicado en un restaurant denominado Lima Limón ubicado en el pueblo de Tacámbaro de Codallos, municipio de Tacámbaro Michoacán. El cuestionario tiene un total de 40 preguntas las cuales están divididas en ocho categorías, las cuales son las siguientes. Relaciones interpersonales Estilos de dirección Sentido de pertenencia Retribución Disponibilidad de recursos Estabilidad Claridad y coherencia en la dirección Valores colectivos El diagnostico lo contestaron 8 personas, siendo nuestra muestra principal debido a que como es una empresa pequeña el número de trabajadores / colaboradores se reduce a ocho personas, los criterios de evaluación fueron clasificados en tres indicadores (alto, medio y bajo) y su respectivo porcentaje Para la definición de los criterios se tomaron los valores mínimos y los valores máximos de cada categoría y de manera general, posteriormente se obtuvo la diferencia entre los valores mínimos y máximos y se dividió entre los tres indicadores correspondientes teniendo así lo siguiente. Lima Limón experimenta un 80% de clima organizacional por lo que se encuentra en un nivel medio, no obstante hay categorias en las que se observó una disminución de manera signifiativa, en las categorias de sentido de pertencia, valores colectivos, claridad y coherencia en la dirección, retribución y estabilidad.  La estrategia a emplear fue un plan de cpacatición para neutraliazar o aumentar estas categorias crenado dinamicas, talleres y charlas entorno a la filosofía organizacional, contrtación, manuales de procesos y organigrama, entre otras más. 


CONCLUSIONES

Después de haber aplicado estas capacitaciones se obtuvo una mitigación o disminución de rotación de personal del 1% y un crecimiento del clima organizacional de 1% y Lima Limón aun se encuentra pen el nivel medio, casi por alcanzar el nivel alto en ambiente laboral, por lo que dentro de estas capacitaciones se pudo observar que la actitud del colaborador y el jefe / lider es de suma importanica, no obstante esta empresa deberá perfeccionar estas estrategias o utilizar otras diferentes para aumentar exponencialmente este indicador y en un futuro obtener resultados agradables. 
Herrera Sanchez Julian, Universidad Vizcaya de las Américas
Asesor: Mg. Kelly Stefanny Moreno Cortés, Universidad La Gran Colombia

ESTRATEGIAS DE GESTIóN PARA EL MANEJO DEL RECURSO HíDRICO Y ENERGéTICO EN EDIFICACIONES RURALES, CASO DE ESTUDIO FILANDIA QUINDIO


ESTRATEGIAS DE GESTIóN PARA EL MANEJO DEL RECURSO HíDRICO Y ENERGéTICO EN EDIFICACIONES RURALES, CASO DE ESTUDIO FILANDIA QUINDIO

Espinosa Casillas Diego, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Herrera Sanchez Julian, Universidad Vizcaya de las Américas. Asesor: Mg. Kelly Stefanny Moreno Cortés, Universidad La Gran Colombia



PLANTEAMIENTO DEL PROBLEMA

  La vivienda campesina en Colombia enfrenta desafíos significativos para garantizar condiciones adecuadas de habitabilidad y calidad de vida, entre los principales problemas se destacan la falta de acceso a servicios básicos como electricidad, y agua potable, así como la perdida de conocimientos tradicionales de construcción, sustituidos por técnicas modernas que no se adaptan al contexto y clima local. Esto afecta el bienestar y desarrollo económico y social de las comunidades. Las construcciones vernáculas, proporcionan un confort ideal, pero están siendo reemplazadas por nuevos materiales que no son adecuados al lugar. Por ende, se sugieren alternativas tecnológicas para mejorar la sostenibilidad energética en la vivienda rural, como sistemas energéticos alternos de bajo costo, iluminación Led y envolvente.  



METODOLOGÍA

En el presente estudio de investigación es mixto, ya que se utilizó los distintos tipos de investigación, donde en el estudio cuantitativo nos llevó a tener un análisis estadístico más preciso tales como las encuestas, experimentos, observación de los fenómenos entre otros. Y la cualitativa nos llevó una información mediante experiencias, historias y la observación dentro del estudio de investigación en las diferentes edificaciones (Viviendas tradicionales, en transición y modernas).


CONCLUSIONES

La investigación sobre el tema de "Hábitat y arquitectura sostenible" implica un estudio y análisis arduo en las edificaciones (tradicionales, en transición y modernas) en diferentes aspectos y puntos para comprender como es que impacta de forma directa e indirecta los materiales, la habitabilidad y la energía en sus habitantes. Gracias a los diferentes puntos de investigación dentro de las edificaciones tales como, las patologías, materialidad, medición de vientos y energía, entre otros, notamos un significativo cambio dentro de las viviendas donde se puntualiza las nuevas tecnologías de construcción y materiales dentro de estas, perdiendo su valor intrínseco tradicional como parte de su historia y patrimonio, alterando las formas de vida, condiciones de bienestar y salud de las comunidades campesinas.
Herrera Torres Luis David, Universidad de Guadalajara
Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara

OBTENCIóN Y CARACTERIZACIóN DE NANOCRISTALES DE CELULOSA, A PARTIR DEL MESOCARPIO DE COCO


OBTENCIóN Y CARACTERIZACIóN DE NANOCRISTALES DE CELULOSA, A PARTIR DEL MESOCARPIO DE COCO

Gonzalez Rebollo Citlali Guadalupe, Universidad de Guadalajara. Herrera Torres Luis David, Universidad de Guadalajara. Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Muchos procesos químicos a nivel industrial o de forma individual en los laboratorios de investigación llevan consigo un emisión de residuos químicos contaminantes que no siempre son desechados y tratados de la manera en la que es debido, ocasionando su llegada al medio ambiente y con ello un impacto perjudicial para éste.  La respuesta es la búsqueda de rutas verdes o sostenibles, lo que conocemos como la química verde, la cual engloba los procesos químicos que minimicen o eliminen el uso y la generación de sustancias peligrosas para el medio ambiente y la salud humana. Un camino que se ha buscado implementar en los procesos que ya conocemos así como en los que actualmente protagonizan la investigación buscando que no haya ningún excluido. He aquí en donde se enfoca el trabajo con celulosa a partir de desechos orgánicos y la obtención de los nanocristales de celulosa (NCC). Las hidrólisis ácidas para obtener NCC dan como resultados el uso y desechos de sustancias químicas nocivas altamente perjudiciales para el medio ambiente por lo que una ruta verde y sostenible para su obtención sería un resultado de alto impacto a nivel global para el cuidado del medio ambiente.



METODOLOGÍA

El mesocarpio de coco se somete a un steam explosion rompiendo la estructura celular, facilitando la separación de los componentes de Celulosa, Hemicelulosa y Lignina. Una vez concluida la técnica, se obtiene la humedad de la muestra haciendo uso de la balanza térmica. Este valor es importante ya que será en el que nos basaremos para hacer el blanqueamiento. Justo después, con la cantidad de humedad que hay en la muestra, se calcula cuánto ácido se tiene que añadir para blanquear la fibra. A la vez, se hace una regla de tres para obtener de forma más precisa las cantidades que se van a usar en el blanqueamiento. Posteriormente, se hacen tres muestras distintas para los dos ácidos, en el caso del uso del ácido peracético las muestras tienen como nombre 40, 60 y 80 que hace referencia al tiempo que estuvieron en baño maría. Por otro lado, para el ácido peroxi-mono-sulfúrico se llevó un baño maría de una hora para las tres muestras, esto por la reacción del ácido con el agua. Tras finalizar su proceso se deja enfriar a temperatura ambiente. Terminando el blanqueamiento, se coloca una muestra de 5 gramos en distintos vasos precipitados, donde se les agregó 40 ml de ácido sulfúrico al 72%  y se agita con una varilla de vidrio por dos horas. Una vez pasado ese tiempo, se cambia la muestra a un matraz de 600 ml en plancha y se le agrega 400 ml de agua destilada y se hace hervir. Una vez que cada matraz hierva se les pone un cronómetro de 4 horas, manteniendo un volumen constante por adicción frecuente de agua caliente. Después se filtra a vacío separando la lignina en el papel filtro y así poder obtener cuanta lignina se obtiene, de ahí se llevaron al horno para que se sequen a una temperatura de 100°C y en constante revisión para que no se quemen. Para determinar α, β y ɣ-celulosa. Se coloca cerca de 5 gramos en tres vasos precipitados de 300 ml. Añadiendo 75 ml de reactivo de NaOH (Hidróxido de sodio al 17.5%), en un agitador magnético se pone a agitar hasta que esté completamente dispersa. En la determinación de α-celulosa, se pipetean 25 ml del filtrado y 10 ml de solución de dicromato de potasio en una concentración de 0.5 N, en un matraz de 250 ml, añadiendo con precaución 50 ml de  H2SO4 concentrado. Luego, se agita por 15 minutos, añadimos 50 ml de aguay se le añade 2 gotas de ferroin para iniciar su titulación con la solución de Sulfato de Amonio Ferroso 0.1 N, alcanzando un color púrpura. En la determinación de β-celulosa, se pipetean 50 ml del filtrado de la pulpa a un matraz aforado de 100 ml, a la par se agregan 50 ml de solución de H2SO4 a 3 N y mezclar completamente, en seguida se ponen a calentar en agua caliente a una temperatura de 70 a 90°C por pocos minutos y de ahí dejar reposar durante toda la noche, tras esto filtrar para obtener una solución clara. Por último, en la determinación de ɣ-celulosa, se pipetean 50 ml de la solución clara antes obtenida y 10 ml de Dicromato de potasio y se ponen en un matraz de 250 ml, añadiendo con mucha precaución 90 ml de ácido sulfúrico concentrado, se pone a calentar por unos 15 minutos para después hacer su titulación. 


CONCLUSIONES

Se logró llegar a la determinación de la ∝ y β celulosa obtenida tanto por el blanqueamiento con ácido peroxiacético como con el ácido peroxi-mono -sulfúrico, pasando por el cálculo de la lignina presente en la fibra de coco. Primero, al realizar el método para obtener el porcentaje de lignina presente en la fibra nos dimos cuenta que era un porcentaje elevado, más del esperado, repitiendo la prueba hasta 3 veces para corroborar los resultados. Una señal que nos podía ayudar a estimar esta cantidad de lignina fue durante el proceso de blanqueamiento de la fibra, la cual no presentaba un cambio tan notorio usando los tiempos estandarizados. Al momento de detectar la cantidad de lignina presente pudimos ir notando que la fibra de coco era una bastante dura y difícil de trabajar al momento de separar la lignina y hemicelulosa para poder extraer la celulosa presente de la biomasa, dificultando cada procedimiento para seguir avanzando como las titulaciones o métodos que requerían valores ya estandarizados por la norma.  El último método hecho fue como ya se mencionó anteriormente, el de la determinación de la ∝ y β celulosa. Paso requerido para poder tener ya una celulosa separada del resto de compuesto de la que se ve envuelta pero que no pudimos realizar nosotros. Y con ello, a partir de esta celulosa, comenzar a sintetizar los nanocristales de celulosa usando un ácido orgánico que no sea tan perjudicial para el medio ambiente así conseguir un método más sustentable al momento de su síntesis. Podemos concluir que la fibra de coco es una biomasa dura, difícil de trabajar al momento de querer separar sus compuestos en búsqueda de la celulosa que posee. Nos deja como evidencia de que posee una característica que lo diferencía de otros desechos agrícolas como el agave, pero sin duda mostrando avances es esta mejora e innovación del método de obtención cuidando el medio ambiente.
Herrera Uribe Karla Edith, Universidad de Guadalajara
Asesor: Dr. Omar Avalos Alvarez, Universidad de Guadalajara

MEJORA DE CONTRASTE EN IMAGEN PARA LA DETECCIóN DE TUBERCULOSIS


MEJORA DE CONTRASTE EN IMAGEN PARA LA DETECCIóN DE TUBERCULOSIS

Herrera Uribe Karla Edith, Universidad de Guadalajara. Asesor: Dr. Omar Avalos Alvarez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La tuberculosis es una enfermedad infecciosa que se da por la bacteria Myobacterium tuberculosos, dicha bacteria afecta principalmente los pulmones y es propagada por el aire al toser, estornudar o escupir. Según la organización mundial de la salud un cuarto de la población mundial se infecta (tuberculosis latente) y de estas personas aproximadamente del 5% al 10% presentan síntomas y enferman (tuberculosis activa). Para la detección de tuberculosis existen principalmente 4 pruebas. La prueba de tuberculosis en sangre y la prueba cutánea de tuberculina, donde se inyecta una pequeña cantidad de tuberculina debajo de la piel del brazo y se evalúa su reacción, se utilizan únicamente para detectar la presencia de la bacteria en el organismo, es decir, una tuberculosis latente, si cualquiera de estas pruebas resulta positivo entonces se pasa a una radiografía de tórax o un cultivo de esputo para detectar si es una tuberculosis activa. Es importante una detección oportuna de la tuberculosis en su primera fase para perseguir una buena salud y bienestar de la población mundial (objetivo número 3 de la agenda 2030 para el desarrollo sostenible) ya que las personas, aunque no presentan síntomas pueden contagiar a más gente con la bacteria. En esta tarea inicial de la detección se busca crear una aplicación móvil con la cual se pueda tomar una fotografía del reactivo de prueba en sangre con cualquier teléfono celular y automáticamente se detecte si la prueba resulta positiva o negativa. Cada fotografía de cada dispositivo móvil va a resultar completamente diferente, es por ello por lo que es importante estandarizar todas las imágenes en brillo y contraste para posteriormente tener una mejor clasificación.



METODOLOGÍA

1. Estandarizar brillo en imágenes Las condiciones de iluminación con las que se toman las imágenes son completamente desconocidas, por lo cual inicialmente se estandariza el brillo en una cantidad adecuada. 2. Evaluación de métodos básicos de mejora de contraste Los métodos para la mejora de contraste en imágenes se dividen en dos grandes grupos: trabajando en el dominio del espacio y en el dominio de la frecuencia. En el dominio del espacio, específicamente trabajando con pixeles, se implementaron operaciones morfológicas con un kernel de 3 pixeles en forma de elipse, el negativo de la imagen, transformaciones morfológicas con umbral, transformación logarítmica y corrección gamma con G en 1.2. Trabajando con el histograma se utilizó la ecualización de histograma y CLAHE (ecualización adaptativa de histograma limitado por contraste) con bloque de 2. En el dominio de la frecuencia únicamente se implementó un filtro ideal pasa altas con una frecuencia de corte de 35 y un filtro Butterworth pasa altas también con una frecuencia de corte de 35. También se implementó la derivada de Laplace y la detección de bordes Canny que son métodos creados con la unión de diferentes métodos de los usados anteriormente. 3. Selección de método de mejora de contraste Para seleccionar objetivamente un método, se implementaron 5 métricas. Entropy que mide la cantidad de detalles que tiene la imagen (mientras más alto sea su valor significa que es una imagen con mas información), MB (Mean Brigth) que es el valor promedio de brillo (mientras menor sea su valor significa que tiene una mayor eficiencia para la eliminación de neblina), REC que es la mejora relativa de contraste (mientras mayor sea su valor significa que es una imagen mejorada), SSIM que mide la semejanza estructural (0 es una imagen muy diferente y 1 es una imagen idéntica) y EPI que es el índice de preservación de bordes (a mayor número mayor rendimiento). Por cada método se evaluaron estas métricas y se creó una tabla de todos los métodos donde se resaltó el que mejor rendimiento tuviera en cada métrica. 4. Propuesta de método de mejora de contraste Con los tres mejores métodos se propuso un método el cual busca mejorar el rendimiento considerablemente en cada una de las métricas.


CONCLUSIONES

A lo largo de la estancia en el programa delfín se adquirieron conocimientos teóricos y prácticos en la mayoría de los métodos para mejora de contraste de imágenes, llegando al punto de poder proponer una solución diferente a las ya existentes y que presente un muy buen rendimiento general, sin embargo, aún se pueden hacer más mejoras en cuanto a la implementación de métodos de suavizado para eliminar ruido que se intensificó en la mejora de contraste.
Herrera Valerio Kevin Guillermo, Instituto Tecnológico Superior de Uruapan
Asesor: Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo

EVALUACIÓN DE MUROS DIVISORIOS-ECOLÓGICOS CONSTRUIDOS CON BOTELLAS PET Y DISTINTOS TIPOS DE RELLENO


EVALUACIÓN DE MUROS DIVISORIOS-ECOLÓGICOS CONSTRUIDOS CON BOTELLAS PET Y DISTINTOS TIPOS DE RELLENO

Arenas Alzate Coat Sebastian, Institución Universitaria Colegio Mayor de Antioquia. Herrera Valerio Kevin Guillermo, Instituto Tecnológico Superior de Uruapan. Mercado Marín Diego Armando, Instituto Tecnológico Superior de Uruapan. Asesor: Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

La acumulación de desechos plásticos en los océanos tiene efectos devastadores para el medio ambiente y la salud humana, contaminando la cadena alimentaria y acumulando toxinas. La producción masiva de botellas de plástico, que culmina en 8 millones de toneladas de plásticos en los océanos anualmente, amenaza la vida marina y la sostenibilidad de los ecosistemas acuáticos. Ante este problema, es urgente utilizar materiales sostenibles en la construcción. El Polietileno Tereftalato (PET), utilizado en botellas plásticas, ofrece ventajas significativas cuando se reutiliza en la construcción. Las botellas de PET pueden reducir residuos plásticos y proporcionar propiedades estructurales y de aislamiento térmico beneficiosas. No obstante, se necesita abordar la falta de normativas y estudios estructurales para garantizar la seguridad y durabilidad de estas construcciones. La reutilización de botellas de PET en muros divisorios es una solución prometedora. La efectividad de estos muros depende del material de relleno utilizado. Este estudio es crucial para adoptar prácticas de construcción más sostenibles y aprovechar las propiedades del PET reciclado. Identificar el material de relleno adecuado mejorará la durabilidad y resistencia de los muros, haciendo esta técnica más viable y atractiva para diversos proyectos constructivos. Es necesario un estudio detallado para evaluar el comportamiento estructural de estos muros con distintos tipos de relleno, buscando la solución más efectiva y sostenible.



METODOLOGÍA

Etapa 1: Elección y caracterización de materiales 1.1 Material para la estructura Botella de PET (Polietileno Tereftalato)El PET es un tipo de plástico muy común usado en botellas de agua, refrescos, envases de alimentos y fibras para ropa. Malla electrosoldada 6x6 10 10Esta rejilla metálica se usa mucho en construcción e infraestructura. Los alambres están unidos mediante soldadura eléctrica, lo que la hace muy resistente y duradera. 1.2 Materiales de relleno AireEl aire es una mezcla de gases que constituye la atmósfera terrestre y es fundamental para la vida en nuestro planeta. Arena finaLa arena fina es un material granular compuesto por partículas de minerales y rocas de pequeño tamaño, con granos que varían entre 0.075 mm y 0.425 mm. Para garantizar su calidad se realizará el ensayo de granulometría según la norma N-CMT-1.01, además de medir la humedad inicial de la muestra. Materiales orgánicos (acícula y aserrín)Se utilizará un molino triturador de PET para garantizar la finura del material orgánico, que incluye acícula de pino y aserrín de madera, para usarlos como relleno de las botellas de PET. 1.3 Material de revestimiento ArcillaLa arcilla es un tipo de suelo o roca sedimentaria compuesto principalmente por minerales finamente divididos, como silicatos de aluminio hidratados, con partículas menores a 0.002 mm. Se realizarán dos ensayos: el primero para medir la plasticidad según la norma M-MMP-1-07, y un ensayo casero para conocer la textura de la arcilla (limo, muy limoso, arenoso, arcilla arenosa). El material se zarandeará por un tamiz número 4°, asegurando que esté seco para dicho procedimiento. Etapa 2: Diseño y ejecución de los tres prototipos Se construirán tres tipos de muros aligerados con botellas de PET, donde la única variable es el material de relleno: aire, arena fina y material orgánico (acícula y aserrín). Cada prototipo tendrá un metro cuadrado, enmarcado con una estructura de madera y un espesor entre 8 y 10 centímetros, sumando el espesor de las botellas de PET y el revestimiento de arcilla. Las botellas (de 500 ml a 1000 ml) se dispondrán de manera que la boca de una quede en contacto con el fondo de la siguiente. En ambos costados se utilizará malla electrosoldada para el confinamiento de las botellas, logrando un emparedado de malla/botellas/malla, finalmente revestido con arcilla. Proceso constructivo resumido para un prototipo Recolección y adecuación de materiales de relleno. Construcción de marco en madera de 1m². Montaje y atado de malla en uno de los costados del marco. Relleno de botellas y colocación dentro de la estructura. Confinamiento con segunda malla formando el emparedado (malla/botellas/malla). Revestimiento con arcilla con un espesor de 1,5 cm aproximadamente. Etapa 3: Medición final de tiempos de ejecución y ligereza Se calculará el peso promedio de 5 botellas de PET de 600 ml para cada tipo de relleno. Finalmente, se medirán las dimensiones finales, incluyendo el revestimiento, para obtener la densidad de cada prototipo. Además, se evaluará el tiempo de ejecución de cada prototipo, manteniendo constantes los tiempos de todos los pasos excepto el paso 1 (recolección y adecuación del relleno) y el paso 4 (relleno de botellas y colocación). Etapa 4: Comparación de tres prototipos según los parámetros medidos Se desarrollará un cuadro comparativo con los valores promedio de pesos de botellas para cada tipo de relleno, densidad de cada prototipo y sus respectivos tiempos de ejecución.


CONCLUSIONES

En esta estancia de verano Delfín, desarrollamos una investigación sobre una alternativa ecológica y funcional a los métodos de construcción convencionales en muros divisorios, contribuyendo a la reducción de desechos plásticos. La investigación demostró que los muros de botellas de PET rellenas de aire y materiales orgánicos (acícula de pino y aserrín) son efectivos, siendo ligeros y fáciles de ejecutar. En contraste, los muros rellenos de arena resultaron ser muy pesados y poco prácticos. Por lo tanto, los materiales de aire y orgánicos se destacan como las mejores opciones por su ligereza y facilidad de construcción.
Higuera Virgen Ana Cristina, Instituto Tecnológico de Tepic
Asesor: Dr. Joel Carvajal Soto, Universidad de Sonora

RESPUESTA SíSMICA EN SUELOS BLANDOS Y RíGIDOS


RESPUESTA SíSMICA EN SUELOS BLANDOS Y RíGIDOS

Flores Fabian José Alfredo, Instituto Tecnológico de Tepic. Higuera Virgen Ana Cristina, Instituto Tecnológico de Tepic. Nájar Solís Manuel Alejandro, Instituto Tecnológico de Tepic. Asesor: Dr. Joel Carvajal Soto, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Los sismos son un fenómeno natural de nuestro planeta, son el movimiento vibratorio resultado de la liberación de energía generada por distintos eventos, como es el movimiento de las placas tectónicas que conforman la corteza terrestre y otras fallas geológicas, erupciones volcánicas y de origen humano, o el impacto de cuerpos de gran tamaño en la corteza terrestre. Estos eventos son impredecibles y, cuando ocurren cerca de zonas pobladas, suelen estar acompañados de devastación. Según el Servicio Sismológico Nacional (SSN), dentro del territorio mexicano se encuentran ubicadas cinco placas tectónicas: Caribe, Pacífico, Norteamérica, Rivera y Cocos. Esta última se encuentra en subducción bajo la placa Norteamericana y cuyo proceso de hundimiento fue causante del sismo ocurrido el 19 de septiembre de 1985 en las costas de Michoacán, con una magnitud de 8.1 en la escala de Richter y una profundidad de 15 km. La mayoría de las edificaciones afectadas en estos eventos no estaban diseñadas para soportar movimientos sísmicos de estas magnitudes. Se busca entonces determinar la respuesta de las estructuras según su periodo estructural. Esto con el fin de identificar las instancias más susceptibles al colapso, analizando tanto suelos blandos, como rígidos.



METODOLOGÍA

Se usaron registros sísmicos archivados en el Servicio Sismológico Nacional (SSN), incluyendo el sismo ocurrido en 1985, así como el registro de otros sismos menores. Para su análisis se utilizaron métodos tanto cualitativos, esto en el uso e investigación de lo que es la intensidad sísmica, como cuantitativos, en el empleo de las magnitudes de los sismos debido a la energía liberada. Usando un software de cálculo, se graficó la comparativa de la aceleración en cuestión del tiempo para cada registro. Igualmente se graficaron la velocidad y el desplazamiento provocado por el sismo, calculados al integrar la aceleración. Dada la naturaleza de los datos, se integró numéricamente usando el método del trapecio para obtener las velocidades, que se integraron para obtener los desplazamientos. Con esto se identificaron los valores máximos y mínimos en cada conjunto de datos, y se marcaron en las gráficas. Con esto concluido, se procedió a interpolar la excitación de los sismos registrados usando el método de las 8 constantes. Éste toma la ecuación diferencial del movimiento libre amortiguado para incluir una función de excitación dependiente de la variable de tiempo tau (τ), que va desde el segundo 0 hasta Δt: mü + ku = pi +Δpi/Δti * τ Las fórmulas de recurrencia provenientes de la solución de la ecuación diferencial, se usaron para determinar el desplazamiento y la velocidad en cada instante: ui+1= Aui+Búi+Cpi+Dpi+1 úi+1=A'ui+B'úi+C'pi+D'pi+1 Para esto se tiene que: pi es la aceleración en cierto tiempo Y pi+1 es la aceleración en el momento siguiente. Tras calcular la aceleración por derivación numérica del desplazamiento u, se procedió a obtener los máximos absolutos de cada conjunto. El proceso se repitió para los periodos estructurales entre 0.1 y 6 segundos, con una progresión de 0.1 segundos. Con todos los casos analizados, se graficaron los espectros de respuesta para el desplazamiento, la velocidad y la aceleración, que relaciona un periodo con su valor máximo absoluto. También se consideró la pseudo-aceleración, una aproximación de la aceleración máxima real a partir de la frecuencia. Esto se debe a que cuando ocurre un sismo, el suelo experimenta vibraciones y aceleraciones, y estas se transmiten a la estructura, requiriendo conocer cómo el suelo afecta a las respuestas de la estructura. La pseudo aceleración se calcula usando la fórmula: psa = ωn*ui Donde: ωn es la velocidad angular = 2π/Tn Y ui es el desplazamiento. Se generó su propio espectro de respuesta de la misma forma que los demás. Una vez se analizaron todos los registros sísmicos, los espectros se juntaron en una sola imagen según el tipo de suelo en el que sucedió el sismo y el tipo de respuesta. De esta manera se pudo comparar el comportamiento de las distintas estructuras y determinar el periodo estructural que resulta en una mayor excitación, causado por la resonancia.   Finalmente, se calculó la intensidad de Arias, que sirve para determinar el potencial destructivo de un sismo. Para esto se elevaron al cuadrado los valores de aceleración encontrados en los registros sísmicos y se integraron de forma numérica, del cual el valor final es la intensidad. De ahí se determinó la duración efectiva de los sismos, considerando que este inicia cuando se tiene el 5% de intensidad y termina al alcanzar el 95%. Una vez se terminó de calcular todo, se generó una gráfica de la progresión de intensidad respecto al tiempo señalando la duración efectiva, que también se incluyó en las gráficas de aceleración.


CONCLUSIONES

En la estancia se adquirieron conocimientos sobre ingeniería sísmica, como es la generación de acelerógrafos, la obtención de espectros de respuesta y el cálculo de la intensidad de un sismo, apoyados en el análisis numérico. Estos se desarrollaron a través de la programación para el análisis de los registros sísmicos y la generación de gráficas. Usando los espectros de respuesta, clasificados según el tipo de suelo en el que sucedió el sismo correspondiente y considerando que el periodo de respuesta de un edificio depende de sus características geométricas y de las propiedades mecánicas de los materiales, se distingue que: En suelos rígidos, los sismos afectan las estructuras de menor altura, especialmente aquellas con un periodo estructural cercano a los 0.5 segundos, que sufren de la mayor excitación. Los sismos ocurridos en suelos blandos afectan a estructuras de mayor altura, con la mayor excitación siendo cuando tienen un periodo estructural que se acerque a los 2 segundos.
Hirales Núñez José Eduardo, Universidad Autónoma de Baja California Sur
Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur

JUEGO SERIO COMO APOYO PARA NIñOS CON DISLEXIA, Y PROBLEMAS DE LECTO-ESCRITURA.


JUEGO SERIO COMO APOYO PARA NIñOS CON DISLEXIA, Y PROBLEMAS DE LECTO-ESCRITURA.

Caraveo Guerrero Victor Yahir, Universidad Autónoma de Baja California Sur. Carballo Canales Carlos Adrian, Universidad Autónoma de Baja California Sur. García Rangel Laura Alejandra, Universidad Tecnológica de Nayarit. Hirales Núñez José Eduardo, Universidad Autónoma de Baja California Sur. López Quiroz Mariana Jocelyn, Universidad de Guadalajara. Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur



PLANTEAMIENTO DEL PROBLEMA

En México, de acuerdo a estudios realizados en 2021 por parte de la Universidad Nacional Autónoma de México, la dislexia afecta al menos a un 7% de la población. La dislexia entorpece el aprendizaje y se manifiesta principalmente con un cambio de orden en las letras y los números, dificultando la lecto-escritura. Dicha condición es comúnmente detectada en niños durante su etapa escolar; sin embargo, muchas veces puede ser catalogado con desinterés, falta de concentración y desatención. La principal problemática que se buscaba abordar con el desarrollo de este proyecto era mejorar los recursos de ayuda para los niños con dislexia, proporcionando un sistema para dispositivos móviles moderno de juegos serios, que motive al usuario a mejorar sus habilidades neurocognitivas mientras se divierte jugando. Los escasos recursos con sistemas accesibles y que usaran elementos de gamificación para apoyar a niños con alteraciones del aprendizaje, dislexia o problemas de lecto-escritura dentro de nuestro país fueron la principal fuente de inspiración que impulsó al desarrollo de Edulexia.



METODOLOGÍA

Para empezar a planificar el cómo se diseñará el sistema se utilizó una metodología de investigación mixta, con el cual se diseñó un diagrama de actividades que fue importante para llevar a los primeros pasos de desarrollo del sistema. La primera actividad a realizar fue recolectar información con ayuda de nuestros usuarios objetivo, en el equipo de trabajo se utilizó los recursos que fueron proporcionados por parte de un convenio firmado por parte de la Universidad Autónoma Aguascalientes (UAA) y el centro del desarrollo infantil (CENDI). La técnica de recolección de información utilizada fue encuestas, las cuales se hicieron con 25 alumnos del CENDI de edades de entre 6 a 8 años. La técnica de desarrollo de software utilizada para crear el primer prototipo de bajo nivel fue la metodología MPIu+a creada por Toni Granollers i Saltiveri, profesor de la Universidad de Lleida. La metodología creada por Saltiveri tiene como meta principal poner al usuario en el centro del desarrollo, por eso mismo la información recabada de nuestros usuarios fue de suma importancia para la creación de cada uno de los requerimientos del sistema. Se buscaba diseñar un sistema sencillo, accesible, operacional e intuitivo, para que nuestros usuarios se sintieran cómodos al utilizarlo. Un punto importante que debe justificarse es la forma en que fueron creados los videojuegos del sistema. Los juegos fueron creados de manera que se pudieran estimular las habilidades neurocognitivas del usuario, Para la creación de los juegos fue utilizado como base el enfoque Orton-Gillingham, el cual es un sistema de intervención multisensorial para la ayuda en la dislexia, y mejorar la enseñanza de la lectoescritura. Para incentivar al usuario a seguir usando el sistema se diseñaron retos y recompensas, elementos que fueron elegidos tomando en consideración la popularidad que se obtuvo con las encuestas. Para poder hacer las primeras pruebas del prototipo de bajo nivel del sistema se utilizó un método de descubrimiento en conjunto, mejor conocido como Co-Discovery. En esta prueba los usuarios tenían que resolver diversas tareas fusionando sus habilidades y conocimientos. Estas pruebas nos ayudaron a notar el grado de usabilidad con el que contaba nuestro sistema en esa parte del desarrollo. Los resultados de las pruebas realizadas por nuestros usuarios objetivo presentaron comentarios positivos, además de mostrarnos que el primer prototipo del sistema era claro, y usable. Se confirmó que continuar con el desarrollo del software final era una decisión completamente acertada. Para la creación de la versión final del software se tomó en cuenta la información recabada con anterioridad de las pruebas hechas a los usuarios. Se utilizó la idea base del prototipo de baja fidelidad, que sumada a la elección de temática, diseños y tipos de juegos favoritos de los usuarios hicieron posible la creación de la versión funcional beta. Esta primera versión final fue creada con el motor gráfico Unity, incorporando un plugin de desarrollo 2d, además de utilizar el lenguaje de programación C#. Por último se realizaron pruebas para medir el grado de aceptación del sistema final con nuestros usuarios. Al igual que en otras ocasiones se optó por utilizar el método de pruebas Co-Discovery. Se utilizaron dos niños de la localidad de La Paz B.C.S con edades de entre 6 a 8 años. Los resultados obtenidos mostraron él como el uso del sistema puede llegar a impactar en los usuarios. Como se esperaba, se logró atrapar a los usuarios con sus atractivos apartado visual, además de incentivarlo a seguir jugando gracias a los recursos de gamificación que se utilizaron.


CONCLUSIONES

A lo largo del tiempo de estancia del verano científico se lograron cumplir con los objetivos en la planeación del proyecto, se desarrollaron nuevos conocimientos y competencias para todo el equipo de trabajo. Consideramos que es importante mencionar que fue una tarea sencilla desarrollar el sistema, pero sin duda fue una experiencia enriquecedora para nuestra experiencia profesional. Aunque se ha demostrado que el sistema cumple con los objetivos que se plantearon en un inicio aún existen tareas por realizar para que se considere algo más que una fase beta. El sistema de juego serio para ayudar a niños con dislexia y problemas de lecto-escritura Edulexia es un recurso viable y cumple con las características necesarias de un sistema completamente enfocado en niños.
Holguin Holguin Maria Fernanda, Instituto Tecnológico de Parral
Asesor: M.C. Federico Ampudia Ramírez, Instituto Tecnológico de Reynosa

SEGUIMIENTO DE LA TRAYECTORIA DEL SOL


SEGUIMIENTO DE LA TRAYECTORIA DEL SOL

Holguin Holguin Maria Fernanda, Instituto Tecnológico de Parral. Asesor: M.C. Federico Ampudia Ramírez, Instituto Tecnológico de Reynosa



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, uno de los temas que más auge ha cobrado, es el uso de las energías renovables como la solar, eólica, hidráulica y geotérmica, ya que son fuentes de gran impacto positivo y significativo para el medio ambiente por ser energías limpias e inagotables, por medio de ellas es posible recuperar los ecosistemas, además de favorecer la disminución del calentamiento global y la degradación ambiental. Diversas investigaciones han demostrado que las energías renovables ofrecen alternativas sostenibles a los combustibles fósiles contribuyen al desarrollo sustentable, impactan en el desarrollo económico y al bienestar social. La Unión Europea ha planteado iniciativas para combatir el cambio climático, a través de su marco sobre clima y energía para 2030, se firmaron acuerdos con el objetivo de reducir emisiones de gases efecto invernadero, mejorar la eficiencia energética y aumentar el porcentaje de fuentes de energía renovable, mediante una política más sostenible reduciendo al 20% el consumo y emisiones contaminantes en la atmósfera. (Parlamento Europeo, 2014) Una de las fuentes renovables que menos contamina el medio ambiente es la energía solar, debido a que puede ser aprovechada para absorber y concentrar calor solar, para utilizarlo como energía tanto térmica como eléctrica. Para la producción de energía eléctrica mediante la energía solar, se aprovecha la radiación electromagnética, la cual es colectada mediante instalaciones de paneles solares o colectores. Las celdas fotovoltaicas generan electricidad y son ampliamente utilizadas para lugares remotos en donde el suministro de energía eléctrica no ha llegado. Según datos del National Geographic, la energía solar solo ha aumentado un 20% al año durante los últimos 15 años, esto se debe a que solo hay competitividad en países desarrollados, mientras que en países subdesarrollados faltan apoyos como subsidios federales. Por otro parte, no se aprovecha al 100% la radiación solar, ya que los paneles solares son fijos. Actualmente se han realizado varias investigaciones, en las cuales se ha logrado la optimización del recurso solar mediante el uso de paneles solares con seguimiento solar, ya que se mejora la eficacia operativa, se optimiza el sistema y se aumenta la productividad al seguir la trayectoria del sol a lo largo del día. Para optimizar los sistemas con seguimiento solar, es importante realizar estudios de medición y caracterización para obtener el desempeño de los materiales fotovoltáicos que involucren análisis de la posición del sol en el cielo para cada lugar en la tierra en algún momento del día, los cuales se pueden llevar a gráficos que muestran el recorrido del sol mediante un diagrama cartesiano que incluyan datos como la elevación del sol en coordenadas cartesianas sobre el eje y el acimut a lo largo del eje x. En base a lo anterior, se pretende realizar una investigación que permita estudiar la trayectoria que realiza el sol en Hidalgo del Parral para plantear un sistema de celdas solares con seguimiento solar de tal manera que en la localidad se implementen sistemas con mayor productividad de energía térmica o eléctrica. Dicha investigación, se basará en un solar tracket de bajo costo, en el cual a través de una tarjeta de adquisición de datos junto con varios sensores de aspecto foto resistivo, realicen un mapeo de la trayectoria del sol.



METODOLOGÍA

1. Es necesario el uso de 4 sensores fotoresistivos, los cuales se colocarán en forma de cruz, representando un sistema tridimensional,  cada uno de los cuatro sensores quedarán uno en cada esquina interna de la cruz. 2. Se realizarán las conexiones de la alimentación de cada sensor a una Protoboard, la cual estará alimentada por medio del Arduino, la conexión de la señal analógica se conectará en las entradas del Arduino A0, A1, A2 Y A3. 3. Se crea una base en forma de una U, para posteriormente colocar una placa entre los dos extremos de la misma, con el objetivo de poner después una placa solar y el sensor de cruz que ya se había armado en los pasos anteriores, dicha placa estará sujeta a la base en forma de U de un lado con un tornillo o alguna pija que sirva para sostenerlo, mientras que en el otro lado se colocará un servomotor, esto para dar a la placa movilidad. En la parte de en medio inferior se colocará un segundo servomotor para poder crear movimientos en su propio eje. 4. Se realizará las ultimas conexiones de los servomotores con su alimentación al Arduino y se comprobara las conexiones. 5. Se realizara un programa que consiste en ir leyendo los valores de los sensores y dependiendo de sus valores ser ira aumentando o disminuyendo el grado de los servomotores correspondientes. 6. Carga el programa en la placa Arduino, coloca el solar tracket en la mejor posición en donde se perciba el sol en la mayor parte del tiempo y que se encuentre conectado a la computadora. También se agrega un delay cada 36000mseg para poder guardar los valores cada 6 min. Cuando esté conectado es necesario que este abierto el programa de Excel en la parte de la data stream para que los datos se vayan registrando.


CONCLUSIONES

A través de estos resultados se puede observar que la elevación tiene una forma en forma de arco, mientras que el azimutal por ser movimientos breves no se pudieron observar a simple vista, también es necesario tener una buena calibración en el solar tracket junto con una rango y escala adecuada para poder tener una mayor precisión al obtener los datos, esto es por ejemplo en el programa se realizaban aumentos de 1 grado, cuando el rango más adecuado podría ser que aumentara de 0.2 grados, es importante también el conocer que el lugar donde se pueda colocar no llegue a molestar los árboles o alguna estructura, también es adecuado colocar el solar tracket en los días en donde se encuentre más soleado, ya que las presencias de las nubes pueden llegar a generar ruido en los resultados que se obtengan. Se puede concluir, además, que identificar la trayectoria del sol puede permitir la elaboración de paneles solares, ya sea para generar calor o electricidad, más eficientes en el sentido del aprovechamiento de la mayor cantidad de radiación solar.
Holguin Medrano Sebastian, Instituto Tecnológico de Ciudad Juárez
Asesor: Mg. Ivanhoe Rozo Rojas, Universidad Católica de Colombia

ANALISIS DE LA CAPACIDAD DE PROCESOS MEDIANTE LA APLICACION DEL CICLO DMAIC PARA LA DETERMINACION DE MEJORAS EN ORGANIZACIONES COLOMBIANAS. CASO: SECTOR SALUD Y TEXTIL.


ANALISIS DE LA CAPACIDAD DE PROCESOS MEDIANTE LA APLICACION DEL CICLO DMAIC PARA LA DETERMINACION DE MEJORAS EN ORGANIZACIONES COLOMBIANAS. CASO: SECTOR SALUD Y TEXTIL.

Holguin Medrano Sebastian, Instituto Tecnológico de Ciudad Juárez. Asesor: Mg. Ivanhoe Rozo Rojas, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

En el sector textil y salud, existen desafíos significativos que afectan la eficiencia operativa, la calidad del producto y la satisfacción del cliente. Ambos sectores enfrentan presiones para mejorar continuamente sus procesos debido a la competitividad del mercado, las demandas regulatorias y las expectativas crecientes de los consumidores. Por esta razón, el cumplimiento de los requisitos de las partes de interés, en especial aquellos expresados por el cliente, por lo que se hace necesario analizar la capacidad de procesos mediante técnicas estadísticas que permitan evaluar si el proceso es estable y determinar un indicador valorativo del nivel de calidad. A pesar de la importancia de esta medición, muchas organizaciones carecen de un enfoque sistemático para evaluar la capacidad de sus procesos, lo que lleva a inconsistencias en la calidad y a la incapacidad de identificar y corregir problemas de manera eficiente. Esto resulta en productos y servicios que no cumplen con los estándares de calidad esperados, generando costos adicionales, retrabajos, y pérdida de clientes. La ausencia de una medición adecuada de la capacidad de procesos también impide el desarrollo de estrategias de mejora continua basadas en datos precisos y fiables.



METODOLOGÍA

Se empleó el ciclo DMAIC en las cuatro primeras etapas (Definir, Medir, Analizar y Mejorar), sustentado en un enfoque cuantitativo basado en la ISO 10017 en lo relacionado con el análisis de capacidad de procesos. Se utilizaron dos casos empresariales colombianos consideradas grandes empresas de los sectores textiles y de salud, ubicados en la Ciudad de Bogotá. Para ello, se diseñó un plan de medición que permitiera identificar las variables y su posterior medición in situ.


CONCLUSIONES

La medición de la capacidad de los procesos se llevó a cabo para comparar el desempeño con los estándares reportados en la literatura, utilizando atributos o variables. Se concluyó que es fundamental identificar el requisito crítico para la calidad tanto en servicios como en productos y proceder con su medición. Se identificó una brecha potencial de mejora en los procesos analizados, la cual puede ser gestionada mediante eventos Kaizen y medir los beneficios en las organizaciones intervenidas. Asimismo, se recomienda que las organizaciones analizadas fortalezcan las competencias de su personal en el análisis estadístico de procesos para respaldar las estrategias de mejora continua a través de programas de formación Lean Six Sigma.
Huerfano Reyes Lady Tatiana, Fundación Universitaria del Área Andina
Asesor: Mg. Jairo Enrique Parra Herrera, Institución Universitaria Politécnico Grancolombiano

ANáLISIS DE LAS OPERACIONES DE LOS BANCOS DE ALIMENTOS EN COLOMBIA


ANáLISIS DE LAS OPERACIONES DE LOS BANCOS DE ALIMENTOS EN COLOMBIA

Huerfano Reyes Lady Tatiana, Fundación Universitaria del Área Andina. Suárez Molina Lina Fernanda, Fundación Universitaria del Área Andina. Asesor: Mg. Jairo Enrique Parra Herrera, Institución Universitaria Politécnico Grancolombiano



PLANTEAMIENTO DEL PROBLEMA

El problema de la inseguridad alimentaria en Colombia es un desafío persistente, a pesar de la riqueza natural con que se cuenta, teniendo el potencial para ser una despensa alimentaria. Según datos oficiales la prevalencia de inseguridad alimentaria moderada o grave en los hogares del país fue del 28,1%.. Esta situación se agrava en ciertas regiones y ciudades, donde los índices de inseguridad alimentaria son aún más altos, en donde algunos superan el 40%, como sucede en la región pacífica. Los bancos de alimentos surgen como una respuesta a esta problemática, recolectando y distribuyendo alimentos a las poblaciones más vulnerables. Sin embargo, a pesar de su importante labor, existen interrogantes sobre su verdadero impacto y eficiencia. ¿Están logrando reducir significativamente la inseguridad alimentaria? ¿Cuáles son los desafíos que enfrentan en su operación? ¿Cómo pueden mejorar su colaboración con otros actores sociales para ampliar su alcance? Para responder a estas preguntas, se propuso el desarrollo de una revisión documental que permitiera identificar impacto de los bancos de alimentos en diferentes dimensiones. En función de los hallazgos del proceso de revisión de literatura se propone evaluar la capacidad de los bancos en sus contextos regionales y como impactan las poblaciones más necesitadas, las características de los alimentos distribuidos, y su operación logística.



METODOLOGÍA

Para el desarrollo de este estudio empleará un enfoque mixto para cómo operan los bancos de alimentos en Colombia. Se combinarán métodos cuantitativos, como encuestas a diversas partes interesadas, y cualitativos, como observaciones directas y entrevistas en profundidad. La población que se espera indagar son administradores, colaboradores de los bancos de alimentos, empresas donantes y beneficiarios. Los datos recolectados permitirán evaluar la frecuencia y calidad de los alimentos distribuidos, los beneficiarios, y la percepción general del servicio. Para relacionar la operación de los bancos de alimentos, incluyendo observaciones directas, análisis de documentos y entrevistas.  El propósito es presentar una descripción general del papel de los bancos de alimentos en Colombia, identificando sus fortalezas, desafíos y oportunidades de mejora. Los resultados de esta investigación servirán como base para el diseño de políticas públicas y estrategias más efectivas para combatir la inseguridad alimentaria en el país.


CONCLUSIONES

Como resultado de este proyecto de pasantía de investigación se identifican los siguientes elementos frente al estudio: • Los Bancos de Alimentos en Colombia son actores clave en la mejora de la seguridad alimentaria en el país. Al establecer una red de distribución y colaboración, han logrado reducir la inseguridad alimentaria y mejorar la calidad de vida de millones de personas.  • El estudio proporciona una visión general de la operación de los bancos de alimentos, se debe seguir con el proceso de recolección de información, etapa aun en desarrollo para con ayuda de las entrevistas identificar en detalle las operaciones diarias de los bancos de alimentos, sus desafíos específicos y las necesidades de las comunidades a las que sirven.
Huerta Uribe Brittania, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave

PLANEACIóN FINANCIERA COMO ESTRATEGIA DE GESTIóN E INNOVACIóN DE PROCESOS EN UNA MICROEMPRESA COMERCIAL DE GUASAVE, SINALOA.


PLANEACIóN FINANCIERA COMO ESTRATEGIA DE GESTIóN E INNOVACIóN DE PROCESOS EN UNA MICROEMPRESA COMERCIAL DE GUASAVE, SINALOA.

Arellano Hinojosa Fidel Ernesto, Instituto Tecnológico de Ciudad Juárez. Cantú Dueñas José Antonio, Instituto Tecnológico de Nuevo Laredo. Cervantes Dominguez Fernando Ivan, Instituto Tecnológico de Ciudad Juárez. Huerta Uribe Brittania, Instituto Tecnológico de Ciudad Juárez. Machuca Bedoya Alejandro, Universidad de Investigación y Desarrollo. Martinez Segovia Karen Paola, Instituto Tecnológico de Ciudad Juárez. Sierra Barrios José Vicente, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Vazquez Marquez Erika, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

La gestión e innovación de procesos son esenciales para que las microempresas comerciales puedan mantenerse competitivas y eficientes en el mercado actual. Sin embargo, muchas de estas microempresas enfrentan desafíos significativos debido a la falta de una planeación financiera adecuada. En el municipio de Guasave, las microempresas comerciales representan una parte sustancial de la economía local, pero a menudo carecen de las herramientas y estrategias necesarias para gestionar eficazmente sus recursos financieros y operativos. La ausencia de una planeación financiera robusta puede resultar en una gestión ineficiente de los procesos internos, llevando a problemas como la falta de control de inventarios, registros financieros inadecuados y decisiones financieras erróneas. Estos problemas no solo afectan la operatividad diaria de las empresas, sino que también limitan su capacidad para crecer y adaptarse a las cambiantes condiciones del mercado. El Instituto Nacional de Estadística y Geografía (INEGI, 2018) reporta que una gran mayoría de las microempresas en México, incluyendo aquellas en Guasave, no llevan registros contables formales y enfrentan complicaciones administrativas que obstaculizan su crecimiento. Esta situación subraya la necesidad de implementar estrategias de planeación financiera que apoyen la gestión e innovación de procesos en estas empresas. Por lo tanto, la problemática central de esta investigación se plantea de la siguiente manera: ¿Cómo influye la implementación de una planeación financiera adecuada en la gestión e innovación de procesos en una microempresa comercial en el municipio de Guasave?



METODOLOGÍA

Esta investigación adopta un enfoque mixto y descriptivo exploratorio mediante un estudio de caso para evaluar la eficiencia del proceso de gestión e innovación de procesos apoyado por la planeación financiera en una microempresa comercial. La investigación mixta, descrita por Johnson et al. (2006) como una combinación de enfoques cuantitativos y cualitativos, y definida por Sampieri, Fernández y Baptista (2014) como una metodología multimétodo, permite una comprensión integral del fenómeno estudiado. Stake (1984) define el estudio de caso como un análisis riguroso orientado a obtener relaciones generales del caso observado. La metodología descriptiva, según Caballero (2014), se enfoca en desarrollar definiciones y conceptos básicos, mientras que Cea (2010) resalta que los estudios exploratorios identifican variables relevantes para futuras investigaciones. Para la recolección de datos, se utilizaron técnicas cualitativas como entrevistas semiestructuradas y observación participante. Mendicoa (2003) describe la entrevista semiestructurada como una herramienta cualitativa que facilita la comprensión de las perspectivas de los informantes. Lahire (2008) y Spradley (1980) sostienen que la observación participante permite un estudio profundo de situaciones sociales específicas.


CONCLUSIONES

Un proceso de gestión e innovación de procesos deficiente puede llevar a decisiones erróneas, dificultades financieras y pérdida de oportunidades de crecimiento. La implementación de herramientas tecnológicas, como software para control de flujo de efectivo e inventarios, es fundamental para mejorar la eficiencia y precisión en la gestión. La elaboración de estados financieros es crucial para la toma de decisiones y planificación futura. La falta de financiamiento externo puede limitar la capacidad de expansión y respuesta a situaciones imprevistas. Se recomienda a la empresa implementar un punto de venta para mejorar el control de ingresos y salidas, realizar inventarios físicos semestrales y registrar adecuadamente todos los egresos. Además, se sugiere elaborar informes financieros proforma para planificar operaciones futuras. Esta investigación se realizó durante mi estancia de investigación científica, y ha sido una experiencia invaluable para mi formación profesional. Participar en este proyecto me ha permitido aplicar conocimientos teóricos a un contexto real, desarrollando habilidades prácticas en la recolección y análisis de datos, así como en la elaboración de estrategias de mejora para microempresas. Esta experiencia ha reforzado mi comprensión sobre la importancia de la planeación financiera en la gestión e innovación de procesos y su impacto en la competitividad y sostenibilidad de las empresas. Futuras investigaciones deben explorar la planificación financiera en MiPymes más organizadas y evaluar la utilidad de las estrategias propuestas en este trabajo. Además, es fundamental seguir investigando para identificar y desarrollar nuevas herramientas y metodologías que puedan apoyar aún más a las microempresas en su camino hacia una gestión más eficiente y efectiva.
Hurtado Cabello Luis David, Universidad de Sonora
Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa

EVALUACIóN DE DISTINTAS MEDIDAS DE INTENSIDAD SíSMICA Y OBTENCIóN DE ESPECTROS DE RESPUESTA


EVALUACIóN DE DISTINTAS MEDIDAS DE INTENSIDAD SíSMICA Y OBTENCIóN DE ESPECTROS DE RESPUESTA

Hurtado Cabello Luis David, Universidad de Sonora. Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Conocer los posibles efectos de un futuro movimiento sísmico a la estructura de diversas edificaciones es crucial para garantizar la funcionalidad de estas durante y después de un evento sísmico. Así, también se garantiza la seguridad de sus usuarios con cierta una certeza. Es por ello que la capacidad de una estructura para resistir las fuerzas generadas por sismos depende en gran medida de la comprensión de los eventos sísmicos, su intensidad y su impacto en las estructuras. Existen numerosas herramientas con este propósito tales como el espectro de respuesta y las medidas de intensidad sísmica, que permiten comprender y analizar la respuesta estructural ante un sismo y la capacidad destructiva de este. Sin embargo, la variación de la intensidad sísmica según la localización y el tipo de suelo añade complejidad a este proceso. Por esto, se hace necesario evaluar cada medida de intensidad posible para llegar a resultados mucho más seguros. Para esto, es importante aplicar métodos eficientes analizar datos sísmicos y así obtener información precisa y útil.



METODOLOGÍA

La metodología empleada en este estudio consiste en la obtención y análisis de diferentes medidas de intensidad sísmica y la generación de espectros de respuesta mediante el uso de registros sísmicos utilizando la herramienta MATLAB. De este modo se calcularon la aceleración máxima del suelo (AMS), la velocidad máxima del suelo (VMS), la intensidad de Arias y los espectros de respuesta utilizando el método de ocho constantes. Para mejorar la habilidad del uso de MATLAB, se comenzó graficando el acelerograma de un sismo, para el cual se utilizó el registro de ciudad de México de 1985. Tras esto, en un solo archivo se obtuvo la aceleración máxima del suelo, la velocidad máxima del suelo y la Intensidad de Arias, del siguiente modo; se leen los datos de aceleración almacenados en un archivo de texto y se definen los parámetros iniciales como el intervalo de tiempo, la longitud de los datos y el tiempo final. En un ciclo, se determina el valor máximo de la aceleración para cada intervalo de tiempo. Finalmente, se grafica la aceleración en función del tiempo, destacando el punto de máxima aceleración absoluta, así obteniendo la AMS. Después para obtener la VMS se utiliza un método bastante similar a la aceleración, se leen los datos de aceleración del archivo correspondiente y estos datos se integran, de modo que estos se convierten en datos de velocidad. Con parámetros iniciales ya definidos con anterioridad y se utiliza un ciclo similar al de las aceleraciones para encontrar el valor máximo absoluto de la velocidad. Tras esto se grafica la velocidad en función del tiempo, destacando el punto de máxima velocidad. Finalmente, para calcular la intensidad de Arias, se eleva al cuadrado la aceleración y se integra a lo largo del tiempo acumulando los valores en un vector. Luego, se determina el tiempo en que se alcanza el 5% y el 95% de la energía total liberada por la aceleración del suelo, y se grafican los valores de energía y se destacan los puntos correspondientes al 5% y 95% de la energía acumulada. Obtenidas las medidas de intensidad, se procede a abrir un nuevo archivo para la generación de espectros de respuesta utilizando el método de las ocho constantes. Como apoyo, se usa Excel para calcular las constantes y así tener una base para corregir la programación en MATLAB de ser necesario. Para generar los espectros de respuesta, se leen los datos de aceleración de un archivo de texto y esta información se almacena como un vector. Se definen parámetros del sistema, como la masa, el coeficiente de amortiguamiento, y el intervalo de tiempo. Se multiplica el vector de las aceleraciones por la masa y así se obtienen las cargas que actúan sobre la estructura. Después se utiliza ciclo para calcular los desplazamientos y velocidades máximas para un rango de periodos naturales (Tn). Para cada periodo, se calculan los parámetros necesarios para obtener las ocho constantes y así se resuelven las ecuaciones del movimiento para obtener los espectros en base a desplazamientos, velocidad y por último espectros de respuesta en base a pseudo-aceleración en función del periodo.


CONCLUSIONES

Las medidas de intensidad sísmica AMS, VMS e intensidad de arias obtenidas y representadas gráficamente permiten visualizar los valores máximos de aceleración y velocidad, así como el aumento de energía histerética a lo largo del tiempo durante un movimiento sísmico, de modo que estas medidas no solo ayudan a comprender el potencial efecto del sismo en las estructuras, sino que también proporcionan una base sólida para el análisis previo al diseño estructural sismorresistente. Por otro lado, los espectros de respuesta obtenidos proporcionan información crucial para la evaluación estructural, indicando cómo diferentes estructuras con distintos periodos fundamentales de vibración pueden responder a los movimientos del suelo durante un sismo. Estos espectros permiten identificar los periodos de vibración críticos y las posibles amplificaciones de movimiento, facilitando la identificación de los puntos débiles en las estructuras existentes. En conclusión, la metodología empleada ha contribuido a una mejor comprensión de movimientos sísmicos permitiendo una evaluación detallada del comportamiento de las estructuras ante el movimiento del suelo. Así, la combinación de análisis de diversas medidas de intensidad sísmica y espectros de respuesta ofrece una comprensión integral de la respuesta sísmica, lo cual es fundamental para la ingeniería civil y la seguridad estructural. Este enfoque metodológico ha sido una contribución valiosa al avance en el análisis sísmico, de modo que se genera una base sólida para el análisis de registros sísmicos y puede ser utilizada como tal para estudios más avanzados en ingeniería sismorresistente.
Hurtado Soto Héctor Adelaido, Universidad Autónoma de Sinaloa
Asesor: Dr. Carlos Vicente Tostado Cosío, Universidad de Sonora

COMPORTAMIENTO DE MATERIALES EN LA FABRICACIÓN DE PROTOTIPOS DE MUROS PREFABRICADOS LIGEROS.


COMPORTAMIENTO DE MATERIALES EN LA FABRICACIÓN DE PROTOTIPOS DE MUROS PREFABRICADOS LIGEROS.

Hurtado Soto Héctor Adelaido, Universidad Autónoma de Sinaloa. Asesor: Dr. Carlos Vicente Tostado Cosío, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Antecedentes. El tema de la prefabricación de elementos de construcción, ha sido un frecuente desafío al que se le han dedicado extensas experimentaciones empíricas a partir de una idea nacida para atender o resolver una necesidad o situación extraordinaria, donde el tiempo y el costo, juegan un papel importante. En esta oportunidad, el tema elegido ha sido el manejo de materiales a partir de la inclusión de formas geométricas y elaborar prototipos que pueden resultar adecuados para atender diferentes problemáticas o necesidades de la sociedad. Objetivo. El objetivo principal del laboratorio experimental es el de permitir y proporcionar a los investigadores noveles, el conocimiento básico y necesario para la ejecución e interpretación de los métodos de ensayo apegados a la normatividad existente. Es también parte importante mencionar que en el proceso de experimentación requiere de fortalecer la imaginación de cómo los materiales pueden ser empleados en circunstancias especiales.



METODOLOGÍA

Estudios y Trabajos. Cuando se inició el trabajo de investigación, se plantearon las opciones diferentes de uso y aplicación de los elementos prefabricados ligeros, a partir de elegir los más apropiados y existentes en el lugar. Así se consideraron las siguientes características. a. Facilidad de fabricación y obtención de materiales. b. Facilidad de transportación y montaje. c. Posibilidad de reserva con baja afectación a sus características materiales. Como parte del imaginario para la  fabricación de los prototipos, se propusieron elementos de bajo costo de adquisición y se eligió para la fabricación de moldes, el uso de madera de pino para bastidores y MDF para las superficies planas de contacto.; en tanto para la fabricación de las formas inhibidoras de espacio (huecos) y considerando el  tiempo que se disponía, se propuso el uso de moldes de yeso y formas de poliestireno tallado a mano, improvisando la hechura de los moldes hexagonales con tierra comprimida y cubiertas de cemenquin. Lugar de trabajo. Se iniciaron los trabajos en el la escuela de arquitectura para atender los aspectos teóricos y la práctica se desarrolló en el Laboratorio Experimental de Ingeniería Civil asistido por el M.A Ing. Jesús Fernando García Arvizu. Equipo. El taller externo del laboratorio experimental de Arquitectura de la Universidad de Sonora (LEAUS), permitió la fabricación de los moldes de madera y MDF, así como de los mecanismos de compresión y vibrado a base de una estructura metálica en los que se emplearon los siguientes equipos: Cortadora radial de madera. Equipo menor de operación como son tamices, cucharones, taras, carretillas, palas, caladora, martillo, taladro eléctrico, moldes para cubos de concreto, moldes para prototipos de concreto con perlita, matraces, flexómetros, etc.  En el laboratorio de Ingeniería, se empleó el equipo de prensa para probar la capacidad de resistencia de las probetas de las mezclas de perlita con variables de cantidades de cemento. Marco Teórico. Se ha partido del supuesto teórico de que empleando materiales ligeros y reduciendo los volúmenes de su fabricación con formas geométricas que provee la naturaleza, se obtendrían elementos con capacidades de resistencia y de baja transmisidad. Procedimiento propuesto. Se planteo de inicio que los modelos deberían ser de dimensiones convencionales adoptando el criterio de materiales de uso convencional y se determinó que lo adecuado sería piezas de 1.22 x 0.61 m., pero, dadas las condiciones de tiempo y limitación de inversión, se realizarían prototipos de 61 x 61 cm, con un espesor de 6 cm., empelando la mezcla que resultara más adecuada de las tres combinaciones a ensayar. Se emplearon dos tipos diferentes de perlita mineral por así disponer de lo reservado en bodega y la variante fue cuidar de las diferentes indicaciones que se describían en los recipientes del producto; finalmente, los volúmenes cuantificados resultaron con una diferencia mínima. Después del batido y vaciado del material en el molde, se procedió a vibro prensar de forma manual-mecánica para obtener un producto con mayor firmeza ya que así se evidenció en las probetas de prueba. Después de dos días en el molde, se retiraron los prototipos. 


CONCLUSIONES

Se comprobó que las bases de los moldes fabricados con MDF, se afectaron fuertemente por la intensa cantidad de agua empleada desde su fabricación y proceso de curado, quedando inutilizadas para un tercer prototipo. La recomendación futura, será fabricar los moldes a base de material más resistente en lámina y perfiles de acero para mejores resultados.
Ibarra Campos Leonardo Iván, Instituto Politécnico Nacional
Asesor: Dr. Ricardo Orozco Cruz, Universidad Veracruzana

EVALUACIóN DE MEDICAMENTOS CADUCADOS INDICADOS EN EL CONTROL DE LA DIABETES (DIOSMINA Y EMPAGLIFLOZINA) COMO POTENCIALES INHIBIDORES DE LA CORROSIóN PARA ACERO X65 EN MEDIO áCIDO (1M HCL).


EVALUACIóN DE MEDICAMENTOS CADUCADOS INDICADOS EN EL CONTROL DE LA DIABETES (DIOSMINA Y EMPAGLIFLOZINA) COMO POTENCIALES INHIBIDORES DE LA CORROSIóN PARA ACERO X65 EN MEDIO áCIDO (1M HCL).

Chamorro Perez Fionella Rubí, Universidad Autónoma del Estado de México. Ibarra Campos Leonardo Iván, Instituto Politécnico Nacional. Asesor: Dr. Ricardo Orozco Cruz, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

Para combatir la corrosión de ductos, tanques y bombas en la industria petrolera, existen muchas alternativas de protección, pero entre ellas la que ofrece una mejor relación costo beneficio son los inhibidores de corrosión (Hart, 2016, Carmona-Hernández et al., 2023) sin embargo, muchos de estos llegan a ser tóxicos, como en el caso de compuestos de arsénico o cromo, o bioacumulables; dichos compuestos pueden llegar a ser nocivos para el ambiente y la salud tras las operaciones de refinación y el consumo de combustibles. Por otro lado, se tiene una problemática pública a causa del manejo inadecuado de medicamentos caducados, los cuales son considerados residuos peligrosos cuyos efectos en la salud social y de la fauna en los lugares en los cuales llegan a solubilizarse son notorios por desbalances hormonales, problemas generalizados de salud y modificación de comportamiento. En este trabajo, dos medicamentos, la Diosmina (C28H32O15) y Empagliflozina (C23H27ClO7) serán sometidos a una extracción, y después, a pruebas electroquímicas para poder verificar y plantear su uso como inhibidores de la corrosión en sistemas de ductos de la industria petrolera, utilizando una solución de HCl 1M, debido a que dicha industria suele trabajar con medios ácidos, en acero X65, el cual es el más utilizado en la construcción de ductos y tuberías.



METODOLOGÍA

1. Los medicamentos Diosmina y Empagliflozina se someterán a un proceso de trituración, serán a partir de su forma en concentrados comerciales (pastillas), y disueltos en 3ml de Dimetilsulfoxido. 2. Preparación de inhibidor: Se preparan soluciones madre de cada medicamento de concentración 0.01 M a partir de la cual se obtendrán las concentraciones de prueba de 10, 50 y 100 ppm mediante dilución en 40 mL de HCl 1M. 3. Preparación de superficie: Los electrodos de trabajo de acero X65, embebidos en resina epoxy de 1 cm² de área electroactiva son desbastados utilizando papel de carburo de silicio (SiC) siguiendo la secuencia granulométrica 320, 400 y 600. Posteriormente son enjuagados con agua destilada y metanol para desengrasar la superficie, finalmente se secan con aire y se llevan directamente a la celda electroquímica. 4. Pruebas electroquímicas en un potensiostato marca Gamry: Se registrará el potencial de circuito abierto (OCP) durante 30 minutos previo a cada prueba para garantizar la estabilidad del sistema, posteriormente se realizarán pruebas de resistencia a la polarización lineal (LPR) en un intervalo de potencial de ±20 mV vs OCP con una velocidad de barrido de 0.167 mV/s, seguidas de curvas de polarización potenciodinámica (PDP) en una ventana de potencial de ±300 mV vs OCP con una velocidad de barrido de 1 mV/s. A partir de los resultados obtenidos con LPR y PDP, se determinará la concentración de inhibidor que ofrece mayor eficiencia. Todas las pruebas de LPR y PDP se realizarán por triplicado, en todos los casos se utiliza un arreglo de tres electrodos teniendo como electrodo de trabajo la pieza de acero API 5L X65 embebida en resina epoxy, como contra electrodo una barra de grafito y como electrodo de  referencia un electrodo saturado de Plata/Cloruro de Plata (Ag/Ag/Cl). 5. Análisis de datos: Se utilizará el software de análisis de datos proporcionado por el fabricante del potenciostato utilizado (Squidstat) , así como MATLAB para la representación y ajuste de datos.


CONCLUSIONES

Después de experimentar con los medicamentos seleccionados se pudieron encontrar los siguientes datos, en cuanto a PDP, la empagliflozina se mantiene la tendencia a aumentar la eficiencia de la misma manera que lo hace la concentración, la menor velocidad de corrosión icorr fue de 3.75x10-5 A/cm2, mucho menor que la icorr del “Blanco” que fue de 4.6x10-4 A/cm2, asimismo de acuerdo a la norma ASTM G102 (2023), se obtiene que la velocidad de corrosión es de 0.435 mm/año para la concentración de 100 ppm que tiene una eficiencia del 92% respecto a la del blanco, es decir el metal está protegido en ese porcentaje. En la diosmina se presentó un comportamiento más estable con 100 ppm y 96% de efectividad, su icorr más baja fue de 2x10-5 lo que es equivalente a 0.232 mm/año que es significativamente más baja que la del blanco y de la empagliflozina como se mencionó con anterioridad, ambos medicamentos cumplen con los estándares de la industria petrolera para considerar un inhibidor de la corrosión como válido, sin embargo, la diosmina es más eficiente como inhibidor que el otro medicamento, esto es posible debido a que es un compuesto antioxidante. Se realizó también un análisis termodinámico para cada compuesto, ajustando las fracciones de área recubierta (calculadas a partir de datos de PDP) a la isoterma de Langmuir. El ajuste reveló que los datos experimentales se ajustan muy bien al modelo de Langmuir con coeficientes de determinación de 0.9989 y 0.9994, para diosmina y empagliflozina respectivamente. Finalmente, se calculó la energía libre de adsorción, encontrándose que para diosmina el mecanismo de adsorción es quimisorción; con una energía de adsorción de -42.72 kJ/mol y una desviación estándar de ±1.38 kJ/mol, mientras que para empagliflozina el mecanismo de adsorción es mixto; con una energía de adsorción de -43.29 kJ/mol y una desviación de ±5.73 kJ/mol. A la luz de los resultados obtenidos, ambos compuestos muestran un efecto inhibidor considerable, siendo la diosmina el compuesto con mayor potencial al superar el 90% de eficiencia en todas las concentraciones estudiadas. Lo anterior es prometedor ya que la norma NRF-005 PEMEX establece un mínimo de eficiencia de 90% a 50 ppm, por lo que la diosmina excede dicha especificación. En cuanto a la empagliflozina, se alcanza un 86% de eficiencia a 50 ppm, por lo que puede considerarse para la formulación de nuevos compuestos ya sea combinándolo con otras sustancias (efecto sinérgico) o bien funcionalizando la molécula con grupos funcionales de mayor afinidad por la superficie metálica. 
Ibarra Diaz Victor Angel, Universidad de Guadalajara
Asesor: Dr. Socrates Pedro Muñoz Pérez, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas

USO DE CENIZAS VOLCáNICAS PARA DETERMINAR ASENTAMIENTOS POR CONSOLIDACIóN UNIDIMENSIONAL EN SUELOS FINOS


USO DE CENIZAS VOLCáNICAS PARA DETERMINAR ASENTAMIENTOS POR CONSOLIDACIóN UNIDIMENSIONAL EN SUELOS FINOS

García Muñoz Mayra Janeth, Universidad de Guadalajara. Ibarra Diaz Victor Angel, Universidad de Guadalajara. Asesor: Dr. Socrates Pedro Muñoz Pérez, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas



PLANTEAMIENTO DEL PROBLEMA

La infraestructura sustentable, resiliente y segura juega un papel importante en el crecimiento de cualquier comunidad. La estabilidad de las estructuras depende de las características físicas, químicas y la capacidad de carga del suelo. Los suelos finos presentan grandes problemas de inestabilidad, ya que destacan por su comportamiento expansivo cuando hay presencia de humedad y contracción con la ausencia de esta. La estabilización del suelo permite mejorar la resistencia, alterando sus propiedades. La ceniza volcánica, uno de los contaminantes más agresivos, se presenta como un material estabilizador de suelos debido a sus propiedades puzolánicas.



METODOLOGÍA

La fase inicial se recolecta la ceniza volcánica y se extrae el suelo mediante pozos a cielo abierto (PCA). La segunda fase determina las propiedades índices, clasificación y consolidación del suelo, estudiándolo en condiciones naturales y creando mezclas controladas con distintos % de ceniza volcánica (10, 15, 20 y 25%). A la par analizando las características de la ceniza volcánica. Finalmente, la tercera fase evalúa los resultados obtenidos para determinar la viabilidad de uso de ceniza en suelos finos, mejorando la resistencia y disminuyendo la plasticidad del suelo. Trabajo de Campo La ceniza fue recolectada del volcán Popocatépetl en Puebla. Siendo cribada por la malla no. 200 y enviada a la UNTRM en Chachapoyas. Se realizaron 3 PCA en un predio ubicado en Chachapoyas a una profundidad de 2.5 m, obteniendo alrededor de 100 kg de muestra alterada y dos muestras de suelo inalterado de cada uno. Trabajo de Laboratorio Granulometría vía tamices Se toma una muestra de suelo completamente seca, para su posterior cuarteo, obteniendo una muestra representativa que será sometida a un proceso de tamizado manual o mecánico por las mallas No. 4, 10, 20, 40, 60, 100 y 200, realizando un movimiento circular para que vaya cayendo el material. El retenido en cada malla se pesa y representa un % respecto al total de la muestra, de tal manera que vamos obteniendo la curva granulométrica que se construye con su tamaño de partículas y el porcentaje acumulado en cada malla. Este procedimiento nos permite obtener el % de arenas y finos del suelo estudiado, determinando así su clasificación SUCS. Límites de Atterberg Límites de consistencia mediante la copa de Casagrande es el método para determinar el límite líquido y plástico. Obteniendo una muestra representativa de 300 g, que pasa el tamiz no. 40. El procedimiento inicia colocando una muestra húmeda en la copa de Casagrande, dividiéndolo en dos con el acanalador y contando el número de golpes requerido para cerrar la ranura. Si el número de golpes es exactamente 25, el contenido de humedad de la muestra es el límite líquido. El procedimiento estándar es efectuar por lo menos cuatro determinaciones con humedades diferentes, se anota el número de golpes y su contenido de humedad. Luego se grafican los datos y se determina el contenido de humedad para N= 25 golpes. El límite plástico se define como el contenido de agua, con el cual el suelo al ser enrollado en rollitos de 3.2 mm de diámetro se desmorona. La prueba es simple y se lleva a cabo enrollando repetidamente a mano sobre una placa de vidrio. Una vez obtenido el límite líquido y el índice plástico del suelo por medio de la carta de plasticidad se procede a clasificar el tipo de suelo. Proctor Modificado Determina el contenido óptimo de agua y el peso volumétrico seco máximo de un suelo, obteniendo la curva de compactación de los materiales. La prueba consiste en determinar las masas volumétricas secas de un material compactado con diferentes contenidos de agua, mediante la aplicación de una misma energía de compactación en prueba dinámica y graficando los puntos correspondientes a cada determinación. El procedimiento inicia con la preparación de la muestra cuarteando hasta obtener 20kg, dividiéndolo en muestras representativas de 5kg para cada determinación. A cada porción preparada se le agrega la cantidad necesaria de agua para que una vez homogenizada nos de dos contenidos de humedad inferiores al óptimo esperado y dos superiores para trazar la curva de compactación. El material se compactará en 5 capas, dando 56 golpes por capa con un pisón de 4.54 kg. Consolidación Unidimensional del Suelo La consolidación es el método para conocer el fenómeno de expansión y asentamiento en suelos, esto para determinar que el suelo sea capaz de soportar los esfuerzos y deformaciones. Se labra el material de tal modo que el anillo quede completamente lleno de la muestra inalterada, de igual manera se utiliza una muestra remoldeada utilizada en las mezclas controladas con distintos % de ceniza. Inicia con el procedimiento de cuarteo a la muestra seca, posteriormente con el tamiz no. 40, se obtiene una cantidad de 300 g de muestra representativa para proceder a la determinación de la consolidación. El ensayo consta de un aparato, que somete a una muestra de terreno a cargas verticales. Se aplican distintas cargas y se mide la deformación producida en cada uno de los escalones de carga. Dado que la deformación se lleva a cabo de manera lenta, cada escalón de carga hay que mantenerla 48 horas aproximadamente, para conseguir que la deformación se estabilice. Obtenidos los resultados del suelo natural se procedió a realizar el estudio de las mezclas controladas con distintos % de ceniza volcánica determinando las propiedades índices y la consolidación del suelo con muestras remoldeadas, esperando la mejora de la resistencia y la disminución de la plasticidad.


CONCLUSIONES

Durante la estancia se determinó que la presencia de ceniza volcánica mejora la resistencia y la disminuye la plasticidad de un suelo fino. Identificando que cualquier región con problemas de inestabilidad de suelos puede beneficiarse utilizando la ceniza para la estabilización de suelos en la construcción de cualquier tipo de infraestructura, ofreciendo una solución económica y ecología para mejorar la calidad de un suelo.
Ibarra Granados Yuriana Montserrat, Instituto Tecnológico de Jiquilpan
Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz

UN ESCAPE AL PASADO: NARRATIVAS INMERSIVAS MULTIUSUARIO DE MUJERES RECONOCIDAS EN STEAM


UN ESCAPE AL PASADO: NARRATIVAS INMERSIVAS MULTIUSUARIO DE MUJERES RECONOCIDAS EN STEAM

García González Alejandro, Instituto Tecnológico de Jiquilpan. Ibarra Granados Yuriana Montserrat, Instituto Tecnológico de Jiquilpan. Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

Narrativas Inmersivas es un proyecto innovador que busca explorar y mostrar la vida de mujeres importantes en la historia a través de una experiencia de realidad virtual. En esta ocasión, se centra en la figura de Ada Lovelace, pionera en el campo de la informática, utilizando la narrativa de un escape room para hacer del aprendizaje algo dinámico y entretenido. La ambientación de este escape room se sitúa en un tiempo medieval. Los jugadores inician su aventura en una mazmorra, que actúa como lobby multijugador. Desde allí, se les otorga acceso a la primera habitación: una biblioteca. En ella, los participantes deben buscar las notas y resolver los puzles relacionados con la vida de Ada Lovelace para avanzar a la siguiente habitación, su dormitorio, y continuar así con la exploración de su historia. El desafío principal del proyecto es la implementación de un entorno multijugador en este escenario de realidad virtual, lo cual requiere una coordinación precisa de la sincronización de datos y la interacción entre múltiples usuarios en tiempo real. Además, debe garantizar una experiencia inmersiva que sea tanto educativa como divertida, permitiendo a los jugadores aprender sobre la vida y los logros de Ada mientras colaboran en este entorno virtual. Este proyecto no solo tiene como objetivo entretener, sino también educar y rendir homenaje a las mujeres que han marcado la historia, destacando sus contribuciones de manera interactiva y memorable.



METODOLOGÍA

La primera fase de desarrollo del proyecto consistió en una investigación y documentación sobre la vida y logros de Ada Lovelace. Esta investigación fue esencial para garantizar la precisión histórica y educativa del proyecto. Se recopiló una amplia gama de datos y hechos relevantes que formarían la base para la creación de pistas, notas y puzles que los jugadores resolverían a lo largo de su aventura. Con esta base de conocimiento histórico, avanzamos a la fase de diseño y conceptualización. Se crearon bocetos detallados y mapas de cada habitación, incluyendo la mazmorra, la biblioteca y el dormitorio de Ada Lovelace. Estos diseños conceptuales sirvieron como guías visuales para el desarrollo posterior. Paralelamente, se diseñaron acertijos y pistas basadas en los logros y la vida de la joven, asegurando que cada desafío ofreciera una experiencia tanto educativa como estimulante. La fase de desarrollo técnico comenzó con la familiarización con la plataforma Unity mediante la realización de tutoriales específicos, como Roll-a-ball y Virtual Reality, que ayudaron a comprender las herramientas y capacidades del motor de juego. Se configuraron las entradas del sistema y se crearon scripts en C# para implementar funcionalidades básicas. Después, se configuró un entorno de desarrollo multijugador utilizando la plantilla propia de Unity, VR Multijugador, que permitió la sincronización de datos y la interacción entre múltiples jugadores en tiempo real. El siguiente paso fue la integración de las pistas y puzles en las diferentes habitaciones, así como el desarrollo de las interacciones y funcionalidades dentro del entorno virtual. Se programaron interacciones tanto básicas como avanzadas entre los jugadores y el entorno, asegurando que todas las acciones de los jugadores se sincronizaran perfectamente en tiempo real. Además, se llevaron a cabo múltiples pruebas para identificar y corregir cualquier error tanto técnico como de diseño, y se realizaron optimizaciones para asegurar un rendimiento fluido y sin interrupciones.


CONCLUSIONES

Durante el desarrollo del proyecto, hemos adquirido y perfeccionado una serie de habilidades técnicas y creativas esenciales. La familiarización con el editor de Unity y la programación en C# nos ha proporcionado una sólida base en el desarrollo de juegos y aplicaciones interactivas, al igual que la configuración de entornos multijugador y la sincronización de datos en tiempo real nos ha permitido comprender y aplicar conceptos avanzados de redes y comunicación entre cliente y servidor. Además, el diseño de escenarios y la creación de puzles educativos nos han capacitado en la integración de elementos históricos, haciendo el aprendizaje atractivo y dinámico. Las pruebas exhaustivas y la optimización del rendimiento han fortalecido nuestras habilidades en el aseguramiento de la calidad y la mejora continua.
Ibarra Medina Luis David, Universidad Politécnica de Sinaloa
Asesor: Dra. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa

PROGRAMACIóN DE MOTORES DESDE ARDUINO


PROGRAMACIóN DE MOTORES DESDE ARDUINO

Esquivel Constantino Leonardo, Universidad Politécnica de Sinaloa. Ibarra Medina Luis David, Universidad Politécnica de Sinaloa. Asesor: Dra. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Desarrollar competencias y habilidades en el ámbito de la robótica, específicamente en el manejo y programación de servomotores AX-12 y un Robot Humanoide, es fundamental para avanzar en la creación de sistemas robóticos avanzados y eficientes. Este desarrollo incluye el aprendizaje del lenguaje de programación específico para el control de estos dispositivos, lo cual permite una mayor precisión y funcionalidad en sus movimientos y tareas. Además, la implementación de un sistema Arduino para el control de los servoactuadores y el robot humanoide facilita una integración más flexible y accesible de estas tecnologías. Este enfoque no solo mejora la comprensión teórica y práctica de los sistemas robóticos, sino que también fomenta la innovación y la creatividad en la solución de problemas complejos en el campo de la robótica.



METODOLOGÍA

Para la programación de los servomotores Dynamixel AX-12A a través de arduino lo primero que se realizó fue buscar una librería capaz de controlar un servomotor y así poder manipularlo con un arduino uno, hubo dificultades en encontrar una librería capaz de poder realizar lo que se buscaba trabajar pero después fue posible encontrar la librería AX12A la cual al realizar un ejemplo se pudo comprobar que si era compatible para trabajar con ella.  Los servomotores Dynamixel AX-12A cuentan con una conexión Half-duplex pero era necesaria una conexión Full-duplex, por esta razón se implementó un buffer (74LS241) para poder realizar lectura y escritura de los servos. La forma para poder tener comunicación con los servomotores es a través de los puertos seriales, que en el caso de Arduino UNO son los puertos nombrados TX para escribir y RX para leer. Para poder comunicar los servos con el arduino a través del buffer se realizó un circuito necesario para esto. El servomotor Dynamixel AX-12A cuenta con 6 pines, 2 de ellos de voltaje (VCC), 2 para tierra (GND) y 2 para los datos. Al utilizar el Arduino UNO se notó que se podía escribir en los servos pero no era posible leer sus datos debido a que este cuenta con un solo puerto serial y eran necesarios 2, uno para la computadora y otro para los dispositivos, por esta razón se optó por utilizar una placa Arduino MEGA 2560, ya que al investigar se observó que esta contaba con 4 puertos seriales.  Para poder poner en funcionamiento los servomotores en el Arduino MEGA se conectaron los puertos de los dispositivos en el serial 1 que en la placa son los pines 18 y 19 que sería los puertos TX1 Y RX1 respectivamente y de esta manera utilizar el serial para que la computadora pueda imprimir y leer los datos enviados por los servos.


CONCLUSIONES

Se logró identificar y comprender el funcionamiento del robot BIOLOID, compuesto por 18 servomotores DYNAMIXEL AX-12A, los cuales fueron manipulados utilizando el software RoboPlus de Robotis. El uso de este software es crucial, ya que su interfaz intuitiva facilita que los estudiantes de robótica se familiaricen con el control de los servomotores, permitiendo crear rutinas personalizadas de movimiento, controlando velocidad, posición y fuerza. Además, se consiguió manipular los servomotores DYNAMIXEL AX-12A a través de la interfaz de Arduino, permitiendo el envío y recepción de datos entre el servomotor y la computadora. Esto es de gran utilidad, ya que abre la puerta a futuros proyectos en los que se pueda implementar Arduino para el control de estos servomotores. Resultados a obtener a futuro: Implementación de sistemas inalámbricos para el control de servomotores DYNAMIXEL AX-12A mediante Arduino, utilizando tecnologías como Bluetooth o WiFi.
Iguaran Arrieta Liz Meliza, Instituto Nacional de Formación Técnica Profesional - INFOTEP
Asesor: Mg. York Eliecer Casalins Maza, Corporación Universitaria Americana

EVALUACIÓN HIGIÉNICA INDUSTRIAL DE ILUMINACIÓN EN EL ÁREA DE TALLER DE SOLDADURA DE LA EMPRESA PRIME ENERGIATERMOFLORES S.A.S. E.S.P. EN PERÍODO 2024-1


EVALUACIÓN HIGIÉNICA INDUSTRIAL DE ILUMINACIÓN EN EL ÁREA DE TALLER DE SOLDADURA DE LA EMPRESA PRIME ENERGIATERMOFLORES S.A.S. E.S.P. EN PERÍODO 2024-1

Iguaran Arrieta Liz Meliza, Instituto Nacional de Formación Técnica Profesional - INFOTEP. Oñates Vega Esthefanny Sofia, Instituto Nacional de Formación Técnica Profesional - INFOTEP. Asesor: Mg. York Eliecer Casalins Maza, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del Problema En España, la incidencia anual de Trastornos Musculoesqueléticos (TME) relacionados con el trabajo es notable, con 24,2 casos por cada 10.000 accidentes laborales, afectando al 53% de la población trabajadora. Estos trastornos son la principal causa de enfermedad profesional en el país y generan costos económicos significativos, estimados entre el 0,5% y el 2% del PIB europeo en el año 2000, según la Agencia Europea para la Seguridad y la Salud en el Trabajo. A nivel global, la Organización Internacional del Trabajo (OIT) estima que cada día mueren aproximadamente 5.000 personas debido a accidentes o enfermedades laborales, lo que se traduce en 2 a 2,3 millones de fallecimientos anuales. De estos, 350.000 son causados por accidentes laborales y entre 1,7 y 2 millones por enfermedades profesionales. Además, se registran 270 millones de accidentes ocupacionales y cerca de 160 millones de casos de enfermedades no fatales cada año.



METODOLOGÍA

Diseño Metodológico Tipo de Estudio Este estudio es de tipo cuantitativo y se centra en la evaluación de una estrategia de investigación para cuantificar la recopilación y análisis de datos en el área del taller de soldadura de la empresa PRIME ENERGIA TERMOFLORES S.A.S. E.S.P. en Barranquilla. Se describen características como material, color, estructura y condición de las paredes, techo, piso, superficie de trabajo, ventanas y equipo, además de realizar mediciones de luz y analizar sus resultados numéricos. Método de Estudio El enfoque es inductivo, identificando variables y aspectos específicos para evaluar las condiciones higiénicas de iluminación en el taller de soldadura durante el periodo 2024-1, con el fin de mejorar la productividad y asegurar que el área cumpla con los niveles permitidos por la legislación aplicable para prevenir accidentes y enfermedades entre los trabajadores.


CONCLUSIONES

Resultados Determinación de Variables y Condiciones de Iluminación: Se utilizó el método de la constante del salón (K) para identificar variables como altura (H), largo (L) y ancho (A) del área, obteniendo un valor de K = 4.30. Este valor determinó la necesidad de tomar 25 puntos de medición de luz en el taller. Percepción de Condiciones de Iluminación: Según los trabajadores, el 58.3% afirma que hay una fuente de iluminación principal en el taller, pero el 41.7% considera que puede no cumplir con las normas nacionales. El 50.0% señala la falta de iluminación natural y adecuada protección de las luminarias, mientras que el 58.3% menciona que no se realizan inspecciones regulares ni hay una iluminación de emergencia adecuada. Establecimiento de la Calidad de Iluminación El estudio identificó que la iluminación en el taller de soldadura debe estar en el rango de 200 a 500 LUX, con un promedio de 300 LUX, según la normativa vigente. Se encontró que un 28% de las mediciones superaron los 500 LUX, mientras que el 72% estuvieron por debajo, indicando una falta de consistencia en la calidad de la iluminación debido a la ausencia de medidas como cortinas o persianas para controlar la luz natural. Recomendaciones de Mejora Se recomienda realizar estudios higiénicos de iluminación anualmente, cambiar las luminarias dañadas, y establecer un plan de mantenimiento y limpieza de los sistemas de iluminación. Además, es crucial implementar programas de capacitación para el personal, enfocados en la salud visual y la realización de pausas activas. Estas acciones no solo aseguran el cumplimiento legal sino que también mejoran la productividad y el bienestar de los empleados. Conclusiones Una iluminación adecuada es esencial para un entorno de trabajo cómodo y productivo. En el caso de PRIME ENERGIA TERMOFLORES S.A.S. E.S.P., la falta de estudios higiénicos de iluminación en el taller de soldadura representa un incumplimiento de la normativa vigente. Es fundamental realizar evaluaciones higiénicas de iluminación en todas las áreas de la empresa y aplicar las recomendaciones para mejorar el sistema de iluminación, lo que no solo garantizará el cumplimiento legal, sino que también aumentará la productividad y el bienestar de los empleados. Además, se deben realizar evaluaciones presupuestarias para las sustituciones y el mantenimiento del sistema de iluminación del taller de soldadura, asegurando que las mejoras puedan implementarse de manera efectiva y tengan un impacto positivo en el ambiente laboral.
Illescas Mena Natalia, Universidad Autónoma de Baja California
Asesor: Mtra. Selene López Cameras, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.

ELABORACIóN DE UNA LOSETA DE TIERRA ALIGERADA Y COMPACTADA A BASE DE MATERIALES LOCALES DE LA FINCA ZOQUE, ACALA, CHIAPAS, MéXICO.


ELABORACIóN DE UNA LOSETA DE TIERRA ALIGERADA Y COMPACTADA A BASE DE MATERIALES LOCALES DE LA FINCA ZOQUE, ACALA, CHIAPAS, MéXICO.

Herrera Alejo Maria Guadalupe, Universidad de Ixtlahuaca. Illescas Mena Natalia, Universidad Autónoma de Baja California. Ruiz Lopez Amberth Darlene, Universidad Veracruzana. Asesor: Mtra. Selene López Cameras, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.



PLANTEAMIENTO DEL PROBLEMA

En la actualidad es un hecho que el sector de la construcción brinda una base física y tangible a la sociedad, pero, así como tiene beneficios estos producen grandes emisiones de contaminantes y residuos. Un ejemplo de ello son los residuos originados por la construcción de infraestructura urbana y desarrollado inmobiliario. los cuales terminan en sitios de disposición de materiales no tratados y generan focos de contaminación ambiental. Ante esta problemática, surge la necesidad de investigar y desarrollar alternativas constructivas sustentables que mitiguen el impacto ambiental y promuevan un entorno habitable y saludable. En este contexto, se plantea como objetivo principal de esta investigación el estudio de las características y propiedades de un material de construcción alternativo: Losetas a base de materiales naturales, como la tierra y la paja, son biodegradables y no tóxicos, siempre que provengan de fuentes no contaminadas. Esto significa que, al final de su vida útil, pueden reintegrarse en el medio ambiente sin causar daño, a diferencia de muchos materiales modernos que son difíciles de reciclar y pueden contener sustancias perjudiciales.



METODOLOGÍA

El proceso para la elaboración del producto se llevo acabo siguiendo las etapas del método LUMEX el cual consta de 6 etapas que se explican a continuación. La primera etapa del proceso implica la identificación de los elementos naturales disponibles en la finca zoque que se utilizarán para la creación de la pieza final. Entre los elementos naturales se incluyen los diferentes tipos de tierra que existen en el predio, además de las fibras que se utilizaran. La segunda etapa del proceso consiste en la extracción de los recursos naturales necesarios, utilizando maquinaria especializada para asegurar la eficiencia y calidad del material recolectado. La extracción se llevó a cabo en la finca Zoque, se utilizó una payloader con una capacidad de 3 m³. La tercera etapa se centra en la producción de la materia prima necesaria para la fabricación de las losetas, esta se llevó a cabo en las oficinas de LUMEX Durante esta fase, se implementan técnicas y procedimientos específicos para tamizar y cribar los materiales recolectados, tales como la paja y la tierra rosa y jagüey. La cuarta etapa del proceso implica la tecnificación del material constructivo. En esta fase, los materiales previamente cribados y clasificados se organizan según el tamaño de sus granos. Este ordenamiento es fundamental, ya que considera la interacción con elementos como el agua, el aire y el suelo. La correcta combinación de estos materiales resulta en un material de construcción, con propiedades específicas deseadas para las losetas de tierra. Durante esta fase, se elaboraron losetas con diferentes proporciones de materiales hasta encontrar las combinaciones óptimas que satisfagan los requisitos específicos del proyecto. La mezcla óptima se logró en la loseta número 25, la cual obtuvo una consistencia plástica ideal para su moldeado. Esta loseta presentó caras homogéneas y aristas bien formadas, lo que fue un punto destacado en su evaluación. La ultima etapa es la sistematizacion,en esta  se realiza la producción en serie de 10 losetas, con base en las proporciones de la loseta 25  hasta llegar a un objetivo de 30 losetas como minino, pare ello se ajustan las proporciones a esas cantidades


CONCLUSIONES

El estudio realizado para evaluar la hipótesis planteada sobre la fabricación de losetas con materiales naturales utilizando el método LUMEX ha sido exitoso en confirmar la validez de nuestra hipótesis. Las proporciones utilizadas en la mezcla (75 ml de tierra rosa, 25 ml de tierra Jagüey, 200 ml de paja, 85 ml de cal en pasta y 50 ml de agua) demostraron ser efectivas para alcanzar los objetivos. La mezcla de materiales, utilizando las proporciones precisas, resultó en una consistencia plástica óptima. Este resultado permitió que la loseta se moldeara fácilmente y que el desmoldeo se realizara sin dificultades, además esta consistencia da pie a la elaboración de estas piezas en diversos formatos debido a la estabilidad alcanzada. Por otro lado, las propiedades mecánicas de la loseta, tales como su ligereza, resistencia a la caída y a la inmersión, fueron evaluadas satisfactoriamente. La loseta final, con un peso de 170 gramos, resultó significativamente más ligera en comparación con las losetas de tierra cruda tradicionales. Esta ligereza se logró gracias a la inclusión de paja como fibra natural, que no solo redujo el peso, si no que este enfoque no solo fomenta la colaboración de diversos grupos de la comunidad, sino que también reduce las barreras físicas que tradicionalmente limitan su participación en tareas de construcción. Además, la loseta ligera pretende ser eficiente y práctica, contribuyendo a procesos constructivos más accesibles.  
Inda Figueroa Paulina Janeth, Universidad Autónoma de Sinaloa
Asesor: Dr. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente

ADAPTACIóN DE UN PROTOTIPO DE COCHE DE 2 RUEDAS SUSTITUYENDO SU MICROCONTROLADOR ARDUINO UNO POR EL ESP32


ADAPTACIóN DE UN PROTOTIPO DE COCHE DE 2 RUEDAS SUSTITUYENDO SU MICROCONTROLADOR ARDUINO UNO POR EL ESP32

Inda Figueroa Paulina Janeth, Universidad Autónoma de Sinaloa. Asesor: Dr. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La robótica es un campo multidisciplinar donde se conjugan habilidades y saberes de electricidad, electrónica e informática. Este proyecto describe una secuencia de adaptación de un prototipo existente, el cual consiste en un coche de 2 ruedas controlado mediante conexión bluetooth y sobre el cual se pretende sustituir su microcontrolador actual, un Arduino Uno, con un esp32. El objetivo de este cambio en el prototipo existente es el de conocer y aprender la utilización en un microcontrolador distinto de Arduino, para así expandir el conocimiento en el uso de distintas plataformas existentes en la actualidad.



METODOLOGÍA

En el trascurso de la estancia correspondiente al Verano Delfín 2024, en la cual se desarrolló el presente proyecto, se trabajó mediante tareas incrementales hasta lograr el producto final, consistente la adaptación de un vehículo controlado mediante bluetooth utilizando el esp32. Como primera etapa, se buscó información en textos y videos relacionada al ecosistema del microcontrolador esp32, sus características, aditamentos y su forma de programación; así como información comparativa con la plataforma arduino. En una segunda etapa se realizaron diversos trabajos de aprendizaje, tanto simulados con la herramienta Wokwi, esto a que es compatible con los dos distintos microcontroladores que se estarán utilizando; así como con conexiones física, lo cual se describe a continuación: 1: encendido y apagado de un led. 2: encendido y apagado de 4 leds al mismo tiempo. 3: encendido y apagado de 4 leds en orden secuencial. 4: variación del brillo en un led. 5: encendido de un motor con el uso del controlador L293D. 6: variación en la velocidad de un motor e identificación del giro en ambos sentidos de un motor. 7: encendido de 2 motores e identificación de conexiones para lograr que ambos giren en el mismo sentido al mismo tiempo. En los trabajos de la tercera etapa nos auxiliamos con la ayuda de una aplicación Android para dispositivos móviles, la cual realiza las funciones de control remoto mediante el protocolo bluetooth, para lo cual se realizaron adecuaciones en el código cargado en el esp32, siguiendo el mismo orden en de las tareas de la etapa anterior. Una vez logrado el aprendizaje en el uso del esp32 para las tareas que deberá desempeñar, se procedió a sustituirse en lugar del Arduino uno, adaptando las conexiones correspondientes centro del prototipo del coche. Por último, se realizó una documentación de todos los trabajos llevados a cabo en un sitio web.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos para la construcción de dispositivos robóticos controlados remotamente mediante un microcontrolador esp32, en este caso, mediante la sustitución de un arduino uno en un coche de 2 ruedas, así mismo se logró la conformación de documentación suficiente para que otras personas interesadas en el tema logren reproducir los trabajos que aquí se realizaron para construir su propio vehículo o incluso construir otro tipo de robot controlado remotamente con el uso de esta tecnología. Teniendo un punto de comparación entre el uso de estas dos distintas plataformas en un coche que cumple las mismas funciones, una de las principales diferencias es la conectividad inalámbrica que integra el esp32, a diferencia de Arduino que debe de utilizar un modulo externo y lo cual implica un trabajo extra en conexiones y configuración de dicho modulo. Todo lo anterior se cumplió dentro del contexto de la robótica educativa y los pasos para su correcta aplicación, los cuales son: Diseñar, Construir, Programar, Probar y Documentar.
Iñiguez Amador Gustavo, Instituto Tecnológico de Tepic
Asesor: Dra. Yolanda Jimenez Flores, Instituto Tecnológico de Querétaro

EVALUACIóN DE LA PLATAFORMA ANSYS EN EL ANáLISIS Y DISEñO DE DISPOSITIVOS SEMICONDUCTORES: CAPACIDADES, FUNCIONES Y APLICACIONES


EVALUACIóN DE LA PLATAFORMA ANSYS EN EL ANáLISIS Y DISEñO DE DISPOSITIVOS SEMICONDUCTORES: CAPACIDADES, FUNCIONES Y APLICACIONES

Iñiguez Amador Gustavo, Instituto Tecnológico de Tepic. Asesor: Dra. Yolanda Jimenez Flores, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

El estudio se centra en analizar cómo la plataforma Ansys contribuye al diseño y simulación de dispositivos semiconductores. En un entorno donde los semiconductores son fundamentales para la tecnología moderna, contar con herramientas avanzadas para simulaciones precisas es esencial. El objetivo principal de la investigación es evaluar cómo el módulo de semiconductores de Ansys facilita el análisis de dispositivos semiconductores, explorando sus características clave, funcionalidades específicas y el impacto de estas herramientas en el diseño de componentes electrónicos. Este análisis busca proporcionar una comprensión integral de cómo Ansys puede mejorar la precisión y eficiencia en el diseño de dispositivos semiconductores.



METODOLOGÍA

La investigación se estructuró en torno a varios pasos clave. Primero, se realizó una exhaustiva revisión del módulo de semiconductores de Ansys, incluyendo el análisis de la interfaz de usuario, las herramientas de modelado y simulación, y las capacidades de integración con otros módulos. Se identificaron las funciones específicas del módulo, tales como el modelado del transporte de carga, el análisis de efectos cuánticos, y los estudios térmicos y ópticos. A continuación, se investigaron diversas aplicaciones del módulo de semiconductores en la simulación de dispositivos como transistores, diodos, y componentes optoelectrónicos, examinando casos de estudio y ejemplos prácticos para ilustrar cómo Ansys puede ser utilizado en el análisis de estos dispositivos y en la optimización de su diseño. Se llevó a cabo una evaluación de los beneficios y limitaciones de usar Ansys para el estudio de semiconductores, incluyendo la precisión de las simulaciones, la facilidad de uso de la plataforma, y su impacto en el proceso de diseño. También se identificaron áreas en las que Ansys ofrece ventajas significativas y aquellas en las que podrían requerirse mejoras. Finalmente, se revisaron los elementos clave de la plataforma Ansys, como el tablero de instrumentos, la barra de datos, y las herramientas de postprocesamiento, describiendo cómo estos elementos contribuyen a la eficacia en el análisis y diseño de semiconductores, facilitando la interpretación de resultados y la optimización del diseño de dispositivos.


CONCLUSIONES

La investigación reveló que Ansys es una herramienta valiosa para el análisis y diseño de dispositivos semiconductores. Entre los principales resultados se destacan la capacidad de Ansys para realizar simulaciones multifísicas avanzadas, integrando múltiples fenómenos físicos en una sola simulación, como el transporte de carga, el análisis térmico y los efectos ópticos, lo que facilita un entendimiento más profundo del comportamiento de los dispositivos semiconductores. Además, el módulo de semiconductores ofrece herramientas avanzadas para el modelado preciso de dispositivos y materiales, mejorando la exactitud de las simulaciones y permitiendo una optimización efectiva del diseño. Las capacidades de visualización avanzadas de Ansys permiten interpretar los resultados de las simulaciones con mayor claridad, utilizando gráficos y mapas de calor que ayudan a identificar áreas críticas y a realizar ajustes necesarios en el diseño. Aunque Ansys proporciona numerosas ventajas, como una mayor precisión y reducción de costos y tiempo en el desarrollo de prototipos, también se identificaron algunas limitaciones, como la complejidad de la plataforma para nuevos usuarios y la necesidad de validar los modelos con datos experimentales para asegurar la exactitud de las simulaciones. 
Iñiguez Hernández Marco Antonio, Universidad Autónoma de Baja California
Asesor: Dr. Bernardino Castillo Toledo, Instituto Politécnico Nacional

PUESTA A PUNTO DE UN DRON PARA MONITOREO PERIMETRAL.


PUESTA A PUNTO DE UN DRON PARA MONITOREO PERIMETRAL.

Iñiguez Hernández Marco Antonio, Universidad Autónoma de Baja California. Manzanares Aguilar Juan Jesús, Tecnológico de Estudios Superiores de Villa Guerrero. Nájera Aguilar Priscila, Instituto Tecnológico Superior de Irapuato. Vazquez Ledesma Brandon, Universidad Autónoma de Baja California. Asesor: Dr. Bernardino Castillo Toledo, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual, la seguridad en las instituciones educativas es una preocupación primordial. Las escuelas buscan constantemente métodos más eficientes y efectivos para garantizar la seguridad de sus instalaciones y proteger a sus estudiantes y personal. Sin embargo, los métodos tradicionales de vigilancia, como el uso de guardias de seguridad o cámaras fijas, presentan limitaciones en cuanto a cobertura, costo y efectividad. La vigilancia manual es costosa y limitada por el número de personal disponible y su capacidad para monitorear grandes áreas de manera constante. Por otro lado, las cámaras de seguridad fijas, aunque son muy útiles, no pueden cubrir todas las áreas y ángulos de un perímetro extenso, y su instalación y mantenimiento representan un costo significativo. En respuesta a estas limitaciones, surge la necesidad de un sistema de vigilancia más avanzado y eficiente. El uso de drones para el monitoreo perimetral se presenta como una solución innovadora, capaz de ofrecer una cobertura más amplia y flexible a un costo relativamente menor. Los drones equipados con cámaras pueden volar de manera autónoma alrededor de un perímetro, proporcionando una vigilancia continua y en tiempo real de áreas extensas y de difícil acceso para el personal de seguridad. Además, para que este sistema sea verdaderamente autónomo y eficiente, es crucial que los drones puedan gestionar su energía de manera independiente. Una base de carga autónoma permitiría que los drones se recarguen automáticamente cuando sus niveles de batería sean bajos, asegurando así una operación ininterrumpida. El objetivo de este trabajo de investigación es desarrollar un dron con capacidad de vuelo autónomo para el monitoreo perimetral del CINVESTAV, equipado con una cámara para vigilancia y una base de carga que permita su recarga automática. Este sistema tiene el potencial de mejorar significativamente la seguridad en esta institución, ofreciendo una solución más flexible, eficiente y económica que los métodos tradicionales de vigilancia.



METODOLOGÍA

Selección del equipo Controlador del dron: Para el control del dron se utilizó el Pixhawk 2.4.8, conocido por su capacidad de manejar vuelos autónomos y su compatibilidad con diversas plataformas de software de control de vuelo. Software de control: Inicialmente se intentó utilizar Matlab para la conexión y control del dron. Sin embargo, debido a dificultades técnicas, se optó por usar Mission Planner, un software ampliamente utilizado y compatible con Pixhawk, que permite la planificación y control de vuelos autónomos. Evaluación y selección del dron Se probaron varios drones disponibles en la escuela para evaluar su rendimiento. Las pruebas incluyeron la verificación de la estabilidad de vuelo y la duración de la batería. Tras una serie de pruebas, se seleccionó el dron que mostró el mejor desempeño y estabilidad, adecuado para el monitoreo perimetral de la escuela. Desarrollo del controlador Controlador PID: Se desarrolló un controlador PID (Proporcional-Integral-Derivativo) para el dron, con el objetivo de garantizar un vuelo estable y preciso. El controlador PID fue ajustado y probado en múltiples iteraciones para optimizar el rendimiento del dron durante vuelos autónomos. Pruebas de vuelo autónomo: Se realizaron pruebas de vuelo autónomo utilizando el controlador PID desarrollado. Estas pruebas incluyeron la planificación de rutas de vuelo específicas alrededor del perímetro de la escuela, con el objetivo de asegurar que el dron pudiera seguir la ruta planificada de manera precisa y estable. Modelado y control del dron Se dedicó tiempo a comprender y modelar el comportamiento dinámico del dron. El modelado permitió simular el comportamiento del dron bajo diferentes condiciones y ajustar los parámetros del controlador para mejorar el rendimiento.


CONCLUSIONES

El objetivo principal de este proyecto era desarrollar un sistema de vuelo autónomo para un dron destinado al monitoreo perimetral del CINVESTAV. A lo largo de las últimas siete semanas, se logró implementar y probar con éxito el controlador PID en el dron seleccionado, lo que permitió realizar pruebas de vuelo autónomo. Estas pruebas demostraron la capacidad del dron para seguir rutas planificadas de manera precisa y estable, cumpliendo así con el objetivo inicial de establecer un vuelo autónomo eficaz. La metodología empleada incluyó la selección del dron adecuado, el desarrollo y ajuste del controlador PID, y la planificación de rutas de vuelo específicas. A pesar de los desafíos iniciales con el uso de Matlab, la transición a Mission Planner permitió superar estos obstáculos y avanzar en el proyecto de manera efectiva. Los siguientes pasos en este proyecto incluyen la integración de una cámara para la captura de video en tiempo real, lo que permitirá la vigilancia continua del perímetro de la escuela. Además, es crucial definir y optimizar las rutas de vuelo del dron para maximizar la cobertura y eficiencia del monitoreo. Finalmente, la implementación de una base de carga autónoma garantizará que el dron pueda operar de manera continua sin intervención humana, completando así el sistema autónomo de monitoreo perimetral. Con estos avances, el proyecto está bien encaminado para ofrecer una solución innovadora y eficiente para la seguridad de la institución educativa, proporcionando una vigilancia flexible y económica que supera las limitaciones de los métodos tradicionales.
Iturbide Mendoza Guadalupe, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mg. Zhoe Vanessa Comas González, Universidad de la Costa

DESARROLLO DE OBJETOS VIRTUALES DE APRENDIZAJE PARA LA ENSEñANZA DE ECUACIONES DIFERENCIALES


DESARROLLO DE OBJETOS VIRTUALES DE APRENDIZAJE PARA LA ENSEñANZA DE ECUACIONES DIFERENCIALES

Iturbide Mendoza Guadalupe, Tecnológico de Estudios Superiores de San Felipe del Progreso. Martinez Suarez Dorelys Esthefany, Universidad Libre. Valencia Valdez Maricela, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Zhoe Vanessa Comas González, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La enseñanza de las ecuaciones diferenciales ha sido un pilar fundamental en la formación de ingenieros, físicos y matemáticos. Tradicionalmente, esta materia se ha impartido de manera presencial, mediante clases expositivas y resolución de problemas en pizarra. Sin embargo, a pesar de su importancia, la enseñanza de este tipo de asignatura presenta desafíos significativos debido a la alta complejidad de los conceptos, la abstracción matemática, así como la falta de recursos interactivos que permitan una exploración más profunda de los conceptos. Además, el aprendizaje en un entorno tradicional puede ser rígido y menos adaptativo a las necesidades individuales de los estudiantes, lo que puede resultar en una experiencia de aprendizaje menos efectiva para algunos. Ante estos desafíos, surge la necesidad de explorar nuevas estrategias pedagógicas que faciliten el aprendizaje de las ecuaciones diferenciales.  Los cursos de ecuaciones diferenciales frecuentemente no cumplen con las expectativas de los estudiantes, lo que resalta la necesidad de integrar tecnologías que conecten diferentes áreas de las matemáticas y apliquen estos conocimientos a problemas del mundo real (Bejarano, 2019). Las TIC, promovidas por la OECD, son fundamentales para avanzar en la educación, ofreciendo nuevas metodologías y herramientas didácticas (Grandia Asencio, 2019). Ante esta situación, surge la pregunta: ¿cuáles son los resultados de aprendizaje alcanzados por los estudiantes en la asignatura de ecuaciones diferenciales al implementar objetos virtuales de aprendizaje? En los últimos años, la tecnología educativa ha comenzado a jugar un papel cada vez más importante en la mejora de los métodos de enseñanza. Los avances en software educativo y plataformas de aprendizaje en línea han permitido la creación de recursos interactivos que pueden complementar y, en algunos casos, incluso reemplazar los métodos tradicionales. Los Objetos Virtuales de Aprendizaje, por sus  siglas OVA, se presentan como una alternativa prometedora, ya que ofrecen un entorno flexible y personalizado que permite a los estudiantes aprender a su propio ritmo y recibir retroalimentación inmediata.  El presente proyecto tiene como objetivo desarrollar Objetos Virtuales de Aprendizaje específicamente diseñados para la enseñanza de ecuaciones diferenciales, con el fin de mejorar los resultados de aprendizaje de los estudiantes.



METODOLOGÍA

 Diseño Metodológico El estudio es de carácter experimental, ya que controla variables en una relación de causa y efecto, utilizando un grupo de control y un grupo experimental. Tipo de Investigación El enfoque es mixto. Se utiliza un enfoque cuantitativo para recolectar y analizar datos numéricos, probar hipótesis y establecer patrones de comportamiento en los resultados de aprendizaje. Además, se emplea un enfoque cualitativo para obtener datos a través de descripciones y observaciones sin medición numérica (Quiñonez, 2018). Población La población del estudio incluye a los 700 estudiantes matriculados en la asignatura de ecuaciones diferenciales en la Universidad de la Costa CUC durante el semestre 2024-2, representando diversas carreras de ingeniería. Muestra Se seleccionaron 70 estudiantes de diferentes programas de Ingeniería de manera no probabilística por conveniencia. Se dividieron en dos grupos de 30 estudiantes: uno como grupo de control y otro como grupo experimental, bajo la supervisión de un mismo profesor. Se incluyó el consentimiento informado de los participantes.                            Fases de la Investigación  Fase 1: Documentación y Análisis Se realizó una revisión sistemática de la literatura sobre la enseñanza de ciencias naturales y exactas utilizando OVA y herramientas digitales. Fase 2: Desarrollo Se diseñó y desarrolló un OVA para enseñar los contenidos de la clase de ecuaciones diferenciales, de acuerdo con especificaciones técnicas y pedagógicas identificadas en la fase de análisis. Fase 3: Planificación de la implementación y evaluación Se diseñó el plan para la implementación de este experimento, en el cual los estudiantes serán conscientes de esto, y estarán no solo aprendiendo y siendo evaluados, sino que también darán retroalimentación a la experiencia de aprender utilizando estas herramientas tecnológicas para posterior mente analizar estos resultados.


CONCLUSIONES

Como resultado de este proyecto se obtuvieron Objetos Virtuales de Aprendizaje para la enseñanza de ecuaciones diferenciales, el cual incluye especificaciones técnicas y pedagógicas para asegurar su eficacia en la enseñanza de ecuaciones diferenciales. Además se espera que muy pronto se lleven a cabo pruebas piloto para identificar áreas de mejora, y se realizaron ajustes basados en el feedback recibido durante estas pruebas. Luego de la aplicación de este experimento, se espera analizar los datos obtenidos de la evaluación de los conocimientos de cada grupo de estudiantes y así saber si la implementación de estos Objetos Virtuales de Aprendizaje contribuyen a mejorar los resultados de aprendizaje de los estudiantes de ecuaciones diferenciales.
Izquierdo Cervantes Karla Yunuen, Instituto Tecnológico de Tlalnepantla
Asesor: Mtro. Santo Rubio Pano, Universidad de Guadalajara

DESARROLLO DE UNA APLICACIóN PARA CONSULTAR EN SITIOS TURíSTICOS LOS ESTABLECIMIENTOS QUE CUENTAN CON ADAPTACIONES PARA LAS PERSONAS CON DISCAPACIDAD


DESARROLLO DE UNA APLICACIóN PARA CONSULTAR EN SITIOS TURíSTICOS LOS ESTABLECIMIENTOS QUE CUENTAN CON ADAPTACIONES PARA LAS PERSONAS CON DISCAPACIDAD

Antonio Ortega Yamileth, Instituto Tecnológico Superior de Huauchinango. Izquierdo Cervantes Karla Yunuen, Instituto Tecnológico de Tlalnepantla. Asesor: Mtro. Santo Rubio Pano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Según Naciones Unidas  El turismo comprende las actividades que realizan las personas durante sus viajes y estancias en lugares distintos al de su entorno habitual, por un período de tiempo consecutivo inferior a un año, con fines de ocio, por negocios y por otros motivos turísticos, siempre y cuando no sea desarrollar una actividad remunerada en el lugar visitado.   El acceso equitativo a las atracciones turísticas debería ser algo de lo que no deberíamos preocuparnos. Para las personas con discapacidades es mucho más difícil tener una experiencia turística debido a que no se garantizan las adaptaciones que representan para este grupo una barrera física como la falta de rampas, baños accesibles y señalización adecuada.   La accesibilidad tanto de las atracciones turísticas como la información obtenida de las tecnologías y del internet es poca o nula y, en algunos casos dispersa e inconsistente, provocando la dificultad de la planeación y como resultado se tendría una mala experiencia dentro del turismo; así como una frustración al invertir tiempo y esfuerzo en planificar un viaje.   El problema central que este proyecto busca abordar es la falta de una fuente centralizada y confiable de información sobre la accesibilidad de las atracciones turísticas. Al desarrollar una aplicación que compile y presente esta información de manera clara y accesible, se pretende facilitar la planificación de viajes inclusivos y mejorar la experiencia turística de las personas con discapacidades.  



METODOLOGÍA

Para el desarrollo del proyecto de ingeniería de software se utilizó la metodología SCRUM que permite la participación de cada integrante en el desarrollo de una aplicación denominada Desarrollo de una aplicación para consultar en sitios turísticos los establecimientos que cuentan con adaptaciones para las personas con discapacidad, para lograrlo se aplicó el modelo de ciclo de vida en cascada modificado. Esta metodología cuenta con cinco etapas las cuales son: 1. Análisis, 2. Diseño, 3. Implementación, 4. Verificación, 5. Mantenimiento del software. Estas etapas se deben cumplir de forma secuencial, por lo que no es posible pasar de una etapa a otra si no está cumplida la actual, pero además es posible regresar a etapas anteriores para verificar o hacer modificaciones. Es la metodología más conveniente para utilizar en este proyecto puesto que, iremos desarrollando cada etapa del proyecto linealmente, pero siempre contando con la posibilidad de realizar iteraciones sobre estas etapas hasta que el producto final sea lo que queremos.  


CONCLUSIONES

En conclusion, realizamos una aplicacion enfocada en el apoyo a una causa social como lo es el "Turismo accesible". Basandonos en la metodologia elegida realizamos un trabajo por etapas utilizando el lenguaje c# y base de datos, teniendo como resultado una aplicacion de consulta, cumpliendo con el objetivo principal, pues la aplicacion es funcional para realizar consultas de los establecimientos, con filtrado de resultados para las personas con discapacidad segun sus necesidades, ademas de tener las funciones para el llenado y manejo de la base de datos.  Quedarian pendientes y  como proximo objetivo el agregar funciones en cuanto a un mejor sistema de reportes, y algunos otros manejos accesibles para que cualquier usuario pueda hacer uso de ella. 
Jacobo Chicuate Roberto Carlos, Universidad Autónoma de Baja California
Asesor: Dr. Carlos Toloza Toloza, Universidad de la Costa

PROCESOS AVANZADOS DE OXIDACIóN EN EL TRATAMIENTO DE AGUAS RESIDUALES


PROCESOS AVANZADOS DE OXIDACIóN EN EL TRATAMIENTO DE AGUAS RESIDUALES

Jacobo Chicuate Roberto Carlos, Universidad Autónoma de Baja California. Asesor: Dr. Carlos Toloza Toloza, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

El tratamiento de aguas residuales es un desafío crítico a nivel global, especialmente debido a la creciente carga de contaminantes orgánicos persistentes y tóxicos que no son fácilmente tratables mediante métodos convencionales. Estos contaminantes incluyen pesticidas, fármacos, compuestos fenólicos, y productos químicos industriales, que pueden tener efectos adversos sobre la salud humana y el medio ambiente. La necesidad de tecnologías avanzadas y eficaces para la eliminación de estos contaminantes es urgente. A pesar de los avances en las tecnologías de tratamiento de aguas residuales, muchas plantas de tratamiento siguen enfrentando dificultades para eliminar contaminantes orgánicos persistentes y reducir la toxicidad del efluente tratado. Los métodos convencionales, como el tratamiento biológico, la sedimentación y la filtración, a menudo no son suficientes para descomponer estos compuestos complejos, lo que resulta en efluentes que no cumplen con las normativas ambientales y pueden causar daño a los ecosistemas acuáticos. Es por ello que las plantas dedicadas al tratamiento de aguas residuales apuestan por implementar tecnologías de primer nivel, mediante procesos avanzados de oxidación.   



METODOLOGÍA

1. Definición del Alcance y Objetivos 1.1 Objetivo general: Revisar y analizar la literatura existente sobre los Procesos Avanzados de Oxidación (PAOs) en el tratamiento de aguas residuales, evaluando su eficacia, aplicaciones, limitaciones y perspectivas futuras. 1.2 Objetivos específicos: 1.2.1 Identificar y clasificar los diferentes tipos de PAOs utilizados en el tratamiento de aguas residuales. 1.2.2 Evaluar la eficacia de cada tipo de PAO en la eliminación de contaminantes orgánicos persistentes. 1.2.3 Examinar las limitaciones y desafíos asociados con la implementación de PAOs. 1.2.4 Revisar estudios de caso y ejemplos prácticos de aplicación de PAOs en plantas de tratamiento de aguas residuales. 1.2.5 Proponer recomendaciones para la optimización y desarrollo futuro de los PAOs en este campo. 2. Criterios de inclusión y exclusión 2.1 Criterios de inclusión: Artículos científicos, revisiones, tesis y documentos técnicos publicados en revistas revisadas por pares. Documentos que aborden específicamente los PAOs en el contexto del tratamiento de aguas residuales. Estudios que proporcionen datos empíricos, análisis comparativos o revisiones exhaustivas sobre la aplicación de PAOs. 2.2 Criterios de exclusión: Documentos que no se centren en el tratamiento de aguas residuales o que traten temas fuera del ámbito de los PAOs. Fuentes que no sean revisadas por pares o que carezcan de rigor científico. Estudios que no proporcionen información relevante o actualizada sobre el tema. 3. Fuentes de información 3.1 Bases de datos académicas: Scopus Web of Science, Google Scholar, PubMed y IEEE Xplore. 3.2 Revistas especializadas: Environmental Science & Technology, Water Research, Journal of Hazardous Materials, Chemical Engineering Journal, Water Environment Research. 3.3 Otras fuentes: Tesis de maestría y doctorado Informes técnicos de organismos gubernamentales y ONGs Documentos de conferencias y simposios relevantes. 4. Proceso de selección y evaluación 4.1 Selección inicial: Revisar los títulos y resúmenes de los artículos encontrados para determinar su relevancia. Eliminar aquellos que no cumplen con los criterios de inclusión. 4.2 Evaluación crítica: Leer y analizar los artículos seleccionados en profundidad. Evaluar la calidad metodológica, la validez y la aplicabilidad de los resultados. Identificar temas recurrentes, avances significativos y vacíos en la investigación. 4.3 Extracción de datos: Resumir la información clave de cada estudio, incluyendo tipos de PAOs, metodologías utilizadas, resultados obtenidos y conclusiones. Organizar los datos en una matriz o tabla para facilitar la comparación y el análisis. 5. Análisis y síntesis 5.1 Análisis temático: Clasificar y analizar los estudios según temas y categorías, como tipos de PAOs, eficacia en la eliminación de contaminantes, aplicaciones prácticas y desafíos. 5.2 Síntesis de resultados: Integrar y resumir los hallazgos para proporcionar una visión general coherente de las tendencias actuales, avances y áreas de mejora en el uso de PAOs en el tratamiento de aguas residuales. 5.3 Identificación de vacíos y oportunidades: Identificar áreas donde la investigación es insuficiente o contradictoria. Proponer posibles direcciones para futuras investigaciones y desarrollos en el campo de los PAOs. 6. Redacción del informe de revisión 6.1 Estructura del informe: 6.1.1 Introducción: Contexto y objetivos de la revisión. 6.1.2 Metodología: Criterios de inclusión y exclusión, estrategia de búsqueda y proceso de evaluación. 6.1.3 Resultados y Discusión: Resumen de los hallazgos, análisis temático y discusión de los resultados. 6.1.4 Conclusiones: Principales conclusiones, implicaciones para la práctica y recomendaciones para futuras investigaciones. 6.1.5 Referencias: Lista completa de las fuentes revisadas. 6.2 Revisión y edición: Revisar el informe para asegurar la claridad, coherencia y precisión. Solicitar retroalimentación de expertos en el campo para mejorar la calidad del documento.


CONCLUSIONES

Los resultados de esta revisión proporcionarán una base sólida para la optimización y aplicación de los PAOs en el tratamiento de aguas residuales. Estos hallazgos contribuirán a la mejora de las prácticas de tratamiento, la reducción de costos, y la protección del medio ambiente, ofreciendo soluciones más sostenibles y eficientes para enfrentar los desafíos del tratamiento de aguas residuales.  
Jaimes Carmona Santiago, Universidad Cooperativa de Colombia
Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios

SISTEMA DE TELEMETRíA Y VISUALIZACIóN EN TIEMPO REAL DE TEMPERATURA Y HUMEDAD, PARA INVERNADERO HIDROPóNICO AUTOMATIZADO.


SISTEMA DE TELEMETRíA Y VISUALIZACIóN EN TIEMPO REAL DE TEMPERATURA Y HUMEDAD, PARA INVERNADERO HIDROPóNICO AUTOMATIZADO.

Castro Palacio Mariana, Universidad Cooperativa de Colombia. Jaimes Carmona Santiago, Universidad Cooperativa de Colombia. Sanchez Logreira Juandiego, Universidad Cooperativa de Colombia. Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

  En la vereda Tigrera, ubicada en Santa Marta, D.T.C.H, se ha identificado la necesidad de optimizar el control y monitoreo de las variables climáticas dentro de un invernadero hidropónico. Este tipo de cultivo requiere condiciones específicas de temperatura y humedad para maximizar la eficiencia y productividad. Sin embargo, la falta de un sistema automatizado y preciso para monitorear estas variables puede resultar en fluctuaciones que afectan negativamente la producción. Actualmente, el monitoreo manual es ineficiente y propenso a errores, lo que puede llevar a la pérdida de cultivos y recursos. El proyecto "Sistema de Telemetría y Visualización en Tiempo Real de Temperatura y Humedad para Invernadero Hidropónico Automatizado" tiene como objetivo diseñar e implementar un sistema que permita medir y registrar variables críticas como temperatura y humedad en tiempo real. Este sistema busca proporcionar una plataforma accesible a través de dispositivos web y móviles, que no solo mejore la eficiencia y productividad del invernadero, sino que también establezca un modelo replicable adaptable a otras instalaciones. Además, se busca promover prácticas agrícolas más sostenibles y tecnológicamente avanzadas en la región, marcando un avance significativo en la modernización de la agricultura en Santa Marta, D.T.C.H, con potencial para ser un referente en sistemas hidropónicos automatizados a nivel nacional.



METODOLOGÍA

  El proyecto se enfoca en la implementación de un sistema de monitoreo y control que permita la visualización en tiempo real de las variables climáticas dentro de un invernadero hidropónico. Utilizando tecnología avanzada como microcontroladores ESP32 y sensores DHT22, el sistema buscará optimizar las condiciones de cultivo mediante el monitoreo constante y la emisión de alertas automáticas. Diseño del Sistema Selección de Hardware: Elección del microcontrolador ESP32 por su versatilidad y capacidad de conectividad. Se selecciona el sensor DHT22 para la medición de temperatura y humedad. Conexión del Hardware: Conexión física del sensor DHT22 al ESP32, siguiendo una guía detallada que incluye la configuración de los pines y las conexiones eléctricas necesarias. Configuración del Software Programación del ESP32: Desarrollo del código fuente utilizando Arduino IDE para la lectura de datos del sensor DHT22 y la transmisión de estos datos a la plataforma de visualización. Integración con Grafana: Configuración de Grafana para la visualización en tiempo real de los datos recolectados. Creación de dashboards personalizados y configuración de alertas basadas en umbrales predefinidos. Implementación del Sistema de Alertas Configuración de Umbrales: Definición de umbrales críticos para temperatura y humedad. Configuración de alertas en Grafana para notificar a los usuarios cuando los valores excedan estos umbrales. Notificaciones Automáticas: Integración de notificaciones automáticas a través de múltiples canales como correo electrónico y mensajes de texto. Pruebas y Optimización Pruebas de Funcionamiento: Realización de pruebas para verificar el funcionamiento correcto del sistema en condiciones normales de operación. Ajustes y Calibraciones: Ajuste y calibración del sensor DHT22 para asegurar la precisión de las mediciones.


CONCLUSIONES

  La implementación del sistema ha permitido un monitoreo preciso y en tiempo real de las variables climáticas del invernadero. Los datos obtenidos han sido visualizados de manera efectiva a través de la plataforma Grafana, permitiendo la creación de dashboards personalizados que muestran la temperatura y humedad de forma clara y accesible. El sistema de alertas ha demostrado ser eficaz, enviando notificaciones automáticas cuando las variables exceden los umbrales predefinidos, lo que ha permitido una respuesta rápida a las condiciones desfavorables. El sistema ha mostrado una notable mejora en la eficiencia del monitoreo del invernadero hidropónico, reduciendo la dependencia del monitoreo manual y minimizando los errores humanos. La capacidad de recibir alertas en tiempo real ha permitido a los administradores del invernadero tomar decisiones informadas y oportunas, asegurando condiciones óptimas para el crecimiento de los cultivos. Además, la integración de una plataforma accesible a través de dispositivos web y móviles ha facilitado el acceso y la gestión del sistema desde cualquier lugar. El proyecto ha logrado su objetivo de diseñar e implementar un sistema de telemetría y visualización en tiempo real para un invernadero hidropónico automatizado. La combinación del ESP32 y el sensor DHT22, junto con la plataforma Grafana, ha proporcionado una solución eficiente y escalable para el monitoreo de variables críticas como la temperatura y la humedad. La automatización del sistema de alertas ha mejorado significativamente la capacidad de respuesta ante condiciones adversas, contribuyendo a la sostenibilidad y productividad del invernadero. Este proyecto no solo ha marcado un avance en la modernización de la agricultura en Santa Marta, D.T.C.H, sino que también ha establecido un modelo replicable que puede ser adaptado a otras instalaciones hidropónicas. Se recomienda continuar con el desarrollo de este sistema, explorando la integración de nuevos sensores y tecnologías para expandir su capacidad de monitoreo y control.  
Jaimes Diaz Ricardo, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dr. Juan Carlos Hernández Criado, Universidad Francisco de Paula Santander Seccional Ocaña

OBTENCIóN DE FIBRAS DE PET Y CELULOSA MICROCRISTALINA, CON TéCNICAS ESPECIALES DE LABORATORIO, COMO ESTRATEGIA EN EL TRATAMIENTO DE AGUAS RESIDUALES INDUSTRIALES.


OBTENCIóN DE FIBRAS DE PET Y CELULOSA MICROCRISTALINA, CON TéCNICAS ESPECIALES DE LABORATORIO, COMO ESTRATEGIA EN EL TRATAMIENTO DE AGUAS RESIDUALES INDUSTRIALES.

Jaimes Diaz Ricardo, Tecnológico de Estudios Superiores de Tianguistenco. Valencia Diaz Citlali Estefania, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dr. Juan Carlos Hernández Criado, Universidad Francisco de Paula Santander Seccional Ocaña



PLANTEAMIENTO DEL PROBLEMA

Actualmente, los residuos sólidos forman gran parte de diversos problemas ambientales; siendo el plástico uno de los residuos con más presencia y abundancia a nivel mundial. A lo largo del año 2020 mediante estudios realizados, se estimó que globalmente se producen alrededor de 300 millones de toneladas de plástico, de las cuales menos del 10 % se recicla. México es el mayor consumidor de bebidas embotelladas a nivel global, con un consumo estimado de aproximadamente 800 mil toneladas de PET al año, con un incremento anual del 13 %, donde el principal uso de los envases de PET es de botellas de refresco con 58.2 %, seguido de agua embotellada con 17 %. (González Gómez, M. P. (2020)) El consumo de bebidas embotelladas es uno de los problemas medioambientales más urgentes en la contaminación por plásticos, debido a que su producción en productos de plásticos supera la capacidad del mundo de hacerse cargo de ello. (López Fernández, M. D. M., González García, F., & Franco Mariscal, A. J. (2022)). El PET es el material plástico más utilizado en nuestra vida diaria, y por consiguiente el residuo plástico de mayor generación, este se ha reforzado con diferentes materiales, algunos provenientes de fuentes renovables. Uno de los polímeros naturales que han revolucionado la historia es la celulosa obtenida a partir de materiales lignocelulósicos aprovechables de manera ilimitada en biomasas como las plantas. (Miguel Aleza, R. (2020)). En México, la industria del tequila tiene una gran relevancia, y el creciente interés por esta bebida lleva a la producción de millones de litros cada año. La producción de tequila resulta en la generación de aproximadamente 1.4 a 2.0 kg de bagazo un residuo lignocelulósico compuesto principalmente de celulosa, hemicelulosa y lignina (con una humedad del 60 %) por cada litro de tequila (con 40 % de alcohol) siendo este uno de los principales residuos asociados con la producción del destilado.( Estrada-Maya, A., & Weber, B. (2022)). Dado su alto contenido de celulosa, el bagazo representa una fuente potencial para la obtención de celulosa, la cual puede ser extraída y utilizada en diversas aplicaciones industriales



METODOLOGÍA

La obtención de la celulosa microcristalina a partir del bagazo de agave se realizó mediante el método reportado por Ventura-Cruz et al 2020. El cual indica un pretratamiento con peróxido de hidrogeno y blanqueamientos sucesivos. El PET reciclado utilizado tuvo un lavado. Secado y triturado hasta obtener 690g. Se dividieron tres partes de PET con 230 g cada una, lo que representó el 97.5%, 97 % y 96.5 % del total para llevar a cabo una mezcla con celulosa microcristalina en concentraciones de 0.5 % ,1 % y 1.5 % respectivamente, para lograr que existiera una mejor adición de los dos materiales se utilizó el compatibilizante ADICCO en una relación del 2 % para cada una de las mezclas. Para llevar a cabo la extrusión de PET en filamento, se utilizó un prototipo a escala. Se utilizó un tambor de acero inoxidable de 10 cm de diámetro y 11 cm de alto, al que se le adaptaron 6 orificios de 3 mm en la parte inferior, permitiendo que el material fundido saliera en forma de filamento. La temperatura de fusión se alcanzó utilizando un soplete con un tanque de gas butano, y se monitoreo mediante un termómetro infrarrojo (marca TRUPER modelo T600A). La velocidad de extrusión se reguló con un taladro manual (marca BOSCH modelo GSB 20-2 RE). El filamento extruido se recolectó en un recipiente de metal. Para la extrusión del filamento se realizaron pruebas preliminares. Con la finalidad de probar la eficiencia del filamento se preparo un agua sintética con 6 g de tinte para telas # 17 azul oscuro marca IRIS en 500 mL de H2O previamente hervida para después ser diluida en un total de 6 L se registró el pH, la temperatura y se tomó una muestra inicial de 100ml. A demás se llevo a cabo la construcción de un filtro de flujo descendente en vidrio, previamente modelado en el software SolidWorks, teniendo una altura de 60 cm y un depósito con una capacidad de 7 L en la parte superior, la parte inferior del filtro conto con un orificio de salida de 4 mm y se empaco en su interior con el filamento reforzado con celulosa microcristalina después se vertió el agua sintética en tres repeticiones con un tiempo de retención de 1 min y se tomó una muestra final de 100ml. Se realizaron pruebas preliminares para la medición de color verdadero siguiendo la metodología de coeficientes de absorción espectral descrita en la norma NMX-AA-017-SCFI2021, midiendo a longitudes de onda de 436, 525 y 620 nm, respectivamente, las lecturas se realizaron por triplicado


CONCLUSIONES

Las condiciones óptimas del manejo para extruir el filamento en el equipo fueron una temperatura media de 250 ºC, una velocidad aproximada de 600 rpm y con una cantidad máxima de 15 g de mezcla PET-celulosa microcristalina. La formación de fibra de PET reforzada con celulosa microcristalina a partir de residuos es una técnica prometedora, con un potencial para la remoción de color en aguas residuales textiles. Los resultados preliminares mostraron que la fibra con celulosa microcristalina se tiñó, evidenciando su capacidad para retener y absorber colorantes. Se espera que, en futuros resultados, realizados bajo diferentes condiciones de operación las fibras pueden eliminar las concentraciones de colorantes para cumplir con la normatividad vigente. Creemos que esta innovación no solo mejorará el tratamiento de aguas residuales textiles, sino que también contribuirá a los Objetivos 6, 9 y 12 de Desarrollo Sostenible. La estancia de investigación ha representado un significativo crecimiento personal y académico, permitiéndonos adquirir valiosos conocimientos tanto teóricos como prácticos.
Jara Hernández Christian Alberto, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. José Hugo Barrón Zambrano, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

SILICON-BASED IMPLEMENTATION OF A MULTIPLE PRNG USING CHAOTIC HOPFIELD NEURAL NETWORKS AND CORDIC ALGORITHM WITH CADENCE EDA TOOLS


SILICON-BASED IMPLEMENTATION OF A MULTIPLE PRNG USING CHAOTIC HOPFIELD NEURAL NETWORKS AND CORDIC ALGORITHM WITH CADENCE EDA TOOLS

Jara Hernández Christian Alberto, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. José Hugo Barrón Zambrano, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

In an increasingly interconnected world, the security of digital communication services has become a crucial necessity. Given the constant transfer of sensitive and confidential information between users, innovative and robust solutions are needed to ensure the integrity and privacy of data [1]. Cryptography emerges as a fundamental pillar in safeguarding the confidentiality and authenticity of transmitted information[5]. Central to cryptographic processes are random number generators (RNGs), which are divided into True Random Number Generators (TRNGs) and Pseudo-Random Number Generators (PRNGs). These generators provide the essential randomness for generating secure keys in the encryption process. Recently, PRNGs using chaotic systems as a source of entropy have garnered significant attention. The importance of hardware-based encryption cannot be overstated, as it underscores the critical need for physically designing an ASIC (Application-Specific Integrated Circuit) to implement these advanced cryptographic techniques. A full-custom ASIC design provides optimized performance, enhanced security, and greater resistance to attacks, ensuring that the cryptographic processes are both efficient and secure in protecting sensitive information



METODOLOGÍA

To achieve the silicon design of the Hopfield neural network, we used the VHDL description from [4], which employs the CORDIC algorithm to calculate the trigonometric and tangential functions used in the system of differential equations for the chaotic system. Due to the processing time required to use the automatic design tools within Cadence for synthesizing RTL files, and since Verilog is a registered trademark of Cadence Design Systems, making it more compatible with Genus technology, the hardware description from [4] was translated from VHDL to Verilog. To ensure the fidelity of the translation, two verification stages were conducted: the first was hierarchical behavioral simulation within ModelSim, and the second was the physical implementation of the system on an Altera Cyclone IV DE2-115 FPGA within a MATLAB FPGA-in-the-Loop (FIL) environment. 2.1 Verification in ModelSim For simulation within this tool, the Quartus Prime Lite Edition 18.1 interface was used for syntactic and temporal analysis. In terms of syntactic analysis, the verification flow was carried out hierarchically, starting from the least significant file to the general module that instantiates all other submodules. After debugging the files, temporal analysis was performed using both a test bench and a .dofile script to initialize the system's input variables. The output data time was recorded from the reset signal's falling edge to obtain the output data sampling time. 2.2 FIL Implementation in MATLAB Using MATLAB's FIL tools and the HDL Verifier Add-on, the development environment was initialized. The purpose was to configure the FPGA according to technical specifications to generate communication between the software and the Cyclone IV DE2-115 development board. Clock and reset pins, operation frequency, and JTAG communication were specified. This configuration block was then used to load the HDL files into the interface and make advanced specifications regarding the top file. The FILSimulation System object connects an FPGA execution to a MATLAB test bench by applying input signals and reading output signals from an HDL model running on an FPGA [6]. This process was conducted in a Simulink environment to configure inputs and visualize outputs for processing. In this case, FIL was implemented hierarchically for the CORDIC modules to verify the correctness of the calculations by plotting the behavior of trigonometric and hyperbolic functions. This continued until the implementation of the top file and plotting of chaotic attractors. To qualitatively analyze the graphs of chaotic attractors, 50,000 values generated by the CORDIC algorithm described in Verilog were processed. 2.4 Synthesis For synthesis with the foundry technology, a Tcl script was generated to initialize the Genus Synthesis Solution, specifying the source path of the RTL file, timing constraints, and detailing the output files such as the synthesized file and the power consumption report. The Synopsys Design Constraints file, containing limitations and timing assignments, was considered to optimize processing or, if necessary, delay the output using buffers. 2.5 Post-Synthesis Simulation The goal of this stage was to verify that the RTL file programmed in Verilog behaves the same as the file synthesized by Genus Synthesis Solution. Due to the importance of this stage, two verification methods were used. The first was Logic Equivalence Checking (LEC), which detects and corrects errors by exhaustively verifying millions of ASIC gates much faster than traditional gate-level simulation. The second was temporal simulation with a test bench within Virtuoso. 2.6 Physical Implementation Finally, the layout of our synthesized or transistor-level file with foundry technology was performed using Innovus Implementation System. In the Innovus interface, power and ground routing, frames, distances, and sizes for the design and placement of components were carried out using Library Exchange Format (LEF) files. The interconnection of rails and cells was completed, finishing with the definition of the geometric pattern.


CONCLUSIONES

This research article addressed the layout design for a multi-PRNG based on a memristive Hopfield neural network with multiple windings, using Cadence Design Systems' automated design tools. While several authors have implemented this system on an FPGA and successfully executed the CORDIC algorithm with an absolute error of the order of 10^-4, the value of this report lies in the optimization of resources and power consumption, which is significantly better compared to FPGA systems. Additionally, it opens the door to implementing security layers in IoT systems by enabling hardware encryption mechanisms. The power analysis within Genus Synthesis Solution demonstrated that in 32,817 cells, a leakage power of 4897 nW and an internal power of 0.4447 W were observed, which surpasses their FPGA counterparts. Since the comparative fidelity with recent works was ensured, this design can be subjected to the same NIST tests to verify the randomness of the PRNG.
Jara Peraza Maria Fernanda, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

LA PRODUCTIVIDAD EN EMPRESAS DEL SUR DE SINALOA, ENFOQUE DE EQUIDAD SOCIAL.


LA PRODUCTIVIDAD EN EMPRESAS DEL SUR DE SINALOA, ENFOQUE DE EQUIDAD SOCIAL.

Jara Peraza Maria Fernanda, Universidad Politécnica de Sinaloa. Mendez Arredondo Roxana Guadadlupe, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Las micro y pequeñas empresas (mypes) en el sur de Sinaloa representan el 98.3% del total de unidades económicas, generando el 55% de los empleos y el 39% del PIB nacional. Sin embargo, enfrentan desafíos significativos, como la falta de desarrollo de habilidades gerenciales y directivas, las cuales son cruciales para mejorar el clima organizacional y, por ende, la productividad y competitividad de estas empresas. En este proyecto de investigación el enfoque está orientado a identificar elementos de equidad social debido a que influyen en el clima organizacional y desarrollo de la satisfacción, así como el desempeño de los empleados, desde el paradigma de los empleadores.  



METODOLOGÍA

Para nuestro estudio científico se utiliza la metodología de investigación cuantitativa de tipo campo la cual consiste en la recolección de datos directamente de la realidad donde ocurren los hechos, sin manipular o controlar variable alguna, con una extensión del estudio de investigación de campo con medios de instrumentos impresos, el nivel de la investigación descriptiva donde se busca el diagnosticar la relación de los hechos. El instrumento se aplicó a mypes de la comunidad de Mazatlán y Rosario, Sinaloa, con un rango de 1 a 50 empleados en empresa, con un número de 480 encuestas válidas que fueron contestadas por propietarios, directores o gerentes, utilizando un instrumento tipo encuesta impresa. Como primera etapa del verano de investigación se define el título del proyecto siendo La productividad  en empresas del Sur de Sinaloa, con enfoque en la equidad social, así también, se inicia con la búsqueda de información basada en fuentes auditadas sobre el tema del proyecto, posteriormente se realiza un análisis teórico de lo encontrado para proceder a el método de análisis de datos que se obtuvo del instrumento  tipo encuesta con 17 reactivos de la categorización El trabajo decente desde la perspectiva directiva, de los cuales se seleccionan dos reactivos para el estudio: Aquí se dan las mismas oportunidades de crecimiento para hombres y mujeres y Aquí se les paga igual a hombres y mujeres, ambas con posibles respuestas con la siguiente escala (5) Muy de acuerdo, (4) De acuerdo, (3) En desacuerdo, (2) Muy en desacuerdo, (1) No sé.    


CONCLUSIONES

De los resultados del análisis gráfico y estadístico descriptivo se argumenta que las empresas mypes ubicadas en la región de Mazatlán y el Rosario Sinaloa desde una perspectiva del personal en campo directivo con relación a que si la empresa da las mismas oportunidades de crecimiento para hombres y mujeres del total encuestado un 57 % está muy de acuerdo, mientras que un 38 % está de acuerdo, se observa en la descripción gráfica un 5 % de las mypes muestra que no identifican del todo que la empresa da las mismas oportunidades de crecimiento para hombres y mujeres. Seguidamente en el ámbito donde la empresa paga igual a hombres y mujeres, se identifica que el 61% de las mypes están muy de acuerdo, mientras que un 35 % está de acuerdo, se observa en la descripción gráfica un 4 % de las mypes muestra que no identifican del todo que la empresa paga igual a hombres y mujeres.  Con la información generada por el análisis descriptivo en empresas mypes del sur de Sinaloa y la investigación en fuentes auditadas sobre el tema, se puede argumentar que las mypes de la región de Mazatlán y el Rosario Sinaloa mantienen una gestión con un enfoque de equidad social de acuerdo con el resultado del análisis desde la perspectiva directiva donde un gran porcentaje está de acuerdo en que da las mismas oportunidades de crecimiento para hombres y mujeres, así también el mismo salario, aun así se detecta un porcentaje minoritario de mypes con área de oportunidad, con ello la importancia de investigar y analizar el nivel de productividad en empresas desde un enfoque de equidad social, el cual contribuye al objetivo 8 de la ODS2030 al promover el crecimiento económico inclusivo y sostenible, el empleo y el trabajo decente para todos.  
Jarillo Santos Kevin Guillermo, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Ivan Salgado Transito, Centro de Investigaciones en Óptica (CONACYT)

DISEñO MECáNICO DE SEGUIDOR SOLAR PARA UN SISTEMA FOTOVOLTAICO DE CONCENTRACIóN (CPV)


DISEñO MECáNICO DE SEGUIDOR SOLAR PARA UN SISTEMA FOTOVOLTAICO DE CONCENTRACIóN (CPV)

Jarillo Santos Kevin Guillermo, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Ivan Salgado Transito, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El creciente interés por las energías renovables ha impulsado el desarrollo de tecnologías que optimicen la captación de energía solar. Un seguidor solar para un sistema fotovoltaico de concentración (CPV) es una solución eficiente para maximizar la eficiencia de los paneles solares, alineándolos con el movimiento del sol. Este proyecto propone el diseño mecánico de un sistema de seguimiento solar que permita incrementar la eficiencia energética de los sistemas fotovoltaicos de concentración.



METODOLOGÍA

La fase de investigación y análisis implicará una revisión bibliográfica exhaustiva de documentos, patentes y publicaciones científicas relacionadas con seguidores solares. Se recopilará información de fuentes académicas y técnicas que aborden los principios de funcionamiento, diseños innovadores y aplicaciones prácticas de seguidores solares. Además, se analizarán normativas y estándares de diseño para sistemas fotovoltaicos de concentración, considerando regulaciones locales e internacionales que afecten el diseño y la implementación de estos sistemas. Se revisarán investigaciones previas que hayan demostrado mejoras en la eficiencia y durabilidad de los seguidores solares, así como tecnologías actuales en seguimiento solar. Un análisis de mercado detallado evaluará productos existentes, identificando ventajas y desventajas de diferentes sistemas de seguimiento solar. Se estudiarán los materiales y componentes utilizados en seguidores solares actuales, considerando su disponibilidad, costo y rendimiento en distintas condiciones ambientales.   En la fase de diseño conceptual, se seleccionarán los materiales adecuados para el seguidor solar, considerando durabilidad, resistencia, peso y costo. Se evaluarán propiedades mecánicas y térmicas de materiales como aluminio, acero inoxidable y materiales compuestos, asegurando que cumplan con los requisitos de rendimiento y sostenibilidad. Se crearán modelos 3D del seguidor solar utilizando software CAD avanzado, lo que permitirá una visualización precisa y detallada del diseño. Este software facilitará el diseño de componentes mecánicos y la estructura del sistema, optimizando el ensamblaje y la funcionalidad del seguidor solar. Durante esta etapa, se realizará una evaluación inicial del diseño en términos de funcionalidad y factibilidad, identificando posibles problemas y áreas de mejora.   La fase de simulaciones y pruebas será crucial para validar el diseño. Se utilizará un software especializado para simular el diseño mecánico bajo diferentes condiciones climáticas, tales como viento, lluvia, y variaciones extremas de temperatura. Estas simulaciones permitirán analizar cargas y esfuerzos en la estructura del seguidor solar, asegurando que el diseño sea robusto y capaz de soportar condiciones adversas sin comprometer su funcionalidad. Se evaluará la eficiencia del sistema de seguimiento solar en distintos escenarios, optimizando el algoritmo de seguimiento para maximizar la captación de energía solar.


CONCLUSIONES

Con base en los resultados esperados del proyecto, se anticipa que el diseño y desarrollo del seguidor solar mecánico para sistemas fotovoltaicos de concentración demostrará ser una solución eficaz para mejorar la captación de energía solar. La construcción y prueba del prototipo funcional en condiciones reales permitirá validar la eficiencia del diseño, proporcionando documentación técnica detallada y cuantificando el incremento de eficiencia en la captación solar en comparación con sistemas fijos. Al optimizar la alineación de los paneles solares con el movimiento del sol, se maximiza el rendimiento energético, promoviendo una mayor rentabilidad y una reducción efectiva de la huella de carbono. De este modo, el proyecto no solo cumple con sus objetivos específicos, sino que también ofrece una solución práctica y escalable para el aprovechamiento más eficiente de la energía solar.
Jiménez Angulo Samuel, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Mg. Claudio Alberto Moreno Arias, Fundación Universidad de América

DISEñO Y CONSTRUCCIóN DE UN PIROLIZADOR ELéCTRICO PARA LA CARACTERIZACIóN DEL ACEITE DE PIROLISIS DE RESIDUOS PLáSTICOS DE UN SOLO USO.


DISEñO Y CONSTRUCCIóN DE UN PIROLIZADOR ELéCTRICO PARA LA CARACTERIZACIóN DEL ACEITE DE PIROLISIS DE RESIDUOS PLáSTICOS DE UN SOLO USO.

Jiménez Angulo Samuel, Tecnológico de Estudios Superiores de Valle de Bravo. Sánchez Rojas Alejandro, Universidad Tecnológica de Bahía de Banderas. Asesor: Mg. Claudio Alberto Moreno Arias, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

En latinoamérica existe un gran problema con los plásticos aunado a una falta de cultura sobre el reciclaje o reutilización sobre los residuos. Los plásticos de un solo uso de polipropileno y las bolsas plásticas de baja densidad son los que mayor afectación ambiental generan en las sociedades latinas, este tipos de residuos son los provocadores de contaminación, malos olores, generadores de infecciones, inundaciones por su acumulación en alcantarillas, etc. Al encontrar un segundo uso aprovechamos una economía sostenible y valorizando todos los residuos podemos analizar más que productos nos sirven más para un proceso en el que se tenga un aprovechamiento más eficiente que el de solo basura.



METODOLOGÍA

Diseño y construcción Para el diseño del pirolizador, se utilizó el software AutoCAD, colaborando estrechamente con el investigador para crear un modelo eficiente y preciso. El objetivo era desarrollar un pirolizador eléctrico equipado con una resistencia de 2000W de potencia. El diseño se centró en una olla de presión con un diámetro de 22 cm y una altura de 18 cm, a la cual se incorporó un termómetro para medir la temperatura y controlar el tiempo del proceso de pirolisis, permitiendo así una cuantificación precisa de la viabilidad. del proyecto Se seleccionó una olla de presión con una capacidad de 4,5 litros como el recipiente principal para introducir los residuos plásticos, los cuales fueron previamente tratados, limpiados y triturados. La resistencia eléctrica fue diseñada y fabricada por un proveedor especializado, asegurando que tuviera las dimensiones adecuadas para envolver la olla de presión. Esta resistencia debía alcanzar una temperatura interna de hasta 750°C, suficiente para llevar a cabo la pirolisis de los materiales plásticos. Sistema de Enfriamiento y Condensado En la tapa de la olla de presión, se instaló una tubería conectada a la válvula de presión para permitir la salida de los vapores generados durante el proceso. Se utilizó un tubo de cobre tipo L de ¾ de pulgada, de 25 cm de longitud, con un doblez de 90° a lo largo. Esta tubería estaba conectada a un sistema de enfriamiento diseñado para condensar los vapores. El sistema consistía en un serpentín de 7 vueltas de 1 metro de longitud, fabricado con el mismo tipo de tubo, el cual se sumergió en un recipiente con agua y hielo par. Definición El pirolizador se diseñó para procesar dos tipos específicos de plásticos: utensilios de polipropileno y bolsas de polietileno de baja densidad (LDPE). Las bolsas LDPE, un polímero termoplástico común, fueron seleccionadas por su alta presencia en el mercado y sus propiedades físicas favorables para la pirolisis. De igual manera, los utensilios de polipropileno, reconocidos por su resistencia y durabilidad, fueron incluidos en el estudio. Estos materiales fueron recolectados, limpiados y triturados; el polipropileno se trituró utilizando un molino, mientras que el LDPE se preparó manualmente Montaje y prueba del pirolizador El ensamblaje del pirolizador se realizó en un espacio al aire libre dentro de las instalaciones de la Facultad de Ingeniería. Se ensamblaron todas las partes del reactor y se cerró la olla de presión para comenzar el proceso de pirolisis. Durante los primeros 30 minutos, se observará un incremento gradual de la temperatura, alcanzando los 300°C en el interior de la olla, momento en el cual se comenzó a recolectar el líquido. Análisis del Producto Pirolizado El líquido obtenido fue llevado a un laboratorio para determinar su composición, analizando si se trataba de gasolina o diésel. Se realizaron mezclas en diferentes proporciones con diésel convencional (10% líquido pirolizado - 90% diésel, 20% - 80%, y 50% - 50%) y se probaron en un motor monocilíndrico generador de diésel. Las pruebas evalúan el rendimiento del motor, la carga, la velocidad, las RPM y Resultado Los resultados indicaron que todos los combustibles mezclados con el líquido pirolizado mostraron un desempeño satisfactorio, con una variación de eficiencia de menos del 15%. Estas pruebas confirman la viabilidad del uso del pirolizado como combustible alternativo, siendo su desempeño comparable al diésel convencional.


CONCLUSIONES

La investigación sobre el diseño y construcción de un pirolizador eléctrico demostró ser confortable al lograr convertir residuos plásticos en un líquido pirolizado utilizable como combustible alternativo. A través del uso de AutoCAD, se diseñó un sistema eficiente que incluyó una resistencia eléctrica de 2000W y una olla de presión de 4.5 litros, complementados con un sistema de enfriamiento para condensar los vapores generados. Se evaluaron dos tipos de plásticos: utensilios de polipropileno y bolsas de polietileno de baja densidad (LDPE), los cuales fueron tratados, triturados y sometidos a pirolisis. Los experimentos revelaron que el líquido pirolizado obtenido podía ser mezclado con diésel convencional en diversas proporciones, manteniendo un rendimiento eficiente en motores diésel, con variaciones de eficiencia menores al 15%. Esto valida la viabilidad del proceso como una opción sostenible para el manejo de residuos plásticos y la producción de combustibles alternativos. La metodología implementada y los resultados obtenidos subrayan la potencialidad del pirolizador como una herramienta innovadora en la gestión de residuos y la producción de energía en América latina.
Jiménez Ballinas Alan Alexis, Universidad Tecnológica de La Selva
Asesor: Mtro. Armando Méndez Morales, Universidad Tecnológica de La Selva

CLASIFICADOR DE LIMONES PARA EL PROGRAMA SEMBRANDO VIDA


CLASIFICADOR DE LIMONES PARA EL PROGRAMA SEMBRANDO VIDA

Jiménez Ballinas Alan Alexis, Universidad Tecnológica de La Selva. Morales Rodríguez Mariana, Universidad Tecnológica de La Selva. Rodríguez Núñez Juan Carlos, Universidad Tecnológica de La Selva. Asesor: Mtro. Armando Méndez Morales, Universidad Tecnológica de La Selva



PLANTEAMIENTO DEL PROBLEMA

La industria agrícola, especialmente la producción de cítricos, demanda sistemas eficientes y precisos para la clasificación de frutos. La clasificación manual, tradicionalmente utilizada, es laboriosa, subjetiva y propensa a errores. La visión artificial, por su parte, ofrece una alternativa automatizada y objetiva para evaluar características como tamaño, forma, color y presencia de defectos en los frutos. La falta de un sistema eficiente de clasificación de limones en las unidades productivas del programa Sembrando Vida dificulta la determinación precisa del rendimiento de las plantaciones, la identificación de las variedades y la garantía de la calidad de los frutos destinados a la comercialización, lo que impacta negativamente en la rentabilidad de los productores.



METODOLOGÍA

Se recopilaron una gran cantidad de imágenes de limones de diferentes variedades, tamaños, colores y con distintos tipos de defectos. Para ello, se utilizaron imágenes en varias condiciones de iluminación, fondo y orientación de los limones para aumentar la robustez del sistema. A cada una de las imágenes se les realizó un etiquetado (labeling) delimitando la región específica del limón por medio de puntos, que representaban en coordenadas la posición del objeto. Esta anotación detallada permitió clasificar los limones en dos categorías principales: local y exportación. Una vez finalizado el proceso de etiquetado, se realizó la exportación de las imágenes ya etiquetadas para su posterior entrenamiento, dividiéndolas en tres partes: imágenes de entrenamiento, validación y prueba. Con ello, se llevó a cabo el entrenamiento de las redes neuronales de la visión artificial usando YOLO en su versión más reciente (YOLOv10). Las imágenes se procesaron en una resolución de 640x640 con un total de 30 épocas para 945 imágenes. Por otro lado, se trabajó con un prototipo a escala para poder realizar la clasificación. Este prototipo estuvo conformado por un área de depósito, una banda de transportación en la cual los limones se separaban por una división en la parte central, una cámara para la detección de las imágenes, dos áreas para clasificación (dos destinadas para exportación y dos para local), y por último, el área de descenso en donde los limones ya clasificados se dirigían a sus contenedores. Posteriormente, todo el sistema fue integrado en una aplicación web para el control y almacenamiento de los registros de cada clasificación por productor. En la aplicación web, se destinó un área para visualizar y definir las zonas de detección de imágenes. También se incluyó un formulario en el que cada productor podía registrar datos relevantes para la clasificación, como los datos del agricultor y la cantidad de limones en kg. Al iniciar el proceso, el sistema opera el prototipo y realiza la clasificación automáticamente. Una vez concluido el proceso, los resultados se muestran en la interfaz y los registros se almacenan en la base de datos.


CONCLUSIONES

Durante esta estancia de estadía se lograron adquirir una gran cantidad de conocimientos técnicos y sólidos sobre el campo de la visión artificial, algo que actualmente es muy utilizado en muchas industrias. Sin embargo, al ser un trabajo muy amplio, aún se encuentra en una fase inicial en la cual el entrenamiento de la red neuronal no está completado al 100%. Se espera poder mejorar el prototipo y llevar a cabo la mejora del entrenamiento de la red neuronal con una mayor cantidad de imágenes para que este sea más eficaz. Adicionalmente, el fortalecimiento tecnológico y la integración de estos avances en el programa "Sembrando Vida" pueden desempeñar un papel crucial en el apoyo de los vínculos económicos y sociales entre las zonas rurales y urbanas. La aplicación de la visión artificial, y otras tecnologías emergentes, como parte integral de este programa, podría facilitar la mejora de la conexión entre estos contextos, promoviendo tanto el desarrollo local como el potencial de exportación.
Jimenez Bedoya Carolain, Universidad del Valle
Asesor: M.C. Jonathan Zavala Díaz, Instituto Tecnológico de Morelia

ESTUDIO DE TéCNICAS DE ENMASCARAMIENTO PARA ADAPTACIóN DE GRANDES MODELOS DE LENGUAJE AL DOMINIO CLíNICO


ESTUDIO DE TéCNICAS DE ENMASCARAMIENTO PARA ADAPTACIóN DE GRANDES MODELOS DE LENGUAJE AL DOMINIO CLíNICO

Jimenez Bedoya Carolain, Universidad del Valle. Asesor: M.C. Jonathan Zavala Díaz, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

Con el avance de las TICs, se acumulan grandes volúmenes de datos en organizaciones, especialmente en sistemas de información clínica que no son fáciles de analizar. El procesamiento del lenguaje natural puede abordar este problema, mejorando la predicción de resultados de pacientes. Problema: La dificultad de analizar datos no estructurados en registros médicos, manteniendo la privacidad y precisión, se desea utilizar técnicas de enmascaramiento en modelos de lenguaje clínico para mejorar su rendimiento y utilidad en la atención médica, facilitando la toma de decisiones y mejorando los resultados de los pacientes.



METODOLOGÍA

La metodología para este proyecto se desarrollará en varias etapas, distribuidas a lo largo de 7 semanas, con el objetivo de aplicar técnicas de enmascaramiento en notas clínicas para el afinamiento de un modelo de lenguaje preentrenado. Etapa 1: Búsqueda de estudios de técnicas de enmascaramiento Realización de una revisión bibliográfica exhaustiva Selección de los estudios más relevantes Etapa 2: Recolección y preprocesamiento de datos Acceso a los datos disponibles en el data lake disponible de notas clínicas brindado por el Instituto tecnológico de Morelia. Realización del preprocesamiento y limpieza de los datos. Etapa 3 y 4: Implementación de técnicas de anonimización y enmascaramiento Implementación de varias técnicas de enmascaramiento Creación de conjuntos de datos de prueba Etapa 5: Entrenamiento y evaluación de modelos Uso de modelos de lenguaje preentrenados, Realización de pruebas Comparación de la precisión del modelo antes y después del afinamiento Etapa 6: Desarrollo de interfaz gráfica Diseño de una interfaz de usuario  Etapa 7: Análisis de resultados y documentación Análisis de los resultados obtenidos Documentación detallada del proceso


CONCLUSIONES

El preprocesamiento de datos en el procesamiento del lenguaje natural (NLP, por sus siglas en inglés) es una etapa crucial que consiste en transformar y limpiar los datos textuales para prepararlos para el análisis. Preprocesamiento realizado: Se realizó un preprocesamiento del contenido textual mediante los siguientes pasos: Eliminación de valores alfanuméricos Conversión a minúsculas Tokenización: El texto se dividió en palabras individuales (tokens). Eliminación de stop words: Se eliminaron las palabras vacías (stop words) que no aportan un significado significativo al análisis, como artículos, preposiciones y conjunciones. Luego de realizar el preprocesamiento, se analizaron las palabras tokenizadas para determinar su frecuencia, el rango de palabras que habia por nota clinica y el análisis de las enfermedades más comúnes encontradas en las notas, obteniendo: Las palabras más frecuentes son paciente y tratamiento. El rango de palabras en las notas clínicas está entre Este análisis permite obtener una visión clara de los 200 y 400 palabras. La enfermedad más común hallada en las notas es hipertensión. Este análisis es crucial para entender las áreas de mayor interés y preocupación en el contexto de la atención médica. Seguidamente, se aplicaron técnicas de enmascaramiento para mejorar las predicciones de notas clínicas de pacientes diabéticos utilizando las notas ya procesadas, se utilizaron dos enfoques principales: el enmascaramiento estilo BERT y el enmascaramiento dinámico de RoBERTa. BERT-Style Masking Enmascarar tokens aleatoriamente y entrenar el modelo para predecirlos. RoBERTa Dynamic Masking Generar patrones de enmascaramiento sobre la marcha durante el entrenamiento, mejorando el rendimiento. Después de los resultados no favorables con el enmascaramiento estilo BERT, se optó por explorar técnicas de enmascaramiento dinámico presentadas con RoBERTa. Esta técnica se aplicó al modelo PlanTL-GOB-ES/roberta-base-biomedical-clinical-es, que demostró ser prometedor en las primeras evaluaciones. Entrenamiento con Diferentes Cantidades de Notas Clínicas: Se entrenó el modelo con diferentes cantidades de notas clínicas (100, 3000, 6000, 10000 notas) y con varias épocas para analizar su evolución. Para evaluar el desempeño de los modelos desarrollados, se generó un conjunto de 101 notas clínicas. El objetivo fue analizar la predicción de la palabra enmascarada por cada modelo y determinar si la palabra predicha correspondía a la palabra original. De esta manera, se calculó la métrica de recall para cada modelo. roberta-base-biomedical-clinical-es: 81.19% roberta-base-biomedical-clinical-es (ajustado con 100 notas): 76.24% roberta-base-biomedical-clinical-es (ajustado con 3000 notas): 76.24% roberta-base-biomedical-clinical-es (ajustado con 3000 notas, segunda iteración): 78.22% roberta-base-biomedical-clinical-es (ajustado con 10.000 notas y 1 época): 79.21% roberta-base-biomedical-clinical-es (ajustado con 10.000 notas y 2 épocas): 79.21% Las pruebas iniciales con 10 notas clínicas mostraron mejores resultados con el modelo ajustado con 10,000 notas y 1 época, pero expandir las pruebas reveló que el modelo base era más eficaz. Esta fluctuación puede atribuirse a que los datos de prueba fueron generados utilizando la API de ChatGPT 3.5, lo que implica que el contexto ingresado para generar las notas de prueba pudo haber influido en los resultados. Los resultados obtenidos evidencian la importancia de realizar ajustes sobre los modelos para la predicción de condiciones clínicas. Pasos siguientes: Exploración de nuevas técnicas de enmascaramiento Ajuste de modelos Mejora de los datos de prueba
Jimenez Fernandez Ruben Saul, Universidad de Guadalajara
Asesor: Dr. Álvaro David Orjuela Cañón, Universidad del Rosario

RED NEURONAL PARA LA DETECCIóN DE TUBERCULOSIS EN RAYOS-X DE PECHO


RED NEURONAL PARA LA DETECCIóN DE TUBERCULOSIS EN RAYOS-X DE PECHO

Jimenez Fernandez Ruben Saul, Universidad de Guadalajara. Ramirez Angel Axel Yahir, Universidad de Guadalajara. Asesor: Dr. Álvaro David Orjuela Cañón, Universidad del Rosario



PLANTEAMIENTO DEL PROBLEMA

La medicina ha avanzado a lo largo de los años, buscando la erradicación de diversas enfermedades y, aunque ya se ha logrado con unas cuantas, la tuberculosis (TB) sigue siendo una enfermedad infecciosa que representa un problema de salud pública a nivel mundial. Las radiografías de pecho son una herramienta comúnmente utilizada para el diagnóstico de la TB, aunque su interpretación sigue siendo subjetiva y requiere experiencia. La implementación de una red neuronal para la clasificación de TB en imágenes representa un avance significativo para reducir esa subjetividad, además de aligerar la carga de trabajo para los médicos y ofrecer una interpretación más accesible y precisa de las radiografías de pecho a un mayor número de personas.



METODOLOGÍA

1. Obtención de Datos **Dataset Utilizado:** Utilizamos un conjunto de datos de rayos X de tórax, descargado de Kaggle, que ya estaba preprocesado, etiquetado, escalado en RGB y separado en conjuntos de entrenamiento, prueba y validación para la detección de tuberculosis. Este dataset incluye imágenes clasificadas como positivas y negativas para TB. 2. Preprocesamiento de Datos **Normalización de Imágenes:** Aseguramos que las imágenes estaban escaladas a un rango de valores entre 0 y 1. **Redimensionamiento:** Todas las imágenes fueron redimensionadas a un tamaño uniforme (por ejemplo, 224x224 píxeles) para asegurar la compatibilidad con las diversas arquitecturas de red neuronal que utilizamos. 3. División de Datos **Entrenamiento, Validación y Prueba:** El dataset ya estaba dividido en conjuntos de entrenamiento, validación y prueba, lo que facilitó la organización y evaluación del rendimiento del modelo en cada etapa del proceso. 4. Arquitecturas de la Red Neuronal **Modelos Utilizados:** - **MobileNet:** Una red ligera y eficiente en términos de computación, ideal para dispositivos móviles. - **ResNet:** Una red profunda con conexiones residuales, conocida por su alta precisión en tareas de clasificación de imágenes. - **Secuencial:** Un modelo personalizado utilizando la API Sequential de Keras, permitiéndonos experimentar con diferentes configuraciones de capas. **Configuración del Modelo:** - **Capas Convolucionales:** Utilizamos varias capas convolucionales para extraer características relevantes de las imágenes. - **Capas de Pooling:** Incluimos capas de max-pooling para reducir dimensionalidad y capturar características esenciales. - **Capas Densas:** Implementamos capas completamente conectadas para la toma de decisiones basada en las características extraídas. - **Función de Activación:** ReLU para capas internas y softmax para la capa de salida. 5. Entrenamiento del Modelo **Configuración de Hiperparámetros:** - **Épocas:** Entrenamos los modelos durante 10 o 50 épocas dependiendo el modelo. - **Tamaño del Lote:** Utilizamos diferentes tamaños de lote para cada modelo, buscando la configuración que diera mejores resultados. - **Tasa de Aprendizaje:** Establecimos una tasa de aprendizaje inicial de 0.001. - **Optimización:** Utilizamos el optimizador Adam debido a su eficacia y popularidad en problemas de visión por computadora. - **Pérdida:** Empleamos la función de pérdida binary cross-entropy para las tareas de clasificación binaria. 6. Evaluación del Modelo Métricas de Evaluación: - Precisión: Medimos la proporción de predicciones correctas. - Recall: Evaluamos la capacidad del modelo para detectar correctamente los casos positivos. - F1-Score: Balanceamos precisión y recall. - *7. Implementación y Validación Final Evaluación en Conjunto de Prueba: Evaluamos el modelo final en el conjunto de prueba para obtener una medida imparcial de su rendimiento. Visualización de Resultados: Generamos matrices de confusión, reportes de clasificación y gráficos que evaluaban la precisión y pérdida de entrenamiento y validación para visualizar el desempeño del modelo.


CONCLUSIONES

  En este trabajo de investigación, se evaluaron tres arquitecturas de redes neuronales (Secuencial, ResNet y MobileNet) para la detección de tuberculosis en rayos X de pecho, comparando su rendimiento cuando se entrenaron con imágenes preprocesadas y sin procesar. Los resultados muestran variaciones significativas en la precisión de las redes dependiendo del tipo de procesamiento de las imágenes. La arquitectura Secuencial obtuvo una precisión del 95% con datos crudos y del 96% con datos preprocesados, lo que sugiere una ligera mejora en la precisión al aplicar técnicas de preprocesamiento. Por otro lado, la arquitectura ResNet presentó una precisión notablemente superior con datos crudos (99%) en comparación con los datos preprocesados (94%). Esto indica que ResNet puede estar extrayendo características relevantes de manera más efectiva de las imágenes sin procesar. En contraste, MobileNet mostró una precisión relativamente baja en ambas condiciones, con un 86% para datos crudos y un 88% para datos preprocesados, indicando una leve mejora con el preprocesamiento pero, en general, un rendimiento inferior en comparación con las otras arquitecturas. Estos resultados sugieren que el impacto del preprocesamiento de imágenes puede variar significativamente según la arquitectura de la red neuronal utilizada. Mientras que el preprocesamiento parece beneficiar ligeramente a la red Secuencial y MobileNet, ResNet demostró un rendimiento superior con imágenes sin procesar. Por lo tanto, es esencial considerar tanto la elección de la arquitectura como la necesidad de preprocesamiento en el diseño de sistemas de detección automática de tuberculosis en imágenes de rayos X. En futuras investigaciones, sería beneficioso explorar las razones detrás del mejor rendimiento de ResNet con datos crudos y si hay posibles mejoras en las técnicas de preprocesamiento que podrían optimizar el rendimiento de todas las arquitecturas estudiadas.
Jiménez Gómez Athziri Yazmin, Instituto Tecnológico de Tlalnepantla
Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato

IDENTIFICACIóN DE RIESGOS POR PUESTO DE TRABAJO PARA DETERMINAR EL EPP DENTRO DE UN LABORATORIO DE MANUFACTURA


IDENTIFICACIóN DE RIESGOS POR PUESTO DE TRABAJO PARA DETERMINAR EL EPP DENTRO DE UN LABORATORIO DE MANUFACTURA

Alvarez González Orlando Anthony, Instituto Tecnológico Superior de Guanajuato. Galán Reyes Teresa Deyanira, Instituto Tecnológico Superior de Ciudad Hidalgo. Jiménez Gómez Athziri Yazmin, Instituto Tecnológico de Tlalnepantla. Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Una Institución de Educación Superior (IES) cuenta con personal administrativos y docente, es así que en su oferta educativa se encuentran 5 ingenierías; sin embargo, dos de ellas realizan prácticas en el laboratorio de manufactura donde desempeñan actividades que involucran el uso de maquinaria y equipo por parte de los laboratoristas, docentes y estudiantes. Por lo tanto, los trabajadores se encuentran expuestos a peligros de trabajo que pudieran ocasionar un riesgo durante la operación. El estudio se considera una investigación aplicada ya que se realizó la adaptación de herramientas de seguridad industrial para la reducción de la probabilidad de riesgo durante la exposición a los peligros de la maquinaria y equipos; considerando un enfoque cuantitativo, un alcance descriptivo y un diseño transversal, así como la operacionalización de variables enfocada al conteo de peligros identificados. La importancia de este estudio radica en la necesidad de garantizar un ambiente seguro para todos los usuarios del laboratorio, minimizando los accidentes y mejorando las condiciones laborales.



METODOLOGÍA

Para el desarrollo del estudio se identificaron dos instrumentos de recogida de datos basados en la NOM-017-STPS incorporando las disposiciones 5.2 y 5.3 además de la aplicación de la guía de referencia que contiene las tablas A1 y A2. Estos instrumentos se utilizaron para garantizar la adecuada evaluación y control de riesgos en el laboratorio de manufactura. Se desarrollo un análisis de riesgos el cual contiene la razón social, las actividades a desarrollar, el puesto de trabajo, los riesgos identificados, los riesgos anatómicos, las medidas de seguridad, los trabajadores a los que se les debe de proporcionar EPP, nombre y firma del trabajador analizado. Además, se determinó el EPP por puesto de trabajo. El instrumento diseñado para esta evaluación debe contener el puesto de trabajo evaluado, la maquinaria y equipo, EPP por región anatómica y especificaciones técnicas del EPP, asegurando que el equipo proporcionado es adecuado para proteger contra los riesgos identificados.


CONCLUSIONES

Como resultado se identificaron el total de peligros por maquinaria y equipo logrando clasificar la cantidad de riesgos físicos y de salud.  Como seguimiento al análisis de riesgo se establecieron medidas de seguridad y control por cada peligro identificado. Este proceso permitió una comprensión integral de los peligros presentes en la seguridad de los trabajadores y estudiantes. Tanto el objetivo general como los objetivos específicos fueron logrados con éxito. Se realizó un análisis de riesgo y determinación de EPP necesario por cada puesto de trabajo.  Además, de realizar actividades complementarias como el uso de jerarquía de controles y especificaciones técnicas del EPP a utilizar. En cuanto a las limitaciones del estudio se identifica que el análisis solo es una propuesta que es importante que adopte el centro de trabajo además de que se sugiere la implementación de las disposiciones correspondientes a la asignación, uso y manejo de EPP según lo marca la NOM-017-STPS.
Jimenez Hernández Gerardo, Universidad Veracruzana
Asesor: Dra. Ana Cecilia Borbón Almada, Universidad de Sonora

MURO DE PANELES ESTRUCTURALES (PANEL W)


MURO DE PANELES ESTRUCTURALES (PANEL W)

Jimenez Hernández Gerardo, Universidad Veracruzana. Asesor: Dra. Ana Cecilia Borbón Almada, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Se realizó un poster en donde se habla y se realizan calculos  sobre la conductividad y resistencia térmica de los materiales, selecccionamos un material en donde realizaremos calculos de la resistencia de cada capa que conforman el muro y la resistenca total del muro terminado.   



METODOLOGÍA

Se tomaron los valores y formulas que se proponen en la NOM-020-ENER-2011 y los anexos de NMX-C-460-ONNCCE-2009, asi como la busqueda de información y normas vigentes.


CONCLUSIONES

Una vez entendido todo los conceptos que se tocaron durante la estancia de investigación, procedemos a aplicarlos para calcular la resistencia total de un muro de paneles estructurales (Panel W). Aplicamos las formulas correspondientes para un sistema constructivo homogéneo y obtenemos que la resistencia térmica total del muro es de: Rt= 1.13 m2 K/W
Jimenez Hernandez Jose Miguel, Universidad Tecnológica de La Selva
Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva

SKOP KAP: UNA APLICACIÓN MÓVIL PARA LA COMUNICACIÓN CON PERSONAS CON DISCAPACIDAD AUDITIVA


SKOP KAP: UNA APLICACIÓN MÓVIL PARA LA COMUNICACIÓN CON PERSONAS CON DISCAPACIDAD AUDITIVA

García Gonzalez Andy, Universidad Tecnológica de La Selva. Guillén Trujillo Pedro Emmanuel, Universidad Tecnológica de La Selva. Jimenez Hernandez Jose Miguel, Universidad Tecnológica de La Selva. Montiel Torres Sergio Amaury, Universidad Tecnológica de La Selva. Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva



PLANTEAMIENTO DEL PROBLEMA

Actualmente, aproximadamente 430 millones de personas (5% de la población mundial) sufren de algún tipo de pérdida auditiva, 432 millones de adultos y 34 millones de niños requieren rehabilitación. La OMS prevé que para el 2050 esa cifra superará los 700 millones de personas, es decir, una de cada diez personas en el mundo sufrirá está discapacidad (OMS, 2023; Organización de las Naciones Unidas [ONU], 2021). En América Latina, cerca de 217 millones de personas cuentan con pérdida auditiva (21.5% de la población), por lo que, atender esta discapacidad, representa un gasto anual de 262 millones para la región.  La OPS prevé que para el 2050 aumente a 322 millones de personas con dicha discapacidad. (Organización Panamericana de la Salud [OPS], s.f.).    En México, más de 1.35 millones de personas presentan una discapacidad auditiva; más de 550 mil son personas mayores de 60 años, más de 400 mil tienen entre 30 y 59 años, más de 133 mil tienen entre 15 y 29 años, y más de 139 mil son niños menores de 15 años.  Esta discapacidad, el 44.4% lo adquirió por la edad avanzada que presenta, el 15.4% lo tiene de nacimiento, el 24.3% lo adquirió a causa de alguna enfermedad, el 7.3% a causa de un accidente y el 8% por otras causas (Instituto Nacional de Estadística y Geografía [INEGI], 2020a, INEGI, 2020b).  Comunicarse con personas que presentan ésta discapacidad sin tener el conocimiento de un lenguaje de señas es muy complicado, ya que nuestra sociedad está basada a través del lenguaje oral, por lo que, se excluye de cierto modo a las personas que sufren esta discapacidad. En México, existe el Lenguaje de Señas Mexicana que es utilizado por personas sordas para poder comunicarse, ésta tiene su propia sintaxis, gramática y léxico (Consejo Nacional para el Desarrollo y la Inclusión de las Personas con Discapacidad [CONADIS], 2016). En la actualidad, existen pocas herramientas tecnológicas creadas con el objetivo de ayudar a la comunicación con personas que tienen esta discapacidad, debido a la falta de interés en esta sección de la sociedad.    Desarrollar una aplicación móvil que traduzca del lenguaje oral al lenguaje de señas, mediante la implementación de inteligencia artificial, para la comunicación entre cualquier persona y una con discapacidad auditiva.  



METODOLOGÍA

Para el desarrollo de la aplicación "SK'OP K'AP", se ha optado por utilizar la metodología ágil Scrum. Esta elección se basa en la necesidad de adaptarse rápidamente a los cambios y la importancia de mantener una colaboración continua entre los miembros del equipo de desarrollo. Scrum es particularmente adecuado para proyectos de software como el nuestro, donde la interacción constante con los usuarios finales es crucial para desarrollar una solución efectiva y centrada en sus necesidades.   La elección de Scrum como marco de trabajo está fundamentada en su flexibilidad y estructura iterativa. Según Pérez, O.A. (2011)., Scrum facilita la adaptación a las necesidades cambiantes del proyecto mediante la división del trabajo en sprints (iteraciones cortas), que permiten una revisión constante y ajustes según los resultados obtenidos y el feedback de los usuarios. Esta metodología también fomenta la auto organización y la responsabilidad dentro del equipo, aspectos clave para el éxito en el desarrollo de software.   El proyecto se dividirá en sprints, cada uno con una duración de dos semanas; Sprint 1: Desarrollo del protocolo de investigación del proyecto Sprint 2: Definir la metodología para el desarrollo de la aplicación Sprint 3: Diseño y modelado 3D y programación de manos Sprint 4: Diseño y desarrollo de la interfaz de usuario de la app Móvil Sprint 5: Aprendizaje Automatizado.  


CONCLUSIONES

Durante el desarrollo de la aplicación, se logró crear una app móvil con avatares 3D que representan el lenguaje de señas mediante animaciones. Además, se integró una inteligencia artificial entrenada para traducir entre el lenguaje de señas y el lenguaje hablado de manera bidireccional. Los resultados obtenidos en este corto periodo de desarrollo fueron muy positivos, estableciendo una base sólida para futuros avances. El próximo paso será perfeccionar cada aspecto de la app, mejorando la interacción entre sus componentes y optimizando la inteligencia artificial para brindar traducciones más precisas. De esta manera, se espera ofrecer una solución de alta calidad que ayude a superar las barreras de comunicación que enfrentan las personas con discapacidad auditiva.
Jiménez Loaiza Camilo, Universidad Católica de Pereira
Asesor: Mtro. Juan Manuel Fernández Alvarez, Universidad Tecnológica de Manzanillo

LOGIBOT: CARRITO AUTóNOMO PARA MOVIMIENTO INTELIGENTE DE CARGA EN ALMACéN.


LOGIBOT: CARRITO AUTóNOMO PARA MOVIMIENTO INTELIGENTE DE CARGA EN ALMACéN.

Flórez Mesa Alejandro, Universidad Católica de Pereira. Jiménez Loaiza Camilo, Universidad Católica de Pereira. Asesor: Mtro. Juan Manuel Fernández Alvarez, Universidad Tecnológica de Manzanillo



PLANTEAMIENTO DEL PROBLEMA

La seguridad y eficiencia en los almacenes dependen en gran medida de la capacitación adecuada de los operadores de montacargas. Sin embargo, los métodos tradicionales presentan riesgos significativos, como el uso de maquinaria pesada en entornos reales, lo que expone a los aprendices a posibles accidentes y daños a la infraestructura. Para enfrentar este problema, surge la necesidad de una herramienta educativa innovadora que permita la capacitación en un entorno seguro y controlado. LogiBot es una solución que utiliza tecnología de carritos autónomos en una maqueta a escala de un almacén. Ofrece un ambiente de aprendizaje atractivo y libre de riesgos, permitiendo a los participantes practicar habilidades de manejo de cargas de manera segura y eficiente. El proyecto se desarrolla en tres fases: Fase 1: Diseño y construcción del carrito autónomo desde cero, implementando la tecnología necesaria para su funcionamiento. Fase 2: Implementación de visión artificial para la navegación autónoma del carrito y creación de una maqueta a escala del almacén, simulando un entorno real de trabajo. Fase 3: Desarrollo de una interfaz de usuario intuitiva que permita a los usuarios interactuar con el sistema de forma fácil y efectiva.



METODOLOGÍA

El método de trabajo de LogiBot sigue la metodología Scrum, que permite una gestión ágil y flexible del proyecto. El equipo de desarrollo, compuesto por estudiantes de la Universidad Católica de Pereira y profesores de la Universidad Tecnológica de Manzanillo, trabaja en sprints de cuatro puntos. Las actividades incluyen la definición de requisitos, investigación, construcción y adquisición de materiales, programación del carrito autónomo e integración del hardware. Planificación y Desarrollo: El proyecto se desarrolla en un plazo de 7 semanas, con un plan de trabajo definido por el SCRUM Master para cada semana. Las fases incluyen investigación, enfoque del proyecto, diseño de esquemas electrónicos y estructurales, codificación, pruebas y optimización. Semana 1: Reunión en la Universidad Tecnológica de Manzanillo para definir objetivos y plan de trabajo. Investigación de proyectos relacionados. Semana 2: Diseño del esquema 3D de la estructura del LogiBot y creación de un primer prototipo. Decisión de construir una PCB para optimizar el espacio y distribución de elementos. Semana 3: Revisión del primer prototipo y diseño de un segundo prototipo con mejoras. Construcción del diseño electrónico final para impresión. Semana 4: Trabajo en el documento final del proyecto, recolección de materiales, solución de problemas con placas microcontroladoras y optimización de la gestión de elementos. Ajuste del diseño esquemático y documentación de avances. Entrega del diseño final para impresión y verificación de sensores. Semana 5: Resolución de contratiempos con la impresión 3D y componentes electrónicos. Cambio del microcontrolador ESP32 por Arduino UNO, rediseño de la PCB y prueba exitosa de los componentes electrónicos. Avance en el ensamblaje del LogiBot, resolución de problemas de potencia y cambio a Arduino MEGA 2560 con nuevos drivers. Semana 6: Avances significativos en el ensamblaje del robot, fijación de sensores y motores, y construcción del sistema electrónico completo. Finalización del diseño de la PCB e impresión en JLCPCB. Conexión de nuevos drivers y creación de un algoritmo para el funcionamiento lógico del LogiBot. Capacitación en comunicación serial entre Arduino y Android, desarrollo de aplicaciones en Android Studio y fundamentos de visión artificial con OpenCV. Elaboración de informes, redacción de un resumen del proyecto y actualización del backlog del producto. Semana 7: Llegada de la PCB el martes 30 de julio. Inicio de la construcción del LogiBot y avances en el documento para el programa Delfín. Trabajo intensivo durante la semana, finalización del robot y del documento. El jueves 1 de agosto se terminó el proyecto.


CONCLUSIONES

El desarrollo del proyecto LogiBot ha sido un viaje emocionante lleno de desafíos y triunfos. La falta de experiencia inicial en robótica avanzada, modelado 3D y diseño de PCB presentó obstáculos, pero el equipo demostró un compromiso inquebrantable con el aprendizaje y la superación. Se completó la primera fase del proyecto con éxito, implementando un sistema de control autónomo basado en seguidores de línea, sensores para prevención de accidentes y un motor para la manipulación de carga. LogiBot representa un avance prometedor en la capacitación de montacarguistas, combinando seguridad y efectividad en un entorno lúdico. La metodología Scrum ha sido fundamental para gestionar el desarrollo de manera ágil y eficiente. Los resultados preliminares justifican la continuación hacia la fase dos, con la implementación de capacidades avanzadas de reconocimiento de imágenes y mejoras en la interacción del usuario. LogiBot no solo es una herramienta innovadora, sino que también ha demostrado la capacidad del equipo para trabajar de manera colaborativa, utilizando Scrum para asegurar la calidad del proyecto. La participación en el Programa Delfín y la colaboración con la UTEM han sido experiencias enriquecedoras, impulsando el crecimiento personal y profesional del equipo. La conclusión de la primera fase genera nostalgia, pero también fomenta la búsqueda de nuevas oportunidades de aprendizaje y crecimiento.
Jimenez Medina Dominick Mateo, Universidad de Guadalajara
Asesor: Mg. Isabel Cristina Echeverri Ocampo, Universidad Autónoma de Manizales

BIOMARCADORES EN DEPRESIóN CON SEñALES DE ELECTROENCEFALOGRAFíA


BIOMARCADORES EN DEPRESIóN CON SEñALES DE ELECTROENCEFALOGRAFíA

Jimenez Medina Dominick Mateo, Universidad de Guadalajara. Rocha Páramo Joselyn, Universidad Autónoma de Baja California. Ruelas Estrada Edwin Alain, Universidad de Sonora. Asesor: Mg. Isabel Cristina Echeverri Ocampo, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

La depresión es un trastorno mental complejo y multifacético que afecta significativamente a millones de personas en todo el mundo. Según la Organización Mundial de la Salud (OMS), se estima que aproximadamente 280 millones de personas sufren de depresión, lo que representa el 3.8% de la población mundial. A pesar de los avances significativos en el campo de la psiquiatría y la psicología, el diagnóstico de la depresión sigue basándose en gran medida en evaluaciones clínicas y cuestionarios subjetivos. Estos métodos, aunque útiles, presentan limitaciones importantes debido a su naturaleza subjetiva y a la variabilidad en la presentación de los síntomas. La falta de herramientas diagnósticas objetivas y cuantificables dificulta la identificación precisa de la depresión y, en consecuencia, la personalización de los tratamientos. La búsqueda de biomarcadores específicos para la depresión ha emergido como una estrategia crucial para abordar estas limitaciones. Los biomarcadores son indicadores biológicos que pueden medirse objetivamente y proporcionar información sobre procesos patológicos, estados de enfermedad o respuestas a intervenciones terapéuticas. En el contexto de la depresión, los biomarcadores podrían ofrecer una forma más precisa y objetiva de diagnosticar el trastorno, monitorizar su progresión y evaluar la eficacia de los tratamientos.



METODOLOGÍA

Para identificar las investigaciones más recientes y relevantes sobre el uso de señales de EEG en el estudio de la depresión, se creó una cadena de búsqueda específica utilizando las palabras clave "depression", "mental health", "EEG" y "electroencephalography". Esta cadena se aplicó en diversas bases de datos, incluyendo Scopus, PubMed, ScienceDirect y Google Scholar. Los criterios de inclusión consideraron artículos publicados en inglés y español, realizados en los últimos cinco años y que utilizaran EEG como herramienta principal para la evaluación de la actividad cerebral. Se excluyeron artículos que investigaban otros trastornos neurológicos además de la depresión o estudios con más de cinco años de antigüedad. La revisión inicial consistió en la lectura de títulos y resúmenes de los artículos obtenidos, permitiendo una selección preliminar de estudios relevantes. Los artículos filtrados se organizaron en tablas comparativas para contrastar las metodologías empleadas y los resultados obtenidos. Junto con la revisión literaria, se planteó una metodología para indagar en los resultados recopilados, para esto se seleccionó un sujeto control y un sujeto con diagnóstico sugerente de depresión, se procesaron las señales obtenidas y se realizó un análisis de conectividad funcional en ambos casos. Para el procesamiento de las señales EEG, tanto del sujeto control como del sujeto con depresión, se aplicó un filtro pasa banda, centrando la señal en el rango de frecuencias de interés y eliminando señales de ruido. Posteriormente, se identificaron y eliminaron diferentes artefactos haciendo un análisis de componentes independientes (ICA).  El análisis de conectividad funcional se realizó utilizando el método wPLI, evaluando la consistencia de los desfases entre señales de EEG. Finalmente, se compararon los resultados de las señales EEG de los dos sujetos de prueba para identificar diferencias significativas en los ritmos cerebrales y la conectividad funcional. Los datos obtenidos de los artículos revisados y los experimentos propios se integraron para proporcionar una visión comprensiva de la utilidad del EEG como herramienta diagnóstica en la depresión.


CONCLUSIONES

La presente investigación se fundamenta en la revisión de literatura reciente y en un estudio experimental que analiza el uso de señales de electroencefalografía (EEG) en la identificación de biomarcadores para la depresión. A través del análisis detallado de las ondas cerebrales se observaron alteraciones significativas, especialmente en las ondas delta, que oscilan en el rango de 4Hz a 7Hz y están asociadas con un estado de reposo. El protocolo experimental incluyó pruebas con ojos cerrados y abiertos, aplicando diferentes estímulos en cada periodo. Los resultados de estas pruebas demostraron que el EEG es una herramienta viable y eficaz para el diagnóstico y tratamiento de la depresión. Mediante el uso de filtros específicos, fue posible identificar con mayor claridad las ondas cerebrales, permitiendo una comparación detallada entre los sujetos de prueba. Se encontró que las ondas alpha y beta mostraron cambios significativos en individuos con depresión, revelando diferencias notables en los ritmos cerebrales, coherencia y conectividad funcional entre individuos con depresión y sujetos sanos. Estas diferencias se correlacionaron con la severidad de los síntomas depresivos. La implementación de algoritmos de aprendizaje automático, como Máquinas de Vectores de Soporte (SVM), Bosques Aleatorios, Potenciación del Gradiente, Redes Neuronales Convolucionales (CNN) y Redes LSTM (Long Short-Term Memory), permitió una clasificación precisa de individuos con y sin depresión. Estos algoritmos buscan identificar patrones específicos en las señales EEG para su implementación como biomarcadores, mejorando así la precisión del diagnóstico y la personalización de los tratamientos. Los hallazgos obtenidos respaldan el uso de biomarcadores no solo para diagnosticar la depresión, sino también para monitorear su progresión y respuesta al tratamiento. Esto abre nuevas posibilidades para desarrollar herramientas diagnósticas y terapéuticas más efectivas y personalizadas. La capacidad de estos biomarcadores para proporcionar una medida objetiva de la actividad cerebral y su relación con los estados emocionales y cognitivos ofrece una ventaja significativa sobre los métodos tradicionales basados en evaluaciones clínicas y cuestionarios subjetivos.
Jimenez Olivares Laura Yazbeth, Universidad de Guadalajara
Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez

CARDIOLOGíA DIGITAL: MODELO PREDICTIVO CON ENFOQUE EN PRONóSTICO Y TRATAMIENTO


CARDIOLOGíA DIGITAL: MODELO PREDICTIVO CON ENFOQUE EN PRONóSTICO Y TRATAMIENTO

Figueroa Aranda Javier Antonio, Universidad de Guadalajara. González Robles Sofia Arizbé, Universidad de Guadalajara. Jimenez Olivares Laura Yazbeth, Universidad de Guadalajara. Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez



PLANTEAMIENTO DEL PROBLEMA

El aumento de las incidencias de insuficiencia cardíaca (IC) se debe a causas multifactoriales, incluyendo disfunción diastólica y daño cardíaco por comorbilidades como obesidad, enfermedad renal crónica (CKD), enfermedad pulmonar obstructiva crónica (EPOC) y amiloidosis cardíaca. Esta condición afecta a 64 millones de personas en todo el mundo. Una métrica crucial para su diagnóstico es la fracción de eyección ventricular izquierda (LVEF), que evalúa la capacidad del corazón para bombear sangre adecuadamente según las demandas metabólicas. Las causas del mal funcionamiento del corazón están asociadas con un mayor riesgo en personas mayores. Los síntomas de la IC incluyen alta morbilidad posterior al padecimiento. Si no se aborda adecuadamente, puede llevar a la muerte o problemas cardíacos recurrentes, obligando a los pacientes a cambiar sus hábitos de vida, consumir medicamentos y realizar visitas constantes al médico. Los tratamientos pueden volverse invasivos, incluyendo marcapasos, cirugías, trasplantes o equipos de asistencia ventricular, imponiendo una carga significativa tanto a los pacientes como a los sistemas de salud. Para mejorar el pronóstico de los pacientes, se plantea un modelo de aprendizaje automático (ML) para predecir el evento de muerte por IC basado en un historial clínico enfocado en biomarcadores y factores de riesgo. Este modelo permitiría un control y monitoreo exhaustivo posterior a un evento cardíaco, mejorando las estadísticas sobre la recurrencia de estos eventos y reduciendo la mortalidad. La predicción y el manejo proactivo mediante tecnologías avanzadas pueden ofrecer una esperanza significativa para la mejora en la calidad de vida de los pacientes con IC y una reducción en la carga global de esta enfermedad.



METODOLOGÍA

Este proyecto se desarrollará utilizando la metodología CRISP-DM (Cross Industry Process Model for Data Mining), un enfoque estructurado ideal para proyectos de inteligencia artificial que utilizan minería de datos y algoritmos de aprendizaje automático, especialmente en el procesamiento de bases de datos (KDD). Fase I: El primer paso es concretar los objetivos y la utilidad en el negocio, estableciendo el punto de partida y reconociendo recursos y límites presentes. Se buscaron materiales de estudio y un dataset relacionado con pacientes diagnosticados con IC. Fase II: El objetivo es familiarizarse con los datos y analizar la estructura. En el dataset se reconocieron 5000 filas y 12 columnas de atributos que pertenecen a datos biométricos y comorbilidades. El análisis se centra en la clase Evento de muerte, que define si el paciente murió o no. Factores de riesgo relevantes: Presencia de anemia, diabetes, hipertensión,Si es o no fumador y niveles de CK-MB, fracción de eyección, creatinina sérica, plaquetas y sodio sérico Fase III: Los atributos identificados con valores de referencia relevantes forman un conjunto definitivo que será utilizado en la siguiente fase. Los rangos utilizados en las variables numéricas permiten cumplir los objetivos del proyecto. Aunque algunos valores están fuera del rango, es importante no eliminarlos, ya que representan información real y única de cada paciente. Fase IV: En esta fase, se identificaron tres posibles modelos: Random Forest, Redes Neuronales y Regresión Logística. Cada uno tiene sus propias características y fortalezas, y se busca elegir el más adecuado para nuestro problema. Random Forest: Obtuvo una exactitud del 99%, lo cual puede indicar sobreajuste, ya que un modelo casi perfecto puede aprender demasiado bien los detalles del conjunto de entrenamiento, perdiendo capacidad de generalización. Redes Neuronales: Obtuvo una exactitud del 47%. La precisión baja puede deberse a la necesidad de más datos. Regresión Logística: Obtuvo una exactitud del 78%, siendo un resultado más realista y robusto. Este modelo es más interpretable y confiable para generalizar en diferentes conjuntos de datos. Fase V: Se necesita valorar y validar la elección del modelo para asegurar que sea eficiente en alcanzar las metas en futuras evidencias. Se calculó con el método Receiver Operating Characteristic (ROC), que permite conocer el rendimiento de un modelo, así como su sensibilidad y especificidad. La regresión logística obtuvo un valor de .86 y las redes neuronales un valor de .71.


CONCLUSIONES

Aplicando la metodología se logró desarrollar un modelo predictivo de ML basado en Regresión Logística, capaz de identificar los factores de riesgo relevantes para un evento de muerte en pacientes con IC, implementando soluciones para la atención inmediata en sectores de atención hospitalaria. El entrenamiento de la base de datos permite aplicar esta metodología en diferentes padecimientos de interés social (no necesariamente en el campo de la salud), al mismo tiempo de recabar datos con herramientas como el back-end contribuyendo a datasets más grandes con la finalidad de tener un mayor rendimiento de los modelos implementados y poder hacer un manejo de las situaciones médicas y sociales a un nivel masivo, considerando las condiciones adecuadas para un manejo eficiente y temprano
Jiménez Pinto Edilberto Ricardo, Universidad de la Guajira
Asesor: Dra. Jessica Bravo Cadena, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo

ANáLISIS COMPARATIVO DE LAS DIFERENTES EVALUACIONES DE IMPACTO AMBIENTALES EN COLOMBIA, COSTA RICA Y MéXICO.


ANáLISIS COMPARATIVO DE LAS DIFERENTES EVALUACIONES DE IMPACTO AMBIENTALES EN COLOMBIA, COSTA RICA Y MéXICO.

Jiménez Pinto Edilberto Ricardo, Universidad de la Guajira. Asesor: Dra. Jessica Bravo Cadena, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El cambio climático es uno de los problemas ambientales más grave y urgente que enfrentamos los seres humanos en la actualidad, dado a que es una amenaza silenciosa que está dañando nuestro planeta y sobre todo nuestro futuro, de manera significativa países como Colombia, México y Costa Rica se enfrentan a desafíos únicos como su ubicación geográfica, biodiversidad y sobre todo las condiciones climáticas, a la cuales estos países se están enfrentando. Colombia, se enfrenta a la pérdida de biodiversidad en el amazona y los andes, debido al aumento de los fenómenos meteorológicos que por su puesto son altamente extremos y el impacto que esto genera en la agricultura y la seguridad alimentaria sobre todo; México por su parte experimenta la disminución del agua, el aumento de huracanes según el pronóstico de las comisión nacional Conagua que en este ciclo prevé entre 35 y 40; sobre todo el impacto en la agricultura y la pesca, por último Costa rica en donde se observa la pérdida de biodiversidad en lo ecosistemas tropicales, el aumento de erosión costera y el impacto en el turismo y la economía. Las especies exóticas invasoras de pastos, combinadas con el cambio climático, presentan desafíos significativos para los ecosistemas y la biodiversidad. Estas especies no nativas que puedes distribuir pueden alterar profundamente los hábitats naturales y los procesos ecológicos. Desde el punto de vista del impacto generado a causa de esta problemtica, estamos en un punto donde La introducción de especies en nuevos ambientes puede desestabilizar los ecosistemas. Al competir con las especies nativas por recursos limitados, estas nuevas especies pueden llevar a una simplificación de las comunidades biológicas y a una pérdida de la biodiversidad. Alteraciones en el Ciclo del Agua y del Nutriente Los procesos ecológicos se ven afectados por la invasión de pastos exóticos. Estos modifican el ciclo hidrológico al consumir grandes cantidades de agua y alteran la fertilidad del suelo al cambiar su composición química.  Aumento del Riesgo de Incendios La introducción de especies exóticas en nuevos ecosistemas está alterando los ciclos naturales del fuego. La acumulación de biomasa seca por estas especies aumenta la frecuencia y severidad de los incendios, con consecuencias negativas para la biodiversidad y la estructura de los ecosistemas Efectos Sinérgicos con el Cambio Climático El cambio climático está intensificando el problema de las especies invasoras. Estas especies, más adaptables a las nuevas condiciones, se expanden y desplazan a las nativas, aprovechando la debilidad de ecosistemas ya estresados. Esto acelera la pérdida de biodiversidad y degrada los ecosistemas, con consecuencias negativas para la naturaleza y las personas.



METODOLOGÍA

Se seleccionaron cinco especies de pastos de origen Áfricano, que son considerados como exóticos invasores en México y Colombia: Cenchrus ciliaris (Buffelgrass); Melinis minutiflora (Pasto Melinis); Pennisetum purpureum (Pasto Elefante), Sorghum helepense ( Sorgo de Alepo) y por ultimo Brachiria mutica ( Pasto Mulato); las cuales se caracterizan de la siguiente manera: Cenchrus ciliaris (Buffelgrass): Es un pasto perenne que puede crecer hasta 1 metro de altura, con hojas largas y estrechas. Se adapta a suelos secos y arenosos, y su capacidad para formar densas matas puede suprimir la vegetación nativa, aumentar la frecuencia de incendios y alterar el hábitat de fauna local. Melinis minutiflora (Pasto Melinis): Este pasto perenne puede alcanzar hasta 1.2 metros de altura y tiene hojas suaves. Se encuentra en suelos bien drenados y es común en pastizales tropicales. Su rápida propagación puede desplazar especies nativas, alterando la composición de la vegetación y afectando la fauna que depende de plantas nativas. Pennisetum purpureum (Pasto Elefante): Puede crecer hasta 4 metros de altura y tiene tallos gruesos y hojas anchas. Prefiere suelos húmedos y fértiles, y se encuentra comúnmente en regiones tropicales y subtropicales. Su crecimiento agresivo puede desplazar a las especies nativas y cambiar la estructura de los ecosistemas, afectando a diversas especies de fauna. Eragrostis curvula (Lovegrass Africano): Es una planta herbácea perenne que puede alcanzar alturas de 1 a 2 metros. Es adaptable a diversos tipos de suelos y condiciones climáticas, y se encuentra en áreas perturbadas, cultivos y pastizales. Su naturaleza invasora le permite competir eficazmente con cultivos agrícolas y especies nativas, causando pérdidas económicas y afectando la biodiversidad local. Brachiaria mutica (Pasto Mulato): Este pasto perenne puede alcanzar hasta 1 metro de altura y tiene hojas largas y una estructura densa. Se encuentra en suelos húmedos y se utiliza comúnmente como forraje en ganadería. Su capacidad de invasión puede desplazar a plantas nativas y modificar la estructura del ecosistema, afectando la diversidad vegetal y animal. Consideraciones Generales. La introducción de estas especies a menudo se realizó con la intención de mejorar la producción forrajera, pero sus efectos negativos sobre los ecosistemas han llevado a su clasificación como invasoras. La gestión de estas especies es crucial para minimizar su impacto negativo. Esto incluye un manejo proactivo que puede involucrar el monitoreo, control y restauración de ecosistemas nativos. Fomentar la educación y la sensibilización sobre los riesgos de estas especies invasoras es esencial para un manejo efectivo y sostenible en las comunidades afectadas.


CONCLUSIONES

Finalmente, la invasión de especies exóticas se presenta como un reto complejo que requiere acción inmediata. La colaboración entre gobiernos, científicos y comunidades locales es esencial para implementar estrategias efectivas que incluyan la prevención, control, restauración de hábitats y educación. La conservación de la biodiversidad y la sostenibilidad del entorno dependen de acciones contundentes que eviten el avance de estas especies y protejan el patrimonio natural de América Latina frente al cambio climático y sus efectos negacionistas.
Jiménez Reséndiz Karla Rebeca, Instituto Tecnológico de Matamoros
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

RECURSOS DE APRENDIZAJE EN CONCEPTOS BáSICOS DE BASES DE DATOS, MYSQL Y MAMP PARA ESTUDIANTES DE EDUCACIóN MEDIA BáSICA Y MEDIA SUPERIOR


RECURSOS DE APRENDIZAJE EN CONCEPTOS BáSICOS DE BASES DE DATOS, MYSQL Y MAMP PARA ESTUDIANTES DE EDUCACIóN MEDIA BáSICA Y MEDIA SUPERIOR

Jiménez Reséndiz Karla Rebeca, Instituto Tecnológico de Matamoros. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El proyecto se enfocó en desarrollar contenido educativo para enseñar los conceptos básicos de bases de datos a estudiantes de educación media básica y media superior. Este contenido cubre desde definiciones fundamentales, como qué es un dato y qué es información, hasta conceptos más avanzados como tipos de bases de datos, tipos de datos, entidades y atributos. Dado que existe una carencia de material educativo específico y accesible para estos niveles educativos, la iniciativa incluyó la creación de un libro didáctico y videos educativos que complementan dicho libro. Además, se desarrollaron presentaciones y actividades interactivas, como sopas de letras y crucigramas, para cada sección del libro. Estas actividades están diseñadas para reforzar el aprendizaje a través de métodos atractivos y dinámicos. El objetivo principal del proyecto es llenar el vacío en recursos educativos sobre bases de datos orientados a estudiantes de educación básica y media superior. Al proporcionar herramientas educativas eficaces y accesibles, se espera que los estudiantes puedan comprender mejor los conceptos de bases de datos y, al mismo tiempo, despertar su interés por el campo de las tecnologías de la información y las comunicaciones (TICS). Esto podría encaminar a los estudiantes a considerar una carrera en áreas relacionadas con las TICS en el futuro.



METODOLOGÍA

Desarrollo del Contenido Escrito: Investigación Preliminar: Se revisaron exhaustivamente los conceptos básicos de bases de datos, incluyendo definiciones como qué es un dato y qué es información, así como temas más avanzados como tipos de bases de datos, tipos de datos, entidades y atributos. Se consultaron libros de texto, artículos académicos y recursos educativos en línea. Estructuración del Contenido: Se diseñó un libro que abarca desde conceptos básicos hasta ejemplos prácticos en MySQL y estructuras de tablas. El contenido se organizó de manera progresiva para asegurar una comprensión integral. Adaptación del Lenguaje y Ejemplos: El lenguaje y ejemplos fueron seleccionados para ser atractivos y comprensibles para estudiantes de media básica y media superior, evitando jerga técnica compleja y utilizando ejemplos relevantes. Redacción Clara y Accesible: El libro fue redactado para que incluso aquellos sin conocimientos previos pudieran entenderlo, incluyendo definiciones claras y ejemplos ilustrativos. Producción de Videos con Inteligencia Artificial: Guionización y Planificación: Se crearon guiones detallados para los videos, cubriendo explicaciones clave y ejemplos visuales alineados con el contenido del libro. Utilización de IA en la Producción: Se usaron herramientas de inteligencia artificial para generar videos educativos dinámicos. Estos videos presentan conceptos de manera interactiva y accesible. Complementariedad con el Material Escrito: Los videos complementan el libro proporcionando una experiencia de aprendizaje visual e interactiva. Incluyen tutoriales sobre herramientas como MySQL Workbench y MAMP para aplicar los conceptos aprendidos. Fomento del Aprendizaje Autónomo: Los videos están diseñados para facilitar un aprendizaje autónomo, permitiendo a los estudiantes acceder a ellos en cualquier momento y lugar.


CONCLUSIONES

El libro didáctico y los videos producidos con inteligencia artificial han sido diseñados con el objetivo de enseñar los conceptos básicos de bases de datos de manera efectiva. El libro, caracterizado por su lenguaje accesible y ejemplos prácticos, junto con los videos que ofrecen un enfoque visual e interactivo, están orientados a facilitar la comprensión y el aprendizaje de los estudiantes de media básica y media superior. Resultados obtenidos: Se ha logrado desarrollar un libro con un enfoque claro y accesible, y videos que complementan el texto con elementos visuales y explicaciones interactivas. Resultados esperados: Se espera que el desarrollo del contenido proporcione una experiencia educativa más accesible y dinámica, mejorando significativamente la comprensión y la aplicación de los conceptos de bases de datos por parte de los estudiantes. El proyecto busca atraer a más jóvenes al campo de las bases de datos, un área esencial en el mundo tecnológico actual. Se espera que, al integrar tecnologías emergentes como la inteligencia artificial en los recursos educativos, se inspire a los estudiantes a explorar y participar en un campo en constante evolución. Se proyecta que estos recursos educativos no solo facilitarán el aprendizaje de los conceptos clave, sino que también motivarán a los estudiantes a involucrarse más profundamente en el estudio de las bases de datos y otras tecnologías emergentes, promoviendo un interés duradero en el campo. Conclusión Personal Desarrollar este proyecto ha sido una experiencia enriquecedora que no solo ha ampliado mi comprensión de la materia, sino que también ha desarrollado habilidades valiosas para la enseñanza en áreas tecnológicas y de ingeniería. La creación de contenido accesible y el uso de tecnologías emergentes para facilitar el aprendizaje han sido fundamentales. Estas habilidades serán cruciales para una futura carrera en la enseñanza, permitiéndome transmitir conocimientos de manera efectiva. Reflexionando sobre esta experiencia, surge una pregunta importante: ¿Qué estrategias podemos implementar para que los estudiantes se centren más en temas tecnológicos y se entusiasmen con la innovación? Este proyecto ha demostrado que integrar tecnologías emergentes y crear recursos educativos interactivos puede captar el interés de los jóvenes. ¿Cómo podemos seguir evolucionando nuestras metodologías para mantener la relevancia y el atractivo en un mundo en constante cambio?
Jiménez Romero Aída Yolanda, Universidad de Guadalajara
Asesor: Dr. Alejandro Garza Galicia, Universidad del Valle de Atemajac

ANALISIS DEL POTENCIAL DE LA CONCENTRACIóN SOLAR


ANALISIS DEL POTENCIAL DE LA CONCENTRACIóN SOLAR

Bernal Pérez Luis Ángel, Instituto Politécnico Nacional. Castillo Rojas Carlos Antonio, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Guerrero Niño Felipe Eugenio, Universidad Politécnica de Altamira. Jiménez Romero Aída Yolanda, Universidad de Guadalajara. Lara Amado Jesus Modesto, Tecnológico de Estudios Superiores de Valle de Bravo. Suarez Garcia Fernando Yered, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Alejandro Garza Galicia, Universidad del Valle de Atemajac



PLANTEAMIENTO DEL PROBLEMA

El cambio climático y la crisis energética representan dos de los desafíos más urgentes y complejos de nuestra era. Las emisiones de gases de efecto invernadero (GEI), resultantes principalmente de la quema de combustibles fósiles, han contribuido significativamente al calentamiento global, causando efectos adversos en el medio ambiente, como el aumento del nivel del mar, eventos meteorológicos extremos y la pérdida de biodiversidad. En el contexto de México y muchos otros países en desarrollo, la dependencia de fuentes de energía no renovables no solo agrava estos problemas ambientales, sino que también limita el acceso a energía limpia y accesible para la población. México, en particular, enfrenta una situación crítica debido a su creciente demanda de energía, la cual no puede ser satisfecha de manera sostenible con las tecnologías y recursos actuales. Esto ha generado un aumento en las emisiones de GEI, colocando al país en una posición donde debe equilibrar la necesidad de desarrollo económico con la protección del medio ambiente. A nivel global, la transición hacia energías renovables es vista como una solución clave para mitigar el cambio climático. Sin embargo, esta transición enfrenta múltiples desafíos técnicos, económicos y sociales, especialmente en países con infraestructuras limitadas y diversas condiciones climáticas.



METODOLOGÍA

El presente proyecto de investigación se centró en la evaluación de diversas tecnologías de generación de energía con el objetivo de desarrollar un software de apoyo a la toma de decisiones. Este software busca integrar consideraciones económicas, sociales, medioambientales y culturales para optimizar la generación y uso de energía en México. Se llevaron a cabo pruebas experimentales utilizando los siguientes equipos: Concentrador solar tipo CCP Estufa solar Estufa de gas Estufa eléctrica Panel solar fotovoltaico Motor Stirling Durante un periodo de siete semanas, se recolectaron datos experimentales utilizando una serie de sensores especializados, tales como anemómetros para medir la velocidad del viento, termopares para monitorear temperaturas, multímetros para registrar parámetros eléctricos y sensores de radiación para evaluar la intensidad de la radiación solar. Toda la información recopilada fue almacenada en una base de datos centralizada, diseñada para facilitar el análisis y la interpretación de los datos. Asimismo, se elaboró un software en Python que implementa conexiones a las bases de datos donde registramos las mediciones por cada tecnología implementada, factores para la toma de decisiones, variables de eficiencia y finalmente, un árbol de decisión que toma las siguientes consideraciones: Factores económicos: En donde toma en consideración el costo de implementación, operación y mantenimiento de las tecnologías evaluadas. Factores sociales: Considerando la accesibilidad de las tecnologías y su impacto en la calidad de vida de las comunidades. Factores medioambientales: Buscando la reducción de emisiones de GEI, protección a la salud humana y conservación de recursos naturales. Factores culturales: Buscando en un futuro que la escalabilidad del proyecto generé una aceptación y adaptación de las tecnologías en contextos culturales específicos.


CONCLUSIONES

Las pruebas experimentales arrojaron los siguientes resultados de eficiencia para cada tecnología evaluada: Concentrador solar tipo CCP: Eficiencia máxima de 31% Estufa de gas: Eficiencia de 63% Estufa solar: Eficiencia de 19% Estufa eléctrica: Eficiencia de 57% Estos datos proporcionan una base sólida para el desarrollo del software, que busca ofrecer recomendaciones sobre la mejor combinación de tecnologías para diferentes escenarios y condiciones locales. La implementación de colectores solares y otras tecnologías de energía renovable presenta desafíos significativos debido a la geometría solar y las condiciones climáticas adversas. Factores como la variabilidad en la intensidad de la radiación solar, la disponibilidad de recursos naturales y la infraestructura existente limitan la eficiencia y la viabilidad de estas tecnologías en ciertas regiones. Sin embargo, este proyecto ha demostrado que es posible avanzar hacia una transición energética sostenible mediante el uso de herramientas de decisión integrales y bien informadas, que consideran una amplia gama de factores y que priorizan la sostenibilidad medioambiental y el bienestar social. Este enfoque holístico es crucial para asegurar que la transición energética no solo sea técnicamente viable, sino también equitativa y respetuosa con los ecosistemas locales y las comunidades.
Jiménez Santiesteban Brenda, Instituto Tecnológico de Tlalnepantla
Asesor: Dra. Maria Beatriz Bernábe Loranca, Benemérita Universidad Autónoma de Puebla

EVALUACIóN DE LA VACUNA ORAL S3PVAC PAPAYA CONTRA LA CISTICERCOSIS DE TAENIA PISIFORMIS


EVALUACIóN DE LA VACUNA ORAL S3PVAC PAPAYA CONTRA LA CISTICERCOSIS DE TAENIA PISIFORMIS

Jiménez Santiesteban Brenda, Instituto Tecnológico de Tlalnepantla. Asesor: Dra. Maria Beatriz Bernábe Loranca, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El objetivo de este estudio es replicar y ampliar la metodología estadística utilizada en investigaciones previas sobre la vacuna oral S3Pvac-Papaya contra la cisticercosis causada por Taenia pisiformis en conejos. Este estudio incluye un análisis de varianza (ANOVA) y comparaciones de medias múltiples (Tukey y Fisher), así como la incorporación de un análisis de regresión a los datos simulados. Mediante la replicación de la metodología estadística y la incorporación de un análisis, se busca: Confirmar la capacidad de la vacuna para inducir una respuesta inmunitaria efectiva en conejos. Optimizar futuras investigaciones y desarrollos de vacunas orales contra la cisticercosis. Los resultados permitirán una mejor comprensión de la eficacia de la vacuna y proporcionarán una base sólida para su aplicación práctica en el control de la cisticercosis en animales y, potencialmente , en humanos.  



METODOLOGÍA

Eficacia de la vacuna S3Pvac-Papaya La vacuna S3Pvac-Papaya, expresada en callos embriogénicos de papaya, ha demostrado ser altamente efectiva en modelos murinos, reduciendo significativamente la carga parasitaria. Este estudio busca confirmar su capacidad inmunogénica en conejos de la raza Nueva Zelanda. Se ha señalado que este estudio se diseñó con tres grupos de 30 conejas cada uno: Inmunizado con 12mg de S3Pvac-Papaya. Inmunizado con 12mg de papaya Wild Type (WT). Tratado con solución salina al 0.9% como placebo. Las conejas fueron desafiadas con 3000 huevos de Taenia Pisiformis y sacrificadas 20 días después para evaluar la carga parasitaria y la presencia de anticuerpos mediante ELISA (Ensayo de Inmunoadsorción Ligado a Enzimas). Una vez registrados los resultados de la evidencia de anticuerpos para cada grupo de conejas, se observó estadísticamente que las conejas vacunadas no desarrollaron cisticercos vesiculares y presentaron menos lesiones hepáticas que los grupos control. Los niveles de anticuerpos IgG (Inmunoglobulina G) fueron significativamente mayores en el grupo vacunado con S3Pvac-Papaya, con una dispersión baja, indicando una respuesta inmune consistente y robusta. El análisis estadístico incluyó pruebas descriptivas y un Análisis de Varianza (ANOVA). Aunque no se encontraron diferencias significativas entre las vacunas, el diagrama de caja para la vacuna S3Pvac-Papaya mostró un desarrollo de anticuerpos alto y poco disperso, implicando su eficacia en la producción de anticuerpos. Debido al alto costo de replicar la investigación con un grupo mayor a 30 para cada grupo de conejas, en este trabajo se ha desarrollado una simulación. En este punto, se replica la metodología estadística de la investigación descrita anteriormente, incluyendo ANOVA y comparaciones de medias múltiples (Tukey y Fisher), además, se añade a esta investigación un análisis de regresión a los datos simulados, lo cual es el propósito central de este trabajo. Uno de los objetivos colaterales se centra en que debido a que la vacuna S3Pvac-Papaya de 12 mg es eficaz en la producción de anticuerpos y en la reducción de la carga parasitaria en conejos, podría tener implicaciones significativas para el control de la cisticercosis en animales y potencialmente en humanos, al ofrecer una alternativa de bajo costo y fácil administración. Los resultados apoyan la continuidad de esta línea de investigación para desarrollar vacunas orales efectivas contra la cisticercosis en diferentes especies.   Análisis de Varianza en los datos simulados El análisis de varianza (ANOVA, por sus siglas en inglés) es una técnica estadística utilizada para comparar las medias de tres o más grupos para determinar si al menos una de las medias es significativamente diferente de las demás. Este método se basa en la descomposición de la variabilidad total de los datos en componentes que pueden ser atribuidos a diferentes fuentes de variabilidad. Descripción del Diseño Experimental: Tres grupos de 10 conejas cada uno (raza Nueva Zelanda). Grupo 1: Vacunado con S3Pvac-Papaya (12 mg). Grupo 2: Vacunado con Papaya Wild Type (WT) (12 mg). Grupo 3: Tratado con solución salina al 0.9% como control (placebo). Datos de Medición: Títulos de anticuerpos medidos en tres tiempos: T0 (inicio), T1 (tiempo medio) y T2 (final del tratamiento). Variables y Valores: Títulos de anticuerpos IgG por ELISA. Diferencias en las cargas parasitarias y lesiones hepáticas. Hipótesis: Hipótesis Nula (H0): No hay diferencia significativa entre las medias de los tres grupos. Hipótesis Alternativa (Ha): Al menos una media es diferente. ANOVA One-Way: Se realiza para comparar las medias de los tres grupos.   SIMULACIÓN Se desarrolló una simulación en excel utilizando la formula del ANOVA para cada grupo de conejas, así se consiguieron los datos de la investigación, también se observaron los resultados en gráficas para una mejor comprensión de este trabajo.      


CONCLUSIONES

Esta investigación demuestra la potencial efectividad y viabilidad de la vacuna S3Pvac-Papaya de 12 mg para controlar la cisticercosis en conejas, proporcionando una alternativa económica y práctica a las vacunas actuales. La producción de la vacuna S3Pvac-Papaya en plantas de papaya es una opción viable y de bajo costo para el control de la cisticercosis en animales. Resultados: El grupo vacunado con S3Pvac-Papaya12mg mostró un alto desarrollo de anticuerpos con poca dispersión, indicando una respuesta inmunológica uniforme y eficiente. En el grupo control (placebo), se encontró una prevalencia del 10% de cisticercosis, mientras que en los grupos vacunados no se encontraron cisticercos en la cavidad peritoneal. No hubo diferencias significativas en las necropsias de lesiones hepáticas entre los grupos.
Jiménez Torres Tomas, Instituto Politécnico Nacional
Asesor: Dr. Ivan Enrique Campos Silva, Instituto Politécnico Nacional

CARACTERIZACIóN DE SISTEMAS MICRO-NANO ESTRUCTURADOS.


CARACTERIZACIóN DE SISTEMAS MICRO-NANO ESTRUCTURADOS.

Guardado Paniagua Soni Atonalt, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Jiménez Torres Tomas, Instituto Politécnico Nacional. Moreno Casas Vicente Adrián, Universidad de Guadalajara. Asesor: Dr. Ivan Enrique Campos Silva, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La selección de materiales para la fabricación de componentes específicos requiere evaluar múltiples propiedades y, a menudo, mejorar estos materiales para prolongar su vida útil. En el Grupo Ingeniería de Superficies del Instituto Politécnico Nacional, se utiliza el proceso de borurado en caja asistido por un campo de corriente directa pulsante (BCDP) para mejorar la dureza y la resistencia al desgaste de aceros, creando un recubrimiento cerámico en la superficie del metal. El proceso de borurado involucra la difusión de átomos de boro en la matriz metálica, formando compuestos de boruro en la superficie del material. Este tratamiento presenta desafíos en su implementación efectiva debido a factores como la composición química del medio borurante y la estructura cristalina del material base. La caracterización de estos materiales es crucial para comprender cómo estos factores influyen en la calidad y uniformidad de la capa de boruro, y para optimizar el proceso y justificar su uso en aplicaciones industriales como en la fabricación de componentes para la industria del vidrio, química, textil, entre otras. Se sabe que el borurado mejora la resistencia al desgaste y la dureza del material, pero es necesario entender mejor los mecanismos que controlan esta mejora. La composición química del medio borurante, la estructura del material de base, la temperatura de tratamiento y la intensidad y frecuencia de la corriente aplicada son factores que deben ser investigados. Además, la evaluación económica de estos procesos es crucial para su implementación en la industria.



METODOLOGÍA

Para llevar a cabo este estudio, primero se prepararon las muestras de acero AISI 1018. La preparación de las muestras incluyó tres etapas principales: corte, desbaste y pulido, siguiendo la norma ASTM E3-95, titulada "Standard Practice for Preparation of Metallographic Specimens". Este procedimiento asegura que las superficies de las muestras estén limpias y uniformes antes de someterlas al proceso de borurado. Posteriormente, las muestras se desbastaron con lijas de diferentes granulometrías, comenzando con una lija de grano 80 y finalizando con una lija de grano 2000. Este proceso es importante para obtener una superficie uniforme y libre de imperfecciones. El siguiente paso fue el proceso de BCDP. Las muestras se empaquetaron en una mezcla de 70% B4C, 20% SiC y 10% KBF4. Esta mezcla se eligió debido a sus propiedades para promover la difusión de boro en la superficie del acero. Las muestras empaquetadas se colocaron en un contenedor de acero inoxidable que actúa como cátodo, y se añadieron dos electrodos de nicromel conectados a una fuente de corriente directa pulsante. Este sistema se introdujo en una mufla y se calentó a una temperatura de 900 °C. Durante el proceso, se aplicó una corriente de 5 amperios con cambios de polaridad cada 30 segundos durante una hora. Este tratamiento promueve la difusión de átomos de boro ionizados hacia la superficie del material, formando una capa bifásica de FeB y Fe2B. Una vez finalizado el tratamiento de borurado, las muestras se enfriaron a temperatura ambiente. Posteriormente, se realizaron cortes transversales en las muestras para observar la estructura de las capas de boruro. Se volvieron a desbastar y pulir después del tratamiento para darle acabado espejo y analizarlo. Para la caracterización microestructural, se utilizaron técnicas de microscopía óptica para observar las capas. Para evaluar la resistencia al desgaste, se llevaron a cabo ensayos de desgaste reciprocante lineal utilizando una esfera de alúmina cerámica, bajo los parámetros establecidos por la norma ASTM G133-22 (Standard Test Method for Linearly Reciprocating Ball-on-Flat Sliding Wear). Este ensayo consiste en aplicar una fuerza constante de 5 newtons sobre la muestra mientras una esfera de alúmina se desliza sobre su superficie en un movimiento reciprocante a una velocidad de 30 mm/s. Se realizó este ensayo tanto en las muestras tratadas como en las no tratadas, permitiendo comparar directamente los efectos del tratamiento de borurado en su resistencia al desgaste. La longitud de prueba fue de 10 mm, con una distancia de deslizamiento total de 100 metros, y el ensayo se realizó sin lubricante para simular condiciones de desgaste severas. La resistencia al desgaste se evaluó mediante perfilometría óptica, una técnica no destructiva que permite obtener imágenes tridimensionales de alta resolución de las muestras. Esta técnica permitió medir el volumen de material removido durante los ensayos de desgaste, proporcionando una medida cuantitativa de la resistencia al desgaste de las muestras tratadas y no tratadas.


CONCLUSIONES

El proceso de BCDP mejora significativamente la dureza y la resistencia al desgaste de aceros. Este tratamiento implica la difusión controlada de átomos de boro ionizados hacia la superficie del acero. Los resultados obtenidos mediante perfilometría óptica mostraron una mejora notable en la resistencia al desgaste del material tratado en comparación con muestras sin tratamiento. La capa de boruro formada en la superficie del acero AISI 1018 fue uniforme y consistente, lo que sugiere que el proceso de borurado fue realizado adecuadamente. La prueba que se hizo con el acero AISI 1018 mostró que este tratamiento es capaz de producir mejoras significativas en la resistencia al desgaste y la dureza en aceros. Estos hallazgos subrayan la importancia de investigar y optimizar el proceso de borurado para maximizar sus beneficios y expandir su aplicabilidad en la industria. La combinación de técnicas avanzadas de caracterización, como la microscopía óptica y la perfilometría óptica, proporciona una comprensión profunda de las propiedades de las capas de boruro, lo que es esencial para el desarrollo de tratamientos de superficie más eficientes y efectivos. Además, la adopción de estándares internacionales garantiza la reproducibilidad y la comparabilidad de los resultados obtenidos, lo cual es determinante para la validación y aplicación industrial de estos tratamientos.
Jonapa Alcocer Victoria, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Mtra. María del Rosario Bernabé Salas, Instituto Tecnológico Superior de Ciudad Serdán

EVALUACION NUTRICIONAL DE UN PAN CON MEZCLA DE HARINAS (HABA Y TRIGO)


EVALUACION NUTRICIONAL DE UN PAN CON MEZCLA DE HARINAS (HABA Y TRIGO)

Jonapa Alcocer Victoria, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Mtra. María del Rosario Bernabé Salas, Instituto Tecnológico Superior de Ciudad Serdán



PLANTEAMIENTO DEL PROBLEMA

En la actualidad en el mundo se está desarrollando una tendencia relacionada a un nuevo estilo de vida que es orientado al consumo de alimentos saludables y nutricionalmente de buena calidad para los consumidores. El sector alimentario busca nuevas alternativas para la generación de productos nutritivos y busca alternativas de materias primas que ayuden a lograr este objetivo, las habas (Vicia faba L), son conocidas por sus propiedades alimentarias particularmente como su contenido en proteína que va del 20 a los 25% en grano seco, minerales como el hierro y fósforo y la costumbre de consumo, hacen que estén presentes en la dieta de nuestra población de una manera tradicional. Por estas razones, esta leguminosa es utilizada en fresco y seco, debido a la falta de técnicas agroindustriales y la poca difusión de la información que existe de las características que posee; la problemática estriba en que en muchas de las ocasiones no se utiliza como un producto de enriquecimiento para alimentos de consumo humano. Las leguminosas son consideradas como alimentos funcionales, ya que además de sus componentes nutritivos contienen otros componentes biológicamente activos (factores no - nutritivos) que proporcionan un beneficio para la salud incrementando el bienestar del ser humano. La presente investigación permite conocer otra alternativa de uso para esta leguminosa, además de ser utilizada como una fuente de enriquecimiento nutricional en proteína, hierro y fósforo, para ser incluido en la dieta de las personas a través de un pan, el cual es un producto de mayor consumo entre la población.



METODOLOGÍA

El pan con mezcla de harina de trigo y haba tuvo la siguiente metodología. En primera instancia se obtuvo la semilla de haba de la variedad minor y denominada por los pobladores como parraleña, la cual fue sembrada en la zona de Tlachichuca Puebla en el periodo primavera - otoño 2023, es un cultivo de temporal y no de riego. Posterior a su cosecha se seleccionaron los granos de haba a modo que estos no tuviesen ninguna daño mecánico o por plagas y enfermedades, se transportaron a el laboratorio de frutas y hortalizas en donde se tostaron a una temperatura aproximada de 100°C hasta que la cascara de los granos tuviese un color café claro uniforme, se dejaron enfriar a temperatura ambiente de 25°C durante un tiempo de 2 horas, transcurrido ese tiempo se procedió al descascarado el cual fue manual, obtenidas las semillas descascaradas y tostada se tuvo una molienda en un molino eléctrico para maíz nixtamalizado, se obtuvo una harina de haba con los granos tostados, se determino el tamaño de partícula utilizando un agitador de tamices marca Advantech Dura Tap DT168 el tamaño de partícula fue de 425µ y el número de tamiz fue el 40, con este tamaño de partícula se elaboró el pan. Se realizaron 3 formulaciones de mezcla de harinas con diferentes edulcorantes, la fórmula 1 consistió en incorporar Stevia como edulcorante con un 2.01% y una mezcla de harinas de haba y trigo con un porcentaje de 13.40 y 40.21% respectivamente. La formulación 2 el edulcorante utilizado fue panela con un 6.40%, la mezcla de harina de haba y trigo fue de 12.80% y 30.41% respectivamente, en cuanto a la formulación 3 que es la testigo el edulcorante fue azúcar refinada con 5.18% y harina de trigo de 51.88%. Se llevaron a cabo determinaciones bromatológicas para estas formulaciones, las cuales constan de determinación de humedad, grasas, pH, acidez, cenizas totales y proteínas. Los resultados arrojados para estas determinaciones en la formulación con Stevia son: 1.623% de cenizas, 32.803% de humedad, 4.14% de grasas, proteína 26,254%, acidez y pH 2.63% y 4.74% respectivamente. Para la formulación 2 que tiene edulcorante de panela tiene una cantidad de cenizas del 1.165%, humedad 28.32%, grasas 4.756%, proteína 25,555%, en cuanto a acidez y pH tiene 3.9% y 5.63% respetivamente. Finalmente, en la formulación 3 que es la testigo en donde se tiene como edulcorante el azúcar y ninguna mezcla de harinas se tienen resultados de cenizas de 1.171%, humedad 29.09%, grasas 4.197%, proteína 20.935%, en relación con acidez y pH contiene 4.7% y 5.52% respectivamente. Como podemos observar el mezclar harina de haba con harina de trigo en la elaboración del pan si existe un incremento de proteína en el producto final en relación con el testigo. Algunas investigaciones reportan un incremento de proteína en el producto final con la adición de harina de haba, pero no precisamente pan sino productos de panificación como galletas, palitos de pan entre otros.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los granos de haba y sus variedades cultivadas en la zona de Ciudad Serdán, abarcando sus 24 comunidades, además se llevó a la práctica conocimientos relacionados con el área de Cereales y Oleaginosas en las formulaciones de pan para la obtención demuestras que fueron analizas posteriormente en el laboratorio para la determinación proximal del alimento. Los datos obtenidos forman parte de un proyecto de investigación financiado por el TecNM, por lo tanto, se brindan resultados de manera parcial. El utilizar otras fuentes de materias primas para el enriquecimiento de alimentos de consumo humano son una alternativa adecuada y sobre todo ayudan a que los productores locales de esas semillas tengan el entendido de que sus semillas tienen otra utilización diferente a la que comúnmente están de conocimiento sobre su utilización.
Juan Mateo Daniel Ivan, Instituto Tecnológico Superior de Los Reyes
Asesor: Mg. Juan Manuel Romero Montes, Corporación Universitaria del Caribe

SIMULACIóN EN SISTEMAS INTELIGENTES DE GESTIóN DE ESTACIONAMIENTO


SIMULACIóN EN SISTEMAS INTELIGENTES DE GESTIóN DE ESTACIONAMIENTO

Juan Mateo Daniel Ivan, Instituto Tecnológico Superior de Los Reyes. Asesor: Mg. Juan Manuel Romero Montes, Corporación Universitaria del Caribe



PLANTEAMIENTO DEL PROBLEMA

La sostenibilidad urbana y el desarrollo de infraestructuras con bajo impacto ambiental ha adquirido una relevancia significativa a nivel global en las últimas décadas, esta creciente preocupación ha incentivado la exploración de diversos enfoques para abordar la problemática. Por ello, la presente revisión sistemática de literatura se centra en el análisis de la utilización de simulaciones como herramienta para la optimización en la gestión de estacionamientos. La implementación de Smart Parking Systems en la planificación urbana es una herramienta válida para reducir el impacto ambiental, esta aplicación tecnológica contribuye significativamente al cumplimiento de dos de los Objetivos de Desarrollo Sostenible (ODS) establecidos por la agenda 2030 de Naciones Unidas (2018). El Objetivo 11, enfocado en el desarrollo de comunidades y ciudades sostenibles, así como, el Objetivo 13, orientado a la acción por el clima. Por ello, el enfoque aplicado en la revisión de literatura se centra en la exploración de la aplicación de la simulación dentro de sistemas inteligentes de gestión de estacionamientos, enfocado a los tipos de elementos que son considerados en la formación de simulaciones, así como las metodologías utilizadas en la caracterización de: ¿Cuáles son las tendencias de la simulación enfocadas a la gestión de tráfico en estacionamientos? ¿Cuál es rol de la simulación dentro de los SPS? ¿Qué dificultades presenta la implementación de SPS dentro de áreas urbanas?



METODOLOGÍA

La metodología empleada para realizar la revisión sistemática de literatura sigue la estructura en los lineamientos de The Preferred Reporting Items for Systematic reviews and Meta-Analyses (PRISMA), permitiendo mantener una redacción ampliamente utilizada y aceptada en revisiones de literatura y metaanálisis (Page et al., 2021). siguiendo los elementos clave requeridos. Para realizar la investigación fueron utilizadas las bases de datos SCOPUS y Schoolar Google, tomando en cuenta artículos, capítulos de libros, artículos de conferencias y revisiones. Los artículos seleccionados fueron sometidos a un análisis taxonómico. Esta categorización se realizó considerando tres criterios principales: Lugar de aplicación: Este permite contextualizar geográfica y ambientalmente los estudios, facilitando la identificación de patrones regionales o específicos del entorno. Tipo de Sistema de Estacionamiento Inteligente: La clasificación según el tipo de SPS proporciona una visión estructurada de las diversas aproximaciones tecnológicas y metodológicas en el campo. Características de la simulación utilizada: Este criterio examina los aspectos técnicos y metodológicos de las herramientas de simulación empleadas, permitiendo una evaluación comparativa de las diferentes aproximaciones con esta herramienta. Esta taxonomía facilita una organización sistemática de la literatura existente, además de esto, permite identificar tendencias, brechas y oportunidades en la investigación sobre sistemas de gestión de estacionamientos basados en simulación. Con ello, este enfoque analítico proporciona una base sólida para futuras investigaciones, al ofrecer una visión comprehensiva del estado actual del conocimiento en este campo.


CONCLUSIONES

La revisión sistemática de literatura realizada en bases de datos académicas revela el papel fundamental de la simulación como herramienta en el diseño de SPS. Esta metodología destaca principalmente como un mecanismo de validación en una variedad de sistemas propuestos. Numerosos investigadores han desarrollado modelos matemáticos  que simulan los entornos complejos de los procesos de tráfico. Estos modelos proporcionan una aproximación valiosa a las dinámicas flujo vehicular en contextos de estacionamiento. En contra parte, otros autores manifiestan su intención de desarrollar sus propios modelos en investigaciones futuras, lo que sugiere un campo en continua evolución. La simulación también se emplea como una herramienta crucial para la evaluación de prototipos, tanto en aspectos de hardware como de software, antes de su implementación en entornos reales. Este enfoque permite una optimización de riesgos en el despliegue de nuevos sistemas, facilitando la identificación y resolución de problemas potenciales en una fase temprana del desarrollo. No obstante, la simulación en el contexto de los SPS enfrenta desafíos significativos. Una de las principales limitaciones radica en la dificultad de simular con precisión el comportamiento individual de cada conductor. Esta complejidad ha llevado a que muchas investigaciones se centren en simulaciones de tipo macro, que modelan el comportamiento agregado del tráfico en lugar de las acciones individuales de los conductores. Mirando hacia el futuro, se vislumbra una tendencia prometedora en la integración de la inteligencia artificial en los SPS. Con el advenimiento de tecnologías avanzadas y siguiendo la trayectoria actual del desarrollo de SPS que incorporan machine learning y deep learning, es probable que se observe un incremento en la implementación de estas soluciones en el diseño y optimización de los sistemas de estacionamiento inteligente. Esta evolución hacia la incorporación de técnicas de inteligencia artificial podría abordar algunas de las limitaciones actuales de las simulaciones, permitiendo modelar de manera más precisa y detallada el comportamiento individual de los conductores. Asimismo, estas tecnologías podrían facilitar la creación de sistemas más adaptativos y eficientes, capaces de aprender y mejorar continuamente en base a los datos recopilados en tiempo real. La integración de tecnologías de inteligencia artificial promete expandir significativamente las capacidades y la precisión de estos sistemas en el futuro próximo, ofreciendo soluciones más sofisticadas y eficaces para los desafíos de movilidad urbana.
Juárez Franco Ximena Yahel, Instituto Politécnico Nacional
Asesor: Dr. Derlis Hernández Lara, Universidad Politécnica de Texcoco

MODELO DE VISIóN ARTIFICIAL PARA EL RECONOCIMIENTO DE LA LENGUA DE SEñAS MEXICANA


MODELO DE VISIóN ARTIFICIAL PARA EL RECONOCIMIENTO DE LA LENGUA DE SEñAS MEXICANA

Juárez Franco Ximena Yahel, Instituto Politécnico Nacional. Asesor: Dr. Derlis Hernández Lara, Universidad Politécnica de Texcoco



PLANTEAMIENTO DEL PROBLEMA

Según el Instituto Nacional de Estadística y Geografía (INEGI), en México hay 6,179,890 personas con algún tipo de discapacidad, lo que representa el 4.9% de la población. Entre ellas, un número significativo tiene discapacidades auditivas o del habla, y algunas presentan múltiples discapacidades, como los sordomudos, que enfrentan limitaciones auditivas y de lenguaje. Para mejorar la comunicación de las personas con discapacidades auditivas o del habla, se requieren tratamientos médicos, herramientas tecnológicas o lenguajes de señas. Este último es el medio más efectivo, aunque su conocimiento es limitado y no se enseña ampliamente. En México, la Lengua de Señas Mexicana (LSM) facilita la adquisición, comprensión, interpretación y expresión de contenido sin depender del lenguaje escrito u oral. Para abordar esta problemática, se propone una herramienta tecnológica basada en visión artificial para el reconocimiento de la LSM mediante Inteligencia Artificial (IA) y Deep Learning. El proceso consiste en: 1) adquirir una imagen de una postura de la mano que represente una letra de la LSM, y 2) procesar la imagen para compararla con una base de datos e identificar la letra correspondiente. Esta herramienta tiene como objetivo facilitar la comunicación y mejorar el entendimiento de las personas con discapacidades auditivas o del habla.



METODOLOGÍA

El método de solución propuesto para el reconocimiento de la LSM es un modelo de clasificación de 21 letras del alfabeto dactilológico mexicano que no representan movimiento y 6 letras que sí requieren movimiento. Para la implementación de este software se requiere una computadora con mínimo 8 GB en RAM y procesador de 4 núcleos con una cámara de resolución media de 1.3 hasta 8 megapíxeles.  La lógica del método de solución propuesto está compuesta de las siguientes etapas:  Adquisición de la imagen y realización de la base de datos. La primera etapa consistió en realizar pruebas con imágenes mediante diversos procesos de segmentación y filtrado, optando finalmente por usar escala de grises para facilitar el procesamiento y reducir el peso del modelo. Luego, se generó la BD para el entrenamiento del modelo, convirtiendo las imágenes a un archivo .csv. Cada fila es un vector de datos de la imagen, con 12 mil filas y 1601 columnas, siendo la última columna la etiqueta a la que corresponde cada imagen. Las etiquetas van del 0 al 26, cubriendo las 27 letras del alfabeto dactilológico. Pre-procesamiento (Segmentación - Rasgos - Descripción). Se procedió a leer el archivo .csv con las imágenes para entrenar el modelo y realizar el pre-procesamiento de datos. Se separaron las imágenes de sus etiquetas y se transformaron a su formato original. Las imágenes, en escala de grises y tamaño 40*40 píxeles, fueron escaladas y normalizadas para optimizar el procesamiento y reducir el peso del modelo. Creación del modelo y Checkpointer. Posteriormente, se realizó la codificación One-Hot de las etiquetas, asignando 0 a toda la dimensión excepto 1 para la clase correspondiente. Por ejemplo, la etiqueta 4 en codificación One-Hot es  [000010000000000000000000]. Además, se separaron los conjuntos de entrenamiento (80%) y prueba (20%) de las 12 mil imágenes de la BD, evitando así probar el modelo con datos memorizados. En este caso se propuso un modelo de Deep Learning después de las capas convolucionales, con 70 neuronas en la entrada, en la siguiente capa 50 neuronas, luego 30 y en la última capa 24 neuronas. Después, se pasaron a la red para clasificar las señas. Finalmente, se implementó un Checkpointer para guardar los mejores valores de los pesos sinápticos. El entrenamiento del modelo, con 9600 registros, fue de 140 épocas, minimizando el error en el reconocimiento y clasificación de las imágenes. Captura de la imagen. En esta etapa se realiza la captura de la imagen con ayuda de una cámara digital integrada en la computadora. El formato de la imagen capturada es .jpg en color RGB (3 canales).  Las fotografías capturadas por el usuario deben ser tomadas con la mano derecha, evitando el uso de anillos, pulseras o relojes, también se debe de evitar el esmaltado en uñas puesto que es una regla de ejecución del lenguaje manual. Corrección y mejora de la imagen. Una vez tomada la fotografía con la cámara de la computadora, en el modelo se realiza un preprocesamiento de la misma, la cual es sometida a algunas segmentaciones para corregir su iluminación, eliminando el ruido del ambiente en el que es tomada.  Comparación y clasificación. Una vez que la fotografía ha sido procesada, el modelo hace la comparación de esta con el modelo que ya se encuentra entrenado. Entonces, se busca una similitud entre estas, realizando una comparación y ponderación para finalmente clasificarla. Reconocimiento y presentación del resultado. Este es el paso final, porque cuando el modelo hace el reconocimiento de la imagen genera una salida con el resultado de la etiqueta a la que pertenece la fotografía tomada por el usuario. Lo que representa la letra de la LSM que se realizó.


CONCLUSIONES

Este trabajo presenta una herramienta tecnológica basada en IA para facilitar la comunicación de las personas sordomudas en México. Una vez concluida, se realizaron experimentos que verificaron su precisión con resultados satisfactorios. Las gráficas obtenidas mostraron la exactitud del modelo; mientras más cerca de 1 esté la precisión, menor es la probabilidad de fallos. El modelo desarrollado alcanzó una precisión del 93% para datos desconocidos, indicando una exactitud adecuada. También se obtuvo la gráfica del error del modelo, donde mientras más cerca de 0, menor será la falla. Para datos de entrenamiento, el error es cercano a cero, y para datos de validación es de 0.6, manteniendo una precisión aceptable.  Con lo anterior se puede observar que se desarrolló una propuesta tecnológica que podría permitir aportar a la calidad de vida de las personas que puedan utilizar este modelo.
Juarez Jiménez Pedro Alberto, Instituto Tecnológico Superior de Apatzingán
Asesor: Mtro. Adrian López Hernández, Instituto Tecnológico Superior de Apatzingán

AGEDRONIC


AGEDRONIC

Juarez Jiménez Pedro Alberto, Instituto Tecnológico Superior de Apatzingán. Zepeda Estrada Josue Sebastián, Instituto Tecnológico Superior de Apatzingán. Asesor: Mtro. Adrian López Hernández, Instituto Tecnológico Superior de Apatzingán



PLANTEAMIENTO DEL PROBLEMA

La implementación de vehículos aéreos no tripulados (VANTS) en la ingeniería, permite obtener un levantamiento fotogramétrico de alta resolución espacial, con menor tiempo y sobre todo disminuyendo el costo sobre un levantamiento topográfico convencional. La elevada precisión que tiene la fotogrametría debido a la estereoscópica permite una excelente identificación de los detalles topográficos, la digitalización directa de los polígonos y la correcta georreferenciación de las líneas o áreas resultantes. Resultados de investigaciones demuestran las ventajas de utilizar drones en la ingeniería por las características que estos presentan, si bien, los drones tienen una amplia área de trabajos en los que pueden ser utilizados; para este proyecto se busca la calidad de un levantamiento, pero con las ventajas de la fotogrametría. A través de los resultados obtenidos en los estudios y análisis de este proyecto, se buscará el diseño de una cartografía urbana e hidrológica del municipio de Apatzingán por medio del análisis geoespacial con el uso de drones, en zonas de riesgo. Este proyecto a su vez pretende ayudar con una metodología que permita desarrollar e implementar estudios hidrológicos; que cumplan con las características necesarias de acuerdo a las normativas propias del estudio.



METODOLOGÍA

La metodología para el análisis geoespacial en estudios y diseños urbanos e hidrológicos mediante el uso de drones implica los siguientes pasos: 1. Planificación: Definir objetivos, área de estudio y requisitos técnicos. 2. Recopilación de datos: Utilizar drones equipados con sensores y cámaras para recopilar imágenes y datos geoespaciales. 3. Procesamiento de datos: Utilizar software especializado para procesar las imágenes y datos recopilados, incluyendo la creación de modelos digitales del terreno y ortofotos. 4. Análisis geoespacial: Aplicar técnicas de análisis geoespacial, como SIG (Sistema de Información Geográfica), para examinar y modelar fenómenos urbanos e hidrológicos. 5. Visualización y comunicación: Presentar los resultados a través de mapas, gráficos y visualizaciones 3D para facilitar la comprensión y toma de decisiones. 6. Monitoreo y actualización: Realizar vuelos periódicos para monitorear cambios y actualizar los datos geoespaciales. Algunas aplicaciones incluyen: - Análisis de crecimiento urbano y planificación de infraestructura - Evaluación de riesgos de inundaciones y modelado hidrológico - Monitoreo de la calidad del agua y detección de cambios ambientales


CONCLUSIONES

La incorporación de drones en el análisis geoespacial ha revolucionado los estudios y diseños urbanos e hidrológicos, ofreciendo una herramienta poderosa para la recolección de datos precisos y detallados. Esta tecnología permite la captura de imágenes de alta resolución y la creación de modelos tridimensionales del terreno, facilitando la evaluación de áreas urbanas y naturales con una precisión sin precedentes. Los drones permiten una monitorización continua y eficiente, reduciendo costos y tiempos en comparación con los métodos tradicionales. En el ámbito urbano, proporcionan información crucial para el desarrollo sostenible, la planificación de infraestructuras y la gestión del espacio público. En los estudios hidrológicos, su capacidad para mapear cuencas, analizar flujos de agua y evaluar riesgos de inundación es invaluable. En conjunto, el uso de drones en el análisis geoespacial se erige como una innovación clave para enfrentar los desafíos contemporáneos de la planificación urbana y la gestión de recursos hídricos, promoviendo decisiones informadas y estratégicas que contribuyen al bienestar y resiliencia de las comunidades.
Juarez Rendon Jazhibe, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Mtra. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla

TÍTULO IDENTIFICACIÓN DE PATOLOGÍAS MECÁNICAS OCASIONADAS POR SISMOS EN TEMPLOS COLONIALES DE OAXACA


TÍTULO IDENTIFICACIÓN DE PATOLOGÍAS MECÁNICAS OCASIONADAS POR SISMOS EN TEMPLOS COLONIALES DE OAXACA

Juarez Rendon Jazhibe, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Mtra. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En México, los templos coloniales fueron construidos entre los siglos XVI y XIX, estas edificaciones se han visto afectadas, principalmente, por los constantes movimientos sísmicos característicos de la región, se edificaba aplicando el criterio de prueba y error.  Con el paso del tiempo, los edificios se fueron modificando morfológicamente para resistir sismos de menor magnitud, sin embargo, han tenido fallas al presentarse sismos mayores o terremotos. Los templos en el estado tienen tendencia a la horizontalidad, se caracterizan por tener muros gruesos y edificios bajos. (UNESCO, 2011). La actividad sísmica continua y perenne, hace probable que este tipo de estructuras se sigan dañando. Aunado a la falta de mantenimiento, presencia de diferentes tipos de patologías originadas por intemperismo, humedad, organismos animales o vegetales, reparaciones inconclusas, entre otras, degradación de materiales y esfuerzos residuales, las edificaciones históricas aumentan su vulnerabilidad, poniendo en riesgo su seguridad estructural y la integridad de los usuarios. Después de buscar exhaustivamente datos sobre daños, restauraciones y técnicas de rehabilitación estructural en Oaxaca, se encontró información muy escasa. Por tanto, es importante contar con información de patrones de daño y patologías generadas por sismo, así como, pruebas no destructivas, técnicas de rehabilitación estructural y nuevos materiales que se puedan aplicar para su conservación sin alterar sus valores intrínsecos.



METODOLOGÍA

Se realizó una investigación del tipo aplicada, tecnológica e inductiva, con el objetivo de describir las afectaciones en los templos coloniales, donde se recolectó información de los daños por la ocurrencia de sismos históricos que afectaron el estado, con el objetivo principal de desarrollar una tipología de daño complementado con esquemas de las patologías. El marco teórico se fundamenta en el uso de las Tecnologías de Información y Comunicación (TICS). En el que, a través de documentos digitales encontrados en internet, se realizaron lecturas y la selección de la información de interés.  Se seleccionaron los sismos más catastróficos en el estado de Oaxaca, son los ocurridos el 15 de junio de 1999 y el 30 de septiembre del mismo año, el 7 de septiembre de 2017 y el 19 de septiembre del mismo año. Cabe recalcar que ocurrieron más sismos de magnitudes considerables, sin embargo, provocaron daños significativos en los templos coloniales.


CONCLUSIONES

El sismo con más antigüedad, que se considera, ocurrió el 15 de junio de 1999, el Servicio Sismológico Nacional informó de la ocurrencia de un sismo de magnitud M 6.7 (Mw 7.0) el pasado 15 de junio de 1999 a las 15:41:06 hrs. El informe reporta que las zonas más dañadas en el estado fueron la Mixteca Alta y Baja, y en general la zona limítrofe con los estados de Puebla y Guerrero concentrándose en comunidades de 104 municipios de nueve distritos. En 109 municipios se registraron daños en inmuebles históricos. El número de inmuebles afectados fue de 191, de los cuales 185 corresponden a templos, y seis a palacios de tipo municipal civil. (Alcocer et al, 1999).  En el mismo año, el sismo del 30 de septiembre destaca que uno de los sismos más significativos del estado, fue de falla normal con epicentro cerca de la ciudad de Puerto Escondido. Su magnitud de momento sísmico fue Mw=7.5. (López et al 2014). Un primer informe recabado por la delegación Oaxaca del Instituto Nacional de Antropología e Historia, indica que un total de 248 inmuebles religiosos resultaron dañados. De ellos, se estima que el 52 por ciento presentó daños menores, el 43 por ciento daños moderados y sólo un 5 por ciento daños mayores. Las lesiones en templos se concentraron en las columnas soporte de las torres y los campanarios, observándose grietas inclinadas, caída de aplanados, falla completa de muros, desprendimiento y caída de elementos ornamentales de las torres de campanario. Así mismo se reportaron agrietamientos ligeros en muros principalmente de la fachada al igual que en claves de arcos de la bóveda principal. (López et al 2014). El día 7 de septiembre de 2017, el Servicio Sismológico Nacional (SSN) reportó un sismo con magnitud 8.2 localizado en el Golfo de Tehuantepec, a 133 km al suroeste de Pijijiapan, Chiapas, ocurrido a las 23:49:17 horas.12 días después, otro sismo afecto a Oaxaca empeorando los daños al pueblo oaxaqueño, el 19 de septiembre de 2017 el Servicio Sismológico Nacional (SSN) reportó un sismo con magnitud 7.1, mediante el Reporte especial: Sismo del día 19 de septiembre de 2017, Puebla-Morelos (M 7.1) publicado el 25 de noviembre de 2017, el sismo se localizó a 12 km al sureste de Axochiapan, Morelos y a 120 km de la Ciudad de México.  Los sismos del 7, 19 y 23 de septiembre de 2017 dañaron notablemente el patrimonio construido del estado de Oaxaca, sobre todo el relacionado con el culto religioso. Se realizó un recuento de 325 templos, catalogados como patrimoniales, que resultaron dañados, confirmados en su momento por el titular de la Coordinación Estatal de Protección Civil de Oaxaca (CEPCO). El estado de Oaxaca fue el más afectado por los movimientos telúricos, y donde se reportó la mayor cantidad de inmuebles dañados, con una cifra oficial de 587 (Molotla Xolalpa, P. T., 2022) Los campanarios, bóvedas y cúpulas siguen siendo los elementos más vulnerables, al presentar los mayores daños (Archundia-Aranda, H. 2018). Es importante destacar que, en algunos casos, los daños se debieron a intervenciones anteriores, principalmente con elementos de concreto. Al igual que varios colapsos se debieron a una mala calidad de la mampostería o al deterioro de la misma. Dicho deterioro debido a diversos factores, entre los que destacan: degradación, falta de mantenimiento, presencia de fauna y flora nociva. En algunos templos se detectó que la mampostería estaba formada por boleos unidos con morteros de cal - arena y en otros casos por morteros de tierra.   
Juarez Rosas Lesly Daniela, Instituto Tecnológico de Ciudad Juárez
Asesor: M.C. Jesús Francisco Escalante Euán, Universidad Autónoma de Yucatán

UBICACIóN óPTIMA DE NUEVAS ENTIDADES COMERCIALES EN ZONAS URBANAS


UBICACIóN óPTIMA DE NUEVAS ENTIDADES COMERCIALES EN ZONAS URBANAS

Hernández Ramos Luisa Daniela, Instituto Tecnológico de Ciudad Juárez. Juarez Rosas Lesly Daniela, Instituto Tecnológico de Ciudad Juárez. Asesor: M.C. Jesús Francisco Escalante Euán, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

Este estudio presenta un modelo integral de optimización de instalaciones que busca mejorar la eficiencia operativa, reducir costos y optimizar la asignación de recursos. Los resultados indican que este enfoque puede generar beneficios significativos al reorganizar espacialmente y asignar estratégicamente los recursos, lo que conduce a un flujo de trabajo óptimo, menor congestión y mejor utilización de los recursos. Además, el modelo considera factores dinámicos como los patrones de demanda cambiantes y la disponibilidad variable de recursos, asegurando la adaptabilidad a entornos operativos fluctuantes. Se destaca la importancia de la recopilación y análisis de datos sólidos, así como el papel central de técnicas de optimización y modelado matemático. Se enfatiza la necesidad de un enfoque holístico que considere múltiples objetivos y limitaciones, y se subraya la importancia de la revisión periódica de las estrategias de ubicación de las plantas.



METODOLOGÍA

La metodología de ubicación de instalaciones a través de la optimización es un campo crítico dentro de la investigación de operaciones y la gestión de la cadena de suministro, cuyo enfoque es determinar las ubicaciones más eficientes y efectivas para instalaciones como fábricas, almacenes, centros de distribución y centros de servicio. El alcance de esta metodología es amplio y abarca varios aspectos de la toma de decisiones sobre la ubicación de las instalaciones. Nuestro aporte genera una solución óptima local para múltiples centros de abasto, bajo el supuesto de la logística de distribución de productos.


CONCLUSIONES

Este proyecto se ha diseñado para ser eficiente, sustentable, flexible, seguro, funcional y emblemático, con el objetivo de poder conocer y como escoger nuevas ubicaciones y oportunidades de entidades comerciales.
Juárez Vargas Felipe Neri, Instituto Tecnológico de Querétaro
Asesor: Dra. Maria Blanca Becerra Rodriguez, Instituto Tecnológico de Querétaro

FACTORES CRíTICOS PARA IMPLEMENTAR LEAN MAUFACTURING Y ECONOMíA CIRCULAR EN LAS EMPRESAS QUERETANAS


FACTORES CRíTICOS PARA IMPLEMENTAR LEAN MAUFACTURING Y ECONOMíA CIRCULAR EN LAS EMPRESAS QUERETANAS

Aguilera Baeza Andrea Jael, Instituto Tecnológico de Querétaro. Ávalos Alegría Alexandro, Instituto Tecnológico de Querétaro. Juárez Vargas Felipe Neri, Instituto Tecnológico de Querétaro. Asesor: Dra. Maria Blanca Becerra Rodriguez, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En este proyecto de investigación se hizo medir si las empresas queretanas han implementado la metodología de Lean Manufacturing y Economía Circular para mejorar su productividad. Además, de evaluar los factores críticos de otro país.



METODOLOGÍA

El diseño de investigación adoptado para el proyecto fue de tipo mixto, permitiendo obtener datos combinandos tanto cuantitativos como cualitativos para obtener una comprensión integral sobre el uso de economía circular y lean manufacturing en las empresas de los parques industriales de Querétaro, utilizando el método de encuesta como herramienta principal para la recolección de datos.   


CONCLUSIONES

Los resultados obtenidos han resaltado la importancia de varios elementos clave como: la cultura organizacional, la resistencia al cambio y la infraestructura y sistemas facilitadores para la separación en origen; también la existencia de procedimientos y estándares bien definidos, y el compromiso de los beneficiarios directos del proyecto. Estos factores han demostrado ser determinantes en la adopción de prácticas, que no solo optimizan la eficiencia operativa, sino que también promueven la sostenibilidad ambiental, alineando a las empresas con las tendencias globales de Economía Circular y Lean Manufacturing.  
Juárez Velázquez José Antonio, Universidad de Colima
Asesor: Dr. Saúl Islas Pereda, Universidad Autónoma de Baja California

SISTEMA DE MONITOREO PARA LA MICRORED DE PUERTECITOS


SISTEMA DE MONITOREO PARA LA MICRORED DE PUERTECITOS

Juárez Velázquez José Antonio, Universidad de Colima. Asesor: Dr. Saúl Islas Pereda, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

La comunidad pesquera de Puertecitos, ubicada en Baja California, México, depende de una microred para satisfacer sus necesidades energéticas, ya que está aislada del Sistema Eléctrico Nacional. Esta microred originalmente combinaba generación solar, eólica y diésel, junto con un banco de baterías para el almacenamiento de energía. Sin embargo, con el tiempo, la infraestructura ha sufrido deterioros significativos: el aerogenerador y el generador diésel han dejado de funcionar, y el banco de baterías está en mal estado, lo que afecta la capacidad de almacenamiento y producción de energía. Estos problemas han generado una urgente necesidad de mejorar la gestión de la energía en la microred.



METODOLOGÍA

El proyecto se desarrolla en varias fases clave, comenzando con la evaluación del estado actual del sistema fotovoltaico y el banco de baterías. Para ello, se realizaron visitas a la microred en Puertecitos para estudiar y analizar su infraestructura y funcionamiento. Se emplearon sensores de corriente continua HSTS30 y sensores de tensión elaborados con convertidores ADS1115 y divisores de voltaje para monitorear el rendimiento energético en tiempo real. Una parte crucial de la metodología fue el diseño e implementación de un sistema de monitoreo que permita el seguimiento continuo de la generación de energía. Esto incluyó la selección de los elementos requeridos y el estudio de la red eléctrica existente para identificar los puntos de interconexión óptimos para el monitoreo. El sistema de monitoreo fue probado y calibrado extensivamente para asegurar su precisión y fiabilidad y debido plazo de desarrollo de este proyecto, el sistema sigue en etapas de pruebas del circuito a implementar.  Finalmente se lleva acabo el proceso de documentación de los resultados, evaluación del cumplimiento de los objetivos, y la formulación de recomendaciones futuras para optimizar aún más la gestión energética de la microred.


CONCLUSIONES

El proyecto "Sistema de Monitoreo para la Microred de Puertecitos" fue concebido con el propósito de mejorar la gestión energética de una comunidad pesquera en Baja California, México. La iniciativa buscaba implementar una solución tecnológica para optimizar el uso de energía generada a partir de fuentes renovables y garantizar un suministro energético confiable y sostenible. A lo largo del desarrollo del proyecto, se enfrentaron diversos desafíos técnicos y logísticos, que proporcionaron aprendizajes significativos, aunque también limitaciones que impidieron la puesta en marcha completa del sistema dentro del plazo previsto. Resultados Obtenidos Durante la fase de implementación, se lograron varios hitos importantes que contribuyen al conocimiento y la capacidad técnica de la comunidad y del equipo de investigación: Desarrollo de una Interfaz Intuitiva: Se diseñó y configuró una interfaz de usuario en Node-RED, que permite la visualización en tiempo real de las condiciones de la microrred. Esta herramienta ha probado ser esencial para la monitorización y análisis rápido de datos, facilitando la detección de anomalías y la evaluación del rendimiento del sistema energético. Integración de Sensores y Convertidores: Se implementó con éxito un sistema de sensores utilizando divisores de voltaje y convertidores ADS1115 para medir de manera precisa la tensión y corriente en los diferentes componentes de la microrred. La precisión de estos dispositivos es crucial para monitorear la eficiencia de la producción y el almacenamiento de energía. Programación de Controladores: Se desarrolló un programa robusto en Arduino MEGA para recoger, procesar y transmitir los datos de los sensores a la interfaz de usuario. Este sistema de adquisición de datos es fundamental para la automatización del proceso de monitoreo y ha sido diseñado para ser escalable y adaptable a futuras expansiones o modificaciones del sistema. Capacidad de Almacenamiento de Datos: La configuración de una base de datos MySQL local para almacenar los datos recogidos ha permitido acumular un histórico valioso que puede utilizarse para análisis a largo plazo, contribuyendo a mejorar la planificación energética y la sostenibilidad de la microrred. Documentación: Se ha generado una amplia documentación técnica. Este esfuerzo educativo ayuda a asegurar la sostenibilidad del proyecto a través del empoderamiento comunitario y la transferencia de conocimientos técnicos. A pesar de los avances mencionados, el proyecto enfrentó desafíos significativos que impidieron la completa realización de todos los objetivos dentro del cronograma establecido. Actualmente, el sistema se encuentra en una etapa de prototipo funcional, y aún no ha sido posible realizar una implementación completa en la microrred de Puertecitos. Las pruebas iniciales han sido prometedoras, pero la necesidad de ajustes continuos y la optimización del sistema han impedido su puesta en marcha final. En conclusión, el proyecto "Sistema de Monitoreo para la Microred de Puertecitos" ha demostrado ser un esfuerzo valioso y educativo, proporcionando perspectivas importantes para el desarrollo de soluciones energéticas en comunidades aisladas. Aunque el camino hacia la completa realización y operación del sistema ha sido más desafiante de lo esperado, cada paso ha contribuido al objetivo final de lograr una energía asequible y no contaminante para Puertecitos. Con el compromiso continuo del equipo de proyecto, las autoridades y la comunidad, este sistema tiene el potencial de transformar la gestión energética en la región y servir como modelo para otras iniciativas similares a nivel mundial.
Kantun Poot Jazmin Isabel, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

DESARROLLO Y CARACTERIZACIóN DE MATERIALES COMPUESTOS DE PLA, ALMIDóN Y ACEITE (NUEZ Y SEMILLA DE CALABAZA) PARA APLICACIONES EN LA INDUSTRIA DE LA CONSTRUCCIóN.


DESARROLLO Y CARACTERIZACIóN DE MATERIALES COMPUESTOS DE PLA, ALMIDóN Y ACEITE (NUEZ Y SEMILLA DE CALABAZA) PARA APLICACIONES EN LA INDUSTRIA DE LA CONSTRUCCIóN.

Camacho Piña Susana Eloísa, Universidad de Sonora. Kantun Poot Jazmin Isabel, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La industria de la construcción está en una búsqueda constante de materiales innovadores que sean sostenibles, económicos y con buenas propiedades mecánicas y térmicas. Los materiales compuestos permiten ajustar sus propiedades para diversas aplicaciones, y los biopolímeros, como el ácido poliláctico (PLA), son de interés por su biodegradabilidad y menor impacto ambiental. Sin embargo, el PLA tiene limitaciones como fragilidad y baja resistencia al impacto. Se investiga mejorar estas características combinándolo con otros biopolímeros y aditivos naturales, como el almidón y aceites (de nuez y semilla de calabaza), para mejorar su flexibilidad y propiedades térmicas. La efectividad de estos materiales compuestos depende de la correcta proporción y dispersión de los componentes; es necesario desarrollar y caracterizar estos nuevos materiales para determinar su viabilidad y sus posibles aplicaciones en la industria.



METODOLOGÍA

Primero, se obtuvieron semillas de calabaza y nueces caducas, no aptas para el consumo ni la venta en la industria alimentaria. Utilizando una prensa de aceite de tornillo, se procedió a extraer el aceite de las semillas. La máquina se precalentó y, tras unos minutos, se introdujeron pequeñas cantidades de semillas. La prensa separaba el residuo por un conducto y el aceite por otro. Se utilizaron 351.5427 g de semillas de calabaza y 618.2539 g de nueces, obteniendo 200 ml de aceite de semilla de calabaza y 360 ml de aceite de nuez. Los aceites extraídos se almacenaron en frascos de vidrio y se dejaron reposar durante 4 días para permitir la decantación y la separación de impurezas. Después del reposo, los aceites se filtraron manualmente utilizando filtros de café, resultando en aproximadamente 140 ml de aceite de semilla de calabaza y 250 ml de aceite de nuez. Con los aceites obtenidos, se prepararon mezclas con las siguientes proporciones: 78% PLA, 15% de almidón y 7% de aceite de calabaza, repitiendo la misma proporción con el aceite de nuez. Utilizando una báscula, se midieron las cantidades precisas de cada componente. Tanto el PLA como el almidón se colocaron en un horno de secado a 70°C para eliminar la humedad y evitar la formación de burbujas en el proceso posterior. Una vez secos, los componentes se mezclaron en un molino de café, debido a las pequeñas cantidades involucradas. Esto evitó la pérdida significativa de material que podría ocurrir en una licuadora o mezcladora de mayor tamaño. El molino se utilizó en su máxima potencia para obtener una mezcla más homogénea. Para procesar la mezcla en forma de filamentos, se utilizó una máquina extrusora de plástico. La máquina se precalentó y, una vez alcanzada la temperatura requerida, que fue desde los 100°C hasta los 160°C a una velocidad de 120 rpm se introduce el polvo de manera constante y controlando la salida del filamento para evitar una disminución en el diámetro de la extrusión. Una vez obtenidos los filamentos, se trituraron manualmente y luego se pasaron por una licuadora para obtener trozos más pequeños (pellets). Posteriormente, se utilizó una prensa térmica hidráulica para formar las placas de PLA, almidón y aceite. La prensa se calentó a una temperatura de 160°C. En una base cuadrada de acero endurecido, se colocó una lámina de teflón y un molde con dimensiones de 12x12 cm, en el cual se depositaron los trozos de la mezcla triturada. Se añadió otra lámina de teflón encima y se cubrió con otra base de acero endurecido. El conjunto se situó entre los bloques de la prensa, que se cerró aplicando una presión inicial de 90 kgf/cm² durante 5 minutos para calentar el material. Posteriormente, se aumentó la presión a 210 kgf/cm² durante 7 minutos adicionales. Finalmente, se abrió la prensa y se dejó enfriar a 40°C antes de desmoldar las placas. Después de formar las placas, se procedió a cortarlas con una cortadora láser para lograr mayor precisión. Sin embargo, fue necesario esperar al menos 24 horas antes de realizar este paso para que el material se curara completamente y alcanzara su resistencia y estabilidad máximas. Las placas se cortan en formas específicas según las pruebas a las que se someterán. En este caso, se consideró realizar pruebas de tensión, por lo que las placas se cortaron en la forma de una probeta de tensión. De cada placa, se obtuvieron 6 probetas. Para realizar las pruebas de tensión, se utilizó una máquina de pruebas universales Instron. Las probetas se colocaron una a una en la máquina, de manera vertical y sujetas por sus extremos. En el sistema computarizado de la máquina se introdujeron los valores promedio del espesor y ancho de cada una de las probetas, además de la longitud previamente medida con un micrómetro digital. También se configuró la fuerza y velocidad de aplicación de la tensión, que en este caso fue de 1 kN a una velocidad de 1 mm/min.


CONCLUSIONES

El objetivo de esta investigación fue evaluar las propiedades potenciales de un material compuesto a partir de PLA, almidón y aceites de nuez y calabaza, con vistas a su aplicación en la industria de la construcción, específicamente en la fabricación de paneles constructivos. Durante el periodo de estancia de verano Delfin, se adquirió un conocimiento tanto teórico como práctico sobre la fabricación y caracterización de materiales compuestos. Se lograron crear muestras del material en cuestión, y se llevaron a cabo pruebas de tensión utilizando una máquina de pruebas universales Instron. No obstante, aunque los resultados obtenidos proporcionan una visión preliminar sobre las propiedades mecánicas del material, no son suficientes para concluir su viabilidad como recubrimiento o capa estructural en paneles de construcción. Las pruebas realizadas han revelado aspectos importantes, pero es necesario llevar a cabo pruebas adicionales, como ensayos de deformación y de impacto, para obtener una evaluación completa de su resistencia, durabilidad y comportamiento bajo diferentes condiciones de carga.
Laguna Álvarez Luis Carlos, Corporación Universitaria Remington
Asesor: Dr. Marco Julio Ulloa Torres, Instituto Politécnico Nacional

ESTIMACIóN DE ÍNDICE DEL ESTADO TRóFICO PARQUE LAGUNA CHAMPAYáN, TAMAULIPAS - MéXICO.


ESTIMACIóN DE ÍNDICE DEL ESTADO TRóFICO PARQUE LAGUNA CHAMPAYáN, TAMAULIPAS - MéXICO.

Laguna Álvarez Luis Carlos, Corporación Universitaria Remington. Asesor: Dr. Marco Julio Ulloa Torres, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

PLANTEAMIENTO DEL PROBLEMA El Parque Laguna Champayán, ubicado en Altamira, Tamaulipas, México, es un área natural protegida que alberga una laguna de gran valor ecológico y recreativo. Este parque no solo sirve como un refugio para diversas especies de flora y fauna, sino que también es un importante destino para actividades recreativas y ecoturismo, así como para el abastecimiento de agua potable para uso municipal e industrial. Sin embargo, la laguna dentro del parque ha comenzado a experimentar signos de eutrofización, un fenómeno caracterizado por el exceso de nutrientes en el agua, que está provocando serios problemas ambientales y afectando el equilibrio ecológico del área.



METODOLOGÍA

METODOLOGIA DESCRIPCIÓN DE LA UNIDAD DE ANÁLISIS La unidad de análisis tomada para esta investigación son las mediciones de parámetros del agua tomadas en los puntos de monitoreo seleccionados en la extensión de la Laguna Champayán que comprende el Parque Laguna Champayán, Altamira, Tamaulipas, México. Las variables   Las variables de la unidad de análisis se relacionan a continuación: Independientes Planificación de muestreo Instrumentos para la medición de parámetros del agua in situ Método de Carlson    Dependientes Distribución horizontal de la transparencia y la clorofila - a IET por transparencia y clorofila - a Clasificación del IET Población y muestra La investigación se realizó en la ciudad de Altamira, específicamente la extensión que comprende el Parque Laguna Champayán, Altamira, Tamaulipas, México, considerando (46) puntos de muestreo que constituyen la población de estudio. Nivel de investigación La investigación tuvo un alcance exploratorio y descriptivo, dado que el objetivo del estudio consiste en determinar el IET en la zona de estudio seleccionada. Diseño de la Investigación Digitalización: A través de Google Earth se delimito la zona de estudio digitalizando la ribera e islotes de la macrófita emergente denominada localmente como tule (Typha Dominguensis). ​Muestreo: identificar puntos de muestreo representativos a lo largo de la laguna, considerando áreas de alta actividad humana, zonas naturales y posibles fuentes de contaminación realizando dos fases 2 de muestreo. Durante la toma de muestra se debe garantizar en la medida de lo posible las condiciones de seguridad y accesibilidad. ​Extracción de datos: para la captura de datos se realizaron dos fases que se aplicaran en cada punto de muestreo, la cuales son sometidas a las bases y parámetros establecidos en el método de índice de estado trófico de Carlson. Fase 1. En los distintos puntos de muestreo se utilizó el disco de Secchi con dos caras blancas y dos negras los cuales fueron sumergidos anotando la distancia en las cuales las caras blancas no fueron visibles, luego se hacen ascender anotando la distancia en la cual sean visibles y así promediar esos dos resultados y obtener valores de la transparencia. Fase 2. En los diferentes puntos de muestro se introdujo una sonda con sensores para medir la calidad de agua (Hydrolab DS5 multi-parámetros), utilizándose las mediciones de clorofila-a en el presente trabajo. Procesamiento de datos: los datos capturados se procesaron en programas de cómputo (Matlab, Octave) para la elaboración de graficas en base a los indicadores del método de Carlson. Extracción de datos: para la captura de datos se realizaron dos fases que se aplicaran en cada punto de muestreo, la cuales son sometidas a las bases y parámetros establecidos en el método de índice de estado trófico de Carlson.    


CONCLUSIONES

Rultados: Grafica 1 (Clorofila - a) : Representa la distribución horizontal de la presencia de microalgas en la laguna, donde el valor mínimo de concentración es de 5 µ g/l y la máxima de 13 µ g/l. Grafica 2 (IET Clorofila - a): Representa el índice de estado trófico con respecto de la clorofila - a presente en la laguna evaluando valores de 46 - 56 IET. Grafica 4 (Transparencia en mts): Representa la distribución horizontal de la transparencia en metros de la laguna, donde el valor mínimo de la transparencia es de 0,5 m y el valor máximo de 1 m. Grafica 5 (IET Transparencia): Representa el índice de estado trófico con respecto de la transparencia en la laguna evaluando valores de 60 - 70 IET.   CONCLUSIONES El IET de Clorofila - a se encuentra en estados combinados Mesotrófico y Eutrófico, con valores de Clorofila - a entre 5 - 13 µ g/l. El IET de transparencia se encuentra en estado Eutrófico con valores de la transparencia del agua entre 0,5 m - 1 m. IET (Clorofila - a) < IET (Disco de Secchi), implicando que las partículas en suspensión dominan la atenuación de la luz.  
Lamadrid Avila Fernando, Universidad de Guadalajara
Asesor: Dra. Natiely Hernández Sebastián, Centro de Investigaciones en Óptica (CONACYT)

FABRICACIÓN Y CARACTERIZACIÓN DE UN ARREGLO DE MICROELECTRODOS FLEXIBLES PARA LA ESTIMULACIÓN ELÉCTRICA DE LA CÓRNEA HUMANA


FABRICACIÓN Y CARACTERIZACIÓN DE UN ARREGLO DE MICROELECTRODOS FLEXIBLES PARA LA ESTIMULACIÓN ELÉCTRICA DE LA CÓRNEA HUMANA

Chávez Martínez Marlen, Instituto Tecnológico Superior Purépecha. Hernández Romero Laisa Monselin, Instituto Tecnológico Superior Purépecha. Lamadrid Avila Fernando, Universidad de Guadalajara. Mondragon Palma Bruno Gael, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dra. Natiely Hernández Sebastián, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La estimulación eléctrica (EE) en los ojos se ha estudiado como un novedoso proceso terapéutico que mejora la percepción visual en pacientes con enfermedades degenerativas de la retina. Es un procedimiento no invasivo en el que se aplica una corriente eléctrica de baja intensidad sobre la superficie de la córnea para activar la retina y las estructuras posteriores y, por lo tanto, ejercer efectos terapéuticos en los pacientes. Bajo esta premisa, en el presente proyecto de investigación se fabricó y caracterizó un arreglo de microelectrodos flexible para la EE selectiva y variable de la córnea humana.



METODOLOGÍA

  1. Consulta bibliográfica. Realizamos la revisión bibliográfica de diversos artículos científicos, así como reportes de investigación, tesis y artículos varios de internet para familiarizarnos con temas relacionados al proyecto. 2. Capacitación del uso del laboratorio y técnicas de fabricación. Durante la estancia de investigación asistimos como oyentes a la materia Tecnología de películas delgadas impartida en el Centro de Investigaciones en Óptica, A.C., con la finalidad de capacitarnos en las diferentes técnicas de fabricación de microelectrónica y conocer los aspectos esenciales del Laboratorio Nacional Conahcyt en Microtecnología y BioMEMS (LaNMiB). 3. Fabricación del arreglo de microelectrodos flexibles. Las etapas de fabricación del arreglo de microelectrodos flexibles son las siguientes: 3.1 Limpieza química húmeda El proceso de limpieza química húmeda permite eliminar la contaminación orgánica de la superficie de los substratos. Los pasos para realizarla consisten en: (i) limpieza ultrasónica en acetona y alcohol para eliminar residuos por contaminación orgánica, (ii) enjuague exhaustivo en agua desionizada, (iii) decapado de oxido nativo en buffer de HF. 3.2 Depósito de poliimida Realizamos el depósito de poliimida (PI) por la técnica de spin coating haciendo tres depósitos consecutivos: un depósito de PI2610 para mejorar la adherencia del substrato y dos depósitos de PI2611 para aportar mayor espesor final al substrato. 3.3 Desgaste de la poliimida Debido a que las películas de PI se caracterizan por tener una superficie lisa libre de defectos, entre cada depósito hicimos un proceso de desgaste en plasma de oxígeno con la finalidad de incrementar el área de adherencia de la superficie de la PI. 3.4 Depósito de Al/Ti El material estructural de los microelectrodos es una bicapa metálica compuesta de aluminio/Titanio (Al/Ti).  Ambos materiales fueron depositados por la técnica de sputtering. El primer depósito que fue de Al con un espesor de 150 nm y enseguida, el depósito de Ti con un espesor de 50 nm. 3.5 Fotolitografía, primer nivel La fotolitografía es el proceso por el cual se transfieren patrones de manera fiel a un material. En el primer nivel de mascarilla nos permitió definir los pads, las pistas y el arreglo de microelectrodos en la bicapa metálica. 3.6 Grabado del metal (Al/Ti) El proceso de grabado de la bicapa metálica de Al /Ti se hizo con la solución Ti-Etch. Para efectuar el proceso de grabado, sumergimos la muestra en la solución durante 35 segundos; luego en agua DI y el secado fue con aire comprimido. 3.8 Depósito de poliimida 2610 de protección Debido a que el prototipo estará en contacto con medio biológico, las estructuras metálicas se recubren con una película delgada de poliimida con propiedades biocompatibles y flexibles, así como alta resistencia química. 3.9 Depósito de Al Depositamos una película de Al de 80 nm de espesor por la técnica de sputtering como material de recubrimiento para el proceso de grabado de la PI 2610. 3.10 Fotolitografía, segundo nivel La fotolitografía del segundo nivel de mascarilla permite definir las ventanas en la parte superior de los pads y microelectrodos, así como, el corno del dispositivo. El proceso realizado se detalla en el apartado 3.5. 3.11 Grabado de Aluminio El proceso de grabado del Al se hizo con la solución comercial Al-Etch. Para el proceso de grabado sumergimos la muestra en solución a 45°C durante 60 segundos. 3.12 Grabado de Poliimida Para crear el contacto eléctrico entre los microelectrodos y el medio biológico, la última capa de PI-2610 se graba de manera selectiva en plasma de oxígeno. 3.13 Forma del dispositivo Si bien, la forma del dispositivo se define en la fotolitografía del segundo nivel de mascarillas, en este proceso se realiza el corte del substrato flexible de PI con un cúter, cuidando de no aplicar demasiada fuerza durante los cortes. 3.14 Decapado de aluminio Se realizó un decapado de aluminio de protección al igual usando el mismo método que en el grabado de aluminio. 3.15 Desprendimiento del dispositivo Finalmente, sumergimos la muestra en agua DI y con pequeños movimientos en los bordes del dispositivo logramos su desprendimiento. El prototipo se libera del soporte mecánico por los pads, luego por las pistas y finalmente por los petalos. 3.16 Caracterización del prototipo El prototipo fabricado se caracterizó a nivel laboratorio para evaluar su comportamiento eléctrico basándose en las curvas I-V de cada pad microelectrodo.


CONCLUSIONES

1. Durante este proyecto elaboramos en total cuatro dispositivos funcionales, de estos, tres se enviarán a la universal Iberoamérica de la ciudad de México para su evaluación in-vivo. El cuarto dispositivo se utilizará para realizar pruebas de conectividad eléctrica con un conector comercial. 2. Los dispositivos obtenidos son mecánicamente flexibles, biocompatibles, de bajo costo, cuentan con excelente integridad estructural y son espacialmente selectivos, características que representa un avance significativo hacia el objetivo de la EE selectiva de la córnea humana. Por lo anterior, se puede concluir que cumplimos los objetivos principales de este proyecto, ya que no solo se fabricó y caracterizo el arreglo de microelectrodos, también, tuvimos la oportunidad de desarrollar una propuesta de diseño para la siguiente etapa del prototipo.
Landeta Calvario Norma Angelica, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. José Luis López Martínez, Universidad Autónoma de Yucatán

DESARROLLO DE ALGORITMOS RáPIDOS PARA CORRECCIóN DE ILUMINACIóN NO UNIFORME EN IMáGENES DIGITALES UTILIZANDO FILTROS MORFOLóGICOS


DESARROLLO DE ALGORITMOS RáPIDOS PARA CORRECCIóN DE ILUMINACIóN NO UNIFORME EN IMáGENES DIGITALES UTILIZANDO FILTROS MORFOLóGICOS

Landeta Calvario Norma Angelica, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. José Luis López Martínez, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

Una imagen digital puede sufrir de diversas degradaciones debido a múltiples factores como ruido, desenfoque, variaciones en la iluminación, y más. Estas degradaciones pueden afectar significativamente la calidad visual y la utilidad de la imagen. El problema central de este proyecto es desarrollar un algoritmo eficiente capaz de mejorar o restaurar una imagen dañada por iluminación no uniforme, haciendo uso de técnicas de procesamiento de imágenes. Además, dado que el procesamiento de imágenes puede ser computacionalmente intensivo, la investigación también se enfocará en la paralelización del algoritmo para mejorar su rendimiento y reducir el tiempo de procesamiento, permitiendo así su aplicación en tiempo real.



METODOLOGÍA

En la primera parte se realizó una investigación acerca del procesamiento digital de imágenes y sus diversas técnicas. Así como de los filtros pasa altas y los filtros pasa bajas y los efectos que producen en la mejora y restauración de imágenes.  Despues se estudiaron algunos metodos de corrección de sombreado (shading correction) el cual se refiere al proceso de ajustar una imagen para eliminar las variaciones no deseadas en la iluminación que pueden ocurrir debido a sombras o gradientes de iluminación no uniformes. Estas variaciones pueden dificultar el análisis de una imagen. De los métodos revisados se optó por utilizar filtros morfológicos, debido a su eficacia en la eliminación de ruido y en el suavizado de detalles. Para implementar el algoritmo se utilizó el lenguaje de programación Python y la librería OpenCV. El algoritmo de procesamiento de imágenes para la corrección de sombreado tiene el siguiente flujo algorítmico: Se crea una imagen artificial que contenga la degradación por iluminación no uniforme utilizando un modelo matemático de iluminación basado en un gradiente Se realizan operaciones morfológicas sobre la imagen generada previamente con el fin de estimar la función de iluminación no uniforme utilizando diferentes tamaños de kernels Posteriormente se realiza la corrección de sombreado en la imagen degradada para estimar la imagen original Se utiliza las métricas de RMSE y del EDIF para el calculo objetivo y visual de la estimación de la imagen restaurada Para que el algoritmo sea rápido y eficiente, Se realizó la paralelización del algoritmo de restauración enfocado en el punto dos de la metodología. Se realizaron experimentos utilizando imágenes de diferentes tamaños (256x256, 512x512, 1024x1024 pixeles) y se aplicó la métrica del speedup para medir la aceleración del algoritmo paralelizado Como resultados de las pruebas realizadas, se obtuvo que un kernel de tamaño 3 es más adecuado, ya que introduce menos distorsión y la imagen restaurada se parece más a la imagen original basandonos en el RMSE y en el EDIF. En cuanto a la paralelización, apoyandonos en el speedup se muestra que efectivamente es más rápido cuando usamos 4 ó 5 hilos para la realización de las tareas en comparación con su versión secuencial.


CONCLUSIONES

El proceso desarrollado demuestra ser efectivo en la corrección de sombreado y la mejora de la calidad de imágenes. La implementación y evaluación de las métricas de error (RMSE y EDIF) confirmaron la eficacia del algoritmo propuesto. La utilización de la biblioteca multiprocessing para la paralelización ha permitido acelerar el procesamiento, reduciendo significativamente el tiempo de ejecución al aprovechar múltiples núcleos del procesador. Sin embargo, a medida que los conjuntos de datos y la complejidad de los algoritmos aumentan, el procesamiento en la CPU puede llegar a ser un factor limitante. Por lo tanto, para futuros trabajos y mejoras en el rendimiento, se sugiere el uso de CUDA para la aceleración del procesamiento mediante la utilización de unidades de procesamiento gráfico (GPU).
Landin Rodríguez Oscar Daniel, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato

PROTOTIPO IOT PARA SENSAR CO Y CO2


PROTOTIPO IOT PARA SENSAR CO Y CO2

Landin Rodríguez Oscar Daniel, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El 90% de nuestra vida la pasamos en espacios cerrados y, desafortunadamente, no se lleva a cabo un control para el monitoreo de la calidad del aire. Por lo tanto, MediC02 es una herramienta que proporciona información visual y en tiempo real sobre la concentración de gases y aerosoles utilizando tecnología disruptiva. Es necesario conocer la calidad del aire, específicamente la contaminación aérea, para evitar daños permanentes debido a la exposición a gases y aerosoles ambientales, y tomar las medidas necesarias que garanticen la salud de manera equitativa en los lugares donde se utilice. Además, contribuye a las tres dimensiones de la sostenibilidad aplicadas tanto a instituciones públicas como privadas donde se emplee. El sistema tiene como objetivo ser una herramienta para monitorear en tiempo real la cantidad de aerosoles en el entorno y determinar si el aforo y/o la ventilación son adecuados según los espacios. Al aplicarlo en industrias donde la sanitización es importante, como la industria alimentaria para consumo humano o la farmacéutica, también podría ser un complemento para mantener la inocuidad de dichas industrias. Podemos considerar que en las industrias cuyos lugares de trabajo están expuestos al medio ambiente, existe una exposición prolongada y variada a gases presentes en el entorno, lo cual puede indicar el límite para detectar posibles amenazas con un mayor riesgo.



METODOLOGÍA

Primeramente, se realizó una revisión de la literatura sobre los diversos sensores para medir CO2, encontrándose que la mayoría miden gases ambientales y los que son específicos para CO2 son relativamente caros. De la misma manera, se revisó las diversas tecnologías para el Internet de las Cosas, encontrándose que Arduino es una plataforma económica para implementarla, aunque en específico la placa conocida como NodeMCU es la más accesible, esta polaca cuenta con un chip ESP8266 que permite la comunicación por medio de WiFi en las bandas de 2.4 y 5 GHz, lo que lo vuelve muy útil para implementarse en redes LAN y MAN. Adicionalmente, permite la programación por Arduino IDE (lo que es muy amigable) y soporta la programación de Web Sockets para comunicación UDP, así como comunicación HTTP (como cliente/servidor) y el protocolo MQTT. El protocolo MQTT (Message Queuing Telemetry Transport), es el más usado en las aplicaciones del Internet de las Cosas (IoT), porque es asíncrono, multitarea y trabaja a tazas de velocidad entre 2 a 3 veces más rápidas que el protocolo HTTP, permitiendo trabajar en tiempo real. Considerando el hardware seleccionado, se procedió a programar la Placa NodeMCU con el protocolo MQTT para publicar los datos recolectados desde un sensor de aerosoles ambientales MQ135. Se utilizó una Raspberry PI 4, como broker para recibir los mensajes de los publishers (MCU + sensor), el bróker se programó con Python, empleando la librería Paho MQTT, cada dato publicado se manda a una base de datos en la nube para que se pueda visualizar en un sistema web.


CONCLUSIONES

MediCO2 surge como una solución para monitorear en tiempo real la cantidad de aerosoles en el entorno y determinar si el aforo y la ventilación son adecuados. Puede ayudar a mantener la inocuidad en industrias como la alimentaria y farmacéutica. Es posible detectar amenazas en entornos expuestos al medio ambiente. La importancia de controlar la contaminación del aire en espacios interiores es que se sabe con certeza si se requiere contar con una mejor ventilación para prevenir complicaciones respiratorias y reducir el riesgo relacionado con la exposición prolongada a niveles medios de CO2. Además, la infraestructura del protocolo MQTT, permite conectar n cantidad de sensores un instante y al otro m, siendo m distinto de n, lo que le da una gran flexibilidad en su implementación.   La importancia de controlar la contaminación del aire en espacios interiores es que se sabe con certeza si se requiere contar con una mejor ventilación reducir el riesgo relacionado con la exposición a aerosoles (pequeñas partículas suspendidas en aire), los cuales pueden producir enfermedades (principalmente respiratorias, como el COVID19) y que pueden resultar peligrosos (sobre todo cuando se desconoce su presencia). Además, la infraestructura del protocolo MQTT, permite conectar n cantidad de sensores un instante y al otro m, siendo m distinto de n, lo que le da una gran flexibilidad en su implementación.
Languren Giselle, Universidad de Guadalajara
Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional

SISTEMA DE RECONSTRUCCIóN Y DESPLIEGUE 3D CON CONTROL DE PERSPECTIVA SIN CONTACTO.


SISTEMA DE RECONSTRUCCIóN Y DESPLIEGUE 3D CON CONTROL DE PERSPECTIVA SIN CONTACTO.

Acosta Mora Violeta, Universidad de Guadalajara. García Herrera Edgar, Universidad de Guadalajara. Languren Giselle, Universidad de Guadalajara. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Actualmente, existen múltiples tecnologías de visualización y control de objetos y escenas 3D, como Microsoft y la red neuronal hNet, que se emplean principalmente para fines de investigación. El principal problema con las tecnologías existentes es su costo y poca accesibilidad, ya que están privatizadas. Esta situación impide que los avances en tecnologías 3D no puedan adquirirse en lugares y aplicaciones de impacto significativo, como escuelas, museos, hospitales, pequeñas y medianas empresas. En este proyecto se propone la creación de una interfaz holográfica que permita visualizar en tres dimensiones objetos digitalizados a través de la técnica de proyección de franjas, adicionalmente, el dispositivo propuesto estará equipado con sensores ultrasónicos para control de perspectiva del objeto a través de gestos manuales. La interfaz holográfica con control sin contacto podrá ser utilizada para mostrar objetos y manejarlos de forma dinámica e intuitiva, permitiendo a las personas aprender sobre diversos temas.



METODOLOGÍA

Digitalización 3D En este proyecto, se llevó a cabo la digitalización 3D de objetos mediante el uso de la técnica de luz estructurada conocida como proyección de franjas. Este proceso implicó la captura de imágenes del objeto desde diferentes perspectivas, utilizando un proyector, se desplegaron franjas de luz a frecuencias y amplitudes específicas sobre el objeto. Estas franjas permitieron determinar las coordenadas del objeto en los ejes x, y, z, basándose en la relación entre los puntos de la imagen obtenidos por la cámara, el objeto a digitalizar y el proyector. Para la digitalización 3D, fue necesario realizar un proceso de calibración previo, que consistió en capturar una serie de imágenes utilizando patrones de calibración, con el fin de determinar las matrices de parámetros intrínsecos (K), las matrices de rotación (R1, R2, …, Rn), y los vectores de traslación (t1, t2, …, tn), tanto del proyector como de la cámara.  Con la calibración finalizada, se procedió a la digitalización utilizando la proyección de franjas. Esta técnica involucró la toma de múltiples patrones de franjas variando frecuencia y fase, mismas que sirvieron como referencia para determinar a qué píxel de la cámara y a qué punto del proyector correspondía cada punto en el objeto a digitalizar. Los datos obtenidos se utilizaron para crear vectores de dirección basados en la información de la calibración, y estos permitieron triangular la profundidad del objeto. Finalmente, se calculó el promedio de la información RGB obtenida en todas las imágenes capturadas para recuperar el color del objeto sin las franjas proyectadas. Este procedimiento se realizó desde diferentes ángulos del objeto, obteniendo una nube de puntos que representa la digitalización 3D desde una perspectiva específica. Una vez obtenidos los modelos tridimensionales de todas las caras del objeto (en este caso, se trabajó con 21 ángulos diferentes), se procedió a la unión de las nubes de puntos. Al unir todas estas nubes, se logró una digitalización completa en 360 grados. Para el proceso de unir las 21 nubes de puntos obtenidas, fue necesario calcular la matriz de rotación y el vector de traslación. Esto se pudo realizar mediante diferentes métodos, uno de ellos consiste en la obtención de puntos de correspondencia, que son coordenadas que representan la misma información desde dos perspectivas diferentes (obtenidas manual o automáticamente). Con estos puntos, se calcula la matriz de rotación y su vector de traslación utilizando un algoritmo de optimización. No obstante, en este proyecto, se empleó el algoritmo ICP (Iterative Closest Point), que minimiza la diferencia entre dos nubes de puntos y proporciona la matriz de rotación y su vector de traslación sin necesidad de puntos de correspondencia. Con esta información, se calculó la alineación de puntos de una nube respecto a otra. Interfaz holográfica Después de digitalizar el modelo 3D, se diseñó una interfaz visual para desplegar el modelo. Para esto, se utilizó un prototipo constituido por una estructura de cartón y una lámina de acetato dispuesta a 45° respecto a la horizontal, de este modo al colocar el equipo de computo debajo de la lámina una parte del haz de luz proyectado fue absorbido por el acetato, aislando la proyección a la superficie de la lámina, dando una ilusión holográfica. Para la interfaz de control, se emplearon sensores ultrasónicos que miden la distancia mediante el uso de ondas ultrasónicas. El cabezal del sensor emite una onda ultrasónica y recibe la onda reflejada que retorna desde el objeto. Esta información se utilizó para calcular la dirección en la que se movía la mano del usuario tanto en el eje x como en el eje y. Este aditamento permite al usuario interactuar dinámicamente con el sistema manipulando la rotación del modelo 3D.


CONCLUSIONES

Mediante el desarrollo del presente proyecto se adquirieron aprendizajes relativos a las técnicas de luz estructurada, desde sus principios algebraicos hasta sus aplicaciones y limitaciones. La etapa de implementación se realizó la digitalización tridimensional de objetos. Posteriormente, se diseñó y construyó un dispositivo holográfico equipado con dos sensores ultrasónicos que permitieron manipular la perspectiva del objeto proyectado rotándolo sobre los ejes x y y, sin necesidad de contacto físico con la interfaz de control. Se procuró además que el prototipo final resultara económico, accesible e intuitivo tanto para la enseñanza como para la visualización de información y de procesos complejos, donde el manejo de una perspectiva tridimensional resultó funcional y beneficiosa para nuestra comunidad. Como trabajo a futuro, se plantea integrar el sistema propuesto al área educativa, cultural, e industrial, para este objetivo será necesario establecer mejoras tanto en el prototipado como en el sistema de control de perspectiva, así como automatizar el método de digitalización para una implementación óptima.
Lara Amado Jesus Modesto, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Alejandro Garza Galicia, Universidad del Valle de Atemajac

ANALISIS DEL POTENCIAL DE LA CONCENTRACIóN SOLAR


ANALISIS DEL POTENCIAL DE LA CONCENTRACIóN SOLAR

Bernal Pérez Luis Ángel, Instituto Politécnico Nacional. Castillo Rojas Carlos Antonio, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Guerrero Niño Felipe Eugenio, Universidad Politécnica de Altamira. Jiménez Romero Aída Yolanda, Universidad de Guadalajara. Lara Amado Jesus Modesto, Tecnológico de Estudios Superiores de Valle de Bravo. Suarez Garcia Fernando Yered, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Alejandro Garza Galicia, Universidad del Valle de Atemajac



PLANTEAMIENTO DEL PROBLEMA

El cambio climático y la crisis energética representan dos de los desafíos más urgentes y complejos de nuestra era. Las emisiones de gases de efecto invernadero (GEI), resultantes principalmente de la quema de combustibles fósiles, han contribuido significativamente al calentamiento global, causando efectos adversos en el medio ambiente, como el aumento del nivel del mar, eventos meteorológicos extremos y la pérdida de biodiversidad. En el contexto de México y muchos otros países en desarrollo, la dependencia de fuentes de energía no renovables no solo agrava estos problemas ambientales, sino que también limita el acceso a energía limpia y accesible para la población. México, en particular, enfrenta una situación crítica debido a su creciente demanda de energía, la cual no puede ser satisfecha de manera sostenible con las tecnologías y recursos actuales. Esto ha generado un aumento en las emisiones de GEI, colocando al país en una posición donde debe equilibrar la necesidad de desarrollo económico con la protección del medio ambiente. A nivel global, la transición hacia energías renovables es vista como una solución clave para mitigar el cambio climático. Sin embargo, esta transición enfrenta múltiples desafíos técnicos, económicos y sociales, especialmente en países con infraestructuras limitadas y diversas condiciones climáticas.



METODOLOGÍA

El presente proyecto de investigación se centró en la evaluación de diversas tecnologías de generación de energía con el objetivo de desarrollar un software de apoyo a la toma de decisiones. Este software busca integrar consideraciones económicas, sociales, medioambientales y culturales para optimizar la generación y uso de energía en México. Se llevaron a cabo pruebas experimentales utilizando los siguientes equipos: Concentrador solar tipo CCP Estufa solar Estufa de gas Estufa eléctrica Panel solar fotovoltaico Motor Stirling Durante un periodo de siete semanas, se recolectaron datos experimentales utilizando una serie de sensores especializados, tales como anemómetros para medir la velocidad del viento, termopares para monitorear temperaturas, multímetros para registrar parámetros eléctricos y sensores de radiación para evaluar la intensidad de la radiación solar. Toda la información recopilada fue almacenada en una base de datos centralizada, diseñada para facilitar el análisis y la interpretación de los datos. Asimismo, se elaboró un software en Python que implementa conexiones a las bases de datos donde registramos las mediciones por cada tecnología implementada, factores para la toma de decisiones, variables de eficiencia y finalmente, un árbol de decisión que toma las siguientes consideraciones: Factores económicos: En donde toma en consideración el costo de implementación, operación y mantenimiento de las tecnologías evaluadas. Factores sociales: Considerando la accesibilidad de las tecnologías y su impacto en la calidad de vida de las comunidades. Factores medioambientales: Buscando la reducción de emisiones de GEI, protección a la salud humana y conservación de recursos naturales. Factores culturales: Buscando en un futuro que la escalabilidad del proyecto generé una aceptación y adaptación de las tecnologías en contextos culturales específicos.


CONCLUSIONES

Las pruebas experimentales arrojaron los siguientes resultados de eficiencia para cada tecnología evaluada: Concentrador solar tipo CCP: Eficiencia máxima de 31% Estufa de gas: Eficiencia de 63% Estufa solar: Eficiencia de 19% Estufa eléctrica: Eficiencia de 57% Estos datos proporcionan una base sólida para el desarrollo del software, que busca ofrecer recomendaciones sobre la mejor combinación de tecnologías para diferentes escenarios y condiciones locales. La implementación de colectores solares y otras tecnologías de energía renovable presenta desafíos significativos debido a la geometría solar y las condiciones climáticas adversas. Factores como la variabilidad en la intensidad de la radiación solar, la disponibilidad de recursos naturales y la infraestructura existente limitan la eficiencia y la viabilidad de estas tecnologías en ciertas regiones. Sin embargo, este proyecto ha demostrado que es posible avanzar hacia una transición energética sostenible mediante el uso de herramientas de decisión integrales y bien informadas, que consideran una amplia gama de factores y que priorizan la sostenibilidad medioambiental y el bienestar social. Este enfoque holístico es crucial para asegurar que la transición energética no solo sea técnicamente viable, sino también equitativa y respetuosa con los ecosistemas locales y las comunidades.
Lara Carpio Rafael, Instituto Politécnico Nacional
Asesor: Dr. Juan Rodríguez Ramírez, Instituto Politécnico Nacional

DEMANDA ENERGéTICA DE EMPRESAS CONSIDERANDO LAS VOCACIONES DE LOS PODEBIS DEL CIIT


DEMANDA ENERGéTICA DE EMPRESAS CONSIDERANDO LAS VOCACIONES DE LOS PODEBIS DEL CIIT

Lara Carpio Rafael, Instituto Politécnico Nacional. Asesor: Dr. Juan Rodríguez Ramírez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El Corredor Interoceánico del Istmo de Tehuantepec (CIIT) en Oaxaca es un proyecto destinado a impulsar el desarrollo económico y social mediante la instalación de seis Polos de Desarrollo para el Bienestar (PODEBIS). Estos polos industriales tienen vocaciones específicas, lo que determinará el tipo de empresas y actividades económicas en la región. Un análisis detallado de la demanda energética y las fuentes de energía necesarias para cada vocación es crucial para una planificación eficiente. La georreferenciación de recursos disponibles y la promoción de energías renovables asegurarán el éxito del CIIT, posibilitando proyectos innovadores como el de HELAX ISTMO para producir hidrógeno verde. Este análisis también permitirá replicar el modelo en futuras inversiones, garantizando el desarrollo sostenible y posicionando a Oaxaca como un hub industrial y comercial competitivo.



METODOLOGÍA

En el (CIIT) se ha decretado la instalación de diez Polos de Desarrollo para el Bienestar (PODEBIS). Estos polos están diseñados para fomentar el crecimiento económico y mejorar la calidad de vida en áreas específicas mediante la atracción de inversiones, la creación de empleos y la mejora de la infraestructura y los servicios públicos. En el estado de Oaxaca se ubicarán seis de estos PODEBIS (Asunción Ixtaltepec, Ixtepec, Matías Romero, Mixtequilla, Salina Cruz y San Blaz Atempa) los cuales fueron la linea base de la investigación. La instalación de industrias (PODEBIS) debe cumplir con normativas nacionales e internacionales, para ello, se analizaron casos de éxito en otros corredores industriales para su comparación, de mismo modo se realizó la georreferenciación de los seis PODEBIS ubicados en Oaxaca con el software QGIS destacando el acceso a los recursos e infraestructura correspondiente. Se llevó a cabo un análisis detallado de los recursos renovables del estado de Oaxaca, asi como de la infraestructura de última milla correspondiente, de esta forma se desarrollaron diversos escenarios para guiar su implementación de manera estratégica y sostenible, uno de ellos consiste en la propuesta de implementación de energia térmica solar para procesos industriales que se basó en pruebas meteorológicas, prácticas y teóricas de un sistema ya instalado de 4 colectores solares en el CIDIIR y del cual se verifico la viabilidad para su implementación en el CIIT. Asi como se analizó la propuesta y viabilidad como caso en particular de la empresa HELAX ISTMOcon un enfoque en la producción de hidrógeno verde, evaluando la capacidad de generación de energía de la planta, su impacto en la transición energética de la región. Además, se examinó las potenciales sinergias entre la producción de hidrógeno y el uso de energías renovables, como la eólica y la solar, de esta forma presentando la viabilidad de inversiones de empresas similares. en el marco del CIIT. Esta investigación abordo el análisis de la demanda energética y de recursos de los PODEBIS en el CIIT, con el objetivo de impulsar la transición sostenible hacia las energías renovables en la región. Se centro en el estudio del caso de la planta HELAX ISTMO y en un modelo de análisis de viabilidad de inversiones para esta empresa, considerando los factores mencionados anteriormente. Este enfoque busca replicar y estandarizar las inversiones empresariales según su vocación, con el propósito de contribuir de manera significativa a los objetivos del CIIT y a la transición energética a nivel nacional.


CONCLUSIONES

El análisis de la demanda energética por vocación empresarial en los PODEBIS de Oaxaca es crucial para asegurar un suministro adecuado y promover el uso de energías renovables. Según el DENUE, los 79 municipios del CIIT albergan 105,520 unidades económicas, representando el 20.6% de las unidades en Oaxaca y Veracruz. El 83.4% de estas unidades pertenece al sector terciario, el 15.3% al secundario y solo el 1.3% al primario. Las vocaciones productivas prioritarias y su demanda energética aproximada según la SENER incluyen:  - Agroindustria, Farmacéutica y Productos naturales (AFP) con 83.96 PJ - Petroquímica (PQA) con 51.52 PJ - Eléctrica, Electrónica para Electromovilidad y Energías limpias (EEE) con 0.78 PJ - Metalmecánica: Maquinaria, equipo y partes para el transporte (MYE) con 84.91 PJ La georreferenciación de recursos mediante QGIS permite una planificación precisa, identificando PODEBIS, regiones hidrológicas, aerogeneradores, gasoductos, líneas de transmisión y población urbana.  El caso de HELAX ISTMO, que planea producir hidrógeno verde, muestra la viabilidad de inversiones similares en el CIIT, habiendo captado 26 mil millones de euros de más de 150 inversores internacionales y planeando recaudar 100 mil millones de euros para 2030. Su parque solar de 3,070 hectáreas con 15,350,000 paneles solares produciría aproximadamente 14.01 TWh anuales, cubriendo cerca del 70% de las necesidades energéticas de la CDMX. Los resultados preliminares indican que la infraestructura del CIIT en Oaxaca, incluyendo la interconexión ferroviaria, portuaria y líneas de transmisión, está bien posicionada para apoyar el desarrollo industrial y la instalación de los PODEBIS. Sin embargo, es crucial seguir mejorando estas infraestructuras para maximizar su impacto positivo, considerando las condiciones ambientales, culturales y sociales de la región. En resumen, el éxito del CIIT en Oaxaca dependerá de una planificación energética estratégica y sostenible, apoyada por una infraestructura robusta y la capacidad de atraer y mantener inversiones significativas en energías renovables y proyectos industriales.
Lara Fernandez Jhonatan Omar, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa

IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA DETECCIóN DE OBJETOS Y MOVIMIENTOS MEDIANTE LAS APLICACIONES DE LAS REDES NEURONALES CONVOLUCIONALES Y YOLO


IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA DETECCIóN DE OBJETOS Y MOVIMIENTOS MEDIANTE LAS APLICACIONES DE LAS REDES NEURONALES CONVOLUCIONALES Y YOLO

Betancourt Rodriguez Miguel Angel, Instituto Tecnológico Superior de Apatzingán. Cordoba Alvarez Bryan Abel, Instituto Tecnológico Superior de Apatzingán. Lara Fernandez Jhonatan Omar, Instituto Tecnológico Superior de Apatzingán. Reyes Baeza Oliver Uriel, Instituto Tecnológico Superior de Apatzingán. Vallejo Vázquez Sanjuana Candelaria, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

A medida que la tecnología ha avanzado, la IA ha evolucionado desde algoritmos básicos hasta sofisticados modelos de aprendizaje profundo, mejorando significativamente la precisión y la eficiencia en múltiples aplicaciones. Desde los primeros enfoques en visión por computadora, la IA ha integrado técnicas innovadoras como las redes neuronales convolucionales (CNN) y el aprendizaje profundo para detectar y analizar objetos y movimientos en tiempo real. Al usar algoritmos de aprendizaje profundo y redes neuronales, los dispositivos pueden identificar y clasificar objetos con rapidez y precisión, lo que a su vez tiene un impacto positivo en la seguridad civil, la atención médica y la eficiencia operativa en múltiples industrias. Los avances en IA han potenciado la detección de objetos, movimientos y tiempos, destacando sus aplicaciones en diversos sectores, la inteligencia artificial está transformando la detección de objetos y movimientos, los desafíos asociados y las oportunidades emergentes en un mundo cada vez más interconectado.  La inteligencia artificial ha emergido como una herramienta crucial en la detección de objetos, movimientos y tiempos, revolucionando diversos sectores mediante la mejora de precisión y eficiencia en el análisis de datos. El artículo realizado a lo largo de la estancia se entrenó una inteligencia artificial con métodos diferentes y analizar los campos de aplicación en los cuales se utiliza la inteligencia artificial para la detección de objetos y movimientos de forma rápida y precisa.



METODOLOGÍA

Para el desarrollo de cada uno de los métodos se implementaron diferentes algoritmos y modelos de aprendizaje, así como bibliotecas y frameworks de software entre otras herramientas para lograr el objetivo de detectar los objetos y los tiempos de movimientos, así como medir las estadísticas de entrenamiento, precisión y la predicción en la detección de los objetos. Para esto, el primer experimento de prueba será un carro de juguete. El experimento con el carro de juguete se llevará a cabo en varias fases: ·      Preparación del Dataset. -      Se recopilarán imágenes del carro de juguete en diferentes posiciones, ángulos y condiciones de iluminación. -      Se etiquetarán las imágenes utilizando herramientas como LabelImg para identificar las partes del carro (carrocería, chasis, llantas, luces, etc.). ·      Configuración del Entorno de Desarrollo. -       Se instalarán y configurarán las bibliotecas y frameworks necesarios, como TensorFlow, PyTorch y OpenCV. -      Se utilizará YOLOv3 para la creación del dataset y YOLOv8 para el entrenamiento del modelo de detección de objetos. ·      Entrenamiento del Modelo. -      Se dividirá el dataset en conjuntos de entrenamiento y validación. -      Se ajustarán los hiperparámetros del modelo, como el número de épocas, la tasa de aprendizaje y el tamaño del lote. -      Se ejecutará el entrenamiento del modelo, monitorizando las métricas de rendimiento como la precisión, la sensibilidad y la especificidad. ·      Evaluación del Modelo. -      Se evaluará el rendimiento del modelo en un conjunto de datos de prueba no visto durante el entrenamiento. -       Se analizarán las métricas de rendimiento para determinar la eficacia del modelo en la detección de las partes del carro de juguete. -      Se realizarán ajustes en el modelo y se volverá a entrenar si es necesario para mejorar la precisión y la robustez. ·      Implementación y Pruebas en Tiempo Real. -       Se implementará el modelo entrenado en un entorno de producción. -      Se realizarán pruebas en tiempo real utilizando un flujo de video en directo para detectar y rastrear el carro de juguete. -      Se medirán los tiempos de respuesta y la precisión en la detección en diferentes condiciones de prueba. ·      Análisis de Resultados y Mejora Continua: -       Se recopilarán y analizarán los resultados obtenidos durante las pruebas en tiempo real. -      Se identificarán posibles áreas de mejora y se propondrán soluciones para optimizar el rendimiento del modelo. -      Se iterará sobre el proceso de entrenamiento y evaluación para refinar el modelo y mejorar su capacidad de detección y predicción.


CONCLUSIONES

El artículo destaca herramientas como OpenCV, TensorFlow y Keras, junto con otros recursos como GitHub, Python y Anaconda, son esenciales para el desarrollo y la implementación de soluciones de detección basadas en IA. En conclusión, la capacidad de la IA para detectar y seguir objetos y movimientos continuará evolucionando, impulsando la transformación y el progreso en numerosos sectores, y su futuro es prometedor en la modernización de nuestras interacciones con el mundo digital y físico El experimento inicial con el carro de juguete proporcionará una base sólida para el desarrollo y la validación del modelo de detección de objetos. Los conocimientos y experiencias obtenidos en este proceso serán fundamentales para abordar desafíos más complejos en futuros proyectos de detección y reconocimiento de objetos.
Lara Gomez Alan Jymmy, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. John Cabrera López, Universidad Autónoma de Occidente

BIOIMPEDANCIA ELECTRICA


BIOIMPEDANCIA ELECTRICA

Lara Gomez Alan Jymmy, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. John Cabrera López, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Determinar la ubicacion de los electrodos para sensar la variacion de una caracteristica mecanica en modelos fisicos de antebrazo desarrollados, la ubicacion de esos electrodos es determinante debido a que ese parametro es sensible e infiere en las medidas.



METODOLOGÍA

creacion de las piezas para prueba de los modelos en 3d y toma de los resultados de spectroscopia a traves de unos phantom tambien creados, bien minusiosamente.


CONCLUSIONES

saber en que ubicacion radial o llineal se capta mejor la variacion del parametro mecanico en los resultados experimentales y validarlo.
Lara Olvera Nayelli, Universidad Tecnológica Paso del Norte
Asesor: Mtro. carlos Blancas blancas, Universidad Tecnológica Fidel Velázquez

CONFIGURACIÓN E INSTALACIÓN DE ANTENAS PUNTO A PUNTO


CONFIGURACIÓN E INSTALACIÓN DE ANTENAS PUNTO A PUNTO

Contreras Careaga Maria Fernanda, Universidad Tecnológica Paso del Norte. Lara Olvera Nayelli, Universidad Tecnológica Paso del Norte. Lopez Arellano Karely, Universidad Tecnológica Paso del Norte. Asesor: Mtro. carlos Blancas blancas, Universidad Tecnológica Fidel Velázquez



PLANTEAMIENTO DEL PROBLEMA

La creciente demanda de conectividad en áreas urbanas, rurales y remotas ha resultado en los límites de la infraestructura de red tradicional, que a menudo no cumplen con los requisitos cada vez más exigentes para el ancho de banda, la velocidad y la confiabilidad. Este desafío se amplía en escenarios en los que la geografía, la eliminación o los costos completan la implementación de soluciones convencionales como fibra de fibra o redes con cable. Además, la brecha digital permanece en muchas regiones y limita el acceso a servicios esenciales y oportunidades de desarrollo económico. Esto crea la necesidad predominante de soluciones de comunicación flexibles y eficientes que pueden adaptarse a varios entornos y superar las barreras existentes. Las antenas Point -Point -Point se presentan como una alternativa y ofrecen la posibilidad de establecer conexiones con una alta capacidad en situaciones en las que otras tecnologías fallan o se prohíben



METODOLOGÍA

La creciente demanda de conectividad en áreas urbanas, rurales y remotas ha resultado en los límites de la infraestructura de red tradicional, que a menudo no cumplen con los requisitos cada vez más exigentes para el ancho de banda, la velocidad y la confiabilidad. Este desafío se amplía en escenarios en los que la geografía, la eliminación o los costos completan la implementación de soluciones convencionales como fibra de fibra o redes con cable. Además, la brecha digital permanece en muchas regiones y limita el acceso a servicios esenciales y oportunidades de desarrollo económico. Esto crea la necesidad predominante de soluciones de comunicación flexibles y eficientes que pueden adaptarse a varios entornos y superar las barreras existentes. Las antenas Point -Point -Point se presentan como una alternativa y ofrecen la posibilidad de establecer conexiones con una alta capacidad en situaciones en las que otras tecnologías fallan o se prohíben


CONCLUSIONES

La implementación del sistema de antena punto a punto en la infraestructura de telecomunicaciones moderna se destaca por su versatilidad y eficiencia en superar las limitaciones de la infraestructura tradicional. Entre los puntos clave destacados se encuentran: Importancia estratégica: La antena punto a punto es crucial para proporcionar conexiones de alta velocidad y baja latencia, especialmente en áreas remotas. Complejidad técnica: Requiere un profundo conocimiento técnico para la selección y optimización de equipos, así como una precisa instalación y configuración. Adaptabilidad y escalabilidad: Estas antenas muestran una alta capacidad de adaptación a diversos entornos y necesidades, siendo escalables para implementaciones pequeñas o redes empresariales extensas. Desafíos sostenibles: A pesar de sus ventajas, enfrenta desafíos como la gestión de perturbaciones y la optimización del espectro, requiriendo una constante evolución. Impacto socioeconómico: Su implementación puede reducir la desigualdad digital, mejorando la conectividad en áreas remotas y teniendo un impacto profundo en el desarrollo económico, educativo y de salud. Integración con tecnologías emergentes: Su futuro está ligado a la evolución de tecnologías como el 5G, IoT y Edge, siendo crucial su integración para mantener su relevancia. Necesidades de capacitación sostenible: Se destaca la importancia de la formación continua para profesionales en este ámbito dado la complejidad y rápida evolución de la tecnología. En resumen, las antenas punto a punto son fundamentales en las telecomunicaciones del siglo XXI, y su éxito futuro dependerá de equilibrar aspectos técnicos, económicos, sociales y ambientales. Su optimización y evolución continuarán contribuyendo a un futuro digital más inclusivo y eficiente.  
Larez Nuñez Uziel Isaac, Universidad Politécnica de Sinaloa
Asesor: M.C. Alberto Morales Colado, Universidad Politécnica de Sinaloa

DESARROLLO DE MATERIAL DIDáCTICO.


DESARROLLO DE MATERIAL DIDáCTICO.

Avila Carrillo Jorge Armando, Universidad Politécnica de Sinaloa. Flores Reyes Benjamin, Universidad Politécnica de Sinaloa. Larez Nuñez Uziel Isaac, Universidad Politécnica de Sinaloa. Padilla Palencia Elba Noemi, Universidad Politécnica de Sinaloa. Ramos Abel Andres, Universidad Politécnica de Sinaloa. Asesor: M.C. Alberto Morales Colado, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En el mundo actual, las redes de comunicación son esenciales para conectar dispositivos y personas. Con el avance de la tecnología, la complejidad y las necesidades de infraestructura de red han aumentado, lo que requiere un conocimiento profundo de los equipos y las configuraciones necesarias para su funcionamiento eficiente. La demanda de redes confiables y seguras es mayor que nunca, y para satisfacer esta demanda, es fundamental que los profesionales estén bien preparados para enfrentar los desafíos tecnológicos actuales.



METODOLOGÍA

Objetivo 1: Establecer una base sólida de conocimientos sobre la configuración y uso de equipos de red. Durante las primeras semanas se probó el equipo físico, lo que permitió familiarizarse con su configuración y operación. Esta fase incluyó la identificación de las mejores prácticas y los desafíos comunes en la implementación de redes. Se exploraron diferentes modelos de routers y switches, aprendiendo sus características técnicas y cómo aprovecharlas al máximo en distintos entornos. Actividades de la semana 1: - Pruebas iniciales para configuración y reconocimiento de dispositivos. - Documentación de especificaciones técnicas y capacidades del hardware. Objetivo 2: Reforzar conocimientos prácticos mediante prácticas y laboratorios. En la segunda semana, se llevaron a cabo prácticas intensivas para reforzar los conocimientos adquiridos en clases y cursos. Estas prácticas, realizadas bajo la supervisión del profesor, aseguraron la correcta aplicación de los conceptos teóricos. Se emplearon simulaciones de situaciones reales para mejorar las habilidades de resolución de problemas y adaptación a distintos escenarios de red. Actividades de la semana 2: - Realización de prácticas supervisadas por nuestro asesor. - Aplicación de conceptos teóricos en situaciones prácticas. - Evaluación de resultados y ajuste de configuraciones. Objetivo 3: Crear material didáctico para el uso de equipos de red. Durante la tercera y cuarta semana, se centró en la creación de videos tutoriales sobre el uso y configuración de routers y switches. Estos materiales didácticos fueron diseñados para facilitar el aprendizaje y comprensión de las conexiones entre computadoras, switches y routers. Actividades de la semana 3: - Planificación de tutoriales. - Producción de videos sobre configuración de routers. Actividades de la semana 4: - Producción de videos sobre configuración de switches. - Explicación detallada de conexiones entre dispositivos de red. Objetivo 4: Implementar laboratorios avanzados que integren diversos equipos de red. Durante la quinta y sexta semana, se llevaron a cabo laboratorios que involucraron el uso de routers y switches. Se agregó un servidor de prueba en la nube para extender las prácticas y cubrir aspectos adicionales de configuración y administración de redes. Estos laboratorios permitieron a los estudiantes enfrentarse a situaciones complejas y desarrollar habilidades críticas para la gestión de redes modernas. Actividades de la semana 5: - Implementación de laboratorios con routers y switches. - Configuración de topologías de red complejas. - Análisis de rendimiento y resolución de problemas. Actividades de la semana 6: - Extensión de laboratorios con servidores en la nube. - Integración de servicios de red adicionales. - Evaluación de seguridad y eficiencia en las configuraciones de red. Objetivo 5: Realizar prácticas finales que integren todos los conocimientos adquiridos. En la séptima semana, se realizaron prácticas y laboratorios finales que abarcaban todos los temas vistos en las semanas anteriores, consolidando así los conocimientos adquiridos. Estas actividades finales fueron diseñadas para evaluar la capacidad de los estudiantes para aplicar de manera efectiva todos los conceptos aprendidos y resolver problemas complejos de red.   Actividades de la semana 7: - Realización de prácticas integradas y laboratorios finales. - Evaluación de habilidades y conocimientos adquiridos.


CONCLUSIONES

Resultados: Adicionalmente, el trabajo se centró en la creación de material didáctico utilizando Packet Tracer para simular configuraciones y escenarios de red complejos. Esto permitió un aprendizaje interactivo y práctico, facilitando la comprensión de conceptos teóricos aplicados a situaciones del mundo real. Packet Tracer fue una herramienta clave para simular diferentes topologías de red y evaluar el comportamiento de las configuraciones sin necesidad de equipo físico. Conclusiones: Durante el proyecto, se logró una comprensión profunda de la configuración y administración de redes de comunicación. La combinación de prácticas supervisadas, creación de material didáctico y laboratorios avanzados permitió a los estudiantes desarrollar habilidades prácticas esenciales. La integración de un servidor en la nube añadió una dimensión moderna a las prácticas, preparando a los estudiantes para desafíos del mundo real. El uso de Packet Tracer como herramienta de simulación fue fundamental para el éxito del proyecto, permitiendo a los estudiantes experimentar con configuraciones complejas en un entorno controlado. Este proyecto ha demostrado ser un éxito en la preparación de estudiantes para roles en el campo de las redes de comunicación, proporcionando una base sólida de conocimientos y habilidades prácticas necesarias para abordar los desafíos tecnológicos actuales.
Larrea Rodríguez Olga, Universidad de Guadalajara
Asesor: Dr. Cesar Augusto Hidalgo Montoya, Universidad de Medellín

CARACTERIZACIóN DE MEZCLAS DE SUELO Y RESIDUOS DE DEMOLICIóN Y CONSTRUCCIóN CON EQUIPO A ESCALA REAL


CARACTERIZACIóN DE MEZCLAS DE SUELO Y RESIDUOS DE DEMOLICIóN Y CONSTRUCCIóN CON EQUIPO A ESCALA REAL

Larrea Rodríguez Olga, Universidad de Guadalajara. Asesor: Dr. Cesar Augusto Hidalgo Montoya, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

Los residuos de construcción y demolición (RCD), especialmente los provenientes de ladrillos (RCDL), representan un problema significativo en las grandes ciudades de Colombia y otros países debido a la falta de espacio para su disposición final. Aunque se ha intentado incorporarlos en la construcción, su baja resistencia los hace inapropiados para concretos o morteros. Sin embargo, estos residuos son una opción viable para pavimentos y llenos estructurales. Paralelamente, existen materiales naturales como los suelos BIM (Bloques y Matrices) que, por sus características, requieren una evaluación de su resistencia al cortante, un desafío que no puede abordarse con los ensayos convencionales debido al tamaño de las partículas involucradas.



METODOLOGÍA

Para abordar esta problemática, se desarrolló un nuevo ensayo de corte a gran escala que evalúa probetas de 1000x600x200 mm, permitiendo incluir partículas de hasta 60 mm de diámetro. Se complementa con modelación numérica para simular el comportamiento de mezclas de suelo y partículas. En este contexto, se realizó una pasantía estudiantil que contribuyó a validar este nuevo método de ensayo. La Prueba de Corte Directo a Grande Escala analiza el comportamiento mecánico de mezclas de suelo bajo cargas dinámicas y tracción directa, utilizando un marco de reacción de alta capacidad en el laboratorio. La metodología incluye: Caracterización de los especímenes: Medición y registro de dimensiones, pruebas de resistencia a compresión, y cálculo del porcentaje volumétrico de bloques. Diseño del ensayo de corte: Establecimiento de parámetros de ensayo, disposición de bloques y distribución espacial. Ejecución del ensayo: Montaje de bloques en cubos y esferas, aplicación gradual de carga, y registro de respuestas. Se emplearon diversas herramientas y materiales, como un equipo de placa a escala, un actuador de carga dinámica de 700 kN, y un gato telescópico Enerpac. En la preparación de especímenes, se fabricaron bloques de mortero de diferentes tamaños y resistencias (14, 21 y 28 MPa) usando arena seca y relaciones variables de agua-cemento. Además, se realizaron simulaciones con programas como Python, SALOME, y RS3. SALOME facilitó la creación de modelos 3D de cubos y esferas, mientras que RS3 permitió analizar la deformación y fallas bajo diferentes cargas (0, 200, 400, 800 kPa).


CONCLUSIONES

Aunque las pruebas experimentales con el nuevo ensayo de corte a gran escala aún no se han realizado, los resultados de las simulaciones numéricas indican tendencias claras. Los modelos simulados sugieren que al aumentar la cantidad de bloques incluidos en la mezcla, la resistencia al corte del suelo también incrementa. Esta tendencia es crucial para la aplicación práctica de los residuos de construcción y demolición (RCD) en pavimentos y llenos estructurales, ya que demuestra el potencial de mejorar las propiedades mecánicas del suelo mediante la adición de bloques. Este enfoque ofrece una solución prometedora para la ingeniería geotécnica, permitiendo la incorporación de materiales reciclados en infraestructuras robustas y eficientes. La validación futura de este método a través de pruebas experimentales proporcionará datos precisos esenciales para confirmar estas observaciones y optimizar los diseños de mezcla para aplicaciones específicas. El avance en la comprensión del comportamiento mecánico de estos materiales contribuirá al desarrollo sostenible y eficiente de infraestructuras en el futuro.
Lastra Alvarez Oscar Leonel, Universidad Autónoma de Sinaloa
Asesor: Ing. Reynaldo Cortez Solis, Tecnológico de Estudios Superiores de Valle de Bravo

DISEñO DE CONTROL AUTOMATIZADO PARA PROTOTIPO DE ESTACIONAMIENTO VERTICAL


DISEñO DE CONTROL AUTOMATIZADO PARA PROTOTIPO DE ESTACIONAMIENTO VERTICAL

Lastra Alvarez Oscar Leonel, Universidad Autónoma de Sinaloa. Nungaray Montaño Luz Beatriz, Universidad Autónoma de Sinaloa. Asesor: Ing. Reynaldo Cortez Solis, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

En un contexto urbano cada vez más congestionado, la disponibilidad de espacio para estacionar vehículos se ha convertido en un desafío. Los estacionamientos verticales automatizados ofrecen una solución prometedora al optimizar el uso del espacio y mejorar la eficiencia en la gestión del estacionamiento. Sin embargo, enfrentamos varios retos:​ 1. Seguridad y Precisión:  La integridad de los vehículos y la infraestructura es primordial. ¿Cómo evitamos daños durante el proceso de almacenamiento y recuperación? ¿Qué sensores y algoritmos de control aseguran un posicionamiento exacto? 2. Interfaz de Usuario Intuitiva: La experiencia del usuario debe ser sencilla. ¿Cómo diseñamos una interfaz que permita a los conductores interactuar sin complicaciones? ¿Qué indicadores visuales facilitan la navegación dentro del estacionamiento?



METODOLOGÍA

Se realizó la investigación de los componentes óptimos para realizar el proyecto, en cuanto a capacidades, rendimiento, costo y conocimientos que ya se tuvieran respecto a cierta placa de microcontrolador o componente añadido. Todas estas ideas fueron propuestas ante el investigador a cargo y compañeros con los cuales se desarrolla actualmente el proyecto. Los componentes finales a utilizar fueron: Microcontrolador ESP32 Motores NEMA (2 unidades) Driver para motor a pasos NEMA A4988 (2 unidades) Motor DC de 6V Puente H TB6612FNG LCD 16x2 Módulo I2C Teclado capacitivo MPR121 Módulo RFID-RC522 Convertidor lógico bidireccional 5V-3.3V Dentro de las propuestas realizadas, se llegó a la decisión de que el programa principal asignaría contraseñas aleatorias de 4 dígitos a 22 de los 24 lugares, siendo los 2 lugares sobrantes unos lugares para VIP's, con acceso especial por tarjetas/tags RFID. Primero, este programa se encarga de conocer si el usuario llega y busca dejar su vehículo, revisando la disponibilidad de los lugares en orden ascendente y una vez se llega a la coincidencia de una disponibilidad, el programa genera una contraseña aleatoria que se muestra al usuario permitiéndole memorizarla o incluso tomar una fotografía a la pantalla LCD. Segundo, se inicializa la activación de los motores a pasos para la elevación de la plataforma al piso seleccionado por el sistema y una rotación hasta el lugar igualmente indicado por el sistema, para que, finalmente, el transfer coloque el vehículo en el lugar indicado. Una vez esto se complete, la plataforma regresará a su estado inicial esperando a recibir un nuevo vehículo o la instrucción de sacar alguno de los ya colocados previamente. Programación ante posibles errores: Dentro del programa nos encargamos de que las contraseñas aleatorias generadas se comparen con las generadas previamente para evitar que 2 lugares tengan una misma contraseña. De igual modo, se almacenó la identificación específica de las tarjetas tipo RFID para los lugares 'asignados' o lugares VIP, estos lugares tineen la característica de que no necesitan presionar nada, únicamente deberán acercar su tarjeta o tag previamente identificada para que el programa almacene su vehículo o lo saque del lugar ya asignado. Por otro lado, los lugares 'no asignados', en caso de que los lugares se llenen el programa mostrará en la pantalla LCD "No hay lugares disponibles" para notificar al usuario que no se podrá almacenar su vehículo hasta que alguno de los lugares sea liberado. Y, por último, en caso de que alguno de los usuarios olvide su contraseña, se generó una contraseña de administrador que podrá utilizar para observar la contraseña de todos los lugares del estacionamiento en orden ascendente y piso a piso, para que pueda recuperarse algún o algunos vehículos en los que haya sucedido este caso. El programa fue hecho para que su manipulación sea simple en caso de que otras personas decidan realizar cambios en él y puedan ajustar sus valores sin mayor conflicto. Además de que, se realizaron por nuestra parte una guía de usuario, guía técnica y diagramas de conexión en la circuitería para facilitar la realización de posibles optimizaciones futuras. Autoría de: Luz Beatriz Nungaray Montaño y Oscar Leonel Lastra Álvarez (01 de agosto del 2024). Estudiantes de ingeniería electrónica de la Universidad Autónoma de Sinaloa.


CONCLUSIONES

Una vez la elección de componentes fue realizada, la programación terminada y la conexión de circuitos fue concluida, el proyecto fue puesto a prueba ante el investigador y compañeros, donde, se observó que todo trabajó según lo esperado y el programa cubrió todos los posibles errores que podrían haberse presentado durante su manipulación. Indicamos la información importante en el programa con comentarios e informamos en una presentación del programa las variables que debían modificarse para controlar los motores con precisión, el rango de valores que debían ser utilizados y la escala de dichos valores que debían ser ingresados. Todo el circuito fue funcional y trabajó como correspondía.  A futuro, se espera que el circuito se instale sobre una maqueta del estacionamiento vertical y los valores correspondientes sean asignados para controlar el estacionamiento vertical de manera exitosa. Confiamos en el trabajo realizado y la limpieza que se tuvo montando el circuito en protoboards y el orden que seguimos mientras trabajamos en el programa fuente.
Lázaro Dzib Armando, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dr. Carlos Arturo Hernández Gracidas, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE ALGORITMOS BASADOS EN APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE CONSUMO ENERGéTICO.


DESARROLLO DE ALGORITMOS BASADOS EN APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE CONSUMO ENERGéTICO.

Catalan Corona Alexis Adrian, Instituto Politécnico Nacional. Lázaro Dzib Armando, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Merced Reyes Alejandro Camilo, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Carlos Arturo Hernández Gracidas, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La energía eléctrica se ha convertido en uno de los recursos más fundamentales y básicos en todas las actividades que satisfacen las necesidades humanas. Independientemente de los factores que afectan el consumo a lo largo del tiempo, como el clima, la densidad poblacional y la posición geográfica, este puede variar según la temporada del año. Esto conlleva a un estudio minucioso de su comportamiento para establecer criterios que permitan aproximar la predicción del consumo a los valores reales. Los comportamientos de consumo de energía eléctrica pueden ser variados para diversos conjuntos de datos con los que se pretende evaluar. Durante el verano de investigación, se estudia el comportamiento del consumo eléctrico empleando diversos modelos que cumplen la función de realizar pronósticos durante un lapso de tiempo, logrando una aproximación a los datos reales de los registros.



METODOLOGÍA

Para llevar a cabo el estudio del consumo energético, se emplea un conjunto de datos que contiene información sobre la fecha y la hora, así como el consumo de energía eléctrica en megawatts (MW), de los siguientes estados: Illinois, Indiana, Kentucky, Maryland, Michigan, New Jersey, North Carolina, Ohio, Pennsylvania, Tennessee, Virginia, West Virginia y el Distrito de Columbia de Estados Unidos. Estos datos fueron registrados durante un periodo aproximado de entre 7 y 10 años para cada respectivo estado. La experimentación se desarrolla en el entorno de trabajo de Jupyter Notebook, empleando el lenguaje de programación Python. A través de este entorno, se comienza con la división de datos en entrenamiento y prueba, lo que hace posible trabajar con dos modelos distintos: el Modelo Autorregresivo de Media Móvil (ARIMA, por sus siglas en inglés) y Redes Neuronales Recurrentes (RNN) que estiman los valores del consumo de energía en un periodo determinado. Una vez realizado el proceso anterior, se entrenan los modelos utilizando parámetros ajustados previamente mediante una serie de pruebas, para predecir con los datos los valores estimados, empleando el rango de tiempo que contemplan los datos de prueba y evaluar la precisión con la que los modelos pueden explicar el comportamiento del consumo energético, a través de las siguientes métricas: el error cuadrático medio y el coeficiente de determinación.


CONCLUSIONES

Durante la estancia de investigación se logró la adquisición de disciplinas y conocimientos requeridos para el desarrollo del proyecto, aplicables en diversas ramas del área informática cuando se trabaja con datos. Los resultados obtenidos de ambos modelos muestran una eficacia para pronosticar el consumo energético en un periodo de tiempo determinado, por lo que el hecho de trabajar con estos modelos puede contribuir a futuras investigaciones.
Leal Salgado Dino Alexander, Universidad de la Costa
Asesor: Esp. Winston Fontalvo Cerpa, Universidad Libre

ANáLISIS DE LA CADENA DE ABASTECIMIENTO DEL GASóLEO EN EL SECTOR DE HIDROCARBUROS EN COLOMBIA: UN ESTUDIO DE LA LOGíSTICA DE úLTIMA MILLA.


ANáLISIS DE LA CADENA DE ABASTECIMIENTO DEL GASóLEO EN EL SECTOR DE HIDROCARBUROS EN COLOMBIA: UN ESTUDIO DE LA LOGíSTICA DE úLTIMA MILLA.

Leal Salgado Dino Alexander, Universidad de la Costa. Asesor: Esp. Winston Fontalvo Cerpa, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

 La cadena de abastecimiento del gasóleo en el sector de hidrocarburos en Colombia enfrenta importantes desafíos que afectan su eficiencia y competitividad. La infraestructura vial insuficiente y las diversas condiciones geográficas dificultan la distribución del gasóleo, especialmente en la última milla, generando retrasos y elevados costos operativos. Estos problemas impactan negativamente la satisfacción del cliente y la capacidad de las empresas para competir en un mercado energético dinámico. Además, la falta de coordinación entre los actores de la cadena de suministro, desde las refinerías hasta los distribuidores minoristas, agrava las dificultades logísticas. A pesar de los avances en tecnologías de gestión logística, como la optimización de rutas y flotas, su implementación no es uniforme en todo el sector, limitando sus beneficios potenciales.



METODOLOGÍA

La metodología del estudio combinó enfoques cualitativos y cuantitativos para analizar los desafíos y oportunidades en la logística de última milla del gasóleo en Colombia. Primero, se realizó una revisión exhaustiva de la literatura sobre cadenas de suministro de hidrocarburos, enfocándose en la logística de última milla, para construir un marco teórico. Luego, se recopiló información directa de actores clave de la cadena de suministro del gasóleo, incluidos representantes de refinerías, distribuidores y minoristas, sobre los problemas y estrategias utilizadas en la práctica. Además, se analizaron datos operativos de empresas del sector para evaluar cómo las condiciones viales y geográficas afectan la eficiencia de la distribución. Finalmente, se utilizaron estudios de caso para evaluar la implementación de tecnologías avanzadas de gestión logística y su impacto en la mejora de la puntualidad y la reducción de tiempos de entrega. Esta metodología proporcionó una comprensión integral de los factores que influyen en la cadena de suministro del gasóleo en Colombia.


CONCLUSIONES

El análisis de la cadena de abastecimiento del gasóleo en Colombia revela varios retos y oportunidades clave. Las condiciones de las carreteras y la diversidad geográfica son barreras significativas para una distribución eficiente, especialmente en la última etapa de entrega. Sin embargo, la adopción de tecnologías avanzadas, como sistemas de optimización de rutas y flotas, ha demostrado ser efectiva para mejorar la puntualidad y reducir los tiempos de entrega. También se identificó la necesidad de una mejor coordinación entre refinerías, distribuidores y minoristas para optimizar el suministro. El estudio subraya la importancia de invertir en infraestructura y tecnología para fortalecer la resiliencia y competitividad del sector. Además, se concluye que mejorar la logística de la última milla no solo incrementa la eficiencia operativa, sino que también eleva la satisfacción del cliente y mejora la posición de las empresas en el competitivo mercado energético colombiano.
Ledezma Constantino Mar Andrea, Universidad Politécnica de Atlautla
Asesor: Dr. Aurelio Enrique Lopez Barron, Universidad de Guadalajara

EVALUACIóN DEL USO DE LA INTELIGENCIA ARTIFICIAL EN LOS ESTUDIANTES UNIVERSITARIOS DE LA INGENIERíA EN TELEMáTICA


EVALUACIóN DEL USO DE LA INTELIGENCIA ARTIFICIAL EN LOS ESTUDIANTES UNIVERSITARIOS DE LA INGENIERíA EN TELEMáTICA

Ledezma Constantino Mar Andrea, Universidad Politécnica de Atlautla. Palma Pedraza Marilu, Universidad Politécnica de Atlautla. Rosales Carrisoza Daniela Michelle, Universidad Politécnica de Atlautla. Asesor: Dr. Aurelio Enrique Lopez Barron, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La rápida evolución de la IA está transformando diversos sectores, incluyendo el ámbito educativo. La Ingeniería Telemática (ITEL), como campo de estudio que se ocupa del diseño, implementación y gestión de redes de comunicación, no es ajena a esta transformación. Se espera que los futuros ingenieros en telemática posean las competencias necesarias para utilizar la IA de manera efectiva en su práctica profesional. La falta de información sobre la percepción en los estudiantes universitarios de ITEL con relación a cuáles son las IA que conocen, cuál es su percepción de la utilidad de las IA generativas, como consideran su facilidad de uso, su privacidad y seguridad, los riesgos y desafíos y finalmente, como consideran que debe ser el rol del docente con el uso de la IA. Lo anterior, con la finalidad de generar un panorama que sirva de base para la toma de decisiones para así mejorar la formación de los futuros graduados de esta carrera. El creciente avance de la tecnología, y así mismo, el progresivo requerimiento de contar con competencias en IA que plantea retos para la educación superior. Nos lleva a cuestionarnos si los planes de estudio y métodos de enseñanza están preparando adecuadamente a los estudiantes para un buen desarrollo y conocimiento tecnológico actual donde la IA esta dominando. Esta es la problemática principal que esta investigación pretende abordar.



METODOLOGÍA

El diseño de esta investigación es de tipo no experimental mixto. De acuerdo con Cortés (2012) el tipo de diseño de investigación no experimental se realiza sin manipular deliberadamente las variables y donde el investigador no provoca el fenómeno, si no que únicamente lo observa y lo analiza. En cuanto al método mixto de acuerdo con Gómez (2006) se refiere a la integración o combinación entre los enfoques cuantitativo y cualitativo. Ambos enfoques se combinan en todo el proceso de investigación, o al menos, en la mayoría de sus etapas. En resumen, el diseño de investigación mixto en paralelo es el que pretende implementarse en este estudio. Con este diseño de investigación, se pretendió dar respuesta las interrogantes de este estudio combinando los enfoques cualitativos y cuantitativos para la posterior interpretación y análisis de los resultados. Para llevar a cabo el procedimiento de este estudio de evaluación del programa de la Ing. Telemática se planteo lo siguiente: Primera etapa:  Etapa donde se obtuvo la información que dio respuesta a las preguntas de estudio de evaluación del programa educativo de la Ing. Telemática.  El tipo de investigación mixto implementado en esta etapa es la encuesta identificada como cuestionario CUIA. Para la aplicación de este instrumento, se mandó el cuestionario CUIA a la muestra obtenida de estudiantes por medio de correo electrónico junto con la información sobre la investigación y sus objetivos, así como las instrucciones para completar el cuestionario. Para el análisis de datos obtenidos de los ítems de preguntas cerradas del cuestionario CUIA, se aplicó la estadística descriptiva. De acuerdo con Cortés (2012), la estadística descriptiva consiste en describir los datos y los valores para cada variable, es decir resume y organiza los datos obtenidos. Para el procesamiento de estos datos se utilizó en el Software SPSS, versión 18.0. Los datos cuantitativos obtenidos de este instrumento se concentraron en una matriz, con la finalidad de ser procesados estadísticamente calculando la media, la moda y la frecuencia para cada ítem. Con este fin, se utilizó el software SPSS, versión 18.0. Para procesar las respuestas de las preguntas abiertas y las respuestas proporcionadas por el estudiante, donde se les pidió que explicaran su elección de las preguntas cerradas en los cuestionarios CUIA, se implementó también la técnica de análisis de contenido. Este análisis se realizó por medio de la codificación que fue asignada a las unidades relevantes obtenidas del contenido de las respuestas proporcionadas (Hernández, Fernández y Bapista, 2010)


CONCLUSIONES

Durante la estancia de verano de la Investigación Científica y Tecnológica del Pacífico, se pudo concluir que la inteligencia artificial tiene un impacto significativo en la educación universitaria, particularmente en la carrera de Ingeniería en Telemática. La evaluación del uso de inteligencia artificial por parte de los estudiantes de esta disciplina reveló varios aspectos cruciales. Primero, se constató que los estudiantes que integran herramientas de inteligencia artificial en sus estudios y proyectos muestran una mejora considerable en la personalización de su aprendizaje. Estas tecnologías permiten a los estudiantes adaptar los recursos y métodos a sus necesidades individuales, mejorando así la eficiencia y la efectividad del aprendizaje. Además, el uso de la inteligencia artificial facilita la accesibilidad a una vasta cantidad de información y recursos educativos, lo que enriquece el proceso educativo y fomenta una mayor autonomía en el aprendizaje. Los estudiantes se benefician al poder resolver problemas complejos y desarrollar habilidades críticas mediante la aplicación de estas tecnologías.
Legarreta Armenta Luis Adolfo, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE UN SENSOR DE PULSO CARDIACO PARA SU POSIBLE IMPLEMENTACIóN EN UN DISPOSITIVO VESTIBLE.


ANáLISIS DE UN SENSOR DE PULSO CARDIACO PARA SU POSIBLE IMPLEMENTACIóN EN UN DISPOSITIVO VESTIBLE.

Legarreta Armenta Luis Adolfo, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Diversos dispositivos electrónicos nos permiten medir los signos vitales, uno de ellos es el sensor de pulso cardiaco, este tipo de sensores son de importancia ya que permiten obtener un espectro de las funciones esenciales del cuerpo y poder realizar una evaluación del funcionamiento físico de una persona. Estos dispositivos pueden ayudar a monitorear la salud básica de una persona y así descartar algún evento indeseado, algunos dispositivos tienen ciertos inconvenientes como lo es la portabilidad y la duración de la medición. La mayoría de estos dispositivos están diseñados para realizar una medición en un corto periodo de tiempo la cual se pudiera tomar como desventaja, evitando mantener mediciones por tiempo prolongado, por lo que no es posible mantener una medición continua. El fin de este proyecto es realizar un dispositivo vestible implementando el sensor de pulso cardiaco en un parche torácico, de esta manera poder tomar mediciones de manera continua o en intervalos. El reto sobre este tipo de dispositivos será adaptar el circuito en un espacio pequeño y adaptar una batería, por lo que debemos tomar en cuenta el tamaño para no quitarle discreción. El circuito desarrollado debe estar planeado para que consuma la menor cantidad de energía para extender la duración de la batería y mantener un dispositivo lo más independiente posible. La electrónica flexible esta buscando desarrollar sistemas de materiales tanto orgánicos como inorgánicos para sensores y actuadores sobre sustratos flexibles para cambiar la forma de la electrónica tradicional, permitiendo ahora estirar y doblar estos componentes electrónicos sin comprometer la funcionalidad. Desarrollar este tipo de tecnología lleva su tiempo y se requiere de dispositivos especializados, en su lugar se puede hacer uso de un parche medico donde contenga el circuito el cual debería estar contenido en una lámina de gel de silicona para aislar los componentes del contacto directo con la piel y solo dejar expuesto el sensor que captaría los cambios de volumen de sangre. De esta manera se puede obtener un sensor funcional, biocompatible y que trabaje de manera segura.



METODOLOGÍA

El sensor fue desarrolla en una placa de pruebas para poder modificar componentes y verificar el funcionamiento. Para la primera etapa del sensor de pulso cardiaco se usó el componente CNY70 el cual es un sensor óptico reflexivo, se basa en un emisor de luz y un fotorreceptor, este sensor nos ayudará a captar los cambios de volumen de sangre. Cuanto mayor sangre exista en el vaso sanguíneo mayor cantidad de luz se va a reflejar hacia el receptor, por lo que se producirá mayor cantidad de voltaje, obteniendo asi un pico en la señal. En la etapa de acondicionamiento la señal de salida del receptor se dirige hacia un filtro pasa-altos con una frecuencia de corte de 3.38Hz, este filtro se compone de un capacitor electrolítico de 1µF y una resistencia de 47KΩ dejando pasar señales con frecuencias superiores a 3.38Hz. Después del filtrado se implementó un amplificador operacional LM358P el cual fue configurado para obtener una ganancia de 100 veces la señal de entrada, con esta ganancia es posible visualizar los cambios detectados por el sensor CNY70 en un osciloscopio. La señal de salida fue conectada hacia un led el cual va a prender por un instante cuando se detecte un pulso. Se realizaron mediciones en el dedo índice, en la arteria radial y por último también se obtuvieron mediciones en la arteria braquial, este es el punto de interés ya que sería un posible lugar para colocar el parche. Una vez obtenidos los resultados, es hora de comparar los resultados con un sensor de pulso comercial. Con ayuda del sensor MAX86916 el cual es un sensor de pulso cardiaco comercial, se obtuvieron medidas del dedo índice, la arteria radial y la arteria braquial, en esta última se presenta un nuevo reto ya que es una arteria no superficial por lo que detectar cambios de volumen de sangre puede representar un mayor reto tanto en el dispositivo desarrollado como para el sensor comercial.


CONCLUSIONES

Luego de analizar el sensor de pulso desarrollado con el sensor comercial, se obtienen claras diferencias de las señales obtenidas como la claridad, la informacion que se puede obtener y la sensibilidad al ruido. El sensor desarrollado presenta una señal de pulso cardiaca, pero sin notable diferencia en la onda del pulso, por lo que no se puede ver con claridad las diferentes partes del pulso como lo es la sístole y la diástole, no se puede obtener información completa de esta señal independientemente del lugar en el que se tomara la medición. Esto quiere decir que la señal no es tratada de la manera correcta, a pesar de que el circuito tiene un filtro integrado, es posible que al implementar uno o más filtros con diferentes características pudiera mejorar la señal. Por otro lado, existen varios factores como el ruido ocasionado por la luz artificial este factor afecta la precisión del sensor CNY70 ya que detecta cambios de luz, por lo que si hay fuentes de luz a demas del mismo led infrarrojo el receptor pudiera estar detectando luz externa. Con el sensor comercial se obtuvieron señales claras donde se podía identificar la sístole y la diástole en la señal generada, obteniendo una señal mas completa del pulso, esto se debe a que la etapa de acondicionamiento de la señal en este dispositivo es mas compleja y precisa ya que cuenta con cancelación de diafonía la cual se encarga de eliminar las interferencias de otras fuentes eléctricas o de componentes dentro del mismo circuito, además se cuenta con una etapa especifica para eliminar la iluminación del ambiente y por ultimo una vez digitalizada la señal también se cuenta con una cancelación del ruido digital. Desarrollar dispositivos con ayuda de la electrónica flexible, cambia el panorama de los dispositivos actuales, los avances en los materiales y el diseño de dispositivos flexibles permitieron romper una limitante, la cual implica desarrollar dispositivos más pequeños y suaves, implementando mayor cantidad de componentes en espacios reducidos, se espera obtener dispositivos más compactos y adaptables al movimiento continuo sin perder la funcionalidad, sin duda se tiene un futuro prometedor en el área biomédica.
Lemus Chávez Martín, Instituto Tecnológico de Morelia
Asesor: Post-doc Jose Luddey Marulanda Arevalo, Universidad Tecnológica de Pereira

CARACTERIZACIÓN DE RECUBRIMIENTOS DUROS APLICADOS POR SOLDADURA SMAW: EVALUACIÓN POR DESGASTE ABRASIVO BAJO NORMA TECNICA ASTM G-65.


CARACTERIZACIÓN DE RECUBRIMIENTOS DUROS APLICADOS POR SOLDADURA SMAW: EVALUACIÓN POR DESGASTE ABRASIVO BAJO NORMA TECNICA ASTM G-65.

Acundo Tellez Xochitl, Universidad Tecnológica de Xicotepec de Juárez. Avila Pérez Esmeralda, Universidad Tecnológica de Xicotepec de Juárez. Cervantes Arellano Samantha, Instituto Tecnológico de Morelia. Lemus Chávez Martín, Instituto Tecnológico de Morelia. Zacarias Rocha Osbaldo, Instituto Tecnológico de Morelia. Asesor: Post-doc Jose Luddey Marulanda Arevalo, Universidad Tecnológica de Pereira



PLANTEAMIENTO DEL PROBLEMA

Los aceros juegan un papel fundamental en la vida útil de las herramentas que son sometidos a distintos trabajos; es por eso que la aplicación de estos recubrimientos es de ayuda importante para mejorar las propiedades mecánicas que requerimos ayudando a alargar su vida util, de esta manera podemos ahorrar capital.



METODOLOGÍA

Se aplicaron 2 tipos de recubrimientos duros Gridur 600 y Gridur 350, además de un electrodo de aporte E 6011 a  placas de acero de bajo carbono para posteriormete a estos recubrimientos y electrodo aplicarles prubeas de dureza Rockwell , aplicar pruebas de de desgaste abrasivo en una máquina que cumple con la Norma Técnica ASTM G-65 y finalmente realizar pruebas de cacterizacion. 


CONCLUSIONES

Con los datos obtenidos apartir de las pruebas podemos concluir que es muy importante saber a que trabajo sera sometidos nuestros aceros, la dureza que buscamos siempre se encontraran apartir de aplicar varias capas de recubrimiento esto es porque en la primera capa siempre encontraremos una mezcla de composicion del acero base con recubrimiento mientras en la tercera capa en su mayoria encontraremos un % de recubrimiento mayor aportando mayores durezas.
Lemus Vázquez Ana Karen, Instituto Tecnológico Superior de Puruándiro
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

USO DE RESINAS DE PIñóN EN MEZCLAS DE CEMENTO PORTLAND


USO DE RESINAS DE PIñóN EN MEZCLAS DE CEMENTO PORTLAND

Lemus Vázquez Ana Karen, Instituto Tecnológico Superior de Puruándiro. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En la industria de la construcción, el cemento Portland es ampliamente utilizado por su alta resistencia y durabilidad, aunque su producción tiene un alto impacto ambiental debido a las emisiones de CO₂. La búsqueda de alternativas sostenibles ha llevado a la exploración de resinas naturales, como las extraídas de los piñones, que son los frutos de las plantas de piñón (Jatropha curcas), que pueden mejorar las propiedades del cemento Portland. Estas resinas actúan como agentes de curado, mejoradores de la adhesión y modificadores de la microestructura del cemento, y su uso podría reducir la dependencia de aditivos químicos sintéticos y aprovechar recursos naturales renovables. La investigación se centra en evaluar la viabilidad y efectividad del uso de resinas de piñón en mezclas de cemento Portland mediante una revisión bibliográfica de 15 artículos y tesis donde se busca entender cómo afectan estas resinas las propiedades mecánicas del cemento, como la resistencia a la compresión, flexión y tracción, así como su durabilidad y comportamiento a largo plazo. También se evalúan las implicaciones ambientales de su uso en comparación con aditivos convencionales, especialmente en términos de huella de carbono y sostenibilidad del proceso de producción. Además, se investigan las proporciones y métodos de incorporación más efectivos para maximizar los beneficios. El objetivo general es evaluar el impacto de las resinas de piñón en las propiedades físicas y mecánicas del cemento Portland, así como su viabilidad ambiental y económica. La revisión de la literatura existente abarca estudios sobre propiedades mecánicas, durabilidad, impacto ambiental y viabilidad económica. Se plantea la hipótesis de que las resinas de piñón mejoran significativamente la resistencia mecánica del cemento Portland y reducen su impacto ambiental en comparación con aditivos sintéticos, gracias a sus propiedades adhesivas y estructurales, y a su naturaleza renovable y biodegradable.    



METODOLOGÍA

Este documento presenta una revisión bibliográfica exhaustiva para evaluar la viabilidad y efectividad del uso de resina de piñón en mezclas de cemento Portland, revisando 15 artículos y tesis. Las palabras clave utilizadas incluyeron "resinas de piñón", "cemento Portland", "propiedades mecánicas del cemento", "sostenibilidad" e "impacto ambiental", permitiendo identificar estudios relevantes en tres áreas principales: Propiedades mecánicas: Los estudios analizan cómo las resinas naturales, incluidas las de piñón, afectan la resistencia a la compresión, flexión y tracción del cemento. También evalúan la durabilidad y el comportamiento a largo plazo del concreto modificado con estas resinas. Impacto ambiental: Las investigaciones comparan el impacto ambiental de las resinas de piñón frente a los aditivos convencionales, considerando aspectos como la huella de carbono y la sostenibilidad de los procesos de producción y aplicación. Métodos de incorporación: Los estudios discuten las proporciones óptimas de resinas de piñón y los métodos de mezcla y curado más efectivos para lograr resultados óptimos en las mezclas de cemento Portland. La revisión concluye que las resinas de piñón mejoran las propiedades mecánicas del cemento y ofrecen beneficios ambientales significativos, destacándolas como una alternativa innovadora y sostenible en la industria de la construcción. Porcentaje de resina de Piñón Proporción Efecto en el cemento Bajo (1-2%) 1-2% del peso del cemento Mejora la facilidad de mezcla y reduce la permeabilidad al agua. Moderado (3-4%) 3-4% del peso del cemento Aumenta la resistencia y durabilidad; mejora la trabajabilidad. Alto (5%) 5% del peso del cemento Ofrece mejoras significativas en resistencia y durabilidad; cuidado con la compatibilidad. Notas adicionales: Bajo (%): Adecuado para mejoras ligeras en la mezcla sin grandes cambios en la resistencia. Moderado (%): Proporciona un equilibrio entre mejoramiento y resistencia. Ideal para la mayoría de aplicaciones. Alto (%): Ofrece mejoras máximas en propiedades, pero puede necesitar ajustes adicionales para asegurar la compatibilidad con el cemento.


CONCLUSIONES

La investigación sobre el uso de resinas de piñón en mezclas de cemento Portland revela varios aspectos clave en relación con las propiedades mecánicas, el impacto ambiental y las mejores prácticas de incorporación. En conclusión, el uso de resinas de piñón en mezclas de cemento Portland representa una significativa mejora tanto en términos de propiedades mecánicas como de sostenibilidad ambiental. Estas resinas no solo potencian la resistencia del cemento a la compresión, flexión y tracción, sino que también aumentan su durabilidad y comportamiento a largo plazo gracias a sus propiedades adhesivas y estructurales. Desde el punto de vista ambiental, las resinas de piñón ofrecen una alternativa ecológicamente favorable al reducir la huella de carbono en comparación con los aditivos sintéticos convencionales, al ser renovables y tener un proceso de producción menos contaminante. Para aprovechar al máximo estos beneficios, es esencial optimizar la dosificación y los métodos de incorporación, garantizando una mezcla uniforme y un curado adecuado. Esta combinación de mejoras en el rendimiento del material y beneficios ambientales posiciona a las resinas de piñón como una opción innovadora y sostenible en la industria de la construcción.
Leon Cancino Jesus Eduardo, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE PROTOTIPOS: HORNO DE VITROFUSIóN, EXPRIMIDOR DE PIñAS Y EXTRUSOR DE FILAMENTO


DESARROLLO DE PROTOTIPOS: HORNO DE VITROFUSIóN, EXPRIMIDOR DE PIñAS Y EXTRUSOR DE FILAMENTO

Carlos Patricio Isaac Emmanuel, Universidad Autónoma de Ciudad Juárez. Chab Contreras Diana Elizabeth, Universidad Autónoma de Yucatán. Espinoza Franco Sofia, Universidad Autónoma de Ciudad Juárez. Haro Bustamante Ana Laura, Universidad de Guadalajara. Leon Cancino Jesus Eduardo, Instituto Tecnológico de Tuxtla Gutiérrez. Martinez Cerino Paola Yosabeth, Instituto Tecnológico de Pachuca. Rodríguez Hernández Evelyn, Universidad de Guadalajara. Suriano Natarén Amairany, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La innovación tecnológica en el desarrollo de dispositivos industriales es fundamental para mejorar la eficiencia y calidad de los procesos productivos. Sin embargo, en muchas industrias, la adopción de tecnologías avanzadas se ve limitada por la falta de herramientas adecuadas que respondan a necesidades específicas de producción. En particular, se observa una carencia de soluciones efectivas en el ámbito de la vitrofusión, el procesamiento de frutas (como la extracción de jugo de piñas), y la fabricación de filamentos para impresión 3D. Cada prototipo presenta desafíos específicos en términos de diseño, integración de componentes electrónicos y optimización de funcionalidad. Este trabajo se centra en la cotización de materiales, diseño detallado, pruebas de componentes, programación y armado, con el objetivo de producir prototipos eficientes y funcionales



METODOLOGÍA

El desarrollo del primer prototipo de un horno de vitrofusión incluyó el diseño de una estructura con apertura en el plano (X, Z). La cápsula metálica, sin considerar la altura de las patas y tomando en cuenta la tapa superior e inferior, tiene dimensiones de 140 cm x 90 cm x 60 cm, y permite un rango de temperatura operativa de 80°C a 1300°C. Definieron las especificaciones técnicas, se elaboraron los planos correspondientes en el software SolidWorks. Con estos planos y especificaciones técnicas, se procedió a la cotización y adquisición de los materiales necesarios. Con los materiales, se realizaron pruebas exhaustivas de los componentes electrónicos para asegurar su funcionalidad y compatibilidad con el diseño del horno, estos componentes fueron integrados en la estructura del horno. Finalmente, se procedió al ensamblaje de la estructura del horno, utilizando principalmente soldadura y herramientas de medición, corte y esmeril. El segundo prototipo desarrollado es un exprimidor de piñas, el cual genera jugo por presión mecánica entre la base y un mazo fijado al techo de su soporte del exprimidor. La estructura esta diseñada para acomodar diversos tamaños de fruta. El proceso de desarrollo comenzó con el diseño del exprimidor en el software SolidWorks, donde se elaboró un esquema detallado del dispositivo, incluyendo todas las partes mecánicas y su ensamblaje. Este diseño permitió definir claramente las especificaciones y requerimientos técnicos. Una vez completado el diseño con los materiales disponibles, se realizaron pruebas para asegurar la operatividad, a diferencia de sistemas automatizados, este prototipo utiliza una manivela que permite a una persona ejercer la fuerza necesaria para operar el gato hidráulico. Finalmente, se armó la estructura del exprimidor utilizando técnicas de ensamblaje como soldadura y herramientas de precisión. El desarrollo del tercer prototipo, un extrusor de filamento, consiste en un motor que impulsa un husillo conectado a una tolva que transporta los restos del material de las impresoras 3D como PLA hacia un tubo caliente para fusionar los restos y por medio de una boquilla obtener filamento de un diámetro específico. El prototipo se diseñó en SolidWorks, los componentes que necesitamos fueron integrados en el diseño, seguido por el armado de su estructura y ensamblando todas las piezas, por último, se llevaron a cabo pruebas generales para verificar el correcto funcionamiento.


CONCLUSIONES

Se logró diseñar y desarrollar tres prototipos, enfrentando y superando diversos desafíos técnicos como la identificación de los materiales adecuados para cada prototipo, técnicas de soldadura, corte, desbaste y golpe, así como la implementación de los componentes electrónicos para el horno y el extrusor de filamento. Los resultados obtenidos indican que el prototipo del horno de vitrofusión cuenta con una estructura más grande a comparación de los hornos caseros, el sistema de aislamiento es funcional e innovador y el circuito electrónico es eficiente al controlar la temperatura. Asimismo, el exprimidor de piñas cuenta con una estructura que funciona manualmente y el extrusor de filamento fue adaptado para el uso y manejo del laboratorio. Los tres prototipos cuentan con potencial para mejoras futuras, una vez completados y refinados, estos dispositivos contribuyan significativamente a sus respectivas áreas de aplicación y abran la puerta a futuras investigaciones.
Leon Cruz Mayra Lizett, Universidad de Guadalajara
Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional

RECONOCIMIENTO DE SEñALES DE FLUORESCENCIA INDUCIDA EN MUESTRAS HEPáTICAS


RECONOCIMIENTO DE SEñALES DE FLUORESCENCIA INDUCIDA EN MUESTRAS HEPáTICAS

Delgadillo González Andrea, Universidad de Guadalajara. Leon Cruz Mayra Lizett, Universidad de Guadalajara. Martin de la Rosa Carlos Humberto, Universidad de Guadalajara. Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El hígado es crucial para la vida, pero las enfermedades hepáticas están aumentando alarmantemente. La fibrosis hepática, una condición prevalente, implica la acumulación de tejido cicatricial en el hígado, frecuentemente debido al consumo excesivo de alcohol y hepatitis previa. Sin tratamiento, la fibrosis puede evolucionar a cirrosis. En 2021, la cirrosis fue la sexta causa de mortalidad y la octava de años de vida saludable perdidos. Actualmente, la biopsia hepática es el estándar de oro para la detección y estudio de la fibrosis hepática, pero es un método invasivo y costoso.



METODOLOGÍA

Se utilizaron muestras de biopsias hepáticas humanas proporcionadas por el Hospital General de México. Estas fueron clasificadas según la escala Ishak-Knodell en cuatro grupos: sano (F0), fibrosis inicial (F1-F2), fibrosis avanzada (F3) y cirrosis (F4). Se empleó un sistema portátil para adquirir espectros de fluorescencia del tejido hepático usando un LED UVB y una fibra óptica bifurcada. Un espectrómetro de alta sensibilidad capturó los espectros, y un programa en LabVIEW controló el proceso. Para mejorar el diagnóstico de enfermedades hepáticas, se propuso un clasificador móvil. Los datos de las biopsias, normalizados para uniformidad, fueron utilizados para diseñar e implementar tres redes neuronales con TensorFlow: una red densa y dos convolucionales (una para imágenes y otra para señales). Red densa Esta red clasifica los grupos utilizando datos estadísticos (promedio, desviación estándar y varianza) de los espectros. Se entrenó con el 80% de los datos y se validó con el 20%. Con tres capas densas de 64 neuronas cada una y una capa final de 4 neuronas, se logró una precisión del 0.95, indicando un posible sobreentrenamiento. Red Convolucional (Imágenes) Utilizó espectrogramas de 468 x 812 píxeles, obtenidos de señales normalizadas. Las imágenes se convirtieron a blanco y negro para mejorar la respuesta de la red. El modelo, con 11 capas (MaxPooling2D, Conv2D, Flatten, Densa) y un kernel de 3x3, alcanzó una precisión del 0.8 tras 200 épocas de entrenamiento. Red Convolucional (Señales) Esta red clasifica señales generadas, normalizadas para uniformidad. Leyó 1024 datos por archivo y utilizó una matriz de confusión para evaluar el aprendizaje. Las etiquetas asignadas fueron "Sano" (F0), "Fibrosis inicial" (F1-F2), "Fibrosis avanzada" (F3) y "Cirrosis" (F4). La precisión obtenida varió entre 0.4 y 0.6.


CONCLUSIONES

El proyecto comenzó con el aprendizaje sobre los archivos espectrales de fluorescencia de muestras hepáticas. Se adquirieron conocimientos teóricos y prácticos sobre redes neuronales, utilizando código para procesar y normalizar archivos .txt. Las redes densas se usaron para interpretar señales, mientras que las convolucionales adaptaron las señales a imágenes. Se concluyó que las redes convolucionales aplicadas a imágenes en blanco y negro proporcionaron mejores resultados, alcanzando una precisión del 0.8. Aunque el trabajo sigue en desarrollo, se espera optimizar las redes implementadas para garantizar una clasificación precisa y certera de enfermedades hepáticas.
Leon Huitron Arely Guadalupe, Instituto Tecnológico de Morelia
Asesor: Dra. J. Betzabe Gonzalez Campos, Universidad Michoacana de San Nicolás de Hidalgo

FABRICACIóN DE GELES BASADOS EN QUITOSA/áCIDO HIALURóNICO/POLVINíLALCOHOL MEDIANTE EL PROCESO DE GELIFICACIóN CON CURCUMINA.


FABRICACIóN DE GELES BASADOS EN QUITOSA/áCIDO HIALURóNICO/POLVINíLALCOHOL MEDIANTE EL PROCESO DE GELIFICACIóN CON CURCUMINA.

Leon Huitron Arely Guadalupe, Instituto Tecnológico de Morelia. Asesor: Dra. J. Betzabe Gonzalez Campos, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La curcumina es el ingrediente bioactivo de la cúrcuma la cual ha demostrado tener potencial terapéutico en el tratamiento de diversas enfermedades, esto es gracias a sus propiedades antiinflamatorias, antioxidantes y anticancerígenas.  No obstante, la aplicación de la curcumina en tratamientos médicos enfrenta distintos desafíos como lo es:   Inestabilidad: La curcumina es fotosensible y termo sensible lo cual afecta su estabilidad y actividad.  Dosis efectiva: Es un desafío poder determinar dosis óptimas para cada tratamiento.  Interrelación con otros medicamentos: Puede interactuar con otros medicamentos lo cual puede afectar eficacia y seguridad.  Efectos secundarios: Aunque la curcumina generalmente es segura, puede provocar efectos secundarios al utilizar dosis altas o por un tiempo prolongado.  Para vencer estos desafíos se busca innovar y mejorar la biodisponibilidad de la curcumina, realizar estudios para definir dosis efectivas y evaluar seguridad y eficacia en el tratamiento de enfermedades; por lo que, en verano, se analizó el diseño de un gel como medio estabilizante y de liberación. 



METODOLOGÍA

Se utilizó Quitosano (CS), Acido hialuronico (HA) y polivinílalchol (PVA) así como Ácido cítrico y Ácido Acetílico (AA), todos ellos de la marca Sigma-Aldrich.   hacerse realizaron 6 ensayos para la fabricación de los geles; tres con ácido cítrico y 3 sin ácido cítrico, a dos de ellos se les agrego curcumina, uno con ácido cítrico y otro sin ácido cítrico, de los seis geles totales cuatro se sometieron al proceso de liofilización; los dos que contenían curcumina, y de los otros dos uno contenía ácido cítrico, el otro no contenía ácido cítrico.   Inicialmente se prepararon soluciones de cada uno de los polímeros de manera individual: utilizando 0.15g de quitosano disuelto  en 5 ml ácido acetílico con un tiempo de agitación de aproximadamente 4h, 0.25g de  ácido hialuronico disueltos en 5ml de agua destilada con un tiempo de agitación de aproximadamente 1 h. y  0.8 g de PVA disueltos en 10 ml de  agua destilada con un tiempo de reposo de aproximadamente 6 h a 90°C; para la curcumina se diluyeron 0.05 g en 5 ml de agua destilada con un tiempo de agitación de aproximadamente 2 h. Esta fue colocada en un frasco color ámbar para evitar la exposición a la luz y así prevenir su degradación con la luz. La textura que adquieren los polímeros es de un gel, a excepción de la curcumina que sigue siendo una solución líquida.    Para obtener el gel con ácido cítrico y curcumina, se utilizaron 5ml de CS al 3%, 10 ml de PVA al 8%. A esta mezcla se le adicionaron 0.5 g de ácido cítrico, 5 ml de HA al 5% y 5ml de curcumina al 1% dando un total de 25 ml de solución. se adicionaron 2.5 ml de PVA al CS y 2.5ml de PVA al HA, dejándolo en agitación lenta por 3h aproximadamente, posteriormente se mezclaron ambos y se dejaron en agitación por 24h.    Se aplicó la misma metodología para la obtención de todos los geles ya que se observó que los polímeros se integran de manera más homogénea y rápida que al integrar primero él HA con el CS, ya que de esta forma se vuelve muy complicado.  Para obtener los geles con ácido cítrico sin curcumina, se utilizaron 5ml de CS al 3%, 10 ml de PVA al 8%, al cual nuevamente se le agregaron 0.5 g de ácido cítrico y 5 ml de HA al 5%, dando un total de 20 ml de solución. Para integrar los polímeros, se utilizó el mismo procedimiento del gel anterior. De esta mezcla se realizaron dos ensayos; uno se sometió a liofilización y la otro quedo como control.  El agregar ácido cítrico al PVA facilitó la integración de los geles de manera óptima, así como reducir la viscosidad de estos.  A continuación, se obtuvieron los geles que no contendrían ácido cítrico, para esto se utilizaron las siguientes proporciones:  Para el gel sin ácido cítrico con curcumina se utilizaron 5ml de CS al 3%, 10 ml de PVA al 8%, 5 ml de HA al 5% y 5ml de curcumina al 1%, dando un total de 25 ml de solución. En esta ocasión nuevamente se añadieron 2.5 ml de PVA al CS y 2.5ml de PVA al HA; repitiendo el procedimiento empleado de los geles anteriores.  Por último, se elaboraron los geles sin ácido cítrico y sin curcumina. Para estos geles se utilizaron 5ml de CS al 3%, 10 ml de PVA al 8% y 5 ml de HA al 5%, dando un total de 20 ml se solución. Nuevamente empleando el procedimiento de los geles anteriores. De este se elaboró 2 geles uno se mandó a liofilizar y el otro se utilizó de control.  Los geles obtenidos fueron analizados mediante microscopia electrónica de barrido (FESEM), donde se pudo observar la exitosa obtención de microestructuras porosas. 


CONCLUSIONES

En este verano de investigación se obtuvieron conocimientos teóricos. prácticos acerca del procesamiento de los biopolímeros analizados: quitosano, ácido Hialuronico y el alcohol poli vinílico así como de la curcumina. Se puso en práctica en la creación y análisis de los geles resultantes de los polímeros antes mencionados. No obstante, al ser un trabajo tan extenso, aún se encuentra en fase de experimentación y los resultados obtenidos no son concluyentes. Se espera analizar el tiempo y el medio más efectivo de entrega del fármaco (la curcumina) y profundizar en el estudio de la efectividad de la curcumina al tratar determinadas enfermedades. 
León Padierna Mitzi Odette, Universidad de Guadalajara
Asesor: Dr. Brhayllan Mora Ventura, Universidad de Guadalajara

DISEñO INTELIGENTE: LA CONVERGENCIA DE LA IA Y EL DISEñO INDUSTRIAL.


DISEñO INTELIGENTE: LA CONVERGENCIA DE LA IA Y EL DISEñO INDUSTRIAL.

León Padierna Mitzi Odette, Universidad de Guadalajara. Asesor: Dr. Brhayllan Mora Ventura, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Durante años el diseño industrial ha ido evolucionando con el paso de los años gracias a la creatividad humana siempre buscando la innovación mediante la realización de una gran cantidad de tareas donde no solo deben de ser creativos, sino que deben tener fuertes habilidades sociales. Actualmente la tecnología está evolucionando rápidamente y con la llegada de la inteligencia artificial como una nueva herramienta para realizar nuestras tareas, estas se pueden automatizar y potencializar para analizar, identificar y generar nuevos diseños. Analizando algunas de estas aplicaciones de IA también se muestra de algunos problemas que llegan a presentar como diseños basados en existentes, dependencia a la IA, propiedad intelectual de los diseños generados en estas aplicaciones y la aceptación y confianza por parte de los diseñadores a las aplicaciones de IA.



METODOLOGÍA

Se analizó la inteligencia artificial en el diseño industrial ya que con la evolución de la tecnología la IA influye en el diseño y se hace notar a través del uso de algoritmos de aprendizaje automático, los cuales tienen la capacidad de analizar gran volumen de datos y posteriormente extraer patrones y tendencias necesarias para el diseño de productos. nuevos e innovadores. En el proceso recolectamos las ventajas de usar la IA, las cuales son: Mejora la velocidad y precisión del diseño reduciendo el error humano Inspira a nuevas ideas potencializando la creatividad y dar soluciones Automatización de procesos También se recolectaron las desventajas de usar la IA: Riesgos de depender demasiado de la tecnología Examinar las consideraciones éticas y em impacto de la IA El coste de su desarrollo La falta de personalización Falta resaltar que en el proceso de la investigación optimizo el desarrollo de la creación de ideas y prototipos drásticamente donde los algoritmos de aprendizaje automático de las herramientas de IA ayudan a predecir sobre la creación de nuevos productos bajo las condiciones que se le disponen a la inteligencia artificial. La IA también tiene la ventaja de que promueve la sostenibilidad promoviendo el uso de materiales sustentables y reciclables. Durante la exploración de la herramienta los modelos generados por la IA proponen soluciones posibles, explora ideas y diseños únicos que a nosotros no se nos hubiera ocurrido, pero también nos percatamos que buscaba la exactitud en las palabras, el orden y también las palabras claves sobre lo que se buscaba del producto para la creación correcta de este ya que sino la IA cambiaba los diseños y los datos. Algunas de las herramientas de inteligencia artificial que para nosotros fueron precisas y nos ayudaron en el proceso son: Leonardo AI ChatGPT Canva Dall-E Actualmente las herramientas de IA están disponibles a todo público, pero las más acertadas son de paga y algunas son exclusivas para las empresas lo cual es limitado para algunos diseñadores industriales para su uso constante. Después de analizar los alcances que tiene la herramienta de IA en los ejemplos implementados nos damos cuenta de que los datos que aporta son claro siempre y cuando seamos claros y muy específicos, además de que nos dimos cuenta de que dependiendo como formábamos las palabras y el orden que en que se ponían la IA arrojaba diferentes ideas lo cual daba muchos resultados diferentes los cuales se tenían que clasificar cada uno de los resultados. La IA puede maximizar la creatividad y el resultado final de los ejemplos usados acortando el tiempo en la búsqueda de datos, formas, tendencias, pero también en algunos diseños los cuales ayudan para basarse en ellos. Alguna dificultad que se encontró fue que no todos los datos que arrojo son correctos y tuvimos que inspeccionar cada uno de los datos, formas y diseños que arrojaba la IA lo cual, si sigue siendo algo tardado, pero recorta el tiempo estimado que normalmente un diseñador tarda en todo su proceso para crear un diseño final.


CONCLUSIONES

Durante la investigación se logró obtener conocimientos sobre las ventajas y desventajas de la inteligencia artificial en el diseño industrial y como se podría optimizar esta herramienta en el diseño poniéndolos en práctica en el proceso de esta investigación donde se buscó las debilidades de la IA para fortalecerla y que los diseñadores puedan apoyarse en esta gran herramienta para agilizar su proceso en la creación de nuevos productos y obtener los datos necesarios sin perder tanto tiempo. La IA es el presente y el futuro del diseño y se espera desarrollar estrategias efectivas para mejorar la colaboración entre IA y el diseño industrial, fomentando innovación y eficiencia en este sector. Además, se pusieron los conocimientos a prueba para compartirlos con niños de 7 a 12 años para impulsarlos en el área de la ciencia y tecnología y también nos dimos la tarea de usar la IA en otro proyecto de una bicicleta con un diseño nuevo para agilizar la recolección de datos y expusimos este proyecto innovador ante la comunidad en la explanada de Tlajomulco.
Leon Ruelas Miguel Angel, Instituto Tecnológico Superior de Cananea
Asesor: Mtro. Jesus Adrian Vega Mejia, Instituto Tecnológico Superior de Cananea

SMART CITY: IMPLEMENTACIóN DE LA SONORIZACIóN PARA MEJORAR EL SERVICIO DE RECOLECCIóN DE BASURA


SMART CITY: IMPLEMENTACIóN DE LA SONORIZACIóN PARA MEJORAR EL SERVICIO DE RECOLECCIóN DE BASURA

Leon Ruelas Miguel Angel, Instituto Tecnológico Superior de Cananea. Asesor: Mtro. Jesus Adrian Vega Mejia, Instituto Tecnológico Superior de Cananea



PLANTEAMIENTO DEL PROBLEMA

Conforme las sociedades se iban creando a lo largo de la historia se hizo necesario construir las ciudades para que las sociedades que formaran tuvieran un lugar al que volver y pertenecer [1, 2]. Conforme hemos avanzado, las ciudades se han hecho cada vez más grandes y con más habitantes de otros lugares quienes se establecen en distintas ciudades [3, 4]. Cada ciudadano puede vivir en la ciudad en una casa, departamentos o quedarse por un tiempo limitado en hoteles [5, 6]. Conforme pasa el tiempo las ciudades cambian y buscan satisfacer de manera eficiente las necesidades de sus ciudadanos para poder mantener a una población y una ciudad contenta, limpia, sólida y estable [7, 8]. Gracias a este incremento de necesidades y tamaño de las ciudades es que se inventó el término smart cities el cual traducido al español sería ciudades inteligentes [9, 10]. Una Smart City es una ciudad que cumple con las necesidades de los ciudadanos y de su alrededor gracias al uso de la tecnología y técnicas de administración de varios sectores, por ejemplo: el movimiento por la ciudad, el cuidado del ambiente, la salud de los ciudadanos, etc. [11, 12]. Como podrás imaginar no todas las ciudades pueden darse el lujo de ser smart cities dado el tema tecnológico o el estratégico, aunque, como tal, Smart City no significa que absolutamente todos los ámbitos tengan que ser atendidos, con que la ciudad pueda atender una de las necesidades de los ciudadanos de una manera efectiva ya se considera una Smart City [13, 14]. Por eso es que quiero investigar acerca del sistema de camiones de basura y el cómo y qué tan frecuentemente estos recogen la basura. En la ciudad de Cananea los camiones de basura son inconsistentes a la hora de hacer su trabajo, los ciudadanos nunca saben en qué momento un camión de basura va a pasar por su calle, por eso quiero investigar acerca del funcionamiento de estos para mejorar tanto los camiones como las estrategias, rutas y maneras de recoger la basura para mantener la ciudad limpia y la salud de los ciudadanos en su mejor calidad posible.



METODOLOGÍA

Para esta investigación utiliza la metodología SCRUM con un intervalo de 6 Sprint para poder llevar a cabo la investigación de una manera más efectiva analizando datos sobre el uso de sensores y antenas para poder optimizar el servicio de recolección de basura lo mejor posible. Dichos Sprint serán de la siguiente manera Primer sprint: Selección del tema para la investigación. Segundo sprint: búsqueda de información sobre el tema que sirva para la investigación. Tercer sprint: análisis de la información obtenida y acomodamiento de la misma en la investigación Cuarto sprint: inicio del resumen de la primera fase de la investigación. Quinto sprint: desarrollo de una estrategia para llevar a cabo la investigación. Sexto sprint: continuación del resumen de la primera fase de la investigación.


CONCLUSIONES

Para poder hacer esto posible se utilizarán sensores ultrasónicos los cuales medirán que tan lleno esta un contenedor de basura, estos sensores irán en la tapa de los contenedores de basura para así poder en la parte mas alta y cubrir el interior entero de los botes de basura, se prevé que va a haber un sensor por cada bote de basura Se tiene planeado: instalar sensores de tráfico y antenas en ubicaciones estratégicas para recolectar datos de tráfico y condiciones de las calles y utilizar módulos de comunicación (4G/5G, LoRaWAN) para transmitir estos datos a un servidor central, el cual recibe datos de los sensores y utiliza una plataforma de gestión de tráfico para analizar la información. Se enviarán notificaciones y actualizaciones en tiempo real a los camiones de basura utilizando aplicaciones móviles o sistemas de comunicación basados en la red celular. El lenguaje de programación que se podría utilizar es Python ya que Python es excelente para el procesamiento de datos y tiene bibliotecas como ‘pandas’ para el análisis de datos y ‘requests’ o ‘http.client’ para la comunicación con sensores. Además, puedes usar frameworks como ‘Flask’ o ‘Django’ para construir una interfaz web si necesitas una y como base de datos PostgreSQL Es muy robusto, soporta una gran cantidad de datos y tiene buenas capacidades para manejar datos estructurados. Puedes usar extensiones como PostGIS si necesitas características adicionales. Con estas implementaciones se espera mejorar la calidad de vida de la comunidad en la ciudad de Cananea los cuales han tenido problemas con el servicio de recolección de basura desde ya hace muchos años, brindándoles la seguridad de que un camión de basura va a estar presente cuando lo necesiten y que llegara tan pronto como le sea posible. Con esta investigación se espera poder mejorar el servicio de recolección de basura para poder beneficiar a la comunidad de cananea, quienes han estado teniendo problemas con dicho servicio desde hace años, utilizando tecnología de sensores y de redes para optimizar el tiempo en que los camiones tardan en llegar a las casas y establecimientos, además de detectar que lugares son los que necesitan de un camión de basura, gracias a los sensores los cuales avisaran cada vez que un bote de basura necesite ser vaciado. De llevarse a cabo y ser tan eficiente como se prevé este proyecto puede implementarse a más ciudades beneficiando mucho a sus comunidades mejorando la comodidad y calidad de salud de los ciudadanos.
Lezama Lopez Christian Yair, Universidad Veracruzana
Asesor: Dra. Eva Aguila Almanza, Benemérita Universidad Autónoma de Puebla

PREPARACIóN, ESTUDIO Y APLICACIóN DE RECUBRIMIENTOS FUNCIONALES


PREPARACIóN, ESTUDIO Y APLICACIóN DE RECUBRIMIENTOS FUNCIONALES

Lezama Lopez Christian Yair, Universidad Veracruzana. Asesor: Dra. Eva Aguila Almanza, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Con el continuo crecimiento de la población, se ha observado un claro aumento en la contaminación. A pesar de los esfuerzos por reducirla, esta sigue en ascenso y se manifiesta de diversas formas. Además, han surgido nuevos tipos de contaminantes para los cuales no existen regulaciones a nivel internacional. Estos contaminantes emergentes se encuentran principalmente en cuerpos de agua, lo que ha generado gran preocupación. Aunque no se ha demostrado un impacto directo en la salud humana, su concentración ha aumentado con el paso de los años. Entre los contaminantes emergentes se incluyen: Medicamentos (hormonas, antibióticos, analgésicos, antiinflamatorios, etc.) Productos de cuidado personal (shampoo, pasta de dientes, cosméticos, etc.) Detergentes, tensoactivos, colorantes, tintes, herbicidas, pesticidas. Por lo tanto, es necesario avanzar tecnológicamente en los sistemas de tratamiento de agua actuales para lograr la remoción de estos contaminantes. Una tecnología que ha ganado renombre en los últimos años es la tecnología de membranas. Es esencial investigar cómo hacer esta tecnología más eficiente, menos contaminante en su producción y más viable económicamente.



METODOLOGÍA

El trabajo experimental desarrollado a lo largo de la estancia se dividió en tres etapas. La primera consistió en la obtención de quitosano a partir de exoesqueletos de camarón; en la segunda etapa se prepararon y caracterizaron membranas a partir del quitosano obtenido, finalmente se realizaron experimentos de permeación con las membranas obtenidas para evaluar su funcionalidad como medio eficiente en la separación de sustancias contaminantes. Para la obtención del quitosano se siguió un tratamiento químico que consiste en 5 procesos diferentes: lavado-secado, desmineralización, desproteinización, despigmentación y desacetilación. Los cuatro primeros procesos se realizan para la recuperación de la quitina, el último procedimiento se realiza para la obtención del quitosano. En el lavado-secado se lavaron de forma tenaz los exoesqueletos de camarón, para posteriormente dejarlos secar en una mufla a temperatura superior a 100 0C durante 24 horas. Una vez secos se procedió a molerlos para finalizar tamizando. En l desmineralización la reacción se verifica con el material pulverizado y una solución diluída de HCl, en una relación 1:11 (m/v), para posteriormente dejarlo secando a 80 0C durante 6 horas. Una vez pasado este tiempo, inicia la fase de desproteinización se pulverizó el residuo presente en el vaso de precipitados, para posteriormente pasarlo a un baño ultrasónico con agua destilada durante 40 minutos. Finalmente se secó el material a 80 0C durante 12 horas y se volvió a moler. Para la despigmentación se realizarón lavados con una solución de etanol al 86% e hipoclorito de sodio al 0.32% en una relación 1:5. Es hasta este punto donde se extrae la quitina; dado que el compuesto que se pretende obtener es el quitosano, se hace necesaria la siguiente etapa. Finalmete en la desacetilación se preparó una solución de NaOH al 50%, la cual se llevó a reacción con la quitina despigmentada en una relación 1:7, esta mezcla se dejó en agitación constante a una temperatura de 115 0C durante 2 horas, posteriormente se realizó una filtración a vacío para recuperar el quitosano. Con el quitosano obtenido en la fase previa, se procedió a preparar las membranas, estas se hicieron con la técnica de evaporación de solvente, para esto primero se peso quitosano en una relación 1:50 (m/v) con el ácido acético, una vez quedó totalmente disuelto el quitosano en el ácido, se agregó acetato de sodio en una relación 1:2 con el quitosano, para posteriormente volver a agregar el volumen inicial que se agregó de ácido acético. Cuando ya se tenía todo bien mezclado se empezó a subir la temperatura, una vez que llego a los 60 0C se agregó glicerina en una relación 6:2 con el quitosano. Ahora bien, se prepararon tres membranas, cada una con una distinta proporción de goma, para la primera membrana (M1) se llevo a los 85 0C, y posteriormente se paso a una caja Petri para que terminara de secar a temperatura ambiente, para la segunda y la tercera membrana (M2 y M3) una vez llegaron a los 70 0C se les agrego goma (0.1 g y 0.2 g, respectivamente), se continuó el calentamiento hasta los 85 0C, finalmente se vierten a las cajas Petri para dejarlas secar. La caracterización de las membranas se realizó por medio de la espectroscopia de infrarrojo, con el objetivo de identificar estructuralmente los grupos funcionales del quitosano que consta de unidades de N-acetil-D-glucosamina unidas por enlaces β-D (1,4). También se determina el espesor de las membranas que consiste en realizar al menos 10 medidas del espesor en toda la circunferencia de la membrana, para lo cual se utiliza un micrómetro digital Mitutoyo de sensibilidad + 0.00005. Para evaluar la funcionalidad de las membranas en la separación de sustancias, tales como contaminantes orgánicos, entre otros; se realizaron experimentos de permeación con soluciones estándar de NaCl 1M. La cuantificación del permeado se realizó una curva de calibración con diluciones de la misma molécula en medio acuoso. Ahora bien, en el experimento de permeación se pudo visualizar que transcurrida una hora la membrana que mostro una menor permeación fue la que no contenía goma ya que esta indicó una medida de permeabilidad de , mientras que las membranas que contenían goma tuvieron  y  (M2 y M3, respectivamente)


CONCLUSIONES

A lo largo de la estancia de verano logre aprender más acerca del uso de técnicas de análisis químico, además, en lo que respecta a lo realizado en la estancia, el quitosano que se obtuvo se revisó por análisis FTIR lo que nos indico un grado de desacetilación del 79.7%, sin embargo, no se pudo revisar el peso molecular de la muestra por unos problemas con el viscosímetro. Los experimentos de permeación mostraron que las membranas que contenían goma se volvieron mas porosas, lo que permitió mayor paso del soluto a través de ellas.
Lezcano Velez Harol, CIAF Educación Superior
Asesor: Dr. José Antonio Vergara Camacho, Universidad Veracruzana

TEMA DE INVESTIGACIóN: ESCANEO DE APLICACIONES WEB: HERRAMIENTAS Y METODOLOGíAS PARA LA DETECCIóN DE VULNERABILIDADES EN LA MALA CONFIGURACIóN DE SEGURIDAD CON BASE EN TOP TEN DE OWASP.


TEMA DE INVESTIGACIóN: ESCANEO DE APLICACIONES WEB: HERRAMIENTAS Y METODOLOGíAS PARA LA DETECCIóN DE VULNERABILIDADES EN LA MALA CONFIGURACIóN DE SEGURIDAD CON BASE EN TOP TEN DE OWASP.

Lezcano Velez Harol, CIAF Educación Superior. Asesor: Dr. José Antonio Vergara Camacho, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

En el mundo actual, donde la digitalización avanza a un ritmo acelerado, las aplicaciones web se han convertido en una pieza fundamental de la infraestructura tecnológica de organizaciones en todo el mundo. Sin embargo, esta creciente dependencia de las aplicaciones web también ha aumentado significativamente el riesgo de vulnerabilidades de seguridad, que pueden ser explotadas por atacantes malintencionados. La Open Web Application Security Project (OWASP) proporciona una lista de las diez vulnerabilidades más críticas en aplicaciones web, conocida como el OWASP Top Ten, que sirve como una guía esencial para entender y mitigar estos riesgos. Para este caso nos vamos a enfocar en solo uno de estos 10 que tiene OWASP el cual elegí previamente para desarrollar este documento. tiene como nombre la detección de vulnerabilidades en la mala configuración de seguridad. en este documento podemos encontrar preguntas que se desarrollaron a partir de este enfoque o tema, así como también la motivación de las preguntas y la respuesta de estas donde se realizó una búsqueda exhaustiva de artículos y revistas para poder dar solución a ello 



METODOLOGÍA

  El método utilizado para llevar a cabo esta Revisión Sistemática de Literatura se basa en las directrices propuestas por Kitchenham y Charters , descritas a continuación. A. Fase de Planificación En la fase de planificación, se describe el proceso para formular las preguntas de investigación, los términos clave de búsqueda y la estrategia a seguir para obtener los estudios primarios. Preguntas de Investigación Para lograr el objetivo de esta investigación, se han definido tres preguntas de investigación. Estas preguntas son importantes porque sirven como guía para la presente investigación. Fuentes de Datos y Estrategia de Búsqueda Las fuentes consideradas son IEEE Xplore, Google Scholer, y ScienceDirect , porque son fuentes donde se publican muchos estudios en el área de tecnología. Tambien se elabora una tabla con Los términos clave definidos para la búsqueda y los términos relacionados utilizados para construir la cadena de búsqueda.


CONCLUSIONES

Teniendo en cuenta todo lo que se expone en el documento está claro que la ciberseguridad es un campo muy amplio y que cada vez está en constante avance y cambio. si bien muchas industrias y empresas como se pudo identificar no están tan al pendiente de esto, se ha evidenciado la importancia del escaneo de aplicaciones web como una metodología eficaz para la detección de configuraciones inseguras y la falta de ellas en diversos campos, el análisis sistemático de las configuraciones de seguridad, combinado con el uso de herramientas avanzadas de escaneo, es crucial para mantener una postura de seguridad robusta. para finalizar es fundamental estar al pendiente de atacantes y las malas configuraciones para mitigar los riesgos asociados a este tema y de esta manera proteger sus aplicativos webs contra amenazas y garantizar la seguridad de los datos y las operaciones. 
Lima Arellano Cesar Alejandro, Instituto Tecnológico de Sonora
Asesor: Dr. Diego Alfredo Tlapa Mendoza, Universidad Autónoma de Baja California

APLICACIÓN DE INTELIGENCIA ARTIFICIAL Y LEAN HEALTHCARE EN LABORATORIOS CLÍNICOS PÚBLICOS Y CALIDAD 4.0 PARA LA MEJORA DE PROCESOS DE EMPAQUE EN LA INDUSTRIA VINÍCOLA


APLICACIÓN DE INTELIGENCIA ARTIFICIAL Y LEAN HEALTHCARE EN LABORATORIOS CLÍNICOS PÚBLICOS Y CALIDAD 4.0 PARA LA MEJORA DE PROCESOS DE EMPAQUE EN LA INDUSTRIA VINÍCOLA

Lima Arellano Cesar Alejandro, Instituto Tecnológico de Sonora. Asesor: Dr. Diego Alfredo Tlapa Mendoza, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

A pesar del avance significativo de la tecnología en los últimos años, sectores como el de la salud y la industria vinícola aún enfrentan desafíos críticos que impactan su eficiencia y calidad. La implementación de simulación de procesos y deep learning en estas áreas, poco exploradas en México, tiene el potencial de revolucionar la manera en que se gestionan los desafíos que presentan estos sectores, proporcionando soluciones tecnológicas avanzadas que optimizan los procesos y mejoran significativamente la calidad y la sostenibilidad.   En los laboratorios clínicos públicos, uno de los principales retos es la inspección de muestras de sangre, la cual está sujeta a errores humanos que pueden generar retoma de muestras, retrasos en el análisis y riesgos de contaminación. La falta de tecnología adecuada y la ausencia de guías sobre posibles errores y acciones de mejora agravan estos problemas. La necesidad de incrementar la inspección de muestras mediante tecnología avanzada, generar un análisis de riesgos y contar con información precisa sobre el nivel de inspección actual son áreas críticas que demandan soluciones innovadoras. Además, se requiere realizar un análisis detallado de la cadena de valor y desarrollar simulaciones del proceso actual para implementar mejoras en el flujo de pacientes y materiales.   En la industria vinícola, la calidad del empaque es fundamental para proteger el producto y asegurar la satisfacción del cliente. Sin embargo, el proceso de empaque de vino enfrenta distintos problemas que pueden llevar a cuestiones de calidad, como errores de etiquetado y la falta de una botella en las cajas enviadas. Además, el empaque del vino es uno de los mayores desafíos de sostenibilidad en el sector, ya que involucra diversos niveles, desde los materiales y formatos utilizados hasta la logística de comercialización y las percepciones y actitudes de los consumidores. La aplicación de inteligencia artificial (IA) y herramientas avanzadas de análisis de datos tiene el potencial de mejorar significativamente la calidad, flujo de trabajo y eficiencia de los procesos de manufactura. Sin embargo, la información sobre el uso de la ciencia de datos en los procesos industriales en México es escasa, lo que plantea un desafío adicional para la implementación efectiva de estas tecnologías.   Ambos proyectos requieren un enfoque integral que combine el desarrollo de tecnologías avanzadas, como modelos de deep learning (DL) para la inspección de muestras de sangre y la mejora de procesos de empaque en la industria vinícola, con la implementación de metodologías de mejora continua como lean healthcare y Calidad 4.0. La colaboración entre instituciones de educación superior y centros de investigación fue esencial para abordar estos desafíos, generando soluciones que no solo mejoren la precisión y eficiencia de los procesos, sino que también promuevan la sostenibilidad y satisfacción del cliente.  



METODOLOGÍA

Determinar técnicas y métodos de inspección apoyados por tecnologías de Industria 4.0, aplicables tanto en laboratorios clínicos como en la industria vinícola. Revisión de literatura científica en bases de datos. Etiquetado y Balanceo de imágenes para entrenamiento de los modelos de Deep Learning para el sector salud como el sector vinícola. Evaluar los modelos de Deep Learning desarrollados y definir el equipo necesario  para el proceso de inspección en ambos entornos. Analizar los resultados del modelo, indicando valores de precisión por encima del 95%. Probar y validar el modelo de análisis para estimar los impactos económicos, ambientales y sociales, utilizando una base de datos exhaustiva. Programar módulo de Raspberry Pi 5 con modelos pre-cargados y cámaras para la detección de objetos. Creación de carcasas de montaje mediante diseño por computadora e impresión 3D para módulos de Raspberry Pi 5 y cámaras. Elaboración de simulación de procesos del estado actual mediante software para el análisis de flujo de la cadena de suministro. Evaluar la simulación de procesos mediante los distintos tipos de distribución, logrando una comparativa de resultados entre escenarios propuestos.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos sobre la creación de bases de datos y entrenamiento para los sistemas de reconocimiento de objetos en tiempo real con inteligencia artificial, utilizando Roboflow e introduciendolo en el programa YOLOv8. Así mismo sé aprendió a utilizar de manera más profunda los programas SolidWorks y Preform para el diseño e impresión en 3d de las piezas necesarias para el prototipo creado, de la misma manera, el uso y mantenimiento de la impresora 3d.  
Lima Villegas Alfonso Naimad, Instituto Tecnológico de Puebla
Asesor: Dr. Alejandro Diaz Sanchez, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

SIMULACIóN Y CONSTRUCCIóN DE UN CIRCUITO EMULADOR DE UN MEMRISTOR


SIMULACIóN Y CONSTRUCCIóN DE UN CIRCUITO EMULADOR DE UN MEMRISTOR

Lima Villegas Alfonso Naimad, Instituto Tecnológico de Puebla. Lopez Jimenez Luis Manuel, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Alejandro Diaz Sanchez, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El memristor es un dispositivo descubierto hace 50 años que pronostica un desarrollo enorme dentro del campo de la electrónica [1], desde hace mucho tiempo, la teoría de circuitos ha girado en torno al estudio de tres elementos básicos (2) (resistencia, capacitor e Inductor), sin embargo, en el año 1971 el ingeniero eléctrico Leon Chua publicó un artículo científico en la IEEE titulado "The Missing Circuit Element" [2,3], en el cual desarrolla las ecuaciones que sugieren la existencia de un cuarto elemento pasivo que conforma a los circuitos eléctricos. El Memristor, es un dispositivo calificado como el cuarto componente fundamental de la electrónica En este trabajo se presenta un circuito que busca simular mediante componentes comerciales el comportamiento de un memristor. El circuito utiliza amplificadores operacionales, resistencias, capacitores y multiplicadores para que, al pasar corriente por medio de este, nos muestre un comportamiento similar al que se esperaría de un memristor



METODOLOGÍA

Se diseño y simulo un circuito emulador de un memristor por medio del programa TopSPICE, en el cual se utilizaron los amplificadores operacionales LF356, LF411 y TL081, debido a que eran los modelos disponibles a la hora de diseñar el circuito, resistencias de diversos valores y multiplicadores AD633 para emular el comportamiento de un memristor. Al observar el comportamiento del circuito en el simulador, hicimos uso de una protoboard para armar el emulador físicamente, por lo que haciendo uso de las piezas electrónicas necesarias se realizó dicho circuito, se siguió el diseño hecho en la simulación, alimentado los amplificadores y multiplicadores con un voltaje de +- 12V


CONCLUSIONES

Los resultados experimentales demuestran que el circuito presentado muestra un comportamiento memristivo esperado, tanto en la simulación como en un estado de construcción física, sin embargo, muestran ligeras diferencias en su comportamiento en ambos casos, teniendo un rango de funcionamiento mayor en al circuito físico
Lizaola Amparo Jose Luis, Instituto Tecnológico de Tepic
Asesor: Dr. José Guadalupe Robledo Hernández, Universidad de Guadalajara

APLICACIóN DE INTELIGENCIA ARTIFICIAL EN LA IDENTIFICACIóN E INSPECCIóN DE TUBERíAS MEDIANTE ROBOTS DE EXPLORACIóN


APLICACIóN DE INTELIGENCIA ARTIFICIAL EN LA IDENTIFICACIóN E INSPECCIóN DE TUBERíAS MEDIANTE ROBOTS DE EXPLORACIóN

Lizaola Amparo Jose Luis, Instituto Tecnológico de Tepic. Asesor: Dr. José Guadalupe Robledo Hernández, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La dificultad de realizar una inspección eficiente y completa, que provoca fallas debido al uso de tuberías y materiales dañados dentro de una construcción cada vez son más frecuentes. En México, las inspecciones de tuberías son realizadas en un plazo de entre 3 a 5 años dependiendo de la zona en la que son instaladas, para esto, las diferentes entidades que regulan y supervisan el mantenimiento necesitan identificar la ubicación de posibles rupturas o defectos que existan dentro de estas, y así evitar la excavación innecesaria en vías públicas, ayudando a reducir los costos de inspección y tiempos de espera para el trabajo realizado. El desarrollo de nuevas tecnologías nos ha traído herramientas nuevas para la resolución de este tipo de problemas, entre ellos el uso de Inteligencia Artificial y el uso de robots de campo, utilizados para la exploración en lugares donde gracias a distintos factores, al ser humano se le dificulta realizar. El uso de robots de exploración ha sido una buena alternativa gracias a la facilidad que tiene para programar una ruta y realizar todo un recorrido que permita recabar contenido audiovisual para su análisis posterior, mientras que el uso de la Inteligencia Artificial permite generar un algoritmo que optimice la recolección de datos, facilitando y asegurando un uso efectivo de la información para la identificación precisa y la toma de decisiones informadas.



METODOLOGÍA

Se tomo en cuenta una plataforma robótica móvil sencilla donada por el Departamento de Ingenieria de Proyectos para la creación de toda la estructura central del robot explorador, tomando en cuenta las medidas y dimensiones, se realizó un modelado 3D de la carcasa del resto del robot, una base para un servomotor en función de colocar la cámara principal y una base en la que podemos colocar todo nuestro circuito electrónico. Al momento de realizar el modelado, se procedió a examinar las características del material a utilizar, esto para tomar en consideración los parámetros de temperatura, moldeado e impresión del Acrilonitrilo Butadieno Estireno, mejor conocido como ABS. Una vez modificado estos parámetros, se procedió a renderizar dicha estructura y comenzar con la impresión. Durante la espera se realizó la elaboración del circuito electrónico, utilizando como sistema operativo una Raspberry Pi 5, que, gracias a su compactibilidad de la placa y su estilo de código libre, nos permitirá un mayor diseño y permisibilidad a la hora de crear el programa. El circuito elaborado es un circuito básico de conexiones para motores de corriente directa, conectamos cada llanta con su respectivo motor y elaboramos una conexión independiente entre estas mismas, utilizamos un puente de conexión para conectar el servomotor al circuito electrónico para mantener uniformidad y corriente. Para finalizar, hicimos uso de la Raspberry Pi 5 como hardware para el control de todos los motores y la conexión de una antena de transmisión que nos permitirá controlar los mandos desde un mando a distancia, Una vez teniendo el circuito conectamos todos los pines a la entrada digital de la Raspberry, y elaboramos un programa básico en Python3 en el que controlemos el sentido de dirección de los motores, el movimiento general del servomotor y la toma de video de la cámara digital utilizada para la identificación de objetos en modelos digitales. El programa se codifica de manera que mediante un mando a distancia se pueda controlar las direcciones del vehículo, utilizando pulsos de señales de radiofrecuencia recibidas en el transmisor del circuito y redirigidas hacia el propio sistema operativo para la efectuación del programa. Una vez que se tenga los modelos 3D impresos, basta con integrar todos los elementos para crear la estructura principal que le dará forma al robot de exploración, además, se le agrega un modelo de inteligencia artificial previamente entrenado con Tensor Flow, en función a material audiovisual de daño interno en tuberías. Con el robot totalmente desarrollado y cumpliendo con todos los parámetros, procedimos a realizar las pruebas de manejo y control, operando el vehículo a una distancia de más de 50 metros sin ninguna falla física y utilizando la inteligencia artificial para la identificación de objetos. La IA, implementada mediante Tensor Flow, permitió al robot analizar su entorno en, detectar y clasificar características específicas de los objetos que encontraba, demostrando una capacidad avanzada para realizar tareas de inspección y reconocimiento con gran precisión y eficiencia.


CONCLUSIONES

Durante este verano, logré adquirir conocimientos en inteligencia artificial y robótica a través de la elaboración de circuitos y el desarrollo de proyectos prácticos. Este proceso no solo mejoró significativamente mis habilidades en la construcción y manejo de componentes electrónicos, sino que también profundizó mi comprensión sobre la implementación y el impacto de las nuevas tecnologías. Aprendí a valorar la importancia de integrar la inteligencia artificial en soluciones innovadoras y sus potenciales aplicaciones futuras en diversos campos. Aunque el proceso de aprendizaje puede ser lento e inconsistente en sus primeras etapas, confío en que continuaré mejorando con el tiempo. Estas experiencias prácticas han fortalecido mi interés y compromiso en el campo de la tecnología, y estoy entusiasmado por aplicar estos conocimientos para desarrollar soluciones aún más sofisticadas y eficaces en el futuro.
Lizarraga Acosta José Yair, Universidad Politécnica de Sinaloa
Asesor: M.C. Roberto Antonio Martínez Thompson, Universidad Politécnica de Sinaloa

CARRO DE BúSQUEDA LIGHTNINGDRIVE


CARRO DE BúSQUEDA LIGHTNINGDRIVE

Lizarraga Acosta José Yair, Universidad Politécnica de Sinaloa. Montes Villarreal Liliana Guadalupe, Instituto Tecnológico de Tepic. Ozuna Diaz Ruanet Alejandro, Universidad Politécnica de Sinaloa. Ubaldo Sanchez Juan Carlos, Universidad Politécnica de Sinaloa. Asesor: M.C. Roberto Antonio Martínez Thompson, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En caso de desastres naturales la búsqueda y comunicación con las personas atrapadas puedes ser muy difícil,peligrosa y tardada



METODOLOGÍA

Se creará un carrito a control remoto para realizar la búsqueda más rápida y de forma más segura


CONCLUSIONES

Crear un carrito que facilite el buscar a las personas atrapadas en un desastre natural
Llamas Becerra Joahan Fernando, Instituto Tecnológico de Tepic
Asesor: Dr. Álvaro David Orjuela Cañón, Universidad del Rosario

IDENTIFICACIóN DE LA INTENCIóN DE MOVIMIENTO MEDIANTE MéTODOS COMPUTACIONALES: APRENDIZAJE AUTOMáTICO Y PROCESAMIENTO DE SEñALES


IDENTIFICACIóN DE LA INTENCIóN DE MOVIMIENTO MEDIANTE MéTODOS COMPUTACIONALES: APRENDIZAJE AUTOMáTICO Y PROCESAMIENTO DE SEñALES

Llamas Becerra Joahan Fernando, Instituto Tecnológico de Tepic. Asesor: Dr. Álvaro David Orjuela Cañón, Universidad del Rosario



PLANTEAMIENTO DEL PROBLEMA

Según el INEGI, en 2018 había 3,109,922 personas con discapacidades motoras en México, representando el 48.49% del total de personas con discapacidades. De estos, 1,781,761 eran hombres y 1,328,161 eran mujeres. Estas discapacidades afectan gravemente la calidad de vida, con la mayoría de los casos resultantes de accidentes que dejan a los pacientes sin esperanza de rehabilitación. Sin embargo, las señales cerebrales continúan enviándose a las extremidades afectadas, lo que ha llevado a investigadores a explorar la imaginación motora y el uso de señales electroencefalográficas (EEG) para desarrollar modelos de inteligencia artificial. Estos modelos podrían integrarse en prótesis para recuperar la habilidad motriz, utilizando tecnologías de Tiny Machine Learning (TinyML) y Edge Artificial Intelligence (Edge AI). Para crear un modelo con señales EEG, se necesita una interfaz cerebro-computadora (BCI) que capture estas señales con electrodos colocados en áreas específicas del cerebro, como el lóbulo frontal que controla el movimiento. Estudios muestran que los pacientes imaginan el movimiento de sus extremidades, lo que genera señales EEG útiles para desarrollar modelos de IA. Estos modelos, entrenados con redes neuronales, identificarían los tipos de movimiento que el paciente intenta realizar, esencialmente creando un sistema motor humano artificial. Este modelo debe ser entrenado extensivamente para ser efectivo. El objetivo de esta investigación es desarrollar un modelo para detectar la intención de movimiento mediante redes neuronales, diseñado para integrarse en un microcontrolador y controlar una prótesis. Esto contribuirá a soluciones de rehabilitación eficientes y asequibles para pacientes con movilidad reducida.



METODOLOGÍA

Para desarrollar un modelo de IA que reconozca y prediga la imaginación motora a partir de señales electromiográficas (EMG) de una base de datos en Kaggle (modificada de la BCI Competition IV 2a), se necesita estudiar y procesar los datos de las señales EEG. La arquitectura del modelo combinará bloques residuales y capas convolucionales para identificar la intención de movimiento. Recopilación de datos Se construyó el estado del arte y se seleccionó una base de datos en Kaggle. Esta base de datos contiene datos organizados en columnas que representan diferentes aspectos de las señales EEG y etiquetas de movimiento. Se requiere preprocesar estos datos, aplicando filtros de frecuencia para convertir las señales del dominio del tiempo al dominio de la frecuencia. Estudio de la base de datos La base de datos contiene 26 columnas y 492,048 filas, con datos de 9 pacientes. Se incluyen marcas de tiempo, etiquetas de movimiento, épocas y señales EEG de áreas específicas del cerebro. Para el preprocesamiento, se seleccionaron las señales EEG, se filtraron y se clasificaron por bandas de frecuencia. Obtención de características Las señales EEG fueron preprocesadas y convertidas en características mediante filtros de bandas de frecuencias. Esto resultó en una matriz de vectores con 110 columnas y 2448 instancias, representando datos de cada paciente, época y señal EEG. Entrenamiento del modelo El modelo inicial, basado en una arquitectura de ResNet con capas densas, mostró una precisión baja (0.30). Se incorporaron capas convolucionales, logrando una precisión de 1.000 en entrenamiento pero sobreentrenado en evaluación. Ajustando la organización de etiquetas y parámetros, se alcanzaron mejores resultados: loss: 0.4759, accuracy: 0.8354, val_loss: 0.6696, val_accuracy: 0.7673. Tras más ajustes, se obtuvo una precisión de 0.819.


CONCLUSIONES

El modelo no pudo ser embebido en tarjetas como la XIAO nRF52840 Sense debido a limitaciones de hardware. En su lugar, se desarrolló una interfaz en MATLAB para visualizar los resultados. La aplicación permite cargar un archivo .csv con las características, que el modelo analiza para identificar el movimiento. La investigación concluye que el estudio de señales EEG para detectar intención de movimiento es complejo pero prometedor, con potencial para desarrollar prótesis biónicas en el futuro.
Llamas Ramírez Marco Eduardo, Universidad de Guadalajara
Asesor: Dra. Miroslava Cano Lara, Instituto Tecnológico Superior de Irapuato

ESTUDIO DE POSTURA EN CICLISMO MEDIANTE VISIóN COMPUTACIONAL


ESTUDIO DE POSTURA EN CICLISMO MEDIANTE VISIóN COMPUTACIONAL

Castro López Angel Gustavo, Instituto Tecnológico Superior de Irapuato. Gutierrez Lopez Jose Alberto, Universidad de Guadalajara. Llamas Ramírez Marco Eduardo, Universidad de Guadalajara. Negrete Cárdenas Jorge, Universidad de Guadalajara. Asesor: Dra. Miroslava Cano Lara, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Estudios previos del rendimiento físico en ciclistas deportistas de alto rendimiento evalúan la postura del atleta mientras realiza el movimiento en la bicicleta, a su vez, multiples estudios abordan la evaluación de la actividad muscular y cardiaca del ciclista en búsqueda de optimizar el rendimiento del ciclista. Sin embargo, tras la incursion de tecnologías de vision computacional es posible analizar la postura en tiempo real extrayendo el mapeo de los puntos claves del cuerpo obteniéndose la inclinación y ángulos de ataque a lo largo de las etapas de reposo, ciclo normal y ciclo de ataque.



METODOLOGÍA

Se seleccionó a uno de los integrantes como ciclista sujeto al estudio, empleando el entorno de Python 3 se diseñaron 2 programas mediante los cuales se tomaría un video de entrada para extraer la malla corporal proporcionada por la librería MediaPipe, los nodos extraídos son tomados para el calculo de los ángulos de flexion en rodillas, espalda y brazos para su exportación en un formato CSV. a su vez, se analizó la actividad EMG, ECG, EEG empleando la diadema Emotiv Epoc + en el programa Emotiv. Se formó una base de datos de 30 videos en los cuales el ciclista ejecuta las 3 posturas en periodos de 10 segundos en tomas de 30 segundos, se analizaron los datos obtenidos entre los entre los diferentes momentos identificándose las relaciones entre la postura del ciclista y la actividad fisiológica y biomecánica.


CONCLUSIONES

En conclusión, este estudio reveló que la postura del ciclista cambia significativamente en relación con la fase de pedaleo y la velocidad. Se observó un aumento en el ritmo cardíaco y la contracción muscular a medida que el ciclista aumentaba su velocidad, lo que sugiere una mayor demanda fisiológica. Además, se encontró que los ángulos de las articulaciones siguen secuencias similares, aunque con pequeñas variaciones, lo que indica una patrón de movimiento consistente. La tendencia del ciclista a encorvarse más a medida que aumenta la velocidad sugiere una adaptación para reducir la resistencia aerodinámica. Los hallazgos en el EEG sugieren un aumento de la actividad eléctrica en los lóbulos frontal y occipital, probablemente relacionado con la función motora y la coordinación del movimiento. Estos resultados proporcionan una comprensión más profunda de las adaptaciones fisiológicas y biomecánicas que ocurren durante el ciclismo y pueden ser útiles para optimizar el rendimiento y prevenir lesiones.
Llanos Aldaco Rogelio, Instituto Tecnológico Superior de Irapuato
Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato

SISTEMA DE CONTROL ELECTRONEUMáTICO PARA ESTAMPADORA DE CUBIERTOS


SISTEMA DE CONTROL ELECTRONEUMáTICO PARA ESTAMPADORA DE CUBIERTOS

Barroso Llanos José Carlos, Instituto Tecnológico Superior de Irapuato. Llanos Aldaco Rogelio, Instituto Tecnológico Superior de Irapuato. Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Una máquina estampadora de cubiertos es un equipo utilizado para grabar o estampar diseños, logotipos, marcas u otros detalles en cubiertos y utensilios de mesa de metal. Estas máquinas pueden funcionar de manera manual, semiautomática o totalmente automática, dependiendo de las necesidades de producción y el nivel de precisión requerido. El problema que se tiene en un sistema de control neumático es que los componentes utilizados para la detección de la posición de los cilindros, son rodillos y estos están en contacto constantemente, haciendo que, con el paso del tiempo estos dispositivos presenten un desgaste, y el funcionamiento que deberían cumplir ya no lo hagan de manera correcta. Además de que, al momento de querer controlar los tiempos para la ejecución de movimientos de entrada o salida del vástago de los cilindros, no se logra realizar de manera precisa. Esto sucede porque el componente utilizado para realizar esta acción es una válvula de deceleración, la cual no tiene la capacidad de ser muy precisa, debido a que se tiene que estar regulado de forma manual y esto hace que no se tenga una buena precisión con los tiempos de su activación o desactivación, respectivamente. Esto provoca que el proceso de estampado no se haga de manera correcta y ocasiona que en el material ocurra un efecto llamado spring back, el cual hace referencia a la tendencia de un material de querer regresar a su forma original después de haber sido sometido a una fuerza con la que se planeaba dar cierta forma.



METODOLOGÍA

Debido a la problemática que se tenía, se optó por realizar una modificación del sistema de control y realizarlo de manera electroneumática, ya que este tipo de control permite tener una mayor precisión en el proceso, debido a que los componentes que se utilizan como medio de detección de movimientos del vástago del cilindro es llevado a cabo a base de sensores. La ventaja que tienen estos tipos de dispositivos es que no requieren tener contacto directo con el objeto a detectar, haciendo que su vida útil sea más larga. Y para el caso del control de los tiempos de realización de movimientos del vástago del cilindro, se cuenta con un contador que funciona a través de señales eléctricas, el cual es un dispositivo que tiene la capacidad de ser ajustado a los tiempos requeridos de forma exacta y su tiempo de respuesta es muy rápido, haciendo de este un excelente componente para cumplir con dicha función. Comparando ahora un sistema de control electroneumático con uno hidráulico, es que un sistema electroneumático es más económico en términos de componentes y mantenimiento, además de que el aire comprimido es más barato que los fluidos hidráulicos. Otra ventaja es que la presión con la que puede trabajar un sistema electroneumático puede llegar a ser la necesaria para realizar el estampado de cubiertos sin problemas, ya que el grosor de un cubierto oscila entre 1 y 2 milímetros, siendo así que un sistema hidráulico pueda estar un poco sobrado para realizar esta tarea. Por esta razón es que se propuso realizar un sistema de control electroneumático y no un sistema de control neumático o hidráulico. La primera propuesta del circuito electroneumático que se tuvo para realizar el estampado de cubiertos  estaba formado por un cilindro de simple efecto y un temporizador para controlar la salida del vástago del cilindro y así poder tener precisión en el estampado. Este funcionó de manera correcta, reteniendo el vástago del cilindro a la hora de accionarse por el tiempo requerido para realizar el estampado, pero el problema que se tenía era que cuando se retraía el vástago lo hacía de manera muy rápida, ya que el cilindro utilizado era de simple efecto y no se tenía el control de la velocidad del regreso. Esto podía llegar a afectar en la calidad del estampado. Por este motivo, se decidió colocar un cilindro de doble efecto, el cual ayudaría a tener un control en la retracción del vástago del cilindro y solucionar el problema presentado en la primera propuesta del circuito. Este circuito funcionó de manera correcta, solucionando el inconveniente que se había presentado en la primera propuesta y reteniendo de igual forma el vástago del cilindro a la hora de accionarse para realizar el estampado, pero esta vez, nos encontramos con un nuevo problema, el cual era que cuando se retraía el vástago, inmediatamente se volvía a accionar realizando de nuevo el proceso de estampado. Esto hacía que el tiempo no fuera el suficiente para la colocación de una nueva lámina. Es por esto que se decidió implementar un temporizador más para tener el control del tiempo de la salida del vástago del cilindro, y así poder solucionar este problema. Al realizar la simulación del circuito final, este mostró un funcionamiento correcto, haciendo los movimientos necesarios para realizar el proceso de estampado de manera controlada y precisa. El diseño se realizó de manera representativa, siendo así que los tiempos colocados en los temporizadores puedan ser modificados y acoplarse a las necesidades requeridas.  


CONCLUSIONES

Durante la estancia de verano se lograron reforzar y adquirir nuevos conocimientos teóricos sobre la electroneumática y ponerlos en práctica con la realización de diseños de sistemas de control para una máquina estampadora de cubiertos, apoyándonos con el software Fluidsim para la realización de simulaciones. Sin embargo, se espera mejorar aún más la eficiencia en el proceso, así como buscar implementar componentes que puedan beneficiar de mejor manera el control del estampado.
Loera Sanchez Cristian Daniel, Universidad Autónoma de Nayarit
Asesor: Dr. Ivan Salgado Transito, Centro de Investigaciones en Óptica (CONACYT)

SIMULACIóN DE TRANSFERENCIA DE CALOR Y CANTIDAD DE MOVIMIENTO EN UN SECADOR SOLAR.


SIMULACIóN DE TRANSFERENCIA DE CALOR Y CANTIDAD DE MOVIMIENTO EN UN SECADOR SOLAR.

Loera Sanchez Cristian Daniel, Universidad Autónoma de Nayarit. Asesor: Dr. Ivan Salgado Transito, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El objetivo de este proyecto es la remodelación del sistema de secado existente, cambiando la fuente de energía actual, que es la quema de gas, por un sistema basado en paneles fotovoltaicos. El nuevo sistema estará compuesto por paneles fotovoltaicos con una capacidad instalada de 10 kW. Este cambio tiene como fin mejorar la sostenibilidad, reducir costos operativos y evaluar la viabilidad técnica y económica de la solución propuesta. Descripción del Proyecto: Cambio en la Fuente de Energía: Fuente Actual: El secador utiliza gas como fuente de energía para su funcionamiento. Nueva Fuente de Energía: Se instalarán paneles fotovoltaicos con una capacidad total de 10 kW para alimentar el secador, sustituyendo la quema de gas. Evaluación de Capacidad y Rentabilidad: Simulación y Análisis: Utilizaremos ANSYS Fluent para realizar simulaciones que permitan verificar la capacidad del nuevo sistema de secado con paneles fotovoltaicos. Esto incluye el análisis de las propiedades térmicas y fluidodinámicas del secador. Evaluación Económica: Se llevará a cabo un estudio de rentabilidad que considere los costos de instalación de los paneles fotovoltaicos, el ahorro en combustible, y el retorno de la inversión (ROI). Viabilidad del Sistema: Viabilidad Técnica: Se analizará si el sistema fotovoltaico puede suministrar suficiente energía para el funcionamiento óptimo del secador. Se evaluarán los aspectos técnicos mediante simulaciones y pruebas prácticas.



METODOLOGÍA

La metodología para la evaluación del nuevo sistema de secado basado en paneles fotovoltaicos se desarrollará en varias etapas, utilizando herramientas avanzadas de simulación y análisis. A continuación se detalla el procedimiento: Recolección de Datos de Entrada: Condiciones Ambientales: Se recogerán datos sobre las temperaturas ambientales y la presión atmosférica en la ubicación del secador. Estos datos son cruciales para simular con precisión las condiciones operativas del sistema. Especificaciones Técnicas: Resistencia: Se obtendrán datos técnicos de la capacidad de generación de calor de la resistencia, basados en las fichas técnicas proporcionadas por los proveedores. Ventiladores: Se determinarán las especificaciones de los ventiladores, incluyendo la diferencia de presión que pueden generar y su capacidad de flujo de aire, también a partir de las fichas técnicas de diversos proveedores. Desarrollo de la Geometría del Sistema: Modelado en ANSYS SpaceClaim: Se creará un modelo geométrico detallado del secador en ANSYS SpaceClaim. Este modelo incluirá todos los componentes relevantes, como la resistencia y los ventiladores, con las dimensiones y posiciones exactas. Configuración y Simulación en ANSYS Fluent: Importación del Modelo: El modelo geométrico creado en SpaceClaim se importará a ANSYS Fluent para su análisis. Definición de Condiciones de Entrada: Se configurarán las condiciones de entrada en Fluent basadas en los datos recopilados: Temperatura y presión ambiental: Definición de las condiciones ambientales para el análisis. Capacidad de la resistencia: Configuración de la generación de calor de la resistencia en el modelo. Capacidad y diferencia de presión del ventilador: Ajuste de las características del ventilador, como la capacidad de flujo de aire y la diferencia de presión generada. Configuración de Parámetros de Simulación: Se establecerán los parámetros de simulación necesarios para evaluar el comportamiento del secador bajo las nuevas condiciones, incluyendo el tipo de modelo de flujo, las propiedades del aire y las condiciones de frontera.


CONCLUSIONES

Temperatura del Proceso: Resultado: La simulación muestra que la temperatura alcanzada en el proceso de secado es de aproximadamente 40°C. Evaluación: Esta temperatura se considera insuficiente para un secado eficiente, ya que puede no ser suficiente para cumplir con los requisitos del proceso, que generalmente requiere temperaturas más altas para asegurar una evaporación adecuada de la humedad. Velocidad del Flujo de Aire: Resultado: Los vectores de velocidad indican que el flujo de aire alcanza una velocidad de 3.5 m/s. Evaluación: Esta velocidad se considera óptima para el proceso de secado, ya que proporciona un buen transporte de aire, facilitando la transferencia de calor y la eliminación de humedad del material en secado. Recomendaciones para Mejorar el Sistema: Optimización del Calentamiento: Sistema de Control: Implementar sistemas de control avanzados para ajustar dinámicamente la capacidad de calentamiento en función de las necesidades del proceso de secado. Esto podría incluir controles de temperatura más precisos y ajustes automáticos basados en las condiciones operativas en tiempo real. Mejora en la Administración de la Resistencia: Revisar y ajustar la configuración de la resistencia para maximizar su eficiencia. Esto podría implicar la calibración de la resistencia para asegurar que opere en su rango óptimo o considerar la instalación de resistencias adicionales si es necesario para alcanzar las temperaturas requeridas. Evaluación y Ajustes Adicionales: Considerar la integración de soluciones adicionales, como la optimización del aislamiento del secador o el uso de sistemas de recuperación de calor, para mejorar la eficiencia general del proceso. Conclusión General: Aunque la velocidad del flujo de aire es adecuada, la temperatura alcanzada es insuficiente para cumplir con los objetivos del proceso de secado. Se recomienda abordar los problemas de calentamiento mediante la implementación de sistemas de control más sofisticados y ajustes en la administración de la resistencia. Estas mejoras pueden ayudar a alcanzar las temperaturas deseadas y asegurar un proceso de secado eficiente y efectivo
Loeza Calderón Raúl, Instituto Tecnológico de Morelia
Asesor: Mg. Cielo Ester Marriaga Gonzalez, Universidad del Sinú

ANáLISIS DE LA ADOPCIóN DE LA BLOCKCHAIN EN LABORATORIOS UNIVERSITARIOS: MEJORA DE LA CALIDAD DE AGUA Y BROMATOLOGíA EN LA CADENA DE SUMINISTRO ALIMENTARIO Y SU IMPACTO EN LOS OBJETIVOS DE DESARROLLO SOSTENIBLES


ANáLISIS DE LA ADOPCIóN DE LA BLOCKCHAIN EN LABORATORIOS UNIVERSITARIOS: MEJORA DE LA CALIDAD DE AGUA Y BROMATOLOGíA EN LA CADENA DE SUMINISTRO ALIMENTARIO Y SU IMPACTO EN LOS OBJETIVOS DE DESARROLLO SOSTENIBLES

Centeno Marin Kevin Edgar, Instituto Tecnológico Superior de Ciudad Hidalgo. Loeza Calderón Raúl, Instituto Tecnológico de Morelia. López González Arahat Missael, Instituto Tecnológico Superior de Irapuato. Morales Mendoza Alejandra Meritxell, Instituto Tecnológico Superior de Ciudad Hidalgo. Nuñez López Gerardo, Instituto Tecnológico Superior de Irapuato. Ochoa Garcia Keila Lucia, Instituto Tecnológico de Piedras Negras. Vasquez Reyes Adanary Susel, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Cielo Ester Marriaga Gonzalez, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

En un mundo cada vez más globalizado y conectado, los consumidores demandan transparencia y seguridad en los procesos relacionados con la calidad de los productos alimenticios y del agua. En este contexto, los laboratorios que realizan análisis de estas muestras juegan un papel crucial, ya que sus procesos de recepción, análisis, y generación de resultados deben garantizar precisión, eficiencia y seguridad de la información. Sin embargo, en instituciones como la Universidad del Sinú Seccional - Cartagena, los procesos no están automatizados, lo que genera complejidades y desafíos significativos. Ante estas necesidades, se propone desarrollar un Aplicativo Web que funcionará como una plataforma digital soportada en la tecnología disruptiva Blockchain, asegurando la integridad de los datos sin alteraciones no consensuadas. El proyecto busca optimizar los procesos de los laboratorios de Bromatología y Calidad de Agua de la Universidad del Sinú Seccional Cartagena mediante un aplicativo web que utilice Blockchain para asegurar la calidad y trazabilidad de la información. Esto no solo mejorará la eficiencia operativa, sino que también contribuirá a los Objetivos de Desarrollo Sostenible (ODS), los cuales son los siguientes: Objetivo 2 (Hambre Cero): Gracias a los mejores sistemas de calidad mejorados mediante el aplicativo de la tecnología Blockchain se busca combatir ante esta problemática desde su causa raíz. Objetivo 3 (Salud y Bienestar): Al brindar nuevos sistemas mediante la implementación de la tecnología Blockchain, la calidad de los productos alimenticios incrementará, disminuyendo así los problemas relacionados a la salud. Objetivo 6 (Agua Limpia y Saneamiento): Al trabajar estrechamente con el Laboratorio de Bromatología y Calidad Ambiental, es la forma en que se combatirá a los distintos aspectos de vulnerabilidad con relación al agua y el saneamiento mediante la implementación de la tecnología Blockchain. Objetivo 7 (Energía Asequible y No Contaminante): Al hacer uso de la tecnología Blockchain se precisa en mejorar el uso sostenible de la energía sin generar desperdicios o contaminantes para el medio ambiente. Objetivo 9 (Industria, Innovación e Infraestructura): La tecnología Blockchain es una tecnología emergente, que propone nuevas ideas para hacer su uso en distintos ámbitos, creando así mejoras para distintos sectores de la sociedad. Objetivo 11 (Ciudades y Comunidades Sostenibles): La implementación de la tecnología Blockchain y en conjunto con nuevas tecnologías, servirá de partida para la transformación de las Ciudades en Ciudades Sostenibles.



METODOLOGÍA

Para el proceso de elaboración de este proyecto de investigación se determinaron 4 etapas en las cuales se desarrollarán distintas actividades con el fin de cumplir los objetivos y los resultados esperados. Las etapas son las siguientes: I. Revisión documental del estado de uso de tecnologías 4.0 (BlockChain) en laboratorios a nivel global: El punto consta de las siguientes fases: Como primera fase se estableció y delimitó el objetivo propuesto; en la segunda se delimitaron las bases de filtros para la selección de la información relevante para el artículo; en la tercera fase se definieron los descriptores de búsqueda como Google Académico, Scielo, entre otros; en la cuarta fase se delimitó el uso de gestores bibliográficos como Rayyan y Mendeley; finalmente se llevó a cabo la extracción de datos de interés para la elaboración del artículo. Las conclusiones obtenidas abordan la aplicación de la tecnología en diferentes países y su impacto en la trazabilidad de la cadena de suministro. II. Diseño de base de datos de hoja de vida de equipos (aplicativo para base de datos): Para la creación de una base de datos de las hojas de vida de los equipos, es esencial iniciar con una discusión detallada donde se definirán los requisitos específicos que deben cumplirse, asegurando que todos los aspectos y necesidades del proyecto sean considerados y abordados adecuadamente. Siguiente a esto, se procederá a la elaboración del diseño del esquema de la base de datos. Finalizado el diseño, se implementará la base de datos y se realizarán pruebas exhaustivas para verificar su correcto funcionamiento, incluyendo la inserción, actualización, eliminación y recuperación de datos III. Elaboración de procedimiento de almacenamiento de reactivos de acuerdo con SGA (Sistema Globalmente Armonizado): Es necesario realizar una revisión de las normativas del SGA para identificar las pautas de clasificación, etiquetado y manejo seguro de sustancias químicas. Basado en esta revisión, se debe llevar a cabo un control de inventario que clasifique los reactivos almacenados de acuerdo con el SGA, incluyendo secciones que contengan información sobre el uso y manejo seguro de estos reactivos. IV. Diseño de procedimientos, formatos e instructivos de trabajo bajo la norma 17025: Es necesario hacer una revisión con respecto de los requisitos específicos de la norma ISO/IEC 17025, que cubre la competencia técnica, la validez de los resultados y la gestión del laboratorio. Consecuentemente se debe determinar los procesos clave en el laboratorio que deben documentarse, como la realización de pruebas, calibración, mantenimiento de equipos y gestión de calidad.


CONCLUSIONES

Durante la estancia de verano se logró implementar dos nuevas herramientas para el control de inventario y la creación y manejo de las hojas de vida de los equipos para el Laboratorio de Bromatología y Calidad Ambiental, lo cual acredita a dichos laboratorios bajo la normativa 17025, beneficiando de esta forma con una mejora en la seguridad para el manejo de los reactivos dentro del inventario, así como también un control actualizable en tiempo real de los reactivos y de los equipos de los Laboratorios. De igual forma, se logró adquirir un amplio conocimiento gracias a las ponencias y capacitaciones que se llevaron a cabo durante este periodo, con lo cual se logra identificar la importancia y los usos que se le puede dar a la tecnología Blockchain, no solamente en las cadenas de suministro alimentarias, sino que hasta en un enfoque global, como lo es en las criptomonedas.
Lomeli Felix Angel Yamil, Universidad de Guadalajara
Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara

ANáLISIS Y CARACTERIZACIóN DE PELíCULAS DE SALES DE PLATA MEDIANTE XPS


ANáLISIS Y CARACTERIZACIóN DE PELíCULAS DE SALES DE PLATA MEDIANTE XPS

Lomeli Felix Angel Yamil, Universidad de Guadalajara. Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En esta investigación, se caracterizaron diversas muestras de nitrato de plata y sulfato de plata mediante Espectroscopia de Fotoelectrones de Rayos X (XPS) para identificar las especies químicas presentes y determinar sus porcentajes de masa. Se incluyeron muestras de tres proveedores diferentes de nitrato de plata (Sigma-Aldrich, Fermant y Golden Bell) y una muestra de sulfato de plata. El objetivo fue analizar las variaciones en los espectros y la composición química, así como comprender la relación entre el estado de oxidación de la plata y la energía de enlace de sus electrones



METODOLOGÍA

Se prepararon soluciones de 20 milimoles de nitrato de plata de los proveedores Sigma-Aldrich, Fermant y Golden Bell, así como una solución de sulfato de plata. Estas soluciones se depositaron en placas de silicio mediante goteo, formando películas delgadas sobre la superficie. Las películas fueron analizadas mediante XPS para obtener los espectros de emisión de los elementos presentes en las muestras. La calibración de las energías de enlace se realizó utilizando el pico del carbono a 285 eV. Los espectros obtenidos fueron convolucionados para generar curvas de emisión gaussianas de cada elemento identificado. Se realizó un análisis cuantitativo mediante la integración de los picos correspondientes a cada especie química. Utilizando métodos numéricos y una fórmula específica, se calcularon los porcentajes de masa de cada elemento. Esto permitió determinar la proporción de Ag, Ag⁺ (presente como AgNO₃ debido a la correspondencia con nitrógeno) y Ag²⁺ en las muestras de nitrato de plata. En el caso del sulfato de plata, se observaron resultados similares.


CONCLUSIONES

Los resultados indicaron la presencia de Ag, Ag⁺ y Ag²⁺ en las muestras de nitrato de plata de Sigma-Aldrich, Fermant y Golden Bell. Se observó que al aumentar el estado de oxidación de la plata, se produce una disminución en la energía de enlace (Binding Energy, BE) de los electrones, lo que se refleja en un desplazamiento a la derecha en los espectros. Este fenómeno también fue observado en la muestra de sulfato de plata, confirmando la consistencia de los resultados para diferentes sales de plata. La descomposición de los picos de los espectros de XPS permitió confirmar que el aumento en la valencia de la plata se traduce en una disminución en la BE, debido a lo que se  supone son los cambios en el entorno químico de los átomos de plata. Los porcentajes de masa obtenidos para cada estado de oxidación de la plata proporcionaron una cercana cuantificación de las especies presentes en las muestras.
Londoño Leal Andrés Felipe, Corporación Universitaria Empresarial Alexander von Humboldt
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

APLICACIóN DE LA HERRAMIENTA VALUE STREAM MAPPING (VSM) PARA AUMENTAR LA CAPACIDAD PRODUCTIVA EN UNA EMPRESA FABRICANTE DE SNACKS DE PLáTANO


APLICACIóN DE LA HERRAMIENTA VALUE STREAM MAPPING (VSM) PARA AUMENTAR LA CAPACIDAD PRODUCTIVA EN UNA EMPRESA FABRICANTE DE SNACKS DE PLáTANO

Londoño Leal Andrés Felipe, Corporación Universitaria Empresarial Alexander von Humboldt. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

El consumo de snacks ha experimentado un crecimiento importante a nivel global, de hecho, según el portal estadístico alemán Statista, dicho consumo aumentó en más de 5,5 millones de toneladas en los últimos cuatro años (2019 - 2023), haciendo que el sector industrial dedicado a esta labor se vea ampliamente beneficiado. Así mismo, en Colombia el crecimiento de la industria se hace evidente con un consumo per cápita de alrededor de los 4 kilogramos, además, se estima que el mercado se desarrolle a una tasa de crecimiento anual compuesta de 6,6 % según el informe realizado por la empresa EMR (Expert Market Research) en el año 2024. El crecimiento del sector trae consigo el interés de nuevos clientes al mercado y con ello el aumento paulatino de la demanda de snacks en la región. El mayor reto al que se enfrentan las medianas y pequeñas empresas del sector es al de adaptarse a los nuevos requerimientos de los clientes de una manera eficiente, que permita aprovechar la capacidad operativa y los recursos al máximo y sea responsable con sus costos operativos, por lo anterior, durante el verano de investigación se estudia el estado actual del proceso más importante para una empresa de fabricación de snacks de plátano, esto en aras de identificar desperdicios e ineficiencias y proponer planes de mejora que aumenten la competitividad de la empresa. 



METODOLOGÍA

Inicialmente se desarrolló una evaluación preliminar de la empresa en la cual se identificaron aspectos importantes tales como su actividad económica, sus productos principales y las exigencias de las partes interesadas en la misma. Una vez determinado lo anterior, se utilizaron registros históricos de los últimos 6 meses para la creación de una matriz PQ/PR (Cantidad del producto / Ruta del producto) que permitiera identificar el producto de mayor impacto para la empresa, bien sea por su generación de utilidades o los procesos abarcados. Al producto identificado se le fue realizado un estudio general y un estudio de tiempos; en el estudio general se definieron aquellas variables propias de su elaboración tales como parámetros, actividades realizadas, personal empleado, recursos, movimientos, traslado de la información y puntos críticos operativos. Por otro lado, el estudio de tiempos permitió determinar los tiempos de ciclo de cada proceso involucrado en la elaboración del producto, los tiempos de almacenamiento y traslado y, finalmente, el takt time a considerar teniendo en cuenta la demanda y el tiempo disponible para realizar la operación. Con la información anterior se desarrolló el mapa de flujo de valor (VSM) actual, el cuál permitió visualizar las relaciones de los procesos y así identificar entre ellos los desperdicios generados, lo cual daría paso el establecimiento de un plan de acción de mejora. El plan propuesto fue desarrollado en torno a cada una de las operaciones necesarias para la elaboración del producto objetivo e involucró capacitaciones con el personal operativo, la ejecución de un programa de empalme y de relevos para toma de alimentos en favor de eliminar paros, uso de personal supernumerario, creación de manuales operativos y disminución de movimientos realizados. Una vez concluido el plan de mejora se desarrollará el mapa de flujo de valor de estado futuro que permita evidenciar la efectividad de las acciones realizadas y los beneficios alcanzados en la fabricación del producto.


CONCLUSIONES

Durante la estancia de verano se logró la adquisición de conocimientos para la creación, interpretación y propuesta de mejora de un VSM en el ámbito empresarial. A partir del estudio realizado se concluye que la causa principal de la baja productividad de los procesos estudiados se debe al uso ineficiente del tiempo disponible y a la falta de estandarización en los procesos relacionados con el salado y la selección del producto, por lo que se establecen procedimientos fijos que posteriormente se socializan con el personal además de programas para el uso inteligente de la mano de obra. Únicamente se espera consolidar la totalidad de los resultados para diseñar el VSM de estado futuro y evidenciar la mejora del proceso.
López Angeles Israel, Instituto Politécnico Nacional
Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara

CONTROL AUTOMáTICO DE UN SISTEMA ELECTROMECáNICO ENFOCADO EN EL DESARROLLO DE UNA APLICACIóN PARA SISTEMA OPERATIVO ANDROID


CONTROL AUTOMáTICO DE UN SISTEMA ELECTROMECáNICO ENFOCADO EN EL DESARROLLO DE UNA APLICACIóN PARA SISTEMA OPERATIVO ANDROID

López Angeles Israel, Instituto Politécnico Nacional. Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las actividades en el campo cada vez son menos, algunos agricultores deciden dejar estas tareas por los cambios que hay en el clima o incluso por lo agotador que resulta el monitoreo de los campos, además de que pocos jóvenes actualmente deciden realizar este tipo de labores. De acuerdo con los datos más recientes del Servicio de Información Agroalimentaria y Pesquera de la Secretaría de Agricultura y Desarrollo Rural entre enero y septiembre del 2023 suman un total de 502,550.14 hectáreas (ha) siniestradas en el campo mexicano. Lo anterior quiere decir que sí fueron sembradas, sin embargo, por diferentes motivos, entre ellos la sequía que afecta a casi 75% del país, no germinaron por lo que se consideraron como perdidas. Una problemática que genera este tipo de casos es la falta de monitoreo de los campos, con los constantes cambios climáticos es difícil prever el momento perfecto para sembrar, por lo que en el verano de investigación se realiza una aplicación móvil de registro y monitoreo de datos mediante sensores de temperatura, humedad, luz y de lluvia.



METODOLOGÍA

Para realizar el proyecto se tomó coma base el estudio realizado por Daffa A.M. y col. 2023 en su artículo Design of Smart Agricultural Systems Using MIT App and Firebase, con algunas modificaciones como: se añadieron sensores de lluvia y luz y se realizaron cambios en la codificación del dispositivo para los sensores propuestos, posteriormente se comenzó con el diseño de la aplicación. En el proyecto, se hizo uso de las aplicaciones App Inventor para la creación de la aplicación móvil donde se puedan monitorear los datos antes mencionados que el dispositivo pretende leer; Arduino IDE para la codificación del dispositivo donde se colocaron los sensores necesarios para la lectura de los datos y Firebase para el registro en tiempo real de los datos leídos para su envió a la aplicación móvil. Posteriormente, se usó un módulo ESP32 por su conectividad a Wifi que es de vital importancia para la recepción y envío de las lecturas a la base de datos que, a su vez, es mandada a la aplicación móvil o en su caso App Inventor. Una vez con el módulo ESP32, se procedió a la codificación del programa en el que se utilizaron los sensores: DHT22 para la lectura de dos variables temperatura y porcentaje de humedad ambiental, un módulo sensor de lluvia Yl-83 con el que se verificara la condición pluviométrica del ambiente y un módulo LDR para la lectura de la luminiscencia en el área. Con la programación realizada, se inició la creación de la base de datos en tiempo real por la aplicación Firebase para su almacenamiento y posterior envío de los datos, aquí se decidió que la lectura de los datos de temperatura y humedad sean mandados en formato decimal, mientras que los datos de pluviometría y luminiscencia sean de forma binaria, es decir que solo sea mostrada si la condición es verdadera o falsa con 1 y 0 respectivamente. Después, haciendo uso de App Inventor se realizó al diseño de la aplicación de monitoreo, donde se hace uso de los distintos elementos que proporciona el software de diseño, entre ellos los cuadros de texto, botones y una conexión directa a Firebase, la cual nos ayuda en la recepción y muestreo de las variables. Finalmente, se realizó una prueba utilizando un teléfono móvil con Android en el que se instaló la aplicación creada. En la pantalla se monitoreo la magnitud del valor de lectura del sensor DHT22 a temperatura (°C) y humedad (% HR), del módulo Yl-83 a lluvia (1 o 0) y el módulo LDR (1 o 0). Para el acceso al monitoreo es necesario la conexión Wifi.


CONCLUSIONES

Se logro realizar y recabar la información necesaria para el monitoreo de los datos por medio de una aplicación para el sistema operativo Android visualizando los datos en la pantalla del teléfono móvil, se mostró correctamente cada una de las variables censadas a través del ESP32, con el conocimiento obtenido en mi carrera pude realizar de mejor manera la programación del código en un lenguaje de programación adecuado, así como el diseño del circuito electrónico para una conexión simplificada, aunque el uso de Arduino y la creación de aplicaciones no es algo en lo que estuviera relacionado con mis conocimientos de la carrera, se hizo la documentación bibliográfica necesaria con la que se pudo realizar de manera adecuada la investigación. Aunque el proyecto efectúa de manera correcta la lectura de datos, se espera que pueda tener un registro de ubicación en tiempo real, así como un almacenamiento de datos con el registro del tiempo para una mejor eficiencia en el ámbito de la agricultura.
Lopez Arellano Karely, Universidad Tecnológica Paso del Norte
Asesor: Mtro. carlos Blancas blancas, Universidad Tecnológica Fidel Velázquez

CONFIGURACIÓN E INSTALACIÓN DE ANTENAS PUNTO A PUNTO


CONFIGURACIÓN E INSTALACIÓN DE ANTENAS PUNTO A PUNTO

Contreras Careaga Maria Fernanda, Universidad Tecnológica Paso del Norte. Lara Olvera Nayelli, Universidad Tecnológica Paso del Norte. Lopez Arellano Karely, Universidad Tecnológica Paso del Norte. Asesor: Mtro. carlos Blancas blancas, Universidad Tecnológica Fidel Velázquez



PLANTEAMIENTO DEL PROBLEMA

La creciente demanda de conectividad en áreas urbanas, rurales y remotas ha resultado en los límites de la infraestructura de red tradicional, que a menudo no cumplen con los requisitos cada vez más exigentes para el ancho de banda, la velocidad y la confiabilidad. Este desafío se amplía en escenarios en los que la geografía, la eliminación o los costos completan la implementación de soluciones convencionales como fibra de fibra o redes con cable. Además, la brecha digital permanece en muchas regiones y limita el acceso a servicios esenciales y oportunidades de desarrollo económico. Esto crea la necesidad predominante de soluciones de comunicación flexibles y eficientes que pueden adaptarse a varios entornos y superar las barreras existentes. Las antenas Point -Point -Point se presentan como una alternativa y ofrecen la posibilidad de establecer conexiones con una alta capacidad en situaciones en las que otras tecnologías fallan o se prohíben



METODOLOGÍA

La creciente demanda de conectividad en áreas urbanas, rurales y remotas ha resultado en los límites de la infraestructura de red tradicional, que a menudo no cumplen con los requisitos cada vez más exigentes para el ancho de banda, la velocidad y la confiabilidad. Este desafío se amplía en escenarios en los que la geografía, la eliminación o los costos completan la implementación de soluciones convencionales como fibra de fibra o redes con cable. Además, la brecha digital permanece en muchas regiones y limita el acceso a servicios esenciales y oportunidades de desarrollo económico. Esto crea la necesidad predominante de soluciones de comunicación flexibles y eficientes que pueden adaptarse a varios entornos y superar las barreras existentes. Las antenas Point -Point -Point se presentan como una alternativa y ofrecen la posibilidad de establecer conexiones con una alta capacidad en situaciones en las que otras tecnologías fallan o se prohíben


CONCLUSIONES

La implementación del sistema de antena punto a punto en la infraestructura de telecomunicaciones moderna se destaca por su versatilidad y eficiencia en superar las limitaciones de la infraestructura tradicional. Entre los puntos clave destacados se encuentran: Importancia estratégica: La antena punto a punto es crucial para proporcionar conexiones de alta velocidad y baja latencia, especialmente en áreas remotas. Complejidad técnica: Requiere un profundo conocimiento técnico para la selección y optimización de equipos, así como una precisa instalación y configuración. Adaptabilidad y escalabilidad: Estas antenas muestran una alta capacidad de adaptación a diversos entornos y necesidades, siendo escalables para implementaciones pequeñas o redes empresariales extensas. Desafíos sostenibles: A pesar de sus ventajas, enfrenta desafíos como la gestión de perturbaciones y la optimización del espectro, requiriendo una constante evolución. Impacto socioeconómico: Su implementación puede reducir la desigualdad digital, mejorando la conectividad en áreas remotas y teniendo un impacto profundo en el desarrollo económico, educativo y de salud. Integración con tecnologías emergentes: Su futuro está ligado a la evolución de tecnologías como el 5G, IoT y Edge, siendo crucial su integración para mantener su relevancia. Necesidades de capacitación sostenible: Se destaca la importancia de la formación continua para profesionales en este ámbito dado la complejidad y rápida evolución de la tecnología. En resumen, las antenas punto a punto son fundamentales en las telecomunicaciones del siglo XXI, y su éxito futuro dependerá de equilibrar aspectos técnicos, económicos, sociales y ambientales. Su optimización y evolución continuarán contribuyendo a un futuro digital más inclusivo y eficiente.  
López Artola Rafael Lawrence, Universidad Nacional Autónoma de Nicaragua, Managua
Asesor: Dra. Bertha Lucía Santos Hernández, Universidad Vizcaya de las Américas

SOSTENIBILIDAD EN CADENAS DE SUMINISTRO PARA LA ECONOMíA CIRCULAR


SOSTENIBILIDAD EN CADENAS DE SUMINISTRO PARA LA ECONOMíA CIRCULAR

López Artola Rafael Lawrence, Universidad Nacional Autónoma de Nicaragua, Managua. Asesor: Dra. Bertha Lucía Santos Hernández, Universidad Vizcaya de las Américas



PLANTEAMIENTO DEL PROBLEMA

I. PLANTEAMIENTO DEL PROBLEMA Las compañías en Nicaragua enfrentan desafíos importantes para mantenerse competitivas en un mercado globalizado. Para aumentar la eficiencia operativa y disminuir el impacto ambiental, es fundamental implementar prácticas innovadoras y estrategias de Cadena de Suministro Lean y Economía Circular. No obstante, falta investigación con rigor científico que aborde el problema contextualizado en economías latinoamericanas con el ordenamiento político sobre el conjunto de normas, y penúltima economía de América Latina. Por tanto; se planteó la presente investigación con el objetivo de analizar la adopción y aplicación de prácticas de Innovación, Cadena de Suministro Lean y Economía Circular en empresas pequeñas, medianas y grandes de Nicaragua. Se busca identificar las estrategias más efectivas, los desafíos enfrentados y los beneficios obtenidos, así como proponer recomendaciones para mejorar la competitividad y sostenibilidad de estas empresas. La importancia cada vez mayor de la sostenibilidad y la eficiencia operativa en el mundo empresarial actual hace que esta investigación sea relevante. Para la competitividad empresarial, la economía circular y la Cadena de Suministro Lean brindan oportunidades para disminuir los costos, aumentar la eficiencia y disminuir el impacto ambiental. Este estudio también ofrece perspectivas útiles sobre el estado actual y el potencial de estas prácticas en un contexto latinoamericano, donde la literatura Piedras Negras, Coah., Coahuila. 2 disponible es limitada, particularmente en el caso de Nicaragua. Los hallazgos de la investigación permitirán el desarrollo de políticas públicas y estrategias empresariales que fomenten la sostenibilidad y la innovación en la región.



METODOLOGÍA

II. METODOLOGÍA La metodología empleada tiene como base la investigación empírica con enfoque cuantitativo, es una investigación no experimental debido a que no se manipularon deliberadamente las variables y transversal puesto que las mediciones fueron hechas en un momento del tiempo; asimismo, se denominó correlacional causal ya que se buscó describir la relación entre innovación, gestión de la cadena de suministro Lean y prácticas de economía circular. Para establecer el tamaño de la muestra, se consideró lo señalado por Barret (2007), Hair et al. (1999) y Kline (1998) quienes señalan como apropiada la cantidad de 200 para realizar ecuaciones estructurales. El instrumento de recolección de datos se administró de manera presencial a gerentes, subgerentes generales, de producción, logística o calidad de pequeñas, medianas y grandes empresas de la industria manufacturera ubicadas en los diferentes municipios como mayor parte en los departamentos de Managua, León, Masaya, Costa sur y centro del país, a quienes se les cuestionó sobre las variables latentes señaladas (la economía circular se midió a través de prácticas definidas para dicho constructo). En cuanto a la estrategia de análisis de datos, se eligió la modelación de ecuaciones estructurales con mínimos cuadrados parciales (Partial Least Squares-Structural Equation Modeling) o PLS-SEM para analizar las relaciones entre las variables latentes con Smart PLS (Ringle et al.,2015). Esta técnica se utiliza con el fin de realizar un análisis causal predictivo cuyo procedimiento matemático y estadístico es considerado robusto, a pesar de que el modelo es flexible; de modo que no es necesario el cumplimiento de condiciones estrictas respecto a la distribución de datos ni al tamaño de la muestra. Dicha técnica implicó la realización de pruebas pertinentes tanto para el modelo estructural como para el modelo de medida (Hair et al., 2016).


CONCLUSIONES

III. CONCLUSIONES  Los resultados indican que la adopción de estas prácticas no solo contribuye a la sostenibilidad ambiental, sino que también mejora la eficiencia operativa y reduce costos. La investigación me brindó un profundo entendimiento de identificar y evaluar estrategias efectivas para la gestión de la cadena de suministro y la economía circular para ofrecer recomendaciones de mejora continua en prácticas y bien fundamentadas en entornos de medianas y pequeñas empresas.
López Casillas Jeshua Isaí, Universidad Tecnológica de Nayarit
Asesor: Esp. Juan Manuel Calvo Duque, Universidad Autónoma de Manizales

EVALUACIóN Y OPTIMIZACIóN DE UN SISTEMA AUTóNOMO DE MONITOREO DE MOVILIDAD URBANA Y RURAL MEDIANTE IOT E INTELIGENCIA ARTIFICIAL


EVALUACIóN Y OPTIMIZACIóN DE UN SISTEMA AUTóNOMO DE MONITOREO DE MOVILIDAD URBANA Y RURAL MEDIANTE IOT E INTELIGENCIA ARTIFICIAL

López Casillas Jeshua Isaí, Universidad Tecnológica de Nayarit. Asesor: Esp. Juan Manuel Calvo Duque, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Evaluar y optimizar un sistema de monitoreo de movilidad urbana y rural, incluyendo pruebas de transmisión de datos, medición de consumo energético y análisis de algoritmos de visión artificial.



METODOLOGÍA

Llevar a cabo pruebas de transmisión de datos en distintos momentos del día para evaluar la estabilidad y eficiencia del sistema. Se medirá el consumo energético de los diferentes componentes del sistema, especialmente de los algoritmos de visión artificial implementados en la Jetson Nano. Posteriormente, se realizará un análisis comparativo de varios algoritmos de visión por computador para determinar su precisión y eficiencia. Este análisis será utilizado para optimizar el sistema de monitoreo, mejorando su rendimiento y reduciendo el consumo energético al mínimo.


CONCLUSIONES

Durante la estancia de investigación, se trabajó en el desarrollo de un sistema de monitoreo de movilidad urbana y rural eficiente y optimizado, con una transmisión de datos estable y confiable. A lo largo del proyecto, se llevaron a cabo varias actividades clave que establecieron una base sólida para las siguientes etapas del desarrollo. Conexiones Seriales entre la Jetson Nano y el ESP32: Las pruebas exitosas de comunicación serial entre la Jetson Nano y el ESP32 establecieron una base sólida para la transmisión de datos en el sistema, demostrando la viabilidad y confiabilidad de esta configuración. Envío de Datos por LoRa con el ESP32 y una TTGO: La viabilidad de la transmisión de datos inalámbrica mediante LoRa fue confirmada a través de pruebas que demostraron la estabilidad y confiabilidad del enlace de comunicación en diversas condiciones, proporcionando una opción robusta para la transmisión de datos en el sistema. Conexiones Físicas: Las múltiples pruebas de conexiones físicas entre los componentes del sistema aseguraron una integración eficiente y sin fallos, permitiendo una operación continua y confiable del sistema en su conjunto. Envío de Datos con el Sensor PZEM y los Módulos LoRa: La transmisión de datos del sensor PZEM a través de los módulos LoRa fue establecida y verificada con éxito, evaluando la precisión y consistencia de los datos recibidos, lo que es crucial para la monitoreo preciso del sistema. Conectividad con Todo el Sistema Integrado: La integración y pruebas de todos los elementos del sistema utilizando diversos protocolos de comunicación aseguraron una conectividad robusta y eficiente en todas las condiciones operativas, demostrando la viabilidad del sistema propuesto. Estos avances en la comunicación y conectividad del sistema proporcionaron una base sólida para la siguiente fase del proyecto, que incluirá la medición de consumo energético y la implementación de algoritmos de visión artificial en la Jetson Nano. Los resultados de estas evaluaciones serán fundamentales para la redacción de un artículo científico, que aportará conocimiento a la comunidad académica y de desarrollo tecnológico, contribuyendo significativamente al campo de la inteligencia artificial y el Internet de las Cosas.
Lopez Castro Citlali, Instituto Tecnológico de Acapulco
Asesor: Post-doc Mauricio Becerra Fernández, Universidad del Rosario

CADENAS DE SUMINISTRO MODELADO Y SIMULACIÓN


CADENAS DE SUMINISTRO MODELADO Y SIMULACIÓN

Lopez Castro Citlali, Instituto Tecnológico de Acapulco. Marin Buenrostro Jedidian, Instituto Tecnológico de Acapulco. Asesor: Post-doc Mauricio Becerra Fernández, Universidad del Rosario



PLANTEAMIENTO DEL PROBLEMA

La empresa de serigrafía de playeras ubicada en el puerto de Acapulco, ha enfrentado varios desafíos en su cadena de suministro. Los problemas incluyen retrasos en la recepción de materias primas, inventarios ineficientes, variabilidad en la demanda y baja capacidad de producción durante picos de demanda. Estos problemas afectan la eficiencia del proceso de producción y la capacidad de satisfacer la demanda del mercado. El proyecto busca modelar la cadena de suministro actual utilizando dinámica de sistemas para identificar cuellos de botella y áreas de mejora. A través de simulaciones de diferentes escenarios, se pretende optimizar los niveles de inventario, mejorar la capacidad de respuesta durante picos de demanda y reducir costos. Los beneficios esperados incluyen una reducción de costos de almacenamiento y distribución, una mayor eficiencia en la producción y una mejor satisfacción del cliente. Esto permitirá a mejorar su competitividad y asegurar un crecimiento sostenible.



METODOLOGÍA

Estudio Teórico y Capacitación: Libro Especializado: Se utilizó un libro especializado en dinámica de sistemas para adquirir una comprensión profunda de los conceptos teóricos y metodológicos. Se resolvieron ejercicios prácticos del libro para aplicar y afianzar los conocimientos adquiridos. Capacitación en Vensim: Se llevó a cabo una capacitación en el uso del software de simulación Vensim, enfocándose en sus funcionalidades y capacidades para modelar sistemas dinámicos. Desarrollo del Modelo de Dinámica de Sistemas: Diagramas Causales y de Flujo: Se crearon diagramas causales y de flujo para mapear las interacciones entre las variables clave de la cadena de suministro, como la recepción de materias primas, producción, inventarios y distribución. Implementación en Vensim: Se utilizó Vensim para desarrollar un modelo de simulación que integra los datos recolectados y las relaciones identificadas en los diagramas. Validación del Modelo: Comparación con Datos Reales: Se validó el modelo comparando los resultados de las simulaciones con los datos reales de la empresa. Se ajustaron parámetros según fuera necesario para mejorar la precisión del modelo. Pruebas de Sensibilidad: Se realizaron pruebas de sensibilidad para evaluar cómo cambios en los parámetros clave afectaban los resultados del modelo, asegurando su robustez y confiabilidad. Simulación de Escenarios: Diseño de Escenarios: Se diseñaron y simularon diferentes escenarios para evaluar el impacto de diversas estrategias de mejora en la cadena de suministro, como ajustes en los niveles de inventario, mejoras en los tiempos de entrega de proveedores y aumento de la capacidad de producción. Análisis de Resultados: Se analizaron los resultados de las simulaciones para identificar las estrategias más efectivas en términos de eficiencia, costos y capacidad de respuesta. Implementación de Estrategias: Recomendaciones: Se elaboraron recomendaciones basadas en los resultados del análisis, proponiendo acciones concretas para optimizar la cadena de suministro. ​Esta metodología, que combina la recolección de datos, el estudio teórico, la capacitación en herramientas de simulación, y un enfoque sistemático de modelado y análisis, permitió desarrollar un modelo preciso y útil de la cadena de suministro. Las simulaciones y el análisis de escenarios ayudaron a identificar áreas clave de mejora y proponer estrategias efectivas para lograr una operación más eficiente y competitiva.


CONCLUSIONES

El proyecto de modelado y simulación de la cadena de suministro para la empresa  ha proporcionado resultados significativos que permiten mejorar la eficiencia operativa y la competitividad de la empresa. Utilizando el software de simulación Vensim y aplicando conocimientos adquiridos de un libro especializado en dinámica de sistemas, se logró desarrollar un modelo preciso que representa fielmente las interacciones y flujos dentro de la cadena de suministro. Resultados Clave: El modelo permitió identificar los principales cuellos de botella en el proceso de producción, como los retrasos en la recepción de materias primas y la variabilidad en la demanda, que impactaban negativamente la eficiencia y capacidad de respuesta de la empresa. Optimización de Inventarios: Las simulaciones ayudaron a determinar los niveles óptimos de inventario de materias primas y productos terminados, reduciendo costos de almacenamiento y minimizando el riesgo de obsolescencia sin comprometer la disponibilidad de productos. Mejora en la Capacidad de Producción: Se evaluaron diversas estrategias para aumentar la capacidad de producción durante los picos de demanda, logrando una mejor alineación entre la capacidad de producción y la demanda del mercado.
Lopez Cons Ivana, Universidad de Sonora
Asesor: Dr. Álvaro David Orjuela Cañón, Universidad del Rosario

MACHINE LEARNING TECHNIQUES FOR CLASSIFYING CARDIAC ARRHYTHMIAS


MACHINE LEARNING TECHNIQUES FOR CLASSIFYING CARDIAC ARRHYTHMIAS

Figueroa Gil Lennin Eduardo, Universidad de Sonora. Lopez Cons Ivana, Universidad de Sonora. Asesor: Dr. Álvaro David Orjuela Cañón, Universidad del Rosario



PLANTEAMIENTO DEL PROBLEMA

El objetivo del estudio es mejorar la precisión y eficiencia del diagnóstico de arritmias cardíacas mediante el uso de técnicas de Deep Learning. Dada la complejidad y la variabilidad en las señales de ECG, el análisis visual tradicional es propenso a errores humanos, lo que subraya la necesidad de métodos automatizados más precisos. Las arritmias cardíacas, que incluyen ritmos cardíacos irregulares como taquicardia y bradicardia, representan un desafío significativo para el diagnóstico debido a la gran cantidad de datos y la variabilidad biológica. El estudio propone desarrollar y evaluar modelos de Deep Learning (CNN multicapa, MobileNet y ResNet) para clasificar diferentes tipos de latidos cardíacos. Estos modelos buscan demostrar que las técnicas avanzadas de aprendizaje profundo pueden mejorar significativamente la precisión y eficiencia del diagnóstico, con el potencial de integrarse en sistemas de monitoreo en tiempo real, proporcionando diagnósticos más rápidos y confiables.  



METODOLOGÍA

Para esta investigación realizamos una comparación entre tres modelos conocidos, resaltando las principales características de cada uno. Primero, trabajamos con una red neuronal convolucional (CNN), que está compuesta por dos capas convolucionales, seguidas de capas densas, normalización por lotes, agrupamiento máximo y dropout. Para compilarlo, utilizamos el optimizador Adam y una función de pérdida de entropía cruzada categórica. Además, implementamos una estrategia de parada temprana si la pérdida de validación no mejoraba durante 15 épocas consecutivas para evitar el sobreentrenamiento. El segundo modelo fue MobileNet, compuesto por bloques convolucionales 1D para la extracción de características complejas y agrupamiento global promedio (GAP) para reducir el sobreajuste. Al igual que el modelo anterior, se optimizó con Adam y se entrenó durante 25 épocas con un tamaño de lote de 64. Por último, utilizamos ResNet con una arquitectura de 29 capas, que incluye capas convolucionales 1D, bloques residuales con normalización por lotes y activaciones ReLU. Además, implementamos conexiones de salto para preservar y combinar la información original con la procesada, utilizando también el optimizador Adam.  


CONCLUSIONES

La CNN multicapa demostró mejores resultados, con una precisión de validación final de 98.94% y una pérdida de validación final de 0.0416. Este modelo mostró una alta capacidad para reconocer todos los tipos de latidos, logrando una precisión del 100% para latidos no clasificados (UB) y del 99.64% para latidos fusionados (FB). Sin embargo, la precisión para latidos normales (NB) fue la más baja con un 96.66%. MobileNet alcanzó una precisión de validación final de 97.79% con una pérdida de 0.0649, destacando también en la clasificación de UB (99.64%) y FB (99.72%). No obstante, mostró una mayor confusión entre latidos normales y latidos ectópicos supraventriculares (SEB), con una precisión para SEB de 94.56% y un 5.08% de estos latidos clasificados erróneamente como NB. ResNet obtuvo una precisión de 98.54% y una pérdida de 0.0652. Aunque la mayoría de las predicciones fueron precisas, este modelo presentó confusión significativa en la clasificación de FB, que se confundió principalmente con NB o con latidos ventriculares prematuros (VEB). SEB también fue confundido con NB debido a la similitud en el tipo de latido. En general, a pesar de que todos los modelos mostraron un rendimiento prometedor para la detección automática de arritmias cardíacas, la CNN multicapa se destacó por su mayor precisión y menor pérdida de validación, indicando su superioridad en la clasificación de arritmias cardíacas.  
Lopez de Leon Andres Guadalupe, Universidad Autónoma de Coahuila
Asesor: Dr. Juan Rodríguez Ramírez, Instituto Politécnico Nacional

PRUEBAS EXPERIMENTALES DE SECADO POR ASPERSIóN DE PULPA DE PAPAYA (CARICA PAPAYA L.)


PRUEBAS EXPERIMENTALES DE SECADO POR ASPERSIóN DE PULPA DE PAPAYA (CARICA PAPAYA L.)

Lopez de Leon Andres Guadalupe, Universidad Autónoma de Coahuila. Asesor: Dr. Juan Rodríguez Ramírez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La papaya (Carica papaya L.) es una fruta tropical altamente apreciada por su sabor dulce, su color vibrante y su alto contenido nutricional, que incluye vitaminas, antioxidantes y enzimas digestivas. Sin embargo, debido a su alto contenido de agua y su naturaleza perecedera, la papaya presenta desafíos significativos en términos de almacenamiento, transporte y conservación. Las técnicas tradicionales de conservación, como el enfriamiento y el congelado, aunque efectivas, son costosas y requieren infraestructuras específicas, limitando su accesibilidad en ciertas regiones. El secado por aspersión (spray drying) emerge como una técnica potencialmente viable para abordar estos desafíos, ya que permite transformar la pulpa de papaya en un polvo estable y fácil de manejar, prolongando su vida útil sin la necesidad de refrigeración. No obstante, la aplicación de esta técnica en la papaya plantea varios retos técnicos y científicos. Es crucial determinar las condiciones óptimas de secado que garanticen la máxima retención de nutrientes y propiedades sensoriales, minimizando al mismo tiempo la degradación de compuestos bioactivos durante el proceso. Hasta la fecha, existen limitadas investigaciones que aborden de manera integral la aplicación del secado por aspersión a la papaya, particularmente en variedades como la Maradol. Por tanto, se hace necesario llevar a cabo estudios experimentales que evalúen los efectos de diferentes parámetros de secado sobre la calidad final del polvo de papaya. Estos estudios contribuirán no solo al desarrollo de productos de papaya en polvo de alta calidad, sino también a mejorar la eficiencia de los procesos de secado en la industria alimentaria. Este estudio tiene como objetivo aplicar el secado por aspersión a la pulpa de papaya hidrolizada enzimáticamente (Carica papaya L., variedad Maradol) y evaluar la calidad de los polvos obtenidos, considerando propiedades físicas, análisis nutricional y evaluación sensorial. La investigación se enfocará en optimizar los parámetros del proceso de secado, como temperaturas de entrada y salida, tasa de flujo de alimentación y concentración de agentes portadores.



METODOLOGÍA

Se utilizaron 14 kg de Papaya Carica L., variedad Maradol, obtenida en el Supermercado Chedraui, Santa Cruz Xoxocotlán, Oaxaca. Para después hacer una emulsión con el método Extractor-Emulsificador. Se hidrolizó enzimáticamente en un Evaporador rotatorio Heidolph con ayuda de Celluclast en polvo (1.52 g/L), y Pectinex Yieldmash Plus líquido (2.5 mL/L) todo esto con la finalidad de reducir la viscosidad y que aumente la concentración de solidos de nuestra muestra. Una vez teniendo nuestro jugo de papaya, se procede a pasarla a nuestro secador Mobile Minor Spray Dryer NIRO, en lotes de 1 litro de muestra cambiando distintos parámetros para así evaluar los diversos tratamientos, qué se tendrían con los cambios de Temperatura [150 ; 180°C], Flujo de Alimentación [2 ; 3 L/h] y Relación sólidos / maltodextrina [1:1 ; 2:1].  El secador por aspersión es una técnica de deshidratación utilizada ampliamente en la industria alimentaria, farmacéutica y química para producir polvos secos a partir de líquidos o suspensiones. Este método es especialmente valorado por su capacidad para transformar emulsiones y suspensiones en polvos secos de manera rápida y eficiente, preservando muchas de las propiedades originales del material. El rendimiento es la relación entre la masa de polvo obtenido del secado por aspersión con relación a la masa de materia anhidra que se alimenta al secador. En cada una de las pruebas, una vez obtenido el polvo, se vierte en una bolsa y se coloca en una envasadora al vacío, estas máquinas eliminar el aire de la bolsa y la sellan herméticamente, esto con el fin de prolongar la vida útil de nuestro producto final y en nuestro caso, para analizar y determinar las características de nuestro producto final.


CONCLUSIONES

Las pruebas experimentales de secado por aspersión de pulpa de papaya (Carica Papaya L.) sometidas a diferentes parámetros de temperatura, flujo de alimentación y relación de sólidos/maltodextrina han revelado conclusiones importantes sobre el rendimiento del proceso. Efecto de la Relación de Sólidos/Maltodextrina: La relación de sólidos/maltodextrina tuvo un impacto significativo en el rendimiento del secado. En general, una relación de 1:1 (igual cantidad de maltodextrina que de sólidos) produjo un mayor rendimiento en comparación con la relación de 2:1 (mitad de maltodextrina que de sólidos). Específicamente, las pruebas con una relación de 1:1 mostraron rendimiento que oscilaron entre el 81 y 85%, mientras que las pruebas de relación de 2:1 presentaron rendimientos más bajos entre el 59 y 72%. Efecto de la Temperatura: La temperatura del aire de secado también influencia los rendimientos obtenidos. Sin embargo, el efecto no fue tan pronunciado como el de la relación de sólidos/maltodextrina. A una temperatura de 150°C, el rendimiento fue ligeramente superior en comparación con 180°C, pero sólo en ciertas condiciones. Efecto del Flujo de Alimentación: El flujo de alimentación de 2 L/h generalmente resultó en un mayor rendimiento en comparación con 3 L/h. A 180°C y una relación 1:1, el rendimiento disminuyó de 84 a 81% cuando se incremento el flujo de 2 L/h a 3 L/h. Y a una relación de 2:1 y 150°C, el rendimiento también fue mayor a 2 L/h (72%) comparado con 3 L/h (59%). Finalizando se puede decir que para maximizar el rendimiento del secado por aspersión de pulpa de papaya, es recomendable utilizar una relación de sólidos/maltodextrina de 1:1, una temperatura de secado de 150°C, y un flujo de alimentación de 2 L/h. Estos parámetros ofrecen un equilibrio optimo entre eficiencia del proceso y calidad del producto final. La investigación futura podría enfocarse en ajustar estos parámetros para otros tipos de frutas o materiales, así como en explorar el impacto de otros aditivos y condiciones de secado. 
Lopez Dorame Julisa, Universidad de Sonora
Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla

DISEñO Y ANáLISIS DE UN MATERIAL AVANZADO POR IMPRESIóN 3D


DISEñO Y ANáLISIS DE UN MATERIAL AVANZADO POR IMPRESIóN 3D

García Mirón Octavio Fabián, Benemérita Universidad Autónoma de Puebla. Lopez Dorame Julisa, Universidad de Sonora. Macay Sandoval Marino Uriel, Instituto Politécnico Nacional. Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La impresión 3D ha revolucionado la fabricación de materiales avanzados, permitiendo crear estructuras complejas con precisión. Entre los desarrollos más prometedores se encuentran los smart-materials, que responden a estímulos externos, y los materiales con memoria, que pueden regresar a una forma predefinida tras deformarse. Estos materiales tienen aplicaciones innovadoras en medicina, robótica y aeroespacial. Sin embargo, integrar estas propiedades en materiales impresos en 3D enfrenta desafíos técnicos en diseño, desarrollo y análisis. El proyecto explora el diseño, desarrollo y análisis de un material con memoria, producido mediante impresión 3D en resina fotosensible. Se abordarán el diseño de la estructura del material, optimización de parámetros de impresión y técnicas de caracterización para evaluar el material. El objetivo general es demostrar cómo la impresión 3D puede crear materiales inteligentes, y en tanto a objetivos específicos es proporcionar una estructura a partir de resina fotosensible, y caracterizar el material a partir de su grafica Esfuerzo-Deformación proporcionando guías para su uso en aplicaciones industriales y tecnológicas, y estableciendo una base para futuras investigaciones.



METODOLOGÍA

Para el diseño de la estructura, se utilizaron diversos softwares para obtener una celda unitaria, a esta celda unitaria se le hizo una serie de 9 arreglos, el primero era la celda unitaria, el segundo un cubo hecho de una matriz 2x2x2 de esta misma celda, el tercero otro cubo hecho de una matriz 3x3x3 de la misma y así sucesivamente, esto lo hicimos para poder observar en que número de arreglo se observa un comportamiento interesante del material. Una vez concluido el diseño de la estructura avanzamos con la impresión 3D en resina rígida fotosensible a través de la ELEGOO Saturn 3, nuestras primeras 9 estructuras en resina rígida se imprimieron relativamente bien ya que en ciertas partes del cubo la impresión no se realizaba correctamente por lo cual decidimos ponerle unas paredes en el diseño de la estructura que sirvieran como soporte para poderse imprimir y también una forma de generar presión uniformemente cuando se fueran a caracterizar, después de hacer este pequeño ajuste nuestras piezas se imprimieron mucho mejor. Se intentó imprimir nuestras mismas piezas en resina flexible, pero debido a el tamaño tan pequeño del poro, el cubo se llenaba de resina y acababa colapsándolo, por lo que nos decidimos a solo imprimirlas en resina rígida. Al tener nuestras 9 estructuras listas, procedimos a la caracterización de estas muestras para la cual usamos una máquina de compresión en el laboratorio de geofísica del DITCo de la BUAP, esta máquina tiene un software que nos entrega datos sobre la deformación, desplazamiento, carga en kN, esfuerzo, que son muy importantes para poder analizar gráficas de nuestra estructura. Finalmente se procesan los datos, construimos gráficas esfuerzo vs deformación y analizamos estas gráficas de cada una de las estructuras.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos de diseño de materiales avanzados, así como su impresión 3D en resina fotosensible. Al caracterizar la estructura se encontró que las estructuras 7, 8 y 9 presentan una mayor zona plástica y elástica que sus anteriores estructuras, además de tardar más tiempo en llegar a su punto de compresión máximo. Todas las estructuras impresas se comportan como un Smart-material regresando a su forma original aún así después de ser comprimidas por un máximo de 5 kN.
López Eguiarte Abraham Israel, Universidad de Guadalajara
Asesor: Mg. Luis Francisco Lopez urrea, Fundación Universitaria del Área Andina

RASTROS PELIGROSOS: LOS METADATOS COMO AMENAZA SILENCIOSA.


RASTROS PELIGROSOS: LOS METADATOS COMO AMENAZA SILENCIOSA.

López Eguiarte Abraham Israel, Universidad de Guadalajara. Asesor: Mg. Luis Francisco Lopez urrea, Fundación Universitaria del Área Andina



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el desarrollo web se ha convertido en una de las principales fuentes de experiencia para estudiantes universitarios, autodidactas, y recién egresados en México. No obstante, a la par que esta área crece se destaca el poco enfoque que se le da a la ciberseguridad en el estado al ser el phishing uno de los principales métodos de ciberataque que lo afectan, lo que posiciona a México como el segundo país con mayor cantidad de ataques de este tipo. De este modo, es necesario dar un vistazo a un apartado que se utiliza cada vez con mayor frecuencia en los sitios web y esto es la carga de archivos; los datos contenidos en ellos, pueden ir desde fotografías hasta documentos que pueden ser considerados privados, a los cuales solo algunas personas deberían tener acceso. Es por esto que como desarrolladores debemos aplicar las mejores prácticas recomendadas en relación  con el uso e inclusión de metadatos en los sitios y servicios web  al tratarse de información útil para categorizar documentos. Dichos metadatos pueden ir desde el nombre del archivo hasta la posición geográfica donde fue creado, usuarios, contraseñas y demás información que, de no utilizarse de la manera correcta, puede llegar a beneficiar a un cibercriminal, pues a través de ellos puede recabar información útil para un ataque durante la fase de reconocimiento. En este caso, un inadecuado uso de los metadatos al permitir que los usuarios suban archivos a nuestros sitios web puede desencadenar desde el robo de información hasta el descubrimiento de brechas de seguridad, oportunidades que un ciberdelincuente puede aprovechar. Esto puede evitarse de manera sencilla pero también puede suponer una brecha de seguridad que afecte de forma catastrófica la infraestructura de red y los datos que se gestionan en ella. 



METODOLOGÍA

Para poder llevar a cabo la investigación acerca de los metadatos y su importancia durante el desarrollo web se llevó a cabo la revisión de artículos de investigación y periodísticos sobre los metadatos, su tratamiento y los riesgos que conllevan. Esta información permitió desarrollar una base teórica  amplia y estable para poder abordar el tema principal de la investigación. Para complementar y validar la información que se obtiene a través de la consulta en bases de datos y fuentes bibliográficas,  se realiza la configuración de un pequeño servidor de pruebas local en un sistema operativo Ubuntu, con el uso de las tecnologías Express.js como servidor virtual y Exiftool como herramienta para procesar metadatos, de manera que este servidor funcione a modo de demostración acerca de la sanitización de los metadatos, y permita evidenciar a modo de ataque en fase de reconocimiento la información que puede ser recabada durante estos procesos. Una vez realizada la demostración se procede al uso de la herramienta FOCA con el fin de llevar a cabo un análisis de vulnerabilidades asociadas a metadatos en algunos sitios web, seleccionados de forma intencional por el investigador, en atención a que a través de ellos se gestionan datos de ciudadanos del país, y desea identificar el nivel de seguridad que ofrecen estas plataformas a la información y confianza  depositada por las personas. El proceso de reconocimiento a los sitios seleccionados se desarrolla con  fecha del 05 de Junio al 13 de Julio del año 2024, esto con el fin de evidenciar casos reales en el que el uso de herramientas para la obtención de datos durante el proceso de reconocimiento de un ciberataque puede ser de vital importancia. Para complementar el desarrollo de la investigación, se llevó a cabo una encuesta a estudiantes universitarios con el fin de recabar información acerca del conocimiento general de estos alumnos acerca de los metadatos y su manejo con el propósito de dar un panorama general sobre esta área.


CONCLUSIONES

La investigación reveló que los metadatos pueden exponer información crítica, como ubicaciones geográficas y detalles técnicos de archivos, que podrían ser explotados por ciberatacantes. Los resultados mostraron que la falta de sanitización de metadatos puede comprometer la privacidad y seguridad de los datos personales y profesionales. El análisis práctico con herramientas como Exiftool y FOCA demostró que los metadatos no gestionados adecuadamente pueden proporcionar información valiosa para campañas de ingeniería social y ataques directos, revelando detalles como rutas de archivos, versiones de software, y correos electrónicos. En la encuesta realizada a estudiantes universitarios, se observó que aunque el 87.5% de los encuestados tenía conocimiento de los metadatos, solo el 14.3% lleva a cabo la sanitización de estos datos regularmente. Esta discrepancia indica una falta de integración práctica de las buenas prácticas de seguridad en el desarrollo web, subrayando la necesidad de una educación más robusta sobre la gestión y sanitización de metadatos para prevenir riesgos de seguridad en el futuro.
López Espinoza Jesús Emiliano, Instituto Tecnológico de La Piedad
Asesor: Mg. Yesenia Areniz Arévalo, Universidad Francisco de Paula Santander Seccional Ocaña

PROCESAMIENTO EN TIEMPO REAL PARA LA UNIVERSIDAD DE OCAñA CON LA HERRAMIENTA YOLO


PROCESAMIENTO EN TIEMPO REAL PARA LA UNIVERSIDAD DE OCAñA CON LA HERRAMIENTA YOLO

Herrera Aguayo Juan Manuel, Instituto Tecnológico de La Piedad. López Espinoza Jesús Emiliano, Instituto Tecnológico de La Piedad. Asesor: Mg. Yesenia Areniz Arévalo, Universidad Francisco de Paula Santander Seccional Ocaña



PLANTEAMIENTO DEL PROBLEMA

El proyecto aborda la implementacion de la herramienta YOLO para el reconocimiento facial en tiempo real de estudiantes y docentes de la Universidad Fransisco de Paula Santander Ocaña. El objetivo es evaluar la utilidad y la eficiencia de YOLO en ese contexto, dado que esta tecnologia puede mejorar procesos internos de la Universidad mediante el uso de inteligencia artificial. 



METODOLOGÍA

La investigación es de tipo descriptivo con un enfoque cuantitativo. Se realizaron revisiones documentales, se diseño un cuestionario con 15 preguntas y se definio una muestra de estudiantes y docentes de la Universidad para recolectar datos. La herramienta YOLO fue evaluada en terminos de funcionamiento, ventajas y desventajas, y se documentaron sus capacidades y limitaciones a traves de revisión de literatura y pruebas practicas.


CONCLUSIONES

YOLO resulto ser eficiente para aplicaciones en tiempo real debido a su alta velocidad y simplicidad en la implementación. Sin embargo, se identificaron limitaciones en la precisión para detectar objetos pequeños y en situaciones de superposición de objetos. A pesar de estos desafios, YOLO es una herramienta prometedora para el reconocimiento facial en entornos universitarios con la posibilidad de futuras mejoras en precisión y adaptabilidad.
López Fonseca Carlos Alberto, Instituto Tecnológico Superior de Puruándiro
Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara

SISTEMA DE MANUFACTURA DE CELDAS SOLARES MEDIANTE EL DEPóSITO SECUENCIAL DE PELíCULAS DELGADAS


SISTEMA DE MANUFACTURA DE CELDAS SOLARES MEDIANTE EL DEPóSITO SECUENCIAL DE PELíCULAS DELGADAS

Cardoso Magaña Jesús Eduardo, Instituto Tecnológico Superior de Puruándiro. Hernández Mora Juan Carlos, Benemérita Universidad Autónoma de Puebla. López Fonseca Carlos Alberto, Instituto Tecnológico Superior de Puruándiro. Torres Mendoza Annel Paola, Instituto Politécnico Nacional. Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La creciente demanda de energía en el mundo, así como la necesidad de reducir la contaminación que generan las fuentes de energía no renovables, han llevado a la búsqueda y desarrollo de nuevos métodos y tecnologías más eficientes y sostenibles. En este contexto, las celdas solares de silicio se destacan como una de las opciones más prometedoras debido a su abundancia, su potencial de conversión energética y su tiempo de vida. Sin embargo, la fabricación de estas celdas solares tradicionales presenta desafíos significativos, como el alto costo de producción y la complejidad de los procesos involucrados. El método de "Depósito por Inmersión Sucesiva de Reactantes Químicos" (SILAR, por sus siglas en inglés), se presenta como una alternativa viable para la fabricación de celdas solares. No obstante, enfrenta desafíos técnicos que limitan su aplicación a gran escala debido al control del grosor y la composición de las películas. En este contexto, la presente investigación se ha centrado en el desarrollo y optimización de un sistema de manufactura de celdas solares basado en el método SILAR.



METODOLOGÍA

Para el desarrollo de un sistema de manufactura centrado en automatizar el método SILAR, se ha considerado una metodología estructurada. El proceso comenzó con la revisión de documentación científica para identificar los avances más recientes; a continuación, se identificaron los requisitos y especificaciones para replicar el sistema SILAR en un sistema de manufactura. Con esta base, se diseñó la arquitectura de un sistema de manufactura, desarrollando prototipos de los componentes clave, como la unidad de inmersión, el control de temperatura, el de agitación magnética y el control de dos grados de libertad; uno para la selección de una solución entre 4 posibles y el otro para la inmersión del sustrato en la secuencia y tiempos necesarios. El desarrollo e integración del sistema se implementó en el software SolidWorks 2022, en el que, adicionalmente, se llevó a cabo la reconstrucción digital de un mecanismo ya existente que se pretendía usar en el sistema de manufactura; también se realizaron diseños propios de los mecanismos necesarios para cada uno de los sistemas descritos anteriormente, asegurando las tolerancias adecuadas para integración del sistema y asegurar la funcionalidad. Finalmente, se ensamblaron virtualmente y mecánicamente los componentes para verificar el ajuste y la interacción cinemática. De igual manera, se desarrolló un sistema de control para gestionar la temperatura de hasta 4 soluciones salinas. Esto con la integración de microcontroladores y sensores, además de un control PID para tener un buen control sobre este parámetro. Asimismo, se implementó un sistema agitador magnético con control de RPM para cada una de las soluciones químicas.


CONCLUSIONES

A través de la presente investigación hemos logrado ensamblar y acoplar los mecanismos de un sistema de manufactura basado en el método SILAR para la producción de celdas solares multicapas. Con esto se ofrece una solución alternativa prometedora para los desafíos actuales en la industria fotovoltaica. El logro del proyecto se ha dado integrando de manera efectiva el diseño de los mecanismos, así como de la instrumentación necesaria. Durante esta estancia de investigación, se alcanzó un avance notable en la optimización de la parte mecánica del sistema, con una integración precisa de los componentes que permitió verificar su función, así como en las funciones de control: de selección, inmersión, temperatura y agitación.
López González Arahat Missael, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Cielo Ester Marriaga Gonzalez, Universidad del Sinú

ANáLISIS DE LA ADOPCIóN DE LA BLOCKCHAIN EN LABORATORIOS UNIVERSITARIOS: MEJORA DE LA CALIDAD DE AGUA Y BROMATOLOGíA EN LA CADENA DE SUMINISTRO ALIMENTARIO Y SU IMPACTO EN LOS OBJETIVOS DE DESARROLLO SOSTENIBLES


ANáLISIS DE LA ADOPCIóN DE LA BLOCKCHAIN EN LABORATORIOS UNIVERSITARIOS: MEJORA DE LA CALIDAD DE AGUA Y BROMATOLOGíA EN LA CADENA DE SUMINISTRO ALIMENTARIO Y SU IMPACTO EN LOS OBJETIVOS DE DESARROLLO SOSTENIBLES

Centeno Marin Kevin Edgar, Instituto Tecnológico Superior de Ciudad Hidalgo. Loeza Calderón Raúl, Instituto Tecnológico de Morelia. López González Arahat Missael, Instituto Tecnológico Superior de Irapuato. Morales Mendoza Alejandra Meritxell, Instituto Tecnológico Superior de Ciudad Hidalgo. Nuñez López Gerardo, Instituto Tecnológico Superior de Irapuato. Ochoa Garcia Keila Lucia, Instituto Tecnológico de Piedras Negras. Vasquez Reyes Adanary Susel, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Cielo Ester Marriaga Gonzalez, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

En un mundo cada vez más globalizado y conectado, los consumidores demandan transparencia y seguridad en los procesos relacionados con la calidad de los productos alimenticios y del agua. En este contexto, los laboratorios que realizan análisis de estas muestras juegan un papel crucial, ya que sus procesos de recepción, análisis, y generación de resultados deben garantizar precisión, eficiencia y seguridad de la información. Sin embargo, en instituciones como la Universidad del Sinú Seccional - Cartagena, los procesos no están automatizados, lo que genera complejidades y desafíos significativos. Ante estas necesidades, se propone desarrollar un Aplicativo Web que funcionará como una plataforma digital soportada en la tecnología disruptiva Blockchain, asegurando la integridad de los datos sin alteraciones no consensuadas. El proyecto busca optimizar los procesos de los laboratorios de Bromatología y Calidad de Agua de la Universidad del Sinú Seccional Cartagena mediante un aplicativo web que utilice Blockchain para asegurar la calidad y trazabilidad de la información. Esto no solo mejorará la eficiencia operativa, sino que también contribuirá a los Objetivos de Desarrollo Sostenible (ODS), los cuales son los siguientes: Objetivo 2 (Hambre Cero): Gracias a los mejores sistemas de calidad mejorados mediante el aplicativo de la tecnología Blockchain se busca combatir ante esta problemática desde su causa raíz. Objetivo 3 (Salud y Bienestar): Al brindar nuevos sistemas mediante la implementación de la tecnología Blockchain, la calidad de los productos alimenticios incrementará, disminuyendo así los problemas relacionados a la salud. Objetivo 6 (Agua Limpia y Saneamiento): Al trabajar estrechamente con el Laboratorio de Bromatología y Calidad Ambiental, es la forma en que se combatirá a los distintos aspectos de vulnerabilidad con relación al agua y el saneamiento mediante la implementación de la tecnología Blockchain. Objetivo 7 (Energía Asequible y No Contaminante): Al hacer uso de la tecnología Blockchain se precisa en mejorar el uso sostenible de la energía sin generar desperdicios o contaminantes para el medio ambiente. Objetivo 9 (Industria, Innovación e Infraestructura): La tecnología Blockchain es una tecnología emergente, que propone nuevas ideas para hacer su uso en distintos ámbitos, creando así mejoras para distintos sectores de la sociedad. Objetivo 11 (Ciudades y Comunidades Sostenibles): La implementación de la tecnología Blockchain y en conjunto con nuevas tecnologías, servirá de partida para la transformación de las Ciudades en Ciudades Sostenibles.



METODOLOGÍA

Para el proceso de elaboración de este proyecto de investigación se determinaron 4 etapas en las cuales se desarrollarán distintas actividades con el fin de cumplir los objetivos y los resultados esperados. Las etapas son las siguientes: I. Revisión documental del estado de uso de tecnologías 4.0 (BlockChain) en laboratorios a nivel global: El punto consta de las siguientes fases: Como primera fase se estableció y delimitó el objetivo propuesto; en la segunda se delimitaron las bases de filtros para la selección de la información relevante para el artículo; en la tercera fase se definieron los descriptores de búsqueda como Google Académico, Scielo, entre otros; en la cuarta fase se delimitó el uso de gestores bibliográficos como Rayyan y Mendeley; finalmente se llevó a cabo la extracción de datos de interés para la elaboración del artículo. Las conclusiones obtenidas abordan la aplicación de la tecnología en diferentes países y su impacto en la trazabilidad de la cadena de suministro. II. Diseño de base de datos de hoja de vida de equipos (aplicativo para base de datos): Para la creación de una base de datos de las hojas de vida de los equipos, es esencial iniciar con una discusión detallada donde se definirán los requisitos específicos que deben cumplirse, asegurando que todos los aspectos y necesidades del proyecto sean considerados y abordados adecuadamente. Siguiente a esto, se procederá a la elaboración del diseño del esquema de la base de datos. Finalizado el diseño, se implementará la base de datos y se realizarán pruebas exhaustivas para verificar su correcto funcionamiento, incluyendo la inserción, actualización, eliminación y recuperación de datos III. Elaboración de procedimiento de almacenamiento de reactivos de acuerdo con SGA (Sistema Globalmente Armonizado): Es necesario realizar una revisión de las normativas del SGA para identificar las pautas de clasificación, etiquetado y manejo seguro de sustancias químicas. Basado en esta revisión, se debe llevar a cabo un control de inventario que clasifique los reactivos almacenados de acuerdo con el SGA, incluyendo secciones que contengan información sobre el uso y manejo seguro de estos reactivos. IV. Diseño de procedimientos, formatos e instructivos de trabajo bajo la norma 17025: Es necesario hacer una revisión con respecto de los requisitos específicos de la norma ISO/IEC 17025, que cubre la competencia técnica, la validez de los resultados y la gestión del laboratorio. Consecuentemente se debe determinar los procesos clave en el laboratorio que deben documentarse, como la realización de pruebas, calibración, mantenimiento de equipos y gestión de calidad.


CONCLUSIONES

Durante la estancia de verano se logró implementar dos nuevas herramientas para el control de inventario y la creación y manejo de las hojas de vida de los equipos para el Laboratorio de Bromatología y Calidad Ambiental, lo cual acredita a dichos laboratorios bajo la normativa 17025, beneficiando de esta forma con una mejora en la seguridad para el manejo de los reactivos dentro del inventario, así como también un control actualizable en tiempo real de los reactivos y de los equipos de los Laboratorios. De igual forma, se logró adquirir un amplio conocimiento gracias a las ponencias y capacitaciones que se llevaron a cabo durante este periodo, con lo cual se logra identificar la importancia y los usos que se le puede dar a la tecnología Blockchain, no solamente en las cadenas de suministro alimentarias, sino que hasta en un enfoque global, como lo es en las criptomonedas.
López González Javier Paulino, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Hernando Garzón Saenz, Fundación Universitaria Tecnológico Comfenalco

ANáLISIS COMPARATIVO DE LA GESTIóN DE OPERACIONES EN SISTEMAS DE SERVUCCIóN: CASO DE ESTUDIO EMPRESAS DE SERVICIOS LOGíSTICOS EN GUANAJUATO (MéXICO) Y CARTAGENA DE INDIAS (COLOMBIA)


ANáLISIS COMPARATIVO DE LA GESTIóN DE OPERACIONES EN SISTEMAS DE SERVUCCIóN: CASO DE ESTUDIO EMPRESAS DE SERVICIOS LOGíSTICOS EN GUANAJUATO (MéXICO) Y CARTAGENA DE INDIAS (COLOMBIA)

López González Javier Paulino, Instituto Tecnológico Superior de Irapuato. Asesor: Mg. Hernando Garzón Saenz, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

La gestión de operaciones en empresas de servicios logísticos enfrenta desafíos significativos en términos de eficiencia, calidad y adaptabilidad. En particular, las diferencias en infraestructura, adopción de tecnología y capacitación del personal entre diferentes regiones pueden impactar significativamente en la calidad del servicio y la satisfacción del cliente. Este estudio se propone analizar comparativamente la gestión de operaciones en sistemas de servucción en empresas logísticas de Guanajuato, México, y Cartagena de Indias, Colombia, con el objetivo de identificar mejores prácticas y áreas de mejora.



METODOLOGÍA

El estudio utiliza un enfoque cualitativo y cuantitativo para evaluar la gestión de operaciones en las dos regiones. Se recopilaron datos a través de fuentes secundarias disponibles en línea, como artículos académicos, informes de la industria y publicaciones gubernamentales. Se emplearon herramientas de Lean Services, Six Sigma y la Teoría de Restricciones (TOC) para evaluar la eficiencia, calidad y adaptabilidad de los procesos logísticos. Comparativa entre Guanajuato y Cartagena en el Contexto de la Servucción Infraestructura Guanajuato, México: La infraestructura logística está bien desarrollada, con una red de carreteras y centros logísticos que facilitan las operaciones, permitiendo alta eficiencia y tiempos de entrega rápidos. Cartagena de Indias, Colombia: La infraestructura en desarrollo presenta desafíos que afectan la eficiencia logística. Aunque hay inversiones para mejorar la infraestructura, persisten problemas de conectividad y capacidad logística. Adopción de Tecnología Guanajuato, México: Amplia adopción de tecnologías avanzadas, como sistemas de gestión de almacenes (WMS) y seguimiento en tiempo real, lo que optimiza procesos y mejora la calidad del servicio. Cartagena de Indias, Colombia: La adopción tecnológica está en aumento, pero aún no alcanza los niveles de Guanajuato, enfrentando retos de integración y capacitación tecnológica. Capacitación del Personal Guanajuato, México: Fuerte enfoque en la formación continua y especializada del personal logístico, contribuyendo a una operación eficiente y alta satisfacción del cliente. Cartagena de Indias, Colombia: Necesidad de programas de capacitación más robustos para mejorar las habilidades del personal y la eficiencia operativa, aunque hay esfuerzos para mejorar la formación. Estrategias de Servucción Guanajuato, México: Estrategias centradas en la eficiencia operativa y satisfacción del cliente, utilizando técnicas como la gestión de la calidad total (TQM) y la mejora continua. Cartagena de Indias, Colombia: Estrategias orientadas hacia la flexibilidad y adaptabilidad para hacer frente a las condiciones cambiantes del mercado y limitaciones infraestructurales. Desafíos Guanajuato, México: Competencia intensa y necesidad constante de innovación para mantenerse competitivos, con presión del mercado para mejorar continuamente. Cartagena de Indias, Colombia: Principales desafíos incluyen la mejora de la infraestructura y la capacitación del personal para mejorar la eficiencia operativa y la competitividad, lidiando con problemas estructurales y de formación.


CONCLUSIONES

Hasta la fecha, se ha observado que las empresas de servicios logísticos en Guanajuato tienen una infraestructura más desarrollada y una mayor adopción de tecnologías avanzadas en comparación con Cartagena. Sin embargo, las empresas en Cartagena muestran una mayor flexibilidad y capacidad de adaptación a las condiciones locales. Se espera que los resultados finales del estudio proporcionen recomendaciones específicas para mejorar la gestión de operaciones en ambas regiones, potenciando la eficiencia y la calidad del servicio.
López Guevara Yahir, Universidad Veracruzana
Asesor: Mg. Diego Andrés Aguirre Cardona, Universidad Católica de Oriente

EJERCICIO DE ANáLISIS DE CICLO DE VIDA DEL TRATAMIENTO DE LA FRACCIóN ORGáNICA DE LOS RESIDUOS SóLIDOS GENERADOS EN UNA INSTITUCIóN SUPERIOR COLOMBIANA


EJERCICIO DE ANáLISIS DE CICLO DE VIDA DEL TRATAMIENTO DE LA FRACCIóN ORGáNICA DE LOS RESIDUOS SóLIDOS GENERADOS EN UNA INSTITUCIóN SUPERIOR COLOMBIANA

López Guevara Yahir, Universidad Veracruzana. Asesor: Mg. Diego Andrés Aguirre Cardona, Universidad Católica de Oriente



PLANTEAMIENTO DEL PROBLEMA

La generación de residuos sólidos urbanos (en adelante, RSU), regularmente gestionados por autoridades municipales o semejantes, es uno de los grandes problemas que enfrentan los sistemas lineales de producción y consumo. Tradicionalmente, los materiales que han llegado al fin de la vida útil son dispuestos en la naturaleza o en entornos controlados (rellenos sanitarios), produciendo graves impactos ambientales, sociales y económicos (Ulloa-Murillo, 2022). De acuerdo con la Organización de las Naciones Unidas (ONU), en América Latina y el Caribe se producen diariamente al menos 541000 toneladas de RSU (con tendencia al alza), 90% de los cuales no son aprovechados. Del total generado, el 50% se consideran residuos de origen orgánico promotores de la emisión de gases de efecto invernadero (CO2, CH4, N2O) y lixiviados, cuestión que evidencia la importancia del establecimiento de recolección diferenciada y de su aprovechamiento a través de técnicas de recuperación de la energía o nutrientes (Savino et al., 2018). La percepción de los residuos ha evolucionado en América Latina y otras regiones en vías de desarrollo. Materiales que antes se consideraban como pasivos ambientales ahora son apreciados como recursos que pueden entrar a otros sistemas productivos, incluyendo la fracción orgánica de los RSU (Hettiarachchi, et al., 2018). En ese sentido, algunas de las principales alternativas para la valorización de la fracción orgánica de los RSU incluyen procesos de compostaje, lombricompostaje, digestión anaerobia, co-digestión en digestores de aguas residuales, fermentación, incineración y otros sistemas del tipo waste-to-energy; destacando la primera alternativa como el método más común e investigado (Ulloa-Murillo, 2022). Según datos de la Corporación Autónoma Regional de las Cuencas de los Ríos Negro y Nare CORNARE (CORNARE), que funge como una autoridad ambiental de nivel regional en Rionegro y otros 25 municipios del departamento de Antioquia, Colombia; en el territorio bajo su jurisdicción se han generado iniciativas para el aprovechamiento de la fracción orgánica de los residuos sólidos urbanos mediante procesos de compostaje para la producción de abonos orgánicos. Rionegro, pese a ser el municipio más poblado de la jurisdicción con más de 95000 habitantes, se encuentra rezagado dentro del tema en comparación con sus homólogos (Hoyos et al., 2023); por ejemplo, 25 municipios de la jurisdicción cuentan con rutas selectivas de recolección de residuos para la separación de la fracción orgánica, todos excepto Rionegro, cuya capacidad instalada para el tratamiento de orgánicos es insuficiente (Hoyos et al., 2023; CORNARE 2023), y conlleva a la deposición de la mayor parte de los materiales biodegradables en el relleno sanitario La Pradera (CORNARE, 2018). En reacción a la problemática vigente en el municipio de Rionegro, una institución de nivel superior impulsó un programa de gestión de la fracción orgánica de los residuos institucionales, procedente de las cocinas y sitios de recolección dentro de las instalaciones. Es así que surge el interés por realizar una comparación cuantitativa de los impactos ambientales potenciales que contemplan dos escenarios: 1) el tratamiento de los residuos biodegradables a través de compostaje on-site, y 2) la disposición de los residuos biodegradables en un relleno sanitario; a través del análisis de ciclo de vida.



METODOLOGÍA

Se realizó un ejercicio de análisis de ciclo de vida empleando datos primarios, bases de datos de acceso libre y estimaciones procedentes de la literatura. Se emplearon las bases metodológicas del análisis de ciclo de vida, de acuerdo con lo establecido por el estándar internacional ISO:14040; y se aplicaron diferentes herramientas de software a lo largo del proceso, que consistió en: Definición de los objetivos y del alcance Recolección de datos primarios y recopilación de datos secundarios Análisis estadístico y balance de materia Aplicación de software libre de análisis de ciclo de vida para la elaboración de flujos, procesos, sistemas de producto, inventarios y la determinación del impacto ambiental potencial Interpretación de los resultados


CONCLUSIONES

Se obtendrán las determinaciones de impacto que permitan una comparativa de las alternativas (compostaje o disposición) con respecto a los equivalentes potenciales en las diferentes categorías de la metodología CML Baseline, particularmente en cuestiones de cambio climático (dióxido de carbono equivalente).
López Gutiérrez Valeria, Instituto Tecnológico de Nuevo Laredo
Asesor: Dr. Elias Alberto Bedoya Marrugo, Fundación Universitaria Tecnológico Comfenalco

ACCIDENTE POR RIESGO BIOLóGICO EN OPERARIOS DE SERVICIOS DE SALUD EN UN PRESTADOR SANITARIO


ACCIDENTE POR RIESGO BIOLóGICO EN OPERARIOS DE SERVICIOS DE SALUD EN UN PRESTADOR SANITARIO

López Gutiérrez Valeria, Instituto Tecnológico de Nuevo Laredo. Asesor: Dr. Elias Alberto Bedoya Marrugo, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

El trabajo es un ejercicio profesional en el que un individuo se encarga de realizar actividades a cambio de una remuneración económica; este tipo de tareas conllevar un esfuerzo físico y mental que, con el paso del tiempo puede convertirse en un riesgo dependiendo del área en la que se desempeñe; uno de estos riegos es el desgaste físico y psíquico, causado por una elevada cantidad de estrés y carga de trabajo; por otro lado, los trabajadores se pueden encontrar en una situación delicada al trabajar expuestos a diferentes agentes tóxicos, estos pueden repercutir de manera critica en la salud del trabajador ya sea en corto, mediano o largo tiempo; para cualquiera de estas solo existen dos maneras de mitigarlas: previniendo o curarlo, en el cual, el primero se basa en seguir un protocolo de seguridad en el que se busca tener el menor daño posible; en cambio, la curación es básicamente el enfrentar el problema una vez que ya está presente en la persona, es una técnica a largo plazo y donde solo se puede implementar si ya se tiene alguna dolencia; es por esto que actualmente se plantean normas de seguridad para el cuidado de cada uno de los trabajadores (Diaz, M. 2023). Se le conoce como un riesgo laboral a cualquier reporte lesión que sufra una persona durante su jornada laboral en la cual se vea dañada su salud física, social o mental (Blanco, L. 2019). Un agente biológico puede entrar al organismo por 4 distintos medios, aun así, cualquiera de estos puede causas un daño en la salud. La vía respiratoria se considera cuando se inhala algún aerosol, gas o polvo que estuviera contaminado; la penetración por la vía cutánea se relaciona a los agentes que son adquiridos por medio de la piel, ya sea absorbida o por medio de una herida (superficial o grave); en la vía digestiva el microorganismo entra por medio de la boca y pasa por todo el sistema que lo compone; por último, la vía conjuntiva está en alerta ante la posibilidad de una salpicadura hacia la mucosa ocular, siendo esta una vía muy indefensa, pues no tiene alguna capa que pueda cubrirla (Carrión et al, 2020). Los objetos punzocortantes (cuchillas, agujas, restos de ampolletas, pipetas) han sido las causantes de alrededor de 3 millones de accidentes solo en 2019 (OMS, 2020). Estos ponen en peligro la integridad del personal de salud, pues es considerado un riesgo biológico; este es el contacto con la sangre o fluidos corporales que pueden llegar a infectar causando enfermedades graves (Hernández et al. 2020). Las enfermedades infecciosas han sido causantes de altas tasas de mortalidad, teniendo como primer ejemplo el conocido virus SARS-CoV-2, quien fue el causante de una pandemia mundial que trajo consigo, en los primeros 2 años un total de 14,9 millones defunciones en personas contagiadas (Hernández, H. 2024). Otro acontecimiento que impactó en el mundo fue el brote de Ébola en España, en 2014. Este escenario fue considerado como una de las grandes crisis sanitarias en este siglo (Catalán et al, 2020). El área de la salud se encuentra en constante exposición a los riegos biológicos, pues son susceptibles a algún accidente o herida. Uno de los principales accidentes que se pueden llegar a presentar son los pinchazos, causado por jeringas, catéteres y agujas (Hernández et al. 2023).



METODOLOGÍA

El prestador sanitario otorgó acceso a la base de datos en la cual se presentaron los accidentes por riesgo biológicos (corte, pinchazo o salpicadura) ocurridos en el año 2023, conformado por un total de 214 trabajadores, en esta se pueden observar datos como edad, cargo que ejercen, el tipo de accidente que tuvieron, incapacidad y el resultado final de la prueba Elisa, en la que se confirma o descarta la infección VIH. Se llevó a cabo un análisis estadístico descriptivo e inferencial para buscar la relación entre las variables, este trabajo tuvo un enfoque cuantitativo y con diseño no experimental, es decir, no se manipuló a la población para buscar alguna diferencia en las variables. Se realizó con un corte transversal ya que se trabajó con la información proporcionada por el prestador sanitario en un momento único. Todo esto por medio de softwares estadísticos como Jamovi y Statgraphic se pudieron analizar cada una de las variables y se determinaron las que tenían una mayor relación entre sí. Se presentaron tablas de correlación y porcentajes en el que se pueden observar el numero de accidentes presentados y el cargo del trabajador. Una vez obtenidos los análisis necesarios se pueden plasmar medidas de seguridad capaces de minimizar los accidentes en el área laboral y otorgar una mayor salud a los trabajadores.


CONCLUSIONES

Este proyecto consta de 2 objetivos específicos a trabajar, en el cual el primero trata de analizar los eventos generados por riesgos biológicos y la frecuencia con la que ocurren. Se llevó a cabo un análisis para observar si existía una relación entre el tipo de accidente laboral por riesgo biológico con el puesto que desempeñan para determinar la frecuencia en la que ocurren gracias al número de accidentes registrados en un año, además de poder observar si son los auxiliares o los enfermeros quienes están más expuestos es estos. Se llegó a la conclusión de que el riesgo que más predomina en el prestador sanitario que analizamos es el accidente con objetos punzocortantes (corte y pinchazo), siendo los enfermeros el personal más afectado y teniendo una tendencia con mayor índice en mujeres. Además, se analizaron y plasmaron distintas medidas de prevención que pueden llegar a ser óptimas para los trabajadores en caso de cumplir con todas ellas; si bien no se pueden evitar estos riesgos, se puede tener un plan de seguridad para aminorar los casos de accidentes.
Lopez Herrera Efren, Instituto Tecnológico de Tepic
Asesor: Dra. Milen Balbis Morejon, Universidad de la Costa

RESEARCH TRENDS IN THE EVALUATION OF ENERGY EFFICIENCY AND THERMAL COMFORT IN BUILDINGS: A BIBLIOMETRIC ANALYSIS


RESEARCH TRENDS IN THE EVALUATION OF ENERGY EFFICIENCY AND THERMAL COMFORT IN BUILDINGS: A BIBLIOMETRIC ANALYSIS

Lopez Herrera Efren, Instituto Tecnológico de Tepic. López Murillo Katia Guadalupe, Universidad de Guadalajara. Asesor: Dra. Milen Balbis Morejon, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

A bibliometric analysis of the Evaluation of Energy Efficiency and Thermal Comfort in Buildings (EEETCB) content from a total of 231 research publications was conducted between 2004 and 2024, the papers being detailed in Scopus database. VosViewer was used as data processing tool to process the information. The parameters analyzed in the analysis were: type of document; the language of publication; volume and characteristics of publication output; publication by journals; performance of countries and research institutions; research trends and visibility[KLM1] . The study showed that Thermal Comfort, Energy Saving, Energy Efficiency were the keywords most commonly used in documents, while words like HVAC, Indoor Air Quality, Energy consumption and conservation are strongly interconnected, emphasizing their relevance in the field. The analysis found that EEETCB studies have tented to be growing and recognized journals in the fields of energy, construction, and environment have produced numerous publications on the subject. The research revealed that the institution that laid the foundations of the field is located in Hong Kong, however, China is currently positioned as the leader in the field, with a contribution of 71, 30.7% of the total number of publications. It is followed by the United States with 29, 15.2%; Italy 16, 6.9%; India 16, 6.9% and Spain 15, 6.5%, which shows that Asia and Europe are the regions that contribute the most to the field.



METODOLOGÍA

Data was analyzed between 2004 to 2024, including one article from 1998, it was extracted from the Scopus database using the following search equation: (thermal comfort AND energy saving AND energy efficiency AND (HVAC OR air conditioning OR air-conditioned OR conditioned air) AND building). The data exported from Scopus was processed using VosViewer, a tool designed to create and explore maps based on network data, primarily for the analysis of academic records. This software explores co-authorship, co-occurrence, citation, bibliographic coupling, and co-citation links in one of three possible representations: network visualization, overlay, or density visualization [21]. The analysis and classification of the results were manually elaborated and processed in Microsoft Excel 2016. As previously mentioned, the contributions in the field of EEETCB are diverse, making it essential to analyze their behavior and identify trends through bibliometrics. Bibliometric analysis is a method for examining large datasets [22], providing quantitative and objective information on results, publications, trends, and visibility [23]. This methodology has gained popularity in research, particularly in applied science [24]. The parameters studied included: document type; publications per year; publication language; countries and research institutions with the most contributions; publications by journals; research trends and visibility.


CONCLUSIONES

The bibliometric analysis conducted has provided an overview of global trends in the Evaluation of Energy Efficiency and Thermal Comfort in Buildings research. It can be concluded that research in this field has been steadily increasing and is likely to continue to grow, driven by ongoing technological advances and the development of alternative technologies that emerge in response to the need for energy efficient solutions. This growth is reflected in the rising number of publications, authors, and references over recent years. Review articles have played a key role in summarizing and shaping the field, reflecting its importance in the academic community. They have served as a foundation for developing new technologies focused on thermal comfort and energy efficiency in buildings. Current trends suggest that the study of Predictive Control Modeling as a strategy for energy efficiency and the Predicted Mean Vote index as a method of assessing thermal comfort will be critical pieces in the evolution of the field. While Hong Kong was a significant contributor in the early years, its impact and influence has been diminishing, with China and the United Stated emerging as key players. China, in particular, has become a central hub for research, leading in both citations and publications. This shift highlights a realignment in global research dynamics. Finally, English as the predominant language in publications underlines its role as the main language for international collaboration. The worldwide distribution of EEETCB research demonstrates global engagement in the field, with notable contributions in regions such as Asia and Europe.
Lopez Jimenez Luis Manuel, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Alejandro Diaz Sanchez, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

SIMULACIóN Y CONSTRUCCIóN DE UN CIRCUITO EMULADOR DE UN MEMRISTOR


SIMULACIóN Y CONSTRUCCIóN DE UN CIRCUITO EMULADOR DE UN MEMRISTOR

Lima Villegas Alfonso Naimad, Instituto Tecnológico de Puebla. Lopez Jimenez Luis Manuel, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Alejandro Diaz Sanchez, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El memristor es un dispositivo descubierto hace 50 años que pronostica un desarrollo enorme dentro del campo de la electrónica [1], desde hace mucho tiempo, la teoría de circuitos ha girado en torno al estudio de tres elementos básicos (2) (resistencia, capacitor e Inductor), sin embargo, en el año 1971 el ingeniero eléctrico Leon Chua publicó un artículo científico en la IEEE titulado "The Missing Circuit Element" [2,3], en el cual desarrolla las ecuaciones que sugieren la existencia de un cuarto elemento pasivo que conforma a los circuitos eléctricos. El Memristor, es un dispositivo calificado como el cuarto componente fundamental de la electrónica En este trabajo se presenta un circuito que busca simular mediante componentes comerciales el comportamiento de un memristor. El circuito utiliza amplificadores operacionales, resistencias, capacitores y multiplicadores para que, al pasar corriente por medio de este, nos muestre un comportamiento similar al que se esperaría de un memristor



METODOLOGÍA

Se diseño y simulo un circuito emulador de un memristor por medio del programa TopSPICE, en el cual se utilizaron los amplificadores operacionales LF356, LF411 y TL081, debido a que eran los modelos disponibles a la hora de diseñar el circuito, resistencias de diversos valores y multiplicadores AD633 para emular el comportamiento de un memristor. Al observar el comportamiento del circuito en el simulador, hicimos uso de una protoboard para armar el emulador físicamente, por lo que haciendo uso de las piezas electrónicas necesarias se realizó dicho circuito, se siguió el diseño hecho en la simulación, alimentado los amplificadores y multiplicadores con un voltaje de +- 12V


CONCLUSIONES

Los resultados experimentales demuestran que el circuito presentado muestra un comportamiento memristivo esperado, tanto en la simulación como en un estado de construcción física, sin embargo, muestran ligeras diferencias en su comportamiento en ambos casos, teniendo un rango de funcionamiento mayor en al circuito físico
Lopez Leyva Arbin Jose, Instituto Tecnológico Superior de Los Ríos
Asesor: Mg. Daniel José González Tristancho, Escuela Colombiana de Ingeniería Julio Garavito

DISEñO DE UN PROTOTIPO DE SEGUIMIENTO DE DOS EJES PARA OPTIMIZAR LA PRODUCCIóN DE ENERGíA EN UN SISTEMA SOLAR FOTOVOLTAICO


DISEñO DE UN PROTOTIPO DE SEGUIMIENTO DE DOS EJES PARA OPTIMIZAR LA PRODUCCIóN DE ENERGíA EN UN SISTEMA SOLAR FOTOVOLTAICO

Lopez Leyva Arbin Jose, Instituto Tecnológico Superior de Los Ríos. Que Rivera Erik Said, Instituto Tecnológico Superior de Los Ríos. Asesor: Mg. Daniel José González Tristancho, Escuela Colombiana de Ingeniería Julio Garavito



PLANTEAMIENTO DEL PROBLEMA

Las energías convencionales son más confiables y son una tecnología madura que controla la generación de energía, aunque produzcan mucho C02 dañino para el planeta en algunos casos según la matriz energética de cada país. Por otro lado las energías limpias como la solar tienen poca confiabilidad ya que la producción de energía procedente de un panel está ligada a las horas que esté en presencia del sol y la inclinación en la que llegan los rayos solares, por esto se busca ampliar la producción de energía durante el día para lograr que la tecnología fotoeléctrica sea más viable y eficiente.Bogotá posee un clima caracterizado por una alta frecuencia de nubosidad y lluvias. Los sistemas de un solo eje no pueden adaptarse tan eficientemente a las variaciones en la intensidad y la dirección de la luz solar causadas por las nubes.( Laso, E., Fernández, E., & Martín, G. (2017). Diseño y evaluación de un seguidor solar de dos ejes para un sistema fotovoltaico. Avances en Energías Renovables y Medio Ambiente).  



METODOLOGÍA

1 revisar las características técnicas del sistema solar fotovoltaico a utilizar con el fin de adaptarle un sistema de seguimiento de dos ejes:Se revisaron las características del panel solar para poder seguir con el prototipo funcional, también se realizó sus mediciones físicas, por otra parte se verificaron  las especificaciones de los servomotores los cuales fueron seleccionados el (MG5010,TD-8120MG), porque cumplen con la fuerza necesaria para el movimiento del panel y su estructura, la siguiente especificación fue un motorreductor de 12V, de 10 A, de tal manera que se fueran útil para el prototipo funcional, de igual manera las características de los Arduino (Uno), es por ello que las fotorresistencias se le hicieron pruebas de revisar sus características. 2 Diseñar el prototipo preliminar de la estructura para el sistema de seguimiento de dos ejes del panel: Se realiza de manera preliminar el prototipo del sistema solar de seguimiento de dos ejes del panel en el software SolidWorks, tomando en cada una de ella las especificaciones obtenidas del panel solar como los demás elementos a utilizar ya mencionados, de igual forma se realizaron en 3D, 2D, para poder realizar los planos adecuados y empezar a realizarlo de manera física. 3 Diseñar el prototipo preliminar de la estructura que emulara el movimiento del sol: Se realiza el prototipo de la estructura que emula el movimiento del sol en el Software SolidWorks, tomando en cuenta las especificaciones y características establecidas en el diseño, de manera que se establecieron medidas para poder realizar el diseño y de esta manera que cumpliera con lo establecido. 4 implementar el prototipo preliminar de la estructura del sistema de seguimiento de dos ejes para el panel y la estructura que emulara el movimiento del sol: Se realizaron y analizaron cada una de las medidas necesarias para poder realizar la fabricación de las piezas que se utilizaron en de manera concreta y siguiendo cada una de las especificaciones, de manera que se realizan las piezas, después de todo se revisa cada una de las piezas diseñadas para poder seguir con el prototipo y ensamblar cada una de ellas. 5 evaluar el sistema de seguimiento de dos ejes para diferentes condiciones del movimiento del sol con el fin de optimizar la producción de energía: Se realizo el monitoreo y análisis  de la producción de energía de un sistema sin el  seguimiento, por lo que se reviso tablas de resultados anteriores y resultados actuales y se realizo comparaciones con la producción de energía de un sistema con el seguimiento de un eje y también la producción de energía de un sistema con el seguimiento de dos ejes, es por ello que se verifica bien la producción de estos tres diferentes sistemas, con lo que se utiliza sistemas adecuados para poder analizar cada uno de ellos y por la zona geográfica que este se presenta en cada una de las partes, por tal manera que se analizó que el sistema de seguimiento de dos ejes es el mayor aprovechamiento en la energía y se observo que se tiene que mantener en diferentes ángulos mediante pasa los meses o se dividan las estaciones del año. 6 Comparar la producción energética del prototipo de seguimiento de dos ejes mediante un modelado en PVSOL: Se definió el prototipo de sistema de seguimiento solar de dos ejes, incluyendo sus especificaciones técnicas y diseño estructural. Este sistema permite que los paneles solares se orienten tanto en el eje horizontal como en el vertical para maximizar la captación de luz solar a lo largo del día y el año, se obtuvieron datos meteorológicos precisos del sitio donde se instalaría el prototipo. Estos datos incluyen irradiación solar, temperatura, velocidad del viento y otros factores ambientales que afectan la producción de energía solar. Utilizando el software PVSOL, se creó un modelo digital del prototipo. PVSOL es un programa especializado en la simulación y análisis de sistemas fotovoltaicos.


CONCLUSIONES

Durante la estancia de verano se logro adquirir conocimientos enriquecedores lo cual en la parte práctica y teórica.  A partir de las características de cada uno de los componentes analizados: panel solar, servomotores, fotorresistencias, Arduino, motorreductores, y el uso de herramientas de cómputo como SolidWorks, se logró diseñar un prototipo de seguimiento de dos ejes para un sistema solar fotovoltaico, donde se logra optimizar la producción de energía.A través de la caracterización de los componentes se establecieron las medidas necesarias para ensamblar las piezas y que el prototipo fuera funcional, se creó una estructura para un panel solar fotovoltaico que permite un movimiento azimutal y de rotación, donde a partir de las pruebas, se determinó que permite un seguimiento correcto del sol. Como complemento al sistema de seguimiento, se diseñó una estructura que emula el movimiento del sol a lo largo del día, que permite también un ajuste del comportamiento a lo largo del año, para una emulación más completa permitiendo el análisis en los dos semestres importantes para países que no superen los 40 grados con respecto a la línea del ecuador.
López Martínez María de Jesús, Universidad Tecnológica de Tecamachalco
Asesor: Dr. Luis Román Dzib Pérez, Universidad Autónoma de Campeche

EVALUACIÓN ELECTROQUÍMICA DE PELÍCULAS SEMICONDUCTORAS DE OXIDO DE ZINC MEDIANTE SCANNING ELECTROCHEMCIAL MICROSCOPY.


EVALUACIÓN ELECTROQUÍMICA DE PELÍCULAS SEMICONDUCTORAS DE OXIDO DE ZINC MEDIANTE SCANNING ELECTROCHEMCIAL MICROSCOPY.

López Martínez María de Jesús, Universidad Tecnológica de Tecamachalco. Asesor: Dr. Luis Román Dzib Pérez, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

El aumento de la constante demanda de energía eléctrica nos lleva a buscar nuevas tecnologías para su producción. Una de estas de fuentes renovables, es la producción de hidrógeno, es la cual es un combustible amigable con el medio ambiente, No obstante, la mayoría de los métodos de producción del hidrogeno producen grandes cantidades de dióxido de carbono, que es el principal gas que contribuye de manera excesiva al efecto invernadero y por ende al calentamiento global del planeta. Una opción más amigable con el medio ambiente respecto a la producción de hidrogeno es el uso de óxidos semiconductores que tengan la capacidad de absorber una mayor cantidad de luz solar, generando electrones y huecos los cuales se utilicen para disociar la molécula del agua en hidrógeno y oxígeno de una manera sustentable. Entre los óxidos semiconductores se encuentra el óxido de zinc (ZnO) que posee una alta movilidad de electrones de 100 - 200 cm2/V•s, como un band gap de 3.37eV, lo que le permite absorber una buena parte del espectro visible de la luz solar. Haciéndolo atractivo para ser utilizado en la fotocatálisis para la fotoelectrólisis del agua debido a sus propiedades favorables, como captador de energía solar para la fotoconvercion de electrones y huecos. Sin embargo, es crucial controlar y optimizar sus propiedades con alta precisión. Una de las herramientas más prometedoras para evaluar el desempeño de este tipo de óxido semiconductor es la técnica electroquímica conocida como scnning electrochemical microscopy (SECM). Utilizando esta técnica en el modo feedback se realizan curvas de aproximación (Approach Curve) para obtener información de la cinética de transferencia de electrones entre la superficie del óxido semiconductor y un par redox (conocida como mediador).



METODOLOGÍA

Elaboración de película de óxido semiconductor de ZnO sin y con dopado de Al2O3. Se depositaron semillas de ZnO en sustratos conductores (FTO) mediante el método de spray-pirólisis, utilizando una solución 0.1M de nitrato de zinc (Zn(NO3)2⦁6H2O) en agua destilada. Se aplicaron 120 atomizaciones con tiempos de reposo de 30 segundos entre cada atomización para asegurar la formación de una capa uniforme. La aplicación se realizó usando una presión de aire de arrastre de 2 bar, manteniendo el sustrato a una temperatura de 450 °C en una placa de calentamiento. Se favoreció el crecimiento de estructuras en forma de nanobarras de ZnO mediante el método hidrotermal utilizando una solución de 0.05M de Zn(NO3)2⦁6H2O conteniendo 0.05M de hexametilentetramina (HMTA) en agua destilada. La reacción se llevó a cabo a 95 °C durante 12 horas. Se introdujo el FTO con la capa de semillas de ZnO previamente depositada dentro de una copa de teflón y se vertieron 20 mL de la solución previamente preparada. Las nanopartículas de Al2O3 fueron depositadas en la superficie de la película de ZnO mediante spray pirolisis, se utilizó un aerógrafo para aplicar la solución conteniendo 0.1199g de nitrato de aluminio y 0.1199g de urea en 30ml de agua desionizada, sobre la superficie de las películas de ZnO. La aplicación se realizó a una presión de 0.2 bar y a una distancia de 10 cm del sustrato. Fueron realizadas 4 atomizaciones cada 20 segundos hasta completar 20 mL de la solución.   Evaluación electroquímica de las películas semiconductoras de ZnO Inicialmente, se observó el ultramicroelectrodo (UME) de platino en un microscopio metalográfico invertido para asegurar que la punta de platino no presente defectos y este libre de impurezas. En caso de que la punta de platino este dañada y/o tenga impurezas, esta es limpiada usando un paño de tela y en su caso una lija de papel muy fina. A continuación, fue armada la celda electroquímica la cual permitirá exponer la película de ZnO, con y sin dopado de Al2O3, a una solución de ion triyoduro (I3-) a diferentes concentraciones (1, 0.5, 0.1 y 0.05 mM) + TBAS 0.1M en Acetonitrilo. Como fuente de iluminación se utilizó un led azul (435nm), el cual fue encendido a 3.5V mediante una fuente de poder. Este led es colocado en la parte inferior de la celda para generar los portadores de carga (electrón-hueco) en el semiconductor (ZnO). La celda electroquímica consta de tres electrodos, el UME como electrodo de trabajo, un alambre de platino como contraelectrodo y como seudo electrodo de referencia. Adicionalmente, se utilizó un tercer electrodo de platino para que los electrones, producto de la excitación de los portadores de carga en la película de ZnO sean consumidos por el ion triyoduro. La medición de la cinética de transferencia de electrones es obtenida utilizando el SECM en el modo feeback realizando una curva de aproximación hacia la superficie del óxido. El ion triyoduro es reducido fijando la punta del UME a un potencial de -0.7 V vs Pt. Lo anterior es logrado usando un bipotenciostato. La punta es acercada hacia la superficie a una velocidad de 1 mm/0.1s, registrando la corriente cada 1 mm. En cada solución de prueba se realizaron al menos 5 mediciones de curva de aproximación. La corriente registrada y la distancia de desplazamiento del UME hacia la película de óxido fueron normalizadas y posteriormente mediante una serie de ecuaciones determinadas por Shena et al. fue determinada la cinética de transferencia de electrones para una reacción de primer orden.  


CONCLUSIONES

En mi estancia en el programa adquirí nuevos conocimientos de química, así como la técnica electroquímica, a partir de la fabricación de las películas semiconductoras hasta su evaluación resulto una experiencia interesante, novedosa para mí porque no tenía conocimiento de su existencia, sin embargo, al ser poco tiempo de trabajo no se alcanzaron los resultados esperados, se necesita realizar varias veces y realizar ajustes.   
López Medina America Monserrat, Universidad Mexiquense del Bicentenario
Asesor: Mg. Hernando Camacho Camacho, Universidad Santo Tomás

GOBIERNOS CONFIABLES Y SU RELACIÓN CON EL DESARROLLO SUSTENTABLE.


GOBIERNOS CONFIABLES Y SU RELACIÓN CON EL DESARROLLO SUSTENTABLE.

López Medina America Monserrat, Universidad Mexiquense del Bicentenario. Asesor: Mg. Hernando Camacho Camacho, Universidad Santo Tomás



PLANTEAMIENTO DEL PROBLEMA

En décadas pasadas las investigaciones estaban basadas en que necesitaban gobiernos e instituciones efectivas, transparentes, responsables y libres de corrupción. Además, querían tener voz en cuanto a las prioridades de gobierno y confianza en que dichas prioridades se implementarían competentemente,querían un gobierno en el que confiar.



METODOLOGÍA

Metodología 1.La investigación fue de manera cualitativa ya que me enfoque en la descripción de las ISO 189081, ISO26000 y su relación con los ODS, visualizando la articulación de lo antes ya mencionado y tomando encuentra primeramente los indicadores y los criterios a evaluar. 2.Se realizo una tabla de las ISO 18091 relacionándose con los objetivos del desarrollo sostenible (ODS), ya que están se clasifican en 4 apartados, tomando en cuenta cada indicador para su debido posicionamiento.  


CONCLUSIONES

En conclusión llegue a que los gobiernos confiables se basan en gestiones de sistema integral su relación con el desarrollo sostenible y las normas ISO 26000 e ISO 18091 es de vital importancia para lograr una organización publica eficaz y fundamentalmente responsable para formar un gobierno sólido, con comunidades a las cuales se les  pueda hacer sentir satisfechas de una manera justa y transparente.
Lopez Molina Diana Carolina, Fundación Universitaria del Área Andina
Asesor: Mg. Leonardo Valderrama García, Corporación Universitaria Minuto de Dios

IMPLEMENTACION DE IA PARA ESTIMAR EL TIEMPO Y EL CRECIMIENTO DE UNA PLANTA EN CULTIVOS HIDROPONICOS


IMPLEMENTACION DE IA PARA ESTIMAR EL TIEMPO Y EL CRECIMIENTO DE UNA PLANTA EN CULTIVOS HIDROPONICOS

Bello Gordillo Allison Darlyng, Fundación Universitaria del Área Andina. Lopez Molina Diana Carolina, Fundación Universitaria del Área Andina. Asesor: Mg. Leonardo Valderrama García, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

En los cultivos hidropónicos, es muy importante saber el tamaño de las plantas para poder cosechar en el momento justo y aprovechar al máximo los recursos como el agua y los nutrientes. Actualmente, medir el tamaño de las plantas a mano es un proceso muy incierto, que puede tener errores. Esto puede llevar a desperdiciar recursos y a cosechar en momentos no ideales, afectando la calidad y cantidad de la producción.   Además, las plantas en sistemas hidropónicos pueden crecer a diferentes ritmos debido a cambios en el entorno, lo que dificulta predecir exactamente cuándo estarán listas para la cosecha. Esto significa que la información disponible en la web o en los instructivos para cultivar no siempre se puede seguir al pie de la letra. Por otro lado, debido a la falta de herramientas automáticas que midan con precisión el tamaño de las plantas, los agricultores se ven impedidos de tomar decisiones bien informadas en tiempo real. Esta carencia tecnológica limita la eficiencia de sus cultivos, ya que no pueden optimizar el uso de recursos ni planificar adecuadamente las cosechas, lo que repercute negativamente en la productividad y sostenibilidad de sus operaciones. Por eso, se propone desarrollar un sistema de visión computacional que automatice la identificación y medición de manera porcentual del tamaño de las plantas. Este sistema debería proporcionar datos precisos y constantes, ayudando a los agricultores a determinar en qué porcentaje de crecimiento esta su planta para así mismo reconocer que medidas tomar y pueda avanzar efectivamente.



METODOLOGÍA

Para la implementación del proyecto, se utilizará la aplicación Teachable Machine como instrumento automatizado para detectar el tiempo y el crecimiento de las plantas en cultivos hidropónicos. La metodología se desarrollará en las siguientes etapas: 1 Abrir aplicación desde la web Recolección de Datos: Se tomarán fotografías de las plantas en diferentes etapas de crecimiento utilizando una cámara de alta resolución. Las imágenes se etiquetarán de acuerdo con las diferentes fases de crecimiento y se almacenarán en una base de datos organizada. Validación y Prueba: Se llevarán a cabo pruebas con imágenes nuevas y no vistas por el modelo para validar su precisión y eficacia. Se evaluará la capacidad del modelo para predecir el tiempo estimado de cosecha basado en las características visuales de las plantas. Implementación del Sistema: Se integrará el modelo entrenado en una aplicación práctica que pueda ser utilizada por los agricultores en sus dispositivos móviles o computadoras. La aplicación permitirá a los agricultores tomar fotos de sus plantas y recibir una estimación del tiempo restante para la cosecha y el estado de crecimiento de estas.


CONCLUSIONES

Se espera que la aplicación desarrolle con precisión las diversas etapas de crecimiento de las plantas. Esto no solo busca minimizar los errores inherentes a los métodos manuales de estimación, sino también establecer una herramienta invaluable para los cultivos hidropónicos.  
López Mondragón Dulce María, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mg. David Alfredo Ovallos Gazabon, Corporación Politécnico de la Costa Atlántica

PROPUESTA DE MODELO DE NEGOCIO FINTECH ENFOCADO EN EL SECTOR TRANSPORTE.


PROPUESTA DE MODELO DE NEGOCIO FINTECH ENFOCADO EN EL SECTOR TRANSPORTE.

González Díaz Ingrid Yadira, Instituto Tecnológico Superior de Ciudad Hidalgo. Gonzalez Mestra Mery Alejandra, Universidad Simón Bolivar. Gutiérrez Muñoz Brayan Uriel, Instituto Tecnológico Superior de Ciudad Hidalgo. López Mondragón Dulce María, Instituto Tecnológico Superior de Ciudad Hidalgo. Reguillo Rodero Lorena Sofia, Universidad Simón Bolivar. Asesor: Mg. David Alfredo Ovallos Gazabon, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

El mercado logístico en Latinoamérica, valorado en 250 mil millones de dólares en 2023, está en constante crecimiento impulsado por el comercio electrónico, la globalización y la urbanización. Se espera que crezca a una tasa anual compuesta del 6.5% hacia 2028. Factores clave incluyen el comercio electrónico, que podría representar el 15% del comercio minorista total para 2028, la globalización que impulsa nuevas oportunidades comerciales, y la urbanización que crea nuevos centros de consumo. Además, la sustentabilidad está cobrando importancia, con empresas adoptando prácticas ecológicas como el uso de vehículos eléctricos y la optimización de rutas para reducir la huella de carbono. Una de las principales problemáticas que se analizó, fue la parte de gestión de pagos, ya que se encontró  que el pago a transportistas se hace de forma manual e ineficiente, lo cual genera problemas del flujo de efectivo, derivado de camiones detenidos, ventas pérdidas y facturas no cobradas. Los más afectados son los operadores logísticos, ya que son el centro de distribución.   Como respuesta a esta problemática identificada para el sector, se plantea el uso de tecnología emergente para la creación de una Fintech enfocado en el sector logística y transporte en el contexto latinoamericano, tomando como referencia el análisis del sector logístico para Brasil, México y Colombia, uno de los objetivos principales es que reduzcan costos y tiempos implementados, buscando la satisfacción en los clientes y automatizando el acceso a financiamientos rápidos y legales. 



METODOLOGÍA

Consiste en tres fases cada una de ellas orientada a la consecución de insumos que fueron integrados posteriormente en el documento tipo articulo científico que se presenta como resultado del ejercicio investigativo desarrollado por todo el equipo. FASE 1: Se realizó la búsqueda de información y antecedentes en distintos buscadores, algunos de ellos fueron Lens, Google Academy, entre algunos otros; además de que también se realizaron entrevistas a transportistas. Para obtener la información esperada se utilizaron palabras clave como fueron Fintech, logística, transporte, industria 4.0, con ello se reviso la información obtenida y posteriormente se filtraron los artículos según la selección, se procedió a realizar una lectura y comprensión de dichos artículos, en donde se identifico la viabilidad y veracidad informativa de los trabajos. Con la información referente a Fintech y Sector Transporte-Logística se indago como aplicar estrategias para evitar que la implementación de la propuesta conlleve un riesgo económico mayor. FASE 2: Se realizó un estudio en Latinoamérica en el mercado comercial para saber el impacto que tiene, utilizando base de datos que contienen información del tema, centrándose en países de interés que son Brasil, México y Colombia. Una vez que se analizó estos 3 países, se pudo identificar porque cada vez más van en crecimiento, además del porque se han consolidado en los últimos años en este sector. Cada país ha destacado por diferentes razones, y esto hace que se diferencien del crecimiento de los otros.   FASE 3: El enfoque se basa en el Business Model Canvas, desarrollado por Alexander Osterwalder. Este modelo de negocio nos permite visualizar y estructurar de manera efectiva los nueve componentes clave de nuestra empresa, desde los segmentos de clientes hasta la propuesta de valor, los canales de distribución y las fuentes de ingresos. Utilizando esta herramienta, podemos innovar y adaptar nuestras estrategias para crear y capturar valor de manera eficiente.


CONCLUSIONES

La Pasantía Delfín 2024 representa una oportunidad invaluable para profundizar en la investigación y el desarrollo académico. Ya que durante esta estancia se logró adquirir conocimientos teóricos acerca de la integración de tecnologías Fintech en el sector transporte y logística, pues esto esta revolucionando la industria al ofrecer soluciones innovadoras que optimizan la eficiencia operativa y financiera. El desarrollo de esta solución Fintech permitiría la automatización de pagos, la mejora de gestión en la liquidez y la reducción de costos operativos, un punto importante es la mejora de relación con los transportistas al ofrecer pagos mas rápidos y transparentes. Resaltando que la adopción de las Fintech dentro de estos sectores son un paso crucial hacia la modernización y competitividad en un mercado cada vez más digitalizado.   Queremos expresar nuestro más sincero agradecimiento de parte de los integrantes que conformamos el equipo al programa Delfín por el invaluable apoyo que nos ha brindado durante este proceso. Los conocimientos teóricos adquiridos han sido fundamentales para nuestro desarrollo académico y profesional. La atención y orientación proporcionadas por el investigador han sido de gran ayuda, permitiéndonos profundizar en temas complejos y mejorar nuestras habilidades de investigación. Además, las herramientas a las que hemos tenido acceso, como los buscadores especializados y aplicaciones como Mendeley para la gestión de citas, han sido esenciales para organizar y fortalecer nuestro trabajo. Estamos profundamente agradecidos por esta oportunidad y por todo el aprendizaje obtenido durante la estancia en la Institución Politécnico de la Costa Atlántica, Barranquilla, Colombia y el apoyo de nuestras Instituciones el Instituto Tecnológico Superior de Ciudad Hidalgo Michoacán y Universidad Simón Bolivar.
López Murillo Katia Guadalupe, Universidad de Guadalajara
Asesor: Dra. Milen Balbis Morejon, Universidad de la Costa

RESEARCH TRENDS IN THE EVALUATION OF ENERGY EFFICIENCY AND THERMAL COMFORT IN BUILDINGS: A BIBLIOMETRIC ANALYSIS


RESEARCH TRENDS IN THE EVALUATION OF ENERGY EFFICIENCY AND THERMAL COMFORT IN BUILDINGS: A BIBLIOMETRIC ANALYSIS

Lopez Herrera Efren, Instituto Tecnológico de Tepic. López Murillo Katia Guadalupe, Universidad de Guadalajara. Asesor: Dra. Milen Balbis Morejon, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

A bibliometric analysis of the Evaluation of Energy Efficiency and Thermal Comfort in Buildings (EEETCB) content from a total of 231 research publications was conducted between 2004 and 2024, the papers being detailed in Scopus database. VosViewer was used as data processing tool to process the information. The parameters analyzed in the analysis were: type of document; the language of publication; volume and characteristics of publication output; publication by journals; performance of countries and research institutions; research trends and visibility[KLM1] . The study showed that Thermal Comfort, Energy Saving, Energy Efficiency were the keywords most commonly used in documents, while words like HVAC, Indoor Air Quality, Energy consumption and conservation are strongly interconnected, emphasizing their relevance in the field. The analysis found that EEETCB studies have tented to be growing and recognized journals in the fields of energy, construction, and environment have produced numerous publications on the subject. The research revealed that the institution that laid the foundations of the field is located in Hong Kong, however, China is currently positioned as the leader in the field, with a contribution of 71, 30.7% of the total number of publications. It is followed by the United States with 29, 15.2%; Italy 16, 6.9%; India 16, 6.9% and Spain 15, 6.5%, which shows that Asia and Europe are the regions that contribute the most to the field.



METODOLOGÍA

Data was analyzed between 2004 to 2024, including one article from 1998, it was extracted from the Scopus database using the following search equation: (thermal comfort AND energy saving AND energy efficiency AND (HVAC OR air conditioning OR air-conditioned OR conditioned air) AND building). The data exported from Scopus was processed using VosViewer, a tool designed to create and explore maps based on network data, primarily for the analysis of academic records. This software explores co-authorship, co-occurrence, citation, bibliographic coupling, and co-citation links in one of three possible representations: network visualization, overlay, or density visualization [21]. The analysis and classification of the results were manually elaborated and processed in Microsoft Excel 2016. As previously mentioned, the contributions in the field of EEETCB are diverse, making it essential to analyze their behavior and identify trends through bibliometrics. Bibliometric analysis is a method for examining large datasets [22], providing quantitative and objective information on results, publications, trends, and visibility [23]. This methodology has gained popularity in research, particularly in applied science [24]. The parameters studied included: document type; publications per year; publication language; countries and research institutions with the most contributions; publications by journals; research trends and visibility.


CONCLUSIONES

The bibliometric analysis conducted has provided an overview of global trends in the Evaluation of Energy Efficiency and Thermal Comfort in Buildings research. It can be concluded that research in this field has been steadily increasing and is likely to continue to grow, driven by ongoing technological advances and the development of alternative technologies that emerge in response to the need for energy efficient solutions. This growth is reflected in the rising number of publications, authors, and references over recent years. Review articles have played a key role in summarizing and shaping the field, reflecting its importance in the academic community. They have served as a foundation for developing new technologies focused on thermal comfort and energy efficiency in buildings. Current trends suggest that the study of Predictive Control Modeling as a strategy for energy efficiency and the Predicted Mean Vote index as a method of assessing thermal comfort will be critical pieces in the evolution of the field. While Hong Kong was a significant contributor in the early years, its impact and influence has been diminishing, with China and the United Stated emerging as key players. China, in particular, has become a central hub for research, leading in both citations and publications. This shift highlights a realignment in global research dynamics. Finally, English as the predominant language in publications underlines its role as the main language for international collaboration. The worldwide distribution of EEETCB research demonstrates global engagement in the field, with notable contributions in regions such as Asia and Europe.
Lopez Navarrete Erik, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dr. Gerardo Marx Chávez Campos, Instituto Tecnológico de Morelia

ANáLISIS DEL NIVEL DE SEDENTARISMO INTEGRANDO BIOMARCADORES DIGITALES EN SMART-WATCH Y CIENCIA DE DATOS PARA PREVENIR PADECIMIENTOS DE TIPO COGNITIVO


ANáLISIS DEL NIVEL DE SEDENTARISMO INTEGRANDO BIOMARCADORES DIGITALES EN SMART-WATCH Y CIENCIA DE DATOS PARA PREVENIR PADECIMIENTOS DE TIPO COGNITIVO

Lopez Navarrete Erik, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dr. Gerardo Marx Chávez Campos, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En base a la página oficial del gobierno de México, se tiene estimado que un millón trecientas mil personas padecen de Alzheimer "Enfermedad de Alzheimer, demencia más común que afecta a personas adultas mayores | Secretaría de Salud | Gobierno | gob.mx (www.gob.mx)", dicha enfermedad se produce por diversos factores. Uno de los factores que se ha ido investigando, del cual se tienen indicios de ser un factor importante, es el sedentarismo, del que se puede observar una relación con el envejecimiento, ya que, con forme nuestra edad avanza se tiende a dejar de hacer actividades físicas. Por lo mencionado anteriormente, durante el verano de investigación se buscará crear una plataforma en el sistema operativo iOS donde los usuarios nos brindarán información relevante para realizar el análisis de datos, a su vez que se buscará desarrollar un wearable propio con el cual también se obtendrán datos de actividad física.



METODOLOGÍA

La aplicación en el sistema operativo iOS, se está llevando a cabo con ResearchKit, el cual es un software para el desarrollo de aplicaciones útiles para la investigación, con base a los comandos de ResearchKit es más sencillo poder crear los avisos de privacidad, el espacio para que los usuarios firmen su consentimiento, actividades a realizar y el formulario que tendrá en cuenta datos como: Edad, sexo, peso, estatura, residencia (urbano, sub-urbano y rural), ocupación, antecedentes patológicos familiares, antecedentes patológicos personales, adicciones, actividades físicas que se realizan, tipo de transporte usado y alimentación.  Dichos datos se utilizarán para determinar cuales son aptos para clasificación de minimos cuadrados y cuales son aptos para regresión logística. Por otra parte, el werable que se está desarrollando se ha contemplado como primer prototipo con componentes como: Microcontrolador ESP32, sensor de frecuencia cardiaca y volumen de oxígeno en sangre MAX30102 y sensor de giroscopio/acelerómetro MPU-6050.  Esto para poder obtener los datos sobre si la persona realiza actividad física. 


CONCLUSIONES

Durante el verano de investigación se avanzó correctamente con la aplicación en iOS, se adquirieron conocimientos importantes en leguaje Swift, se aprendió sobre el diseño de wearables y se comprendió de mejor manera el panorama de la cantidad de personas que llegan a padecer una enfermedad relacionada con el deterioro cognitivo. Al ser una investigación en etapa temprana, no se tienen datos para llegar a una conclusión. Se espera que con la finalización de la aplicación en iOS ya se puedan ir analizando los datos obtenidos, a su vez que con el wearable desarrollado se espera que sea otra alternativa para poder adquirir los datos importantes.
Lopez Olivares Omar, Universidad de Sonora
Asesor: Dr. Rolando Flores Ochoa, Universidad de Sonora

DISEñO Y FABRICACIóN DE LíNEA DE ENSAMBLE DIDáCTICA


DISEñO Y FABRICACIóN DE LíNEA DE ENSAMBLE DIDáCTICA

Borquez Zazueta Carlos Yahir, Universidad de Sonora. Lopez Olivares Omar, Universidad de Sonora. Asesor: Dr. Rolando Flores Ochoa, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La realización de prácticas de laboratorio o talleres durante las clases a nivel licenciatura especialmente en clases de mecatrónica es fundamental e influye de manera positiva en los estudiantes, además con el desarrollo de dichas prácticas se potencian las habilidades técnicas. La carrera de mecatrónica al ser una disciplina que integra la mecánica, la electrónica, la informática y el control requiere de habilidades prácticas. Por un lado, el desarrollo de prácticas permite a los estudiantes aplicar los conceptos teóricos aprendidos en clase a situaciones reales, consolidando así su comprensión y por otro, aprenden y adquieren habilidades en el manejo de herramientas y equipos especializados, la programación de sistemas de control, el diseño de circuitos electrónicos y la integración de sistemas mecánicos con componentes electrónicos, así como el trabajo en equipo. Los equipos didácticos con los que se desarrollan prácticas ya sea de neumática, electricidad, electrónica, entre otras, normalmente son sellados y se ve el funcionamiento, pero en algunos casos es difícil comprender como funciona sin verlo internamente. En ese sentido y considerando la importancia de la realización de actividades prácticas y de conocer el funcionamiento de interno de componentes, dispositivos,  actuadores, entre otros. El presente proyecto tiene el propósito de abordar el diseño y fabricación de una línea de ensamble didáctica donde se muestre el funcionamiento de los dispositivos mecánicos, eléctricos y electrónicos que la componen, para con ello tratar de reducir la brecha entre la teoría y la práctica que se da en algunas materias.



METODOLOGÍA

Para la realización de la línea de ensamble didáctica primero se planeó una lista con cada una de las piezas, componentes eléctricos, electrónicos y demás elementos a utilizar. 1. Diseño del Prototipo - Diseño Conceptual:   - Teniendo en cuenta los componentes a utilizar se comenzó con el proceso de diseño y modelado en 3D de las piezas donde también se profundizo en el uso del software de modelado 3D; cada una de las piezas se diseñaron  considerando tolerancias geométricas y dimensionales, analizando la forma más eficiente de ensamblarse con las demás piezas y los elementos que tienen movimiento se diseñaron con el fin de utilizar el menor número de mecanismos, optimizando todo el proceso con el menor número de piezas posibles pero tomando en cuenta que cada uno de los elementos conforman una máquina didáctica para que cualquier persona interesada que vea el funcionamiento conozca y entienda la ejecución y desempeño de mecanismos, pistones rodillos, así como el uso de la programación.   - Diseño Detallado:   - Después del diseño y modelado 3D, se pasaron los archivos de diseño al software para impresión 3D, donde pudimos simular el proceso de la impresión, se observó el número de capas de filamento de cada pieza, el saber si necesitaban o no algún tipo de soporte en ciertas geometrías y a su vez se obtuvo el tiempo y peso de cada impresión. - Revisión del Diseño:   - Recibimos retroalimentación de usuarios tales como compañeros y maestros, así como de nuestro maestro investigador acerca del diseño que como usuarios les llamaba más la atención y recibimos recomendaciones, las cuales fueron atendidas.   2. Desarrollo del Prototipo - Configuración de características: - Preparar las herramientas y partes necesarias. Teniendo las piezas impresas que se mencionan a continuación: las principales piezas para ensamblar (búho y base búho), los alimentadores de piezas a ensamblar, todas las piezas para el pistón (cámara, base tuerca, tapa para cámara pistón, pieza para ensamble tornillo-motorreductor), resbaladilla, riel y compuerta, con todo esto se procedió a crear una lluvia de ideas sobre los distintos mecanismos a utilizar para lograr el ensamble de las piezas antes mencionadas.     3. Pruebas del Prototipo Posteriormente se comenzó la fabricación de la banda transportadora la que se compone de la banda de polietileno, los rodillos sobre los que correrá dicha banda, los cuales fueron torneados como parte del proyecto por nosotros mismos, ya que uno de los objetivos de la estancia era practicar el mecanizado como proceso de manufactura y dos piezas de acrílico sobre los que montamos la banda. Con todo lo anteriormente descrito se comenzó con la parte de programación, elaboración de circuito eléctrico y electrónico. La programación la utilizamos al momento de crear un programa para nuestro Arduino y para la pantalla LCD 1602 keyPad Shield, la cual utilizamos para pedirle al usuario ¿Cuántos elementos ensamblados quiere que realice nuestra línea?; el circuito eléctrico se implementó en la creación de un puente h para alternar el giro de motores y se utilizó la electrónica para el control de servomotores y motorreductores, así como para un puente h. Para finalizar se montaron todos los componentes sobre una base de madera dando termino al diseño y a la fabricación de nuestra línea de ensamble didáctica. Además, se realizaron cada uno de los siguientes puntos: - Pruebas Unitarias:   - Verificar que cada componente funcione correctamente de manera aislada. - Pruebas de Integración:   - Asegurar que los componentes funcionen juntos sin problemas. - Pruebas de Usuario:   - Realizar pruebas con usuarios reales para recibir retroalimentación. - Documentación de Errores:   - Registrar y priorizar los problemas encontrados.


CONCLUSIONES

Durante nuestra estancia de verano, se logró tocar una parte de la ingeniería mayormente de mecatrónica, carrera que estudiamos, que es la parte teórica-práctica y la integración de las distintas áreas que esta conlleva como lo son la mecánica, diseño y manufactura, programación y electrónica, así con el mayor enfoque en nuestra área de investigación que es la automatización integral.  
Lopez Padilla Nayelis Paola, Corporación Universitaria de Ciencias Empresariales, Educación y Salud
Asesor: Dra. María Teresa Flores Sotelo, Benemérita Universidad Autónoma de Puebla

VIABILIDAD DE COMERCIALIZACIóN DEL HIDRóGENO VERDE EN BARRANQUILLA ATLáNTICO.


VIABILIDAD DE COMERCIALIZACIóN DEL HIDRóGENO VERDE EN BARRANQUILLA ATLáNTICO.

Lopez Padilla Nayelis Paola, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Asesor: Dra. María Teresa Flores Sotelo, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El problema radica en la necesidad de evaluar la viabilidad y estrategias para implementar el hidrógeno verde en Barranquilla, enfrentando desafíos como costos, tecnologías de almacenamiento, y transporte, y oportunidades de mercado para integrar esta fuente de energía sostenible en la región.



METODOLOGÍA

Revisión de literatura: Se iniciará con una revisión exhaustiva de la literatura sobre las tecnologías actuales y emergentes para la producción de hidrógeno verde, incluyendo métodos como la electrólisis, entre otros. Este análisis permitirá identificar las tecnologías más eficientes y sostenibles, así como sus costos asociados. Evaluación: donde se investigarán los diferentes métodos de almacenamiento y transporte del hidrógeno verde, para determinar el método mas eficiente en cuanto a costos y beneficios socioeconómicos y ambientales.


CONCLUSIONES

Mediante la adopción de tecnologías avanzadas de producción como la electrólisis, y la optimización de métodos de almacenamiento y transporte, se pueden superar los desafíos actuales de costos y logística. Este enfoque no solo fomentará el desarrollo económico local, sino que también apoyará la transición hacia fuentes de energía más limpias, beneficiando tanto al medio ambiente como a la sociedad en su conjunto.
Lopez Palacios Angel Gabriel, Universidad de Guadalajara
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

CONTAMINACIóN Y MORTALIDAD EN LA CDMX


CONTAMINACIóN Y MORTALIDAD EN LA CDMX

Lopez Palacios Angel Gabriel, Universidad de Guadalajara. Martínez Castillo Karoll Jesús, Instituto Politécnico Nacional. Tapia Valle Alex Kevin, Universidad de Guadalajara. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Actualmente el aumento de enfermedades respiratorias ha sido preocupante tanto para la comunidad médica, como para la población en general, una de las principales causas de la propagación y aumento de estas, es la calidad del aire ambiente que la población respira. La contaminación del aire es el principal riesgo ambiental para la salud pública en América, según la OMS en 2019 más de 380.000 muertes prematuras fueron atribuibles a la contaminación del aire ambiente en América. Cuando se establecieron los Estándares nacionales de calidad del aire ambiental en 1970, la contaminación del aire se consideraba principalmente como una amenaza para la salud respiratoria. Durante las décadas siguientes, la preocupación por la salud pública fue aumentando y diversos estudios afirmaron que la exposición a los altos niveles de contaminación del aire puede causar una variedad de efectos adversos para la salud: aumenta el riesgo de infecciones respiratorias, enfermedades cardíacas, accidentes cerebrovasculares y cáncer de pulmón, las cuales afectan en mayor proporción a población vulnerable, en riesgo y marginada (niños, mujeres y ancianos). La Organización Mundial de la Salud (OMS) establece que los niveles de contaminación del aire son considerados estables y seguros cuando las concentraciones de PM2.5 (partículas finas) no exceden los 10 µg/m³ como promedio anual y los 25 µg/m³ en un promedio de 24 horas. Para el ozono (O3), el nivel guía es de 100 µg/m³ en un promedio de 8 horas. En comparación, la Ciudad de México frecuentemente supera estos niveles, especialmente durante los meses de invierno y primavera, cuando las concentraciones de PM2.5 y O3 alcanzan picos que exceden las recomendaciones de la OMS, lo que pone en riesgo la salud de sus habitantes. La presente investigación realizada en la UPIITA se centra en el análisis de datos de la calidad del aire y su relación con las enfermedades respiratorias a lo largo del tiempo en la Zona Metropolitana de la Ciudad de México y el Estado de México. El objetivo de la investigación es construir una interfaz web interactiva que integre datos abiertos utilizando criterios espacio-temporales y datos sociales mediante el uso de técnicas de ciencias de datos para identificar los días con más presencia de contaminantes y las principales causas de defunción en la zona del Valle De México.



METODOLOGÍA

El primer paso para nuestra investigación fue la selección y recopilación de datos. En este sentido, tuvimos dos fuentes principales para esto, que fue la Red Automática de Monitoreo Atmosférico para los datos relacionados a la calidad del aire y la Dirección General de Información en Salud para nuestros datos relacionados con las defunciones registradas y sus causas. Una vez seleccionadas las fuentes para nuestra investigación, pasamos a un proceso de depuración de los datos. Primero se seleccionó los años con los que se van a trabajar, en este caso, de 2012 a 2022, y también se determinó que únicamente se trabajaría con datos relacionados al Valle de México. Al establecer estos criterios, lo siguiente fue un procedimiento de limpieza de datos, en donde se seleccionaron las variables más relevantes para nuestra investigación, principalmente en la base de datos de DGIS, ya que se contaba en algunos casos con hasta 73 columnas de información diferentes, y para nuestro análisis se determinó que sólo serían relevantes 12 de ellas. Ya con la información filtrada para solo trabajar con datos del 2012 al 2022 en la zona del Valle de México, se utilizó Python para obtener gráficas que permitieran entender la información de manera más sencilla, así como algunos análisis estadísticos para poder determinar cuáles son las principales causas de defunciones en esta zona de estudio. Después de esto, se utilizó el software de QGIS para poder realizar mapas delimitando distintas zonas del Valle de México, específicamente determinando las regiones denominadas por nosotros como Noreste, Noroeste, Centro, Sureste y Suroeste. Finalmente, mediante la utilización de Python y HTML se realizó una página web en donde todas las gráficas obtenidas así como los mapas creados se muestran al usuario según sus criterios de búsqueda, y además de esto se tiene una pequeña sección de blog con entradas relacionadas a los temas que se abordaron en la investigación, así como una sección de links con información útil para que el usuario puede consultar más información en caso de que le interese.


CONCLUSIONES

Durante seis semanas, participamos en un proyecto de investigación en el que tuvimos la oportunidad de sumergirnos en el mundo de los sistemas de información geográfica (SIG), utilizando herramientas como QGIS. Fue una experiencia extremadamente gratificante, ya que no solo pudimos aprender a manejar estos sistemas, sino que también descubrimos cómo integrar y analizar grandes volúmenes de datos. Uno de los aspectos más desafiantes y educativos del proyecto fue el manejo de datos proporcionados por el DGIS y la página de Aire y Salud. Estos datos venían en grandes cantidades, desordenados y sin un formato claro. Utilizando herramientas de manejo de datos, pudimos limpiar, organizar y analizar esta información, lo que nos permitió extraer conclusiones significativas y relevantes para el estudio. Una de nuestras principales conclusiones es que, generalmente, se pueden observar concentraciones de contaminantes más significativas a finales de año o principios de año, entre los meses de noviembre y febrero. Probablemente podemos atribuir esto a dos principales factores, las festividades y el clima. Como sabemos, la lluvia es de gran ayuda para limpiar el medio ambiente, por lo que en estas épocas, cuando estas condiciones no son tan comunes, se llega a mayores niveles de concentración.De la misma manera, debido al frío, es más común la quema de combustibles para mantener un clima cálido tanto en los hogares como en exteriores, y se da un mayor consumo energético gracias a todas las luces que se ponen en estas fechas. También pudimos observar que las enfermedades del sistema respiratorio siguen siendo una causa muy grande de mortalidad en la Ciudad. Por lo laborioso de realizar un análisis que correlacione estas defunciones con las condiciones climáticas a lo largo del tiempo, y debido al poco tiempo con el que contamos para desarrollar nuestro análisis, no se puede obtener una conclusión contundente, pero con base a los datos recopilados en esta investigación se podría cimentar un análisis de los datos con Machine Learning para intentar encontrar la correlación de estas variables.
Lopez Quintana Jesus Adrian, Instituto Tecnológico de Matamoros
Asesor: Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas

DISEñO FACTORIAL BASADO EN SIMULACIóN


DISEñO FACTORIAL BASADO EN SIMULACIóN

Arguello Hernandez Eduardo, Instituto Tecnológico de Matamoros. Lopez Quintana Jesus Adrian, Instituto Tecnológico de Matamoros. Asesor: Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

En la industria de Autoliv Matamoros se manufacturan volantes, ya sea desde el esqueleto principal hasta el ensamblado del mismo volante, en las diferentes áreas y operaciones que se encuentran dentro de la empresa nos enfocaremos en el área de GMC (T1XX) la cual al transcurrir de los meses se ah notado una problemática con las líneas de producción, ya que al trabajar con talento humano se esta mas propenso a defectos de manufactura.Se detectaron problemáticas en una línea de producción, las cuales se resolverían con herramientas de Lean Manufacturing aplicándolas con un objetivo de maximizar la eficiencia de la línea y como ende un mejor resultado en cuanto a productividad.Los principales puntos críticos identificados son los siguientes.✓ Retrabajo✓ Tiempo muertoPrimeramente, tendremos en cuenta la producción base que tiene la línea es: 30 volantes por hora laboradaCon un tiempo de horas efectivas laboradas de 8 lo cual nos da un resultado de 240 volantes manufacturados por la línea de producción en un turno. Lo que se busca es agilizar el flujo de materia para llegar a los 30 volantes para poder aumentar su eficiencia en la línea y por ende un mayor aumento de producción con las mismas horas laboradas, para ello nos centramos en diferentes soluciones para poder incrementar la productividad lo cual vimos más factible una modificación de una operación, dentro de la línea se manejan 5 operaciones las cuales constan de:✓ Lijado✓ Montado✓ Engomado✓ Pegado✓ InspecciónPor ende, la operación de más impacto tiene en la línea de producción es la de pegado, ya que su proceso es el mas complejo y mas tiempo lleva, si la operación de pegado se retrasa afecta su producción considerablemente por lo cual buscaremos una mejora enfocándonos en esa operación.Se utilizará la herramienta de Lean Manufacturing PDCA la cual consiste en una serie de pasos realizados los cuales son:Planear: Paso principal para saber que es lo que se hará en la problemática observada para resolverla y mediante que mejoras, ajustes, modificaciones se harán, por lo cual realizaremos un ajuste en el proceso a partir de la operación de pegado el cual se observa un mal manejo de instrucción del trabajo quedando como consecuencia tiempo perdido y retrabajo en flujo mientras se procesa el material, es por ello que se detectó la raíz del problema y entre las soluciones pensadas la más factible y viable fue modificar el procedimiento de pegado obligándolos a no cometer ese error, prácticamente aplicando un poka-yoke en el procedimiento obligando al operador a efectuar bien la operación y sin errores, por ello tendríamos un buen procedimiento y agilizar el tiempo muerto el cual era uno de los puntos fuertes a tratar.Se aplicaría el cambio de la instrucción de trabajo, el como trabajar con el producto correctamente para así poder disminuir los tiempos de ejecución y evitando o disminuyendo los posibles retrabajos que se puedan generar durante el proceso, los cuales eran motivo de tiempo perdido.La siguiente etapa por realizar es comprobar, que en este paso del proceso analizaremos a detalle la línea de producción ya con todas las mejoras implementadas, sus pros, contras que se tuvo con ellas y ver como interactúa el proceso mediante se desarrolla y evoluciona con las modificaciones que en este caso fueron en el área de pegado. Por último, punto de esta herramienta es actuar, que veremos las posibles mejoras que podamos obtener como resultado de este proceso, como se vio satisfactorio el resultado no harán falta mas modificaciones en el proceso ni se hará falta volver al proceso natural que estaba ya implementado anteriormente, solo queda que el personal encargado se familiarice con el mismo para que se pueda trabajar de una manera más natural.  



METODOLOGÍA

Con apoyo del software ARENA SIMULATION fue indispensable usar esta simulación en la líneas reproducción ya que gracias a el simulador nos pudimos dar cuenta de cómo en realidad sería la producción con los cambios realizados y las mejoras tomadas en cuenta en base a la previa investigación que se realizó, gracias al simulador y su amplio catálogo de herramientas se pudo sustentar perfectamente la simulación de la línea, haciendo corridas para ver las diferentes etapas y movimientos que se pudieran hacer en cada una de las simulaciones para ver qué se podría mejorar o sustituir en el proceso, por ello cada variación que se dio en la línea se simuló hasta encontrar el mejor balance para la línea de producción y como consecuencia la mejoría de la misma.Sin embargo gracias a lo sucedido en el programa de simulación arena nos pudimos dar cuenta de errores que teníamos en la línea como la mejora de tiempos afectaba a otras operaciones consecuentes, es de suma importancia recalcar que el programa nos dio una amplia visión de lo que sucedería permitiéndonos enfocarnos en el proceso, para que al plasmar el trabajo en físico sea tal cual con los resultados favorables de la simulación.


CONCLUSIONES

Antes de las implementaciones y ajustes aplicadas en la línea de producción sus números fueron estos: Producción por hora: 30 volantes Producción por día: 240 volantes Producción por semana: 1200 volantesDespués de todo el procedimiento hecho para la mejora de la línea, el resultado fue el siguiente:Producción por hora: 33 volantes Producción por día: 264 volantes Producción por semana: 1320 volantes Se puede apreciar una eficiencia aproximadamente de 3 volantes gracias a las mejoras aplicadas en las instrucciones de trabajo del procedimiento, ayudando a tener una mejoría en la productividad de la línea, por día de 24 volantes y por semana 120 volantes, por ende resulto favorable el rehacer el procedimiento para su correcta ejecución.Por otra parte, gracias al software nos damos cuenta de ello y verificamos lo que previamente se teorizaba, gracias al simulador se pudo dar una mejora continua dentro de la línea haciendo ciertos cambios en operaciones ayudando a los puntos débiles de la línea de producción tanto el tiempo muerto como el retrabajo de material en la línea.
López Quiroz Mariana Jocelyn, Universidad de Guadalajara
Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur

JUEGO SERIO COMO APOYO PARA NIñOS CON DISLEXIA, Y PROBLEMAS DE LECTO-ESCRITURA.


JUEGO SERIO COMO APOYO PARA NIñOS CON DISLEXIA, Y PROBLEMAS DE LECTO-ESCRITURA.

Caraveo Guerrero Victor Yahir, Universidad Autónoma de Baja California Sur. Carballo Canales Carlos Adrian, Universidad Autónoma de Baja California Sur. García Rangel Laura Alejandra, Universidad Tecnológica de Nayarit. Hirales Núñez José Eduardo, Universidad Autónoma de Baja California Sur. López Quiroz Mariana Jocelyn, Universidad de Guadalajara. Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur



PLANTEAMIENTO DEL PROBLEMA

En México, de acuerdo a estudios realizados en 2021 por parte de la Universidad Nacional Autónoma de México, la dislexia afecta al menos a un 7% de la población. La dislexia entorpece el aprendizaje y se manifiesta principalmente con un cambio de orden en las letras y los números, dificultando la lecto-escritura. Dicha condición es comúnmente detectada en niños durante su etapa escolar; sin embargo, muchas veces puede ser catalogado con desinterés, falta de concentración y desatención. La principal problemática que se buscaba abordar con el desarrollo de este proyecto era mejorar los recursos de ayuda para los niños con dislexia, proporcionando un sistema para dispositivos móviles moderno de juegos serios, que motive al usuario a mejorar sus habilidades neurocognitivas mientras se divierte jugando. Los escasos recursos con sistemas accesibles y que usaran elementos de gamificación para apoyar a niños con alteraciones del aprendizaje, dislexia o problemas de lecto-escritura dentro de nuestro país fueron la principal fuente de inspiración que impulsó al desarrollo de Edulexia.



METODOLOGÍA

Para empezar a planificar el cómo se diseñará el sistema se utilizó una metodología de investigación mixta, con el cual se diseñó un diagrama de actividades que fue importante para llevar a los primeros pasos de desarrollo del sistema. La primera actividad a realizar fue recolectar información con ayuda de nuestros usuarios objetivo, en el equipo de trabajo se utilizó los recursos que fueron proporcionados por parte de un convenio firmado por parte de la Universidad Autónoma Aguascalientes (UAA) y el centro del desarrollo infantil (CENDI). La técnica de recolección de información utilizada fue encuestas, las cuales se hicieron con 25 alumnos del CENDI de edades de entre 6 a 8 años. La técnica de desarrollo de software utilizada para crear el primer prototipo de bajo nivel fue la metodología MPIu+a creada por Toni Granollers i Saltiveri, profesor de la Universidad de Lleida. La metodología creada por Saltiveri tiene como meta principal poner al usuario en el centro del desarrollo, por eso mismo la información recabada de nuestros usuarios fue de suma importancia para la creación de cada uno de los requerimientos del sistema. Se buscaba diseñar un sistema sencillo, accesible, operacional e intuitivo, para que nuestros usuarios se sintieran cómodos al utilizarlo. Un punto importante que debe justificarse es la forma en que fueron creados los videojuegos del sistema. Los juegos fueron creados de manera que se pudieran estimular las habilidades neurocognitivas del usuario, Para la creación de los juegos fue utilizado como base el enfoque Orton-Gillingham, el cual es un sistema de intervención multisensorial para la ayuda en la dislexia, y mejorar la enseñanza de la lectoescritura. Para incentivar al usuario a seguir usando el sistema se diseñaron retos y recompensas, elementos que fueron elegidos tomando en consideración la popularidad que se obtuvo con las encuestas. Para poder hacer las primeras pruebas del prototipo de bajo nivel del sistema se utilizó un método de descubrimiento en conjunto, mejor conocido como Co-Discovery. En esta prueba los usuarios tenían que resolver diversas tareas fusionando sus habilidades y conocimientos. Estas pruebas nos ayudaron a notar el grado de usabilidad con el que contaba nuestro sistema en esa parte del desarrollo. Los resultados de las pruebas realizadas por nuestros usuarios objetivo presentaron comentarios positivos, además de mostrarnos que el primer prototipo del sistema era claro, y usable. Se confirmó que continuar con el desarrollo del software final era una decisión completamente acertada. Para la creación de la versión final del software se tomó en cuenta la información recabada con anterioridad de las pruebas hechas a los usuarios. Se utilizó la idea base del prototipo de baja fidelidad, que sumada a la elección de temática, diseños y tipos de juegos favoritos de los usuarios hicieron posible la creación de la versión funcional beta. Esta primera versión final fue creada con el motor gráfico Unity, incorporando un plugin de desarrollo 2d, además de utilizar el lenguaje de programación C#. Por último se realizaron pruebas para medir el grado de aceptación del sistema final con nuestros usuarios. Al igual que en otras ocasiones se optó por utilizar el método de pruebas Co-Discovery. Se utilizaron dos niños de la localidad de La Paz B.C.S con edades de entre 6 a 8 años. Los resultados obtenidos mostraron él como el uso del sistema puede llegar a impactar en los usuarios. Como se esperaba, se logró atrapar a los usuarios con sus atractivos apartado visual, además de incentivarlo a seguir jugando gracias a los recursos de gamificación que se utilizaron.


CONCLUSIONES

A lo largo del tiempo de estancia del verano científico se lograron cumplir con los objetivos en la planeación del proyecto, se desarrollaron nuevos conocimientos y competencias para todo el equipo de trabajo. Consideramos que es importante mencionar que fue una tarea sencilla desarrollar el sistema, pero sin duda fue una experiencia enriquecedora para nuestra experiencia profesional. Aunque se ha demostrado que el sistema cumple con los objetivos que se plantearon en un inicio aún existen tareas por realizar para que se considere algo más que una fase beta. El sistema de juego serio para ayudar a niños con dislexia y problemas de lecto-escritura Edulexia es un recurso viable y cumple con las características necesarias de un sistema completamente enfocado en niños.
Lopez Raya Iris Jocelyn, Instituto Tecnológico Superior de Uruapan
Asesor: Mg. Cèsar Augusto Rodrìguez Ledesma, Instituto Tecnológico Metropolitano

DESARROLLO DE UN DIAGRAMA P&ID DE UN MODULO DE PRESION EN EL INSTITUTO TECNOLOGICO METROPOLITANO


DESARROLLO DE UN DIAGRAMA P&ID DE UN MODULO DE PRESION EN EL INSTITUTO TECNOLOGICO METROPOLITANO

Lopez Raya Iris Jocelyn, Instituto Tecnológico Superior de Uruapan. Asesor: Mg. Cèsar Augusto Rodrìguez Ledesma, Instituto Tecnológico Metropolitano



PLANTEAMIENTO DEL PROBLEMA

El Instituto Tecnológico Metropolitano (ITM) es una institución de educación superior que se destaca por su enfoque en la formación de profesionales en diversas áreas de la ingeniería. Dentro de sus instalaciones, el módulo de presión es una parte esencial de los laboratorios. La falta de un diagrama P&ID preciso y detallado del módulo de presión en el ITM genera varios problemas. Los procedimientos de operación y mantenimiento no están claramente definidos, lo que aumenta el riesgo de errores y accidentes. Además, la identificación de componentes y la trazabilidad del sistema son deficientes, lo que dificulta la resolución de problemas y la implementación de mejoras.



METODOLOGÍA

Desarrollo del diagrama Se realizo un diagrama P&ID para facilitar la identificación de los instrumentos dentro del sistema, también para comprender su funcionamiento con mayor facilidad. En la figura 4.1 tenemos el inicio del diagrama; donde entra la presión por medio de un regulador de presión, el cual nos permite regular la cantidad de presión que queremos que ingrese al sistema. Después tenemos un indicador de presión o manómetro por el cual podemos observar la cantidad de presión que está ingresando al sistema de manera rápida. Seguido de esto tenemos una válvula solenoide la cual desde la pantalla es activada, este tipo de válvulas solo tienen dos estados apagado o encendido y se controlan a través de un PLC es por esto que recibe una señal eléctrica. En la misma figura 4.1 tenemos también un filtro de aire, muy importante ya que estos sistemas que trabajan con aire son muy delicados y no pueden contener humedad o agua, el filtro de aire de lo que se encarga es que al detectar humedad la va filtrando para expulsar el agua o la humedad encontrada hacia el exterior. Válvula proporcional es la que sigue en el diagrama, como se puede observar también recibe una señal eléctrica esto porque está conectada al PLC y también se enciende en la pantalla, la válvula proporcional se encarga de regular la cantidad de presión entrante de acuerdo a porcentajes, es decir puede abrir 25%, 50%, 75% y 100%.   Imagen 3. Sección uno del diagrama P&ID. En la figura 4.2 que es la continuación del diagrama, tenemos otro indicador de presión esto es importante porque se tiene que estar verificando la presión que se encuentra en la tubería en cada punto del sistema. Después tenemos el tanque en el cual se almacena el aire y está conectado un sensor (Transmisor de presión) para mostrar la presión en la pantalla HMI es por esto que sale una señal eléctrica. Ahora a la salida tenemos una válvula solenoide la cual recibe una señal eléctrica por la que es controlada para abrir o cerrar, y después tenemos otro manómetro o indicador de presión.   Imagen 4. Sección dos del diagrama P&ID. Después tenemos otro sensor, pero este de temperatura (Transmisor de temperatura) como se puede observar en la figura 4.3, de este sale una señal eléctrica que va al PLC para poder mostrar la temperatura en la pantalla. Por otra tubería tenemos otro indicador de presión el numero cuatro en el módulo, seguido esta una válvula de compuerta manual, la cual se controla manualmente y no es como el solenoide que recibe la señal desde el PLC. Después se divide en dos ya que una línea nos servirá para controlar de aire suministrado a la planta, y del otro es para hacer funcionar el vacío. Es por esto que tenemos una válvula o compresor pequeño de vacío para insertar vacío dentro del sistema. Después este otro manómetro para observar el vacío que va entrando al sistema. Seguido tenemos una válvula solenoide encargada de abrir o cerrar el sistema de vacío.   Imagen 5. Sección tres del diagrama P&ID. En la figura 4.4 se puede apreciar mejor la división, ya que por un lado tenemos la válvula de aguja 01 para abrir o cerrar el suministro de presión a una planta, por ejemplo. Y por la otra línea tenemos otra válvula solenoide, seguido esta un transmisor de flujo este para observar la cantidad de fluido que esta circulando por el área y para terminar tenemos la válvula de aguja 02 para abrir o cerrar por esa salida.   Imagen 6. Sección cuatro del diagrama P&ID. Y algo muy importante también dentro del diagrama es el PLC el cual es el encargado de mandar las señales eléctricas a las válvulas para que abran o cierren, también a través de esto los transmisores de presión, temperatura o flujo pueden mostrar los valores en la pantalla. Esto haciendo que el proceso pueda funcionar sin necesidad de que el operador este en el tablero abriendo cada válvula o cerrándola.


CONCLUSIONES

El diagrama P&ID que se desarrolló para el módulo de presión es el primer paso para la generación de una documentación mas completa y detallada del sistema. Si se tuviera mas tiempo para la investigación se habría podido crear algo mas grande y en forma, aun así, el diagrama elaborado nos sirve como referencia en la realización de simulaciones. Así mismo también la experiencia adquirida en la elaboración de este diagrama podrá ser aplicada en proyectos futuros, que sean similares. Todo esto contribuyendo a mejorar la eficiencia y la calidad de los diseños. Aprendí algunos conceptos que ya había visto pero no tan profundo, como resolución y rango de un instrumento y la importancia de saber esto de cada instrumento de medición, ya que dentro de las empresas esto es algo que se toma en cuenta para elegir el instrumento adecuado para evitar errores o paros del sistema.
López Reséndiz Andrea, Instituto Tecnológico de Querétaro
Asesor: Mtro. Juan Carlos Gagna, Instituto Tecnológico de Estudios Superiores de Zamora

TRATAMIENTO DE AGUAS RESIDUALES MEDIANTE CAVITACIóN Y GOLPE DE ARIETE


TRATAMIENTO DE AGUAS RESIDUALES MEDIANTE CAVITACIóN Y GOLPE DE ARIETE

Ayala Romero Daniela, Instituto Tecnológico Superior de Uruapan. Cabello Granados Maria Evelyn, Instituto Tecnológico de Querétaro. López Reséndiz Andrea, Instituto Tecnológico de Querétaro. Asesor: Mtro. Juan Carlos Gagna, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

México enfrenta una crisis por falta de agua debido al aumento de la población y las actividades agropecuarias e industriales. La contaminación por aguas residuales domésticas e industriales es un desafío ambiental crítico. Esta situación se agrava por el tratamiento insuficiente de aguas residuales, ya que solo se trata el 57%. El uso de tecnología de cavitación y golpe de ariete en el tratamiento de aguas residuales es una solución viable para reducir la contaminación y aprovechar este recurso.



METODOLOGÍA

Proceso tradicional de tratamiento de aguas residuales Pretratamiento: Eliminación de sólidos grandes y flotantes. Igualación y homogeneización: Estabilización del flujo y la carga contaminante. Tratamiento biológico: Descomposición de materia orgánica mediante procesos anaerobios. Deshidratación de lodos: Reducción del volumen de lodos. Tratamiento terciario: Eliminación de compuestos orgánicos volátiles, patógenos y otros contaminantes. La cavitación y el golpe de ariete como alternativa La cavitación genera burbujas de vapor que colapsan, liberando energía y provocando un golpe de ariete. Beneficios: Descomposición de contaminantes: La energía liberada rompe las moléculas de los contaminantes. Oxidación de compuestos orgánicos: Elimina olores, sabores y compuestos tóxicos. Formación de radicales libres y ozono: Descompone contaminantes difíciles de eliminar. Mejora de la eficiencia de la bomba: Reduce costos y aumenta la productividad. Necesidad de investigación Estudios de caso: Identificar experiencias previas exitosas. Modelos matemáticos: Simular el comportamiento de la cavitación y el golpe de ariete en sistemas de tratamiento. Diseño de reactores: Desarrollar equipos específicos para inducir y controlar estos fenómenos.


CONCLUSIONES

Las empresas y personas generan muchos residuos, a menudo sin considerar su manejo adecuado. Un ejemplo es el agua, que después de ser usada se ensucia con restos del proceso o desechos domésticos. No siempre es viable desechar esta agua, ya que existen alternativas para su reutilización, como el tratamiento de agua que elimina elementos dañinos para darle un nuevo uso. El uso de una bomba con golpe de ariete es ventajoso para el tratamiento de aguas residuales industriales y domésticas. Este método utiliza la energía y movimiento del agua para dirigir el fluido, aprovechando la presión del agua al ingresar a la bomba y generando cavitación. Este proceso facilita el golpe de ariete, obteniendo beneficios en la depuración de agua residual. Hoy en día, los problemas ambientales severos son causados por la mala administración de recursos naturales y el manejo inadecuado de residuos. Los resultados de esta investigación sugieren que la combinación de cavitación y golpe de ariete puede ser útil para tratar ciertos contaminantes en aguas residuales. Sin embargo, es necesario realizar estudios adicionales para evaluar la viabilidad técnica de esta combinación a largo plazo, lo que podría ofrecer soluciones innovadoras y sostenibles para el tratamiento del agua.  
Lopez Rojas Oscar Isaac, Universidad Autónoma de Baja California
Asesor: Dra. Andrea Guadalupe Martínez López, Universidad Veracruzana

SíNTESIS DE NANOPARTíCULAS DE ZNO MEDIANTE DISTINTAS RUTAS PARA APLICACIONES EN FOTODEGRADACIóN


SíNTESIS DE NANOPARTíCULAS DE ZNO MEDIANTE DISTINTAS RUTAS PARA APLICACIONES EN FOTODEGRADACIóN

Lopez Rojas Oscar Isaac, Universidad Autónoma de Baja California. Asesor: Dra. Andrea Guadalupe Martínez López, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua es una problemática significativa, especialmente por los tintes industriales de sectores como el textil, plástico y cosmético. Estos tintes son tóxicos y dañan tanto la fauna como la flora. La fotodegradación es una solución prometedora, utilizando óxidos semiconductores como agentes fotocatalíticos. Las nanopartículas de óxido de zinc (ZnO) son especialmente eficaces debido a su bajo costo, baja toxicidad, estabilidad química y facilidad de síntesis.



METODOLOGÍA

  Síntesis de nanopartículas de ZnO por precipitación química: En este método, un compuesto de zinc reacciona con una base fuerte en solución acuosa, formando un precipitado de hidróxido de zinc que se calienta para convertirlo en ZnO. Biosíntesis de nanopartículas de ZnO con extracto de Aloe Vera: El gel de Aloe vera se mezcla con una solución de zinc, facilitando la reducción del precursor y la formación de nanopartículas de ZnO, que se recogen, lavan y secan. Mecanosíntesis de nanopartículas de ZnO: Se utiliza un mortero de ágata para moler manualmente un precursor de zinc, facilitando la formación de nanopartículas que luego se lavan y secan. Síntesis verde de nanopartículas de ZnO con extracto de hoja de mango: El extracto de hojas de mango se mezcla con una solución de zinc, promoviendo la formación de nanopartículas que se filtran, lavan y secan. Fotodegradación: Se evaluó la capacidad de las nanopartículas de ZnO para degradar azul de metileno bajo luz solar. Se mezclaron soluciones de azul de metileno con nanopartículas de ZnO de diversos métodos de síntesis y se incluyó un vial control sin nanopartículas. Los viales y bloques de concreto pintados con nanopartículas fueron expuestos a la luz solar durante dos semanas, documentando cambios en la intensidad del azul de metileno.


CONCLUSIONES

Durante las primeras 48 horas las nanopartículas de ZnO sintetizadas por precipitación química, extracto de Mangifera indica y mecanosíntesis mostraron alta eficiencia en la degradación del azul de metileno en solución acuosa. Las nanopartículas de Aloe vera tuvieron una degradación más lenta pero detectable. En bloques de concreto, la degradación del azul de metileno fue significativa pero más lenta que en los viales. El bloque de concreto control mostró una degradación más notable en comparación con el vial control, donde la degradación fue casi nula. Estos resultados subrayan la eficacia de las nanopartículas de ZnO en la fotodegradación de contaminantes orgánicos bajo luz solar y la necesidad de optimizar el método de síntesis para mejorar el rendimiento fotocatalítico.
Lopez Serrano Emmanuel, Universidad Veracruzana
Asesor: M.C. Minerva Osuna Zavala, Universidad Autónoma de Sinaloa

IDENTIFICACIóN DE ARQUITECTURA Y URBANISMO DE MAZATLáN: SIGLO XX ESTILO DE MOVIMIENTO MODERNO ARQ. JOSE Y GUILLERMO FREEMAN


IDENTIFICACIóN DE ARQUITECTURA Y URBANISMO DE MAZATLáN: SIGLO XX ESTILO DE MOVIMIENTO MODERNO ARQ. JOSE Y GUILLERMO FREEMAN

Lopez Serrano Emmanuel, Universidad Veracruzana. Asesor: M.C. Minerva Osuna Zavala, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El objetivo principal fue identificar y analizar las características arquitectónicas y urbanísticas de Mazatlán, enfocándose en la influencia del Movimiento Moderno y en cómo las obras de los arquitectos José y Guillermo Freeman han moldeado el paisaje urbano. Se pretende ofrecer una comprensión integral de la evolución arquitectónica de la ciudad y su impacto en el entorno urbano.



METODOLOGÍA

Análisis Urbano: Aglomeración Urbana: Se definieron las áreas de investigación y se identificaron las zonas concurridas y las zonas patrimoniales. Impacto Urbano: Se evaluó el impacto de las obras arquitectónicas en el entorno urbano, diferenciando entre áreas de mayor y menor impacto. Traza Urbana/Centro Histórico: Mapeo: Se realizó un mapeo detallado del centro histórico de Mazatlán, identificando los edificios emblemáticos y las zonas de influencia arquitectónica. Estudio de Edificios Emblemáticos: Se seleccionaron ocho edificios representativos, construidos entre 1925 y 1950, para un análisis detallado de su impacto y características arquitectónicas. Adaptación y Transformaciones: Rehabilitación y Restauración: Se estudiaron los procesos de rehabilitación de edificios históricos y su integración en el entorno moderno. Desarrollo Sostenible: Se analizaron las prácticas de construcción sostenible y el uso de materiales locales. Identificación de Características Arquitectónicas: Funcionalidad y Estética: Se evaluaron las características funcionales y estéticas de los edificios, enfocándose en su simplicidad, integración con el entorno y respeto por la historia y la cultura. Desarrollo Sostenible: Se incluyeron prácticas sostenibles y el uso de materiales locales y energía renovable en la evaluación.


CONCLUSIONES

Impacto de los Proyectos de Freeman: Integración y Respeto por la Historia: Las obras de Freeman muestran una clara integración con el entorno y un respeto por la historia y la cultura local. Funcionalidad y Estética: Los edificios presentan una combinación de funcionalidad y estética, con un diseño que facilita su uso y mantenimiento. Desarrollo Sostenible: Se implementaron prácticas de desarrollo sostenible, incluyendo el uso de materiales locales y energías renovables. Humanismo en la Arquitectura: Las obras reflejan un enfoque humanista, considerando la comodidad y el bienestar de los usuarios. Edificios Emblemáticos: Listado de Edificios Analizados: Hotel Majestic, Hotel Freeman, Hotel Belmar, Instituto PJF, Condominio Olas Altas, Edificio Olas Altas, Edificio Manuel Bonilla, Casa Freeman. Mazatlán y sus Hoteles al Mar: Zonas de Influencia: Se identificaron zonas como la Zona Dorada y Av. del Mar, donde la influencia de los proyectos analizados es más significativa. Resumen de los Puntos Clave: Desafíos y Transformaciones: Se identificaron los desafíos y transformaciones urbanas y arquitectónicas en Mazatlán, con un enfoque en la preservación del patrimonio y el desarrollo sostenible. Perfil Turístico: El impacto de la arquitectura en el perfil turístico de Mazatlán se evaluó, destacando su importancia en la atracción de visitantes.
López Trejos Juana Gabriela, Universidad Autónoma de Occidente
Asesor: Dra. Mireya Sarai García Vázquez, Instituto Politécnico Nacional

RECONOCIMIENTO DE LA POSE DE LAS MANOS CON INTELIGENCIA ARTIFICIAL PARA EL APOYO EN LA DETECCIóN TEMPRANA DEL ALZHEIMER


RECONOCIMIENTO DE LA POSE DE LAS MANOS CON INTELIGENCIA ARTIFICIAL PARA EL APOYO EN LA DETECCIóN TEMPRANA DEL ALZHEIMER

López Trejos Juana Gabriela, Universidad Autónoma de Occidente. Asesor: Dra. Mireya Sarai García Vázquez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La enfermedad de Alzheimer es la forma más común de demencia, esta enfermedad es un trastorno cerebral que destruye de manera lenta la memoria, a medida que transcurre el tiempo esta afecta el funcionamiento cognitivo de las personas, como la capacidad de pensar, razonar y de realizar tareas sencillas. Esta afecta la autonomía de las personas, generando que estas sean dependientes de terceros para poder realizar actividades básicas de la vida diaria. De acuerdo con la Organización Mundial de la Salud, más de 55 millones de personas presentan demencia en todo el mundo. Siendo la enfermedad del Alzheimer la forma más común de demencia la cual representa entre un 60% y 70% de los casos. Adicionalmente, según el informe mundial sobre el Alzheimer 2023, con el envejecimiento de las sociedades, se espera que el número de personas que viven con demencia en todo el mundo aumente a 139 millones en 2050. Una de las principales problemáticas de trastorno cerebral es su diagnóstico, ya que los métodos actuales, como las pruebas cognitivas que se realizan a lápiz y papel, requieren de mucho tiempo y son poco sensibles a la fase preclínica de la enfermedad. Además, aunque los escáneres cerebrales especializados y los biomarcadores de fluidos corporales permiten detectar las fases más tempranas del Alzheimer, estos métodos son invasivos y costosos. Por ello, existe un gran interés en utilizar la Inteligencia Artificial (IA) para el desarrollo de métodos no invasivos y poder facilitar la detección temprana de esta enfermedad de manera rápida, precisa y menos costosa, generando un apoyo en el diagnóstico clínico.



METODOLOGÍA

Se inició con una revisión bibliográfica para establecer el estado del arte en la aplicación de técnicas de IA para la detección temprana del Alzheimer. Esta revisión permitió identificar las metodologías predominantes en proyectos de detección de la pose de las manos, así como los tipos de datos utilizados, los patrones analizados, y las arquitecturas basadas en redes neuronales para el procesamiento de datos más utilizadas. A partir de los hallazgos de la revisión, se estableció la metodología del proyecto, el cual se estructuró en 4 etapas: adquisición de datos, preprocesamiento, procesamiento y evaluación. Paralelamente, se profundizó en el estudio teórico de conceptos claves como IA, aprendizaje automático, aprendizaje profundo y aprendizaje supervisado y no supervisado. Asimismo, se examinaron las métricas de evaluación comúnmente empleadas para cuantificar el rendimiento de los algoritmos de IA. Luego, se realizó una segunda fase de revisión bibliográfica, enfocada a estudios recientes que abordaran los siguientes criterios: Utilización de datos en formato de vídeo o imágenes RGB, Implementación y documentación detallada del proceso de esqueletización de las manos, Incorporación de soluciones al problema de oclusión, Disponibilidad de repositorios con información suficiente para replicar los algoritmos propuestos. A partir de este análisis se identificó la prevalencia de arquitecturas de codificación-decodificación en el reconocimiento de la pose de la mano. Después, se profundizó en la estructura y funcionamiento de las arquitecturas de codificación-decodificación como la red U-Net, con énfasis en los tipos de datos compatibles, metodología de anotación y etiquetado de datos, formatos y dimensiones de datos requeridos. Posteriormente, utilizando como base un algoritmo fundamentado en la arquitectura U-Net, se llevaron a cabo experimentos de entrenamiento y validación empleando un conjunto de datos de imágenes RGB de poses de manos. De este proceso se logró identificar y analizar cada componente de la arquitectura utilizada para la estimación de las poses de las manos, realizar pruebas de entrenamiento y validación modificando parámetros del modelo, evaluar el impacto de estas modificaciones en el rendimiento del modelo, utilizado las métricas establecidas como la pérdida y la Pérdida por Intersección sobre Unión y analizar de manera cualitativa la precisión en la estimación de la pose de las manos. 


CONCLUSIONES

Durante la estancia, se adquirieron conocimientos teóricos y prácticos sobre IA y la estructura de proyectos que aplican aprendizaje profundo. Se exploraron las arquitecturas de redes neuronales, su estructura y la implementación de estas. A partir de un código base para el reconocimiento de la pose de las manos, se profundizó en cómo están conformadas las bases de datos para este tipo de aplicación, el proceso de entrenamiento y prueba de los algoritmos. En general, se aprendió el proceso necesario para implementar un proyecto utilizando IA, enfocándose en la solución de problemas del mundo actual, como la detección temprana del Alzheimer. De acuerdo con los estudios y análisis que se realizaron al estado del arte durante este proyecto, se identificó que la aplicación de la IA específicamente los modelos basados en aprendizaje profundo para el reconocimiento de la pose de las manos son una dirección viable y prometedora para ser un apoyo tecnológico en las pruebas empleadas para la detección temprana de la enfermedad del Alzheimer. Es importante enmarcar que en este trabajo se profundizó en la investigación para la selección de los parámetros biométricos y del modelo más adecuado; lo cual implica evaluar diferentes arquitecturas y modelos bajo criterios técnicos como su precisión, facilidad de implementación y la compatibilidad de los datos y parámetros biométricos. Por otro lado, aunque el enfoque principal del proyecto se alinea con el ODS 3, este proyecto también abre oportunidades significativas en el ámbito educativo, contribuyendo así al ODS 4. Ya que, el desarrollo de este en el contexto de una estancia de investigación en una institución educativa fomenta un entorno de aprendizaje activo y práctico para el estudiante, mejorando así sus competencias en el campo de la IA y su aplicación en problemas del mundo real. Agradecimiento: Este proyecto fue realizado en el contexto del proyecto SIP-IPN 2024.
Lopez Valderrama Hilberth Frandey, Universidad del Valle
Asesor: Dr. Derlis Hernández Lara, Universidad Politécnica de Texcoco

DESARROLLO DE UNA APLICACIóN WEB PARA EL ANáLISIS DE DATOS ABIERTOS DE ESTADíSTICAS DELICTIVAS EN BUCARAMANGA: UNA HERRAMIENTA PARA CONSULTAR LA TENDENCIA DE SEGURIDAD CIUDADANA


DESARROLLO DE UNA APLICACIóN WEB PARA EL ANáLISIS DE DATOS ABIERTOS DE ESTADíSTICAS DELICTIVAS EN BUCARAMANGA: UNA HERRAMIENTA PARA CONSULTAR LA TENDENCIA DE SEGURIDAD CIUDADANA

Lopez Valderrama Hilberth Frandey, Universidad del Valle. Asesor: Dr. Derlis Hernández Lara, Universidad Politécnica de Texcoco



PLANTEAMIENTO DEL PROBLEMA

Las principales causas de la creciente delincuencia en la ciudad de Bucaramanga parecen estar arraigadas en una combinación de factores socioeconómicos y culturales. Según un estudio reciente de Serrano, la falta de oportunidades económicas y la inaccesibilidad a la educación son factores críticos que contribuyen a la delincuencia en las ciudades colombianas. Además, la influencia de grupos delictivos organizados y el tráfico de drogas han exacerbado el problema. Estos grupos a menudo reclutan a jóvenes desfavorecidos, ofreciéndoles una forma de escapar de la pobreza, pero a su vez contribuyen a la violencia y a la inseguridad en la comunidad. El problema central de esta investigación es la creciente delincuencia en la ciudad de Bucaramanga en Colombia. Los efectos de esta problemática son numerosos y de amplio alcance. La inseguridad puede limitar la libertad de movimiento de las personas, afectar su salud mental y llevar a un mayor aislamiento social. Además, las altas tasas de delincuencia pueden disuadir la inversión y el desarrollo económico, lo que a su vez puede exacerbar las desigualdades socioeconómicas existentes. Finalmente, la violencia y la delincuencia pueden tener un impacto duradero en las comunidades, creando un ciclo de miedo e inseguridad que puede ser difícil de romper. En este sentido, es esencial desarrollar estrategias efectivas para abordar las causas subyacentes de la delincuencia y mejorar la seguridad ciudadana.



METODOLOGÍA

El presente trabajo tiene como objetivo desarrollar una aplicación web que permita analizar datos abiertos de estadísticas delictivas en la ciudad de Bucaramanga, Colombia. La investigación se centra en identificar patrones y tendencias en los reportes delictivos para contribuir a la obtención de información de valor que pueda apoyar a la seguridad ciudadana. A través del uso de herramientas de análisis de datos, se espera proporcionar una solución efectiva que permita a las autoridades locales y a la comunidad tomar decisiones informadas y estratégicas en la lucha contra la delincuencia. El estudio aborda las causas socioeconómicas y culturales de la criminalidad, la influencia de grupos delictivos organizados y el impacto del tráfico de drogas en la región. Además, se propone un modelo de análisis de datos y se valida su efectividad en un entorno de laboratorio, con el fin de preparar el camino para su implementación en un entorno real.


CONCLUSIONES

En conclusión, la implementación de una aplicación web para el análisis de datos delictivos ha demostrado ser una herramienta poderosa para mejorar la información al respecto de la tendencia en la seguridad ciudadana de Bucaramanga. Mediante el uso de tecnología avanzada y análisis de datos, se ha logrado identificar patrones y tendencias que permiten a las autoridades locales tomar decisiones informadas y estratégicas para combatir la delincuencia. La capacidad de visualizar datos de manera clara y comprensible a través de dashboards interactivos y filtros específicos facilita la comprensión de la situación de seguridad en la ciudad. Esto no solo ayuda a las autoridades a enfocar sus esfuerzos en las áreas más críticas, sino que también proporciona a los ciudadanos una mayor transparencia y confianza en las acciones tomadas para mejorar su seguridad. Además, la accesibilidad y eficiencia de la aplicación web permiten una actualización constante y en tiempo real de los datos, lo que es crucial para mantener una respuesta rápida y efectiva ante cualquier cambio en la situación delictiva. La participación de la comunidad en el reporte y seguimiento de incidentes también contribuye a crear un entorno más seguro y colaborativo. En resumen, el uso de esta tecnología no solo mejora la consulta de información como insumo para la gestión de la seguridad pública, sino que también fortalece el tener claro la tendencia en la seguridad entre los habitantes de Bucaramanga, promoviendo una mejor toma de decisiones y acciones para mejorar la calidad de vida y un mayor bienestar social.
Lopez Vazquez Juan Pablo, Universidad Autónoma de Aguascalientes
Asesor: Dra. Daniela Mercedes Martínez Plata, Universidad Autónoma de Baja California

CLASIFICADORES BAYESIANOS COMO MéTODO PARA GENERAR ALGORITMOS CLASIFICADORES.


CLASIFICADORES BAYESIANOS COMO MéTODO PARA GENERAR ALGORITMOS CLASIFICADORES.

Lopez Vazquez Juan Pablo, Universidad Autónoma de Aguascalientes. Asesor: Dra. Daniela Mercedes Martínez Plata, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

La clasificación de arritmias cardiacas es un desafío crucial en el campo de la cardiología y la inteligencia artificial. Las arritmias, que representan alteraciones en el ritmo normal del corazón, pueden variar desde benignas hasta potencialmente mortales. Detectarlas y clasificarlas de manera precisa es vital para la atención médica oportuna. En este contexto, los clasificadores bayesianos han emergido como una herramienta poderosa debido a su capacidad para manejar incertidumbres y utilizar eficientemente información previa.



METODOLOGÍA

Revisión de literatura académica y libros de texto sobre clasificadores bayesianos. Enfoque en los fundamentos del Teorema de Bayes y su aplicación en el modelo Naive Bayes.Estudio de artículos científicos relevantes que apliquen clasificadores bayesianos en el ámbito biomédico, con énfasis en la clasificación de señales médicas.Resumen y síntesis de los conceptos clave, incluyendo las ventajas, limitaciones, y supuestos inherentes al modelo Naive Bayes. Ejecución de ejemplos básicos utilizando bibliotecas como scikit-learn, donde se practiquen la creación, entrenamiento y evaluación de un clasificador Naive Bayes en conjuntos de datos conocidos Por último quedó pendiente analizar la base de datos y entrenar el algoritmo para esta problematica.


CONCLUSIONES

Se anticipa que el modelo Naive Bayes entrenado será capaz de clasificar arritmias con una precisión aceptable, especialmente en escenarios donde la simplicidad y la interpretabilidad son valiosas.
López Villarreal Geovana Sinai, Instituto Tecnológico de Tepic
Asesor: Dra. Grace Erandy Báez Hernández, Instituto Tecnológico Superior de Guasave

PRODUCCIÓN DE STEVIA COMO ALTERNATIVA DE CULTIVO SOSTENIBLE Y CONOCER LA PERCEPCIÓN DEL CONSUMO DE STEVIA EN TEPIC, NAYARIT


PRODUCCIÓN DE STEVIA COMO ALTERNATIVA DE CULTIVO SOSTENIBLE Y CONOCER LA PERCEPCIÓN DEL CONSUMO DE STEVIA EN TEPIC, NAYARIT

López Villarreal Geovana Sinai, Instituto Tecnológico de Tepic. Asesor: Dra. Grace Erandy Báez Hernández, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

Los alimentos dulces han sido muy importantes en la alimentación del ser humano ya que estimulan el sentido del gusto causando una sensación agradable al consumir los alimentos. A finales del siglo XIX fueron descubiertos diversos edulcorantes (compuestos naturales o sintéticos de sabor dulce). La stevia rebaudiana es una planta originaria del sudeste de Paraguay, miembro de la familia de las asteráceas, conocida como hoja dulce. Es un arbusto perene que puede alcanzar de 65 a 80 cm, pero que cultivada a campo abierto puede llegar hasta 1 metro de altura. Sus hojas lanceoladas miden aproximadamente 5 cm de longitud y 2 cm de ancho y se disponen alternas, enfrentadas de dos en dos. Pueden utilizarse para la producción comercial por periodo de 5 o más años, dando varias cosechas anuales. (Madan, S & Singh, 2016). En la actualidad, la ingesta de azúcar es común entre la población mexicana ocasionando problemas de salud, siendo México el país que ocupa el sexto lugar en consumo de azúcar a nivel mundial. El consumo total de azúcar y edulcorantes en México es de 7 832 millones de toneladas por año.(Barqueada cervera S, 2010).  Con base a esto, la investigación tiene como objetivo, conocer la producción de Stevia para ser una alternativa de cultivo sostenible a los productores agrícolas de Guasave  para el desarrollo de productos, mismos que se identificaran  con la percepción del consumo de stevia rebaudiana en Tepic, Nayarit. Este trabajo contribuye a los Objetivos de desarrollo Sostenible ODS de la Agenda 2030 de las Naciones Unidas, específicamente en ODS número 2 Hambre cero , impactando las metas de generar una alternativa sostenible de cultivo para las tierras, y lograr la seguridad alimentaria y la mejora de la nutrición promoviendo la agricultura sostenible.  En el ODS 3 Salud y Bienestar impacta en la meta de fortalecimiento de la prevención y tratamientos de abuso de sustancias adictivas, específicamente el azúcar. Contribuyendo al bienestar social y mejorando la calidad de vida.   



METODOLOGÍA

La metodología se estructuró en dos fases, La primera fase fue una investigación documental para conocer y estudiar las condiciones del cultivo, producción así como las condiciones del cultivo, para el siguiente ciclo.  En la segunda fase se generó una encuesta para conocer la percepción de la población con respecto a conocimiento y productos de valor agregado de stevia son parte del mercado.  La investigación documental fue una investigación básica, descriptiva de las características de la planta y las condiciones que se deben de considerar para la producción de la planta y el procesamiento del mismo.  La parte de percepción se realizó una investigación descriptiva a través de una encuesta que fue tipo cuestionario de 15 preguntas, unas dicotómicas, preguntas abiertas y cerradas.  Que se realizó en la ciudad de Guasave, Se utilizó un formulario Google Forms y se utilizó un muestreo simple aleatorio, con un nivel de confianza de 90% y un error de 8% solicitando desarrollar 106 encuestas.    


CONCLUSIONES

RESULTADOS:  La  encuesta  se realizó en la ciudad de Tepic seleccionando de manera  aleatoria a las personas que contestaran el instrumento.   De las 106 encuestas se tiene que 63% son mujeres,  35.2% son hombres y 1.8% prefirieron no decirlo. En promedio tiene un rango de edad de 18-25 años un 60.2%, de 26-35 años un 14.8%, de 36-45 años un 16.7%, y de 46-55 años un 8.3%. El 88% conoce la planta llamada Stevia rebaudiana y productos  solo el 12% no conoce la planta.  El 32.4% conoció la stevia por tiendas de autoservicio y/o restaurantes, el 19.4% por recomendación de un conocido, el 17.6% por redes sociales, el 13% por televisión, el 11.1% por recomendación médica, y el resto por otros medios. La presentación con mayor frecuencia es en polvo con un 81.5%, 14.8% como ingredientes de postres, 13% en presentación líquida, 11.1% como ingredientes en bebidas, 9.3% como hojas molidas, y el resto indicaron otras opciones. El 81.5% consume de manera frecuente la presentación de polvo de stevia  Indicando que el  41,7 % la ingiere 1 vez al mes.  La marca de stevia que tiene mayor consumo es la marca SPLENDA  ya que es fácil de encontrar.  Y con un precio promedio a la venta de $ 76 pesos , otra marca ,mencionada fue SVETTIA, pero no supieron decir un precio aproximado. El 67.6% considera el sabor dulce de stevia en comparación con el azúcar, mientras que al 13% le es desagradable y el 9.3% no percibe el cambio de sabor, y el resto respondieron otras opciones. El 95.4% no presenta ningún efecto al consumir stevia solamente el 3.7% presenta alergias o dolor de estómago, el resto eligieron otras opciones..  El 49.1% no la usan para ningún padecimiento, el 25% para el control de glucosa, el 25% para el control de peso, el 5.6% para el control de presión arterial, el 4.6% para el control de colesterol y/o triglicéridos, y el resto seleccionó otras opciones. El 70.4% compra stevia en supermercados, el 14.8% en tiendas de la esquina, el 2.8% en tiendas en línea, y el resto tuvieron otras respuestas. CONCLUSIONES Durante la investigación se identificó y analizó un cultivo sustentable para los productores de Guasave Sinaloa, La stevia, que va desde la producción y transformación de nuevos productos, desarrollando valor agregado a la actividad primaria. Con la encuesta se  conoce la percepción del consumo de estevia y   las necesidades claves del mercado para la presentación de los productos, que son desde hoja, líquida y polvo de estevia para el consumo local, regional y nacional.  Con la estancia, pude profundizar en el conocimiento científico y práctico sobre el cultivo de la Stevia rebaudiana, lo que me permitió identificar estrategias eficientes para su cultivo y comercialización. Esta experiencia no solo enriqueció mis habilidades de investigación y análisis, sino que también me brindó una visión más amplia y crítica sobre las necesidades y desafíos del sector agrícola en la región.  
Lopez Zapata Jesus Alejandro, Universidad Autónoma de Sinaloa
Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa

MAPA DE INTENSIDAD SíSMICA PARA EL ESTADO DE SINALOA


MAPA DE INTENSIDAD SíSMICA PARA EL ESTADO DE SINALOA

Lopez Zapata Jesus Alejandro, Universidad Autónoma de Sinaloa. Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En los últimos años la actividad sísmica en nuestro país se ha visto en aumento, desencadenando graves problemas a la vida de la sociedad mexicana y a la infraestructura dentro del territorio nacional. Sinaloa es un estado cuya actividad sismológica cada vez es más perceptible, lo que puede traer consigo consecuencias mayores como en otras entidades cuya actividad sísmica es mayor y representa un riesgo. Durante la estancia de verano se trabajó en un mapa de intensidad sísmica centrándose primordialmente en el estado de Sinaloa, recopilando los sismos de mayor magnitud desde 1900 hasta la fecha actual, con el fin de localizar las zonas cuya intensidad sísmica es mayor y el posible impacto que podría tener sobre las poblaciones circundantes.



METODOLOGÍA

Para ello se recabo información del servicio sismológico nacional de la actividad sísmica del estado de Sinaloa, partiendo del año 1900 hasta llegar a la actualidad. Utilizando la fórmula 3.24, Pág. 88, para aceleración máxima, del libro GEOTECHNICAL EARTHQUAKE ENGINEERING, una vez obtenidos los valores de aceleraciones máximas, utilizando el programa Excel se realizo un mapa localizando el punto de origen del sismo para posteriormente calcular la distancia de dicho punto hasta el territorio de Sinaloa y las poblaciones mas cercanas al epicentro del sismo, obteniendo así un mapa que denota las zonas y sus respectivas aceleraciones del suelo.


CONCLUSIONES

De la presente investigación se pudo obtener información acerca de la actividad sísmica de Sinaloa a lo largo de su historia, así como comprender conceptos clave dentro de la ingeniería sísmica, como resultado de ello se logro el desarrollo de una herramienta grafica que nos permitirá medir el comportamiento del suelo donde se asientan diferentes estructuras cuyo uso y seguridad son importantes para la población, llegue a la conclusión que el estudio de estos fenómenos es clave para el desarrollo de obras que salvaguarden la integridad física de sus habitantes, la compresión y entendimiento de los sismos será clave para mejorar y actualizar los reglamentos constructivos utilizados en todo el país. Gracias al verano de investigación científica pude adentrarme mas en un tema que es de mi interés y darme cuenta de que esto es solo un poco de lo amplio y basto que es.  
Loranca Gomez Sofia, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Gregorio Trinidad García, Benemérita Universidad Autónoma de Puebla

SISTEMA DE MONITOREO EN TIEMPO REAL PARA EL CONTROL DE UNA MANO ROBóTICA INCORPORANDO SENSORES FLEX MEDIANTE ESP32


SISTEMA DE MONITOREO EN TIEMPO REAL PARA EL CONTROL DE UNA MANO ROBóTICA INCORPORANDO SENSORES FLEX MEDIANTE ESP32

Cervantes Rodriguez José de Jesús, Instituto Politécnico Nacional. Loranca Gomez Sofia, Benemérita Universidad Autónoma de Puebla. Padilla Aguirre Maythe Monserrat, Universidad de Guadalajara. Asesor: M.C. Gregorio Trinidad García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En diversos campos como la biomédica y robótica se ha buscado una interacción amigable con el ser humano. Provocando una necesidad creciente por desarrollar sistemas robóticos complejos capaces de replicar movimientos humanos, logrando una interacción eficiente e intuitiva. El principal desafío en la creación de sistemas robóticos es el diseño y la implementación de sistemas de procesamiento de señales. Los robots actuales presentan movimientos toscos, simples y con tiempos de respuesta lentos por lo que se propone diseñar un sistema de control eficiente en tiempo real, garantizando la precisión y efectividad del sistema. 



METODOLOGÍA

La creación de una mano robótica presenta dos desafíos principales: diseñar un software para procesar señales de sensores flexores para a su vez mapear el movimiento de los servomotores, además de diseñar un sistema embebido que garantice movilidad y facilidad de uso. El procesamiento de señales, se desarrolló un software en Arduino IDE usando un filtro de media móvil optimizado con hilos, mejorando la estabilidad de los datos y permitiendo el procesamiento paralelo de múltiples sensores. Diseño y desarrollo de filtro  El objetivo del filtro es mantener constante la señal digital de acuerdo con la posición del sensor flexor. Para esto, la señal analógica de los sensores se convierte a digital para ser utilizada por el ESP32. Luego, un filtro de media móvil procesa continuamente 20 valores de la señal, eliminando fluctuaciones no deseadas, proporcionando datos consistentes. La efectividad del filtro se mide por su capacidad para suavizar señales calculando el promedio de un conjunto de datos dentro de una ventana fija. Este proceso reduce la variabilidad causada por el ruido típico en este tipo de señales, logrando una serie de valores estables y confiables. Una vez validada la eficacia del filtro en el entorno de desarrollo, se encapsuló el código en una librería que facilita la llamada a la función del filtro para cada sensor en el código principal, permitiendo manejar las señales de múltiples sensores de manera independiente pero uniforme, asegurando un tratamiento consistente y eficiente de los datos. Para cada sensor, el filtro aplica el mismo proceso de cálculo de media, asegurando un tratamiento coherente de las señales. Esto permite manejar variaciones y ruido de manera uniforme, proporcionando datos consistentes y comparables, facilitando así la integración en un sistema digital como el ESP32 para su análisis y procesamiento. Optimización con hilos para procesamiento paralelo  Una vez obtenidos los valores filtrados de los sensores flexores, se implementaron hilos para controlar eficientemente el flujo del programa y evitar la saturación del microprocesador. Esto mejoró el tiempo de respuesta, rendimiento y manejo de operaciones críticas. Durante el desarrollo del código, se utilizó FreeRTOS para crear multitareas en el microprocesador de doble núcleo Tensilica Xtensa LX6 en la ESP32. El núcleo 0 maneja tareas básicas como Wi-Fi y Bluetooth, esenciales para la conectividad. Antes de implementar los hilos, el sistema tenía una respuesta lenta y con retardo, impidiendo la precisión y el rendimiento deseados. Para solucionar este problema, se utilizó el núcleo 1 para las tareas del proyecto, separando las tareas críticas de conectividad del procesamiento de señales. Cada sensor flexor fue asociado a una tarea independiente para capturar la señal analógica, y con la función ‘xTaskCreatePinnedToCore’ de FreeRTOS se crearon tareas específicas para los servomotores, asignándolas a un núcleo del microprocesador. A cada tarea se le asignó una pila de memoria de 10,000 bytes, asegurando suficiente espacio para las variables locales y un procesamiento eficiente de los datos. Esta implementación no solo mejoró la organización del procesamiento y optimizó los recursos del microcontrolador, sino que también resolvió problemas de lentitud y retardo, permitiendo gestionar múltiples operaciones en paralelo con un tiempo de respuesta casi instantáneo. Hardware En el desarrollo de un sistema de control de mano robótica, el diseño y la implementación física del hardware son fundamentales en el desarrollo de diversas tecnologías. El sistema de control desarrollado en esta investigación abarca varios conceptos para replicar movimiento mediante procesos como la recolección y el procesamiento de señales analógicas. La primera parte consiste en un guante con sensores flexibles que responden a la deformación, obteniendo una resistencia variable. Para asegurar la lectura de datos, se implementan divisores de voltaje, con una configuración específica para los sensores Flex que permite obtener un voltaje de salida compatible con las entradas analógicas del ESP32. La segunda parte incluye una mano robótica con piezas impresas en 3D controlada por servomotores SG90, que replican los movimientos de los dedos según las acciones realizadas con el guante.


CONCLUSIONES

Los resultados durnate verano mostraron un avance significativo en el filtrado de señales y la optimización de recursos. La técnica de filtrado fue útil para obtener señales estables, mientras que la implementación de hilos mejoró el tiempo de respuesta. Este proyecto tiene un impacto notable en la ingeniería biomédica, estableciendo bases para dispositivos médicos y prótesis donde la precisión es crucial. Además, la metodología puede adaptarse y expandirse a otros sensores industriales, abriendo nuevas oportunidades para el desarrollo tecnológico.
Loranca Mota Francisco Hazael, Instituto Tecnológico de Puebla
Asesor: Dr. Alejandro Medina Santiago, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

INVESTIGACIóN Y ARMADO DE UN PROTOTIPO ELECTRóNICO DE IOT APLICADO EN LA MEDICIóN DE PARáMETROS DE UN AUTOMóVIL.


INVESTIGACIóN Y ARMADO DE UN PROTOTIPO ELECTRóNICO DE IOT APLICADO EN LA MEDICIóN DE PARáMETROS DE UN AUTOMóVIL.

Alonso Esteban Jesus, Universidad Autónoma de Guerrero. Loranca Mota Francisco Hazael, Instituto Tecnológico de Puebla. Asesor: Dr. Alejandro Medina Santiago, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

PLANTEMIENTO DEL PROBLEMA. Como podemos observar en la actualidad, las industrias automotrices han estado enfrentando en mejorar la seguridad, el rendimiento y la eficiencia de los vehículos. Sin embargo, la mayoría de automóviles actuales carecen de un sistema avanzado de tecnología de monitoreo en donde los usuarios puedan acceder a información del estado general del vehículo. En el sistema de monitoreo en algunos coches por lo general nos impiden poder recolocar la eficiencia de los datos en tiempo real, como por ejemplo lo que es la aceleración, velocidad, inclinación y temperatura de nuestro motor. Como datos a esto: Hay un dispositivo llamado OBD2 donde nos ayudó a poder recopilar los datos de un vehículo, por lo general ese dispositivo no tiene gran capacidad de ver los datos. Lo que pretendemos en nuestro dispositivo es en guardar todos los datos a un módulo de Micro SD y después en automático subir los datos a la nube donde se estará viendo los datos recopilados en tiempo real. Gracias a los módulos IoT, nos ofrece a tener dicha integración de los dispositivos de comunicación en los automóviles, sensores, rendimiento y la seguridad. La combinación que realizamos fueron de sensores como giroscopio, acelerómetro, y los módulos de almacenamientos junto con una conectividad inalámbrica con un ESP8266 y el MCP2515. Gracias a estos módulos se logró en hacer una integración a un prototipo de escaneo en general de un auto. Este proyecto contribuirá a un desarrollo de nuevas tecnologías aplicado en los vehículos, para poder mejorar la experiencia de los usuarios. Nuestro objetivo es validar y desarrollar un sistema de monitoreo de IoT que sea capaz de registrar y medir los parámetros del automóvil, proporcionando en la seguridad del vehículo y la información de tiempo real para ir mejorando el rendimiento del vehículo.



METODOLOGÍA

1. Diseño del sistema Componentes principales: esp8266 Giroscopio y acelerómetro Módulo MicroSD MCP2515 (modulo CAN BUS) Arduino uno 2. Creación del código Primero se creó el código del giroscopio, módulo MicroSD y MCP2515 en Arduino para ver la compatibilidad de los dispositivos. Viendo que la mayoría son compatibles y funcionales en un sistema típico, en este caso el Arduino se procedió a adaptar el código en un microcontrolador esp8266. 3. Montaje del sistema Conexión de pines: Tanto el módulo microSD y el MCP2515 tienen la llamada comunicación SPI, por los cuales sus pines se conectan igual a excepción del Pin cs que varía según el módulo y la alimentación 3-5 V. El giroscopio y acelerómetro funcionan con comunicación I2C por lo cual solo vasta con conectarlo a la alimentación y a los pines I2C correspondientes del microcontrolador. Se agregó un puerto OBD2 y un regulador de 5 V para alimentar el sistema y sé compatible con un auto. 4. Pruebas del sistema: El sistema guarda la información del giroscopio de manera adecuada en un SD y puede ser alimentado con 12 V, pues el regulador se encargara de bajarlo a 5 V. La comunicación Can bus requiere métodos adicionales para ser funcional. Se comprobó buena recepción en el analizador de datos  ThingSpeak.


CONCLUSIONES

Se concluye que este trabajo de investigación comenzó con muchos desafíos, esto debido a la complejidad del proyecto, pues en esta ocasión no nos enfrentábamos solo a la programación de sensores, sino que se tuvo la necesidad de recurrir a agregar un analizador de datos muy intuitivo, no obstante lo verdadera complejidad fue el hecho de lograr que todo funcionara en el microcontrolador esp8266 y al mismo tiempo lograr la tan esperada comunicación CanBus, lo cual en este punto llevara más tiempo de investigación por su naturaleza compleja sin embargo el resto del dispositivo es un prototipo completamente funciona.
Loza Sandoval Leonardo Sebastian, Universidad de Guadalajara
Asesor: M.C. Arturo Valdivia González, Universidad de Guadalajara

DETECCIóN DE FALLAS EN SISTEMAS FOTOVOLTAICOS USANDO TERMOGRAFíAS Y ALGORITMOS METAHEURíSTICOS


DETECCIóN DE FALLAS EN SISTEMAS FOTOVOLTAICOS USANDO TERMOGRAFíAS Y ALGORITMOS METAHEURíSTICOS

Loza Sandoval Leonardo Sebastian, Universidad de Guadalajara. Asesor: M.C. Arturo Valdivia González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, la energía solar ha ganado una importancia significativa debido a su capacidad para proporcionar una fuente de energía renovable y sostenible. Sin embargo, la eficiencia de los sistemas de celdas solares puede verse comprometida por diversas fallas, como sombras parciales, defectos inherentes o daños físicos. Estas fallas no solo disminuyen la producción eléctrica, sino que también pueden provocar una polarización inversa, causando un sobrecalentamiento de las celdas defectuosas. La detección temprana y precisa de estas fallas es crucial para garantizar el rendimiento óptimo y la longevidad de los paneles solares. La utilización de drones equipados con cámaras termográficas ofrece una solución innovadora para el mantenimiento preventivo y correctivo de grandes instalaciones de paneles solares. Las imágenes termográficas permiten identificar celdas solares dañadas al mostrar áreas más calientes, características de los defectos. Sin embargo, analizar manualmente estas imágenes puede ser un proceso tedioso y propenso a errores.



METODOLOGÍA

Para abordar este desafío, este proyecto propone el uso de algoritmos metaheurísticos y técnicas de segmentación de imágenes para automatizar la detección de fallas en sistemas de celdas solares. Esta metodología no solo mejorará la precisión y eficiencia del mantenimiento, sino que también reducirá los costos y el tiempo asociado con las inspecciones manuales. Además, la construcción de un dataset con termografías reales, complementado con técnicas de aumento de datos (data augmentation), permitirá un entrenamiento robusto de los algoritmos, mejorando su capacidad de generalización y precisión en la detección de fallas. Una de las labores más tardadas de este proyecto es la construcción del conjunto de datos, pues se requieren termografías para cada tipo de falla eléctrica en celdas solares, esto para realizar la clasificación correctamente para cada caso. Para esto se está trabajando con un ingenierio en energía eléctrica el cual facilita la herramienta de un dron con cámara termográfica para obtener las tomas de instalaciones de celdas solares. En una primera instancia, se trabajará con la detección de una sola falla para cada prueba/termografía, dado que uno de los retos es realizar la detección de múltiples puntos de distintos tipos de fallas contenidos en una sola termografía, es por esto importante en un primer punto realizar pruebas con casos aislados. Para la segmentación de las termografías se propone el algoritmo OTSU, el cual es una de las técnicas ampliamente utilizada para la segmentación el cual se basa en el histograma de la imagen y en la varianza de la imagen y de las intraclases que generan los umbrales. La capacidad de este método para tratar problemas de picos de frecuencia e incluso ruido que pueden contener áreas delicadas de la imagen, lo hacen adecuado para trabajar con imágenes térmicas. En una primera instancia se propone realizar una clasificación de las fallas más comunes y fáciles de identificar en un sistema de paneles solares, como lo son las siguientes: Módulos en circuito abierto Cortocircuito o diodo de derivación Celdas rotas Celdas defectuosas La metaheurística propuesta para este proyecto es el algoritmo PSO debido a la facilidad de implementación que esta conlleva. A demás, de que la selección de OTSU-PSO ha demostrado en anteriores aplicaciones con uso de termografías que suele ser de las mejores combinaciones. No obstante, se probaran distintas combinaciones para comprobar el más óptimo. Métricas propuestas para la comparación: PSNR, SSIM, FSIM.  


CONCLUSIONES

El desarrollo de un sistema automatizado de detección de fallas en celdas solares, basado en imágenes termográficas y algoritmos metaheurísticos, representa una solución efectiva para optimizar el mantenimiento preventivo y correctivo de grandes instalaciones solares. Este enfoque no solo mejorará la precisión y eficiencia del mantenimiento, sino que también reducirá los costos y el tiempo asociado con las inspecciones manuales, contribuyendo significativamente a la sostenibilidad y eficiencia del uso de energía solar. Objetivos y Resultados Esperados Captura y Preprocesamiento de Imágenes: Capturar imágenes termográficas mediante drones y aplicar técnicas de procesamiento de imágenes para mejorar la calidad de las termografías y resaltar las áreas de interés. Desarrollo y Validación de Algoritmos: Diseñar algoritmos metaheurísticos para segmentar y clasificar las celdas solares según su estado térmico, y desarrollar modelos de detección de fallas. Estos modelos se validarán utilizando métricas de precisión, sensibilidad y especificidad, ajustando los algoritmos según sea necesario. Pruebas en Campo y Feedback: Realizar pruebas en instalaciones solares reales para validar el sistema en condiciones operativas y recopilar feedback para mejoras continuas. Análisis de Costos y Beneficios: Evaluar el impacto económico del sistema automatizado en términos de reducción de costos de mantenimiento y aumento de la eficiencia operativa de las instalaciones solares.
Lozada Rodriguez Marbella, Instituto Tecnológico de Ciudad Juárez
Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara

IDENTIFICACIóN Y ANáLISIS DE LOS FACTORES DE RIESGOS PSICOSOCIALES QUE DESARROLLAN EL SíNDROME DE BURNOUT EN LíDERES DE UNA MAQUILADORA DE MOLDEO EN CIUDAD JUáREZ, CHIHUAHUA.


IDENTIFICACIóN Y ANáLISIS DE LOS FACTORES DE RIESGOS PSICOSOCIALES QUE DESARROLLAN EL SíNDROME DE BURNOUT EN LíDERES DE UNA MAQUILADORA DE MOLDEO EN CIUDAD JUáREZ, CHIHUAHUA.

Flores Rodriguez Jessenia, Instituto Tecnológico de Ciudad Juárez. Lozada Rodriguez Marbella, Instituto Tecnológico de Ciudad Juárez. Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

    Es importante identificar los factores de riesgo psicosocial que pueden influir en el desarrollo del síndrome de burnout laboral, por afectar no sólo a los empleados que lo experimentan directamente, sino también a los empleadores y a la dinámica general de las organizaciones. El síndrome se caracteriza por el agotamiento emocional, la despersonalización y una sensación de disminución en la realización personal,  impacta a la salud mental de los individuos, su bienestar físico y la capacidad para desempeñar eficazmente los roles de trabajo.     Los factores de riesgo psicosocial  pueden causar el síndrome de burnout en los líderes de la maquiladora de moldeo, algunos ejemplos son: naturaleza exigente y competitiva del entorno laboral, largas jornadas laborales, presión para cumplir con objetivos y expectativas, falta de tiempo para el descanso y la recuperación, combinación de factores físicos, emocionales y organizacionales que generan un estado de agotamiento crónico y desgaste en los empleados, falta de apoyo organizacional y respaldo de los superiores, no contar con opciones para manejar el estrés. Esto se manifiesta en el aumento del ausentismo, baja en la productividad y una alta rotación de personal, impactando negativamente en la estabilidad y el funcionamiento efectivo de la productividad en la empresa. ¿Con la identificación de los factores de riesgo psicosocial que afecta a los líderes de la maquiladora de moldeo se puede disminuir el síndrome de burnout? ¿Qué estrategias se puede implementar para disminuir los factores de riesgo psicosociales que influyen para desarrollar el síndrome de burnout?



METODOLOGÍA

Para este trabajo se selecciona la mitología de investigación Holística que permite ubicar las diversas propuestas en un esquema coherente y aplicable a cualquier área del conocimiento (Carhuncho-Mendoza , 2019). Los siguientes pasos para realizar la investigación con éxito: primero aplicar los diez objetivos de la investigación, segundo  identificar los diez  tipos de investigación, tercero  entender los niveles de profundidad del conocimiento,  cuarto  realizar la espiral holística y quinto aplicar el ciclo holístico para la investigación en particular.   Etapa 1: Entendimiento de los diez objetivos de la metodología que son: explorar, describir, analizar, comparar explicar, predecir, proponer intervenir, confirmar y evaluar. Utilizando los conocimientos de la producción y manufactura, administración de la calidad.    Etapa 2: Identificar los diez tipos de investigación: exploratoria, descriptiva, analítica, comparativa, explicativa, predictiva, proyectiva, interactiva, confirmatoria y evaluativa.    Etapa 3: Entender los niveles de conocimiento: perceptual, aprehensivo, comprensivo e integrativo.    Etapa  4: Diseñar la espiral holística de la investigación indicando los siguientes puntos: perceptual (describir y explorar), aprensivo (comparar y analizar), comprensivo (proponer, predecir y explicar) e integrativo (modificar, confirmar y evaluar).     Etapa 5: Aplicar el ciclo holístico formado por: explorar, describir, analizar, comparar, explicar, predecir, proyectar, interactuar, confirmar y evaluar.


CONCLUSIONES

   Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos, para la realización de proyectos de investigación desde una idea, estructurar el planteamiento del problema, título, objetivos generales y particulares, justificación, hipótesis y diseño de la metodología de investigación para este trabajo es la metodología holística y principalmente como esto se puede aplicar a un tema de interés personal, académico y profesional. La elaboración de este proyecto de investigación permitió identificar y comprender las variables dependientes e independientes asociadas al síndrome de burnout en los líderes de la maquiladora. Estos hallazgos son cruciales para prevenir y reducir la problemática del burnout, con el objetivo de que la empresa no solo cumpla sus metas y objetivos, sino que también se mantenga en un nivel rentable y competitivo.
Lozano Cervantes Estrella, Instituto Tecnológico de Reynosa
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

ESTUDIO DE MÉTODOS PARA LA MEJORA INTEGRAL EN LAS ESTACIONES DE TRABAJO DEL PROCESO DE HULE GRANULADO HEM- 20


ESTUDIO DE MÉTODOS PARA LA MEJORA INTEGRAL EN LAS ESTACIONES DE TRABAJO DEL PROCESO DE HULE GRANULADO HEM- 20

Lozano Cervantes Estrella, Instituto Tecnológico de Reynosa. Reyes Gómez Aneth, Instituto Tecnológico de Reynosa. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

La mayoría de las empresas buscan alcanzar un alto nivel de competitividad por los altos estándares de los clientes en búsqueda de productos de calidad, costos bajos y cumpliendo con los tiempos de entrega establecidos en la compañía; así que las entidades mediante métodos, análisis, estudios o metodologías pretenden aumentar su capacidad productiva. El estudio de tiempos y movimientos permite a las compañías determinar tiempos estándar, tiempo normal y tiempos de ciclo considerando los suplementos (tiempos de descanso del trabajador) así como las capacidades físicas de los mismos. Tomando en cuenta los párrafos anteriores, se realizó una investigación que pudiera dar respuesta a la siguiente pregunta: ¿Qué probabilidad tienen que los tiempos improductivos estén incidiendo en la eficiencia de productividad del proceso de producción del hule granulado HEM-20?



METODOLOGÍA

En el presente trabajo se realizó un estudio de tiempos y movimientos utilizando técnicas como: diagrama de proceso, diagrama de Ishikawa, toma de tiempos con cronometro, entre otras herramientas de la ingeniería de métodos para identificar tiempos improductivos, variables ergonómicas y cuellos de botellas que generen retrasos en la producción de hule granulado HEM-20; además de incentivar la investigación de la ingeniería de métodos y la mejora integral de la productividad en las empresas de hule granulado, con el fin de beneficiar a las entidades dedicadas a esta actividad que deseen reducir sus costos sin sacrificar su calidad y aumentar su productividad. Con información proporcionada por trabajadores de la entidad, así como con fotografías, se realizó un layout de la empresa PRO para identificar sus estaciones de trabajo, así como rutas de los trabajadores en el proceso de producción; analizando aquellas actividades en las que interfiere el factor humano en las que posteriormente se realizó toma de tiempos con cronometro y registraron los datos necesarios para la elaboración del estudio. De igual forma mediante formulas se obtuvo la capacidad de producción, de esta manera se tiene un punto de partida donde se comparar lo producido con lo que se puede producir.


CONCLUSIONES

Al elaborar el estudio de tiempos y movimientos comprobamos que, por retrasos en diferentes áreas, no se llega a los kilos de hule programados, afectando directamente a la eficiencia de la productividad. Se identificaron diferentes áreas de mejora para el aumento de la productividad, la más destacada se encuentra en los carritos ya que cuando pasan al horno y se vacían quedan muy sucios lo cual provoca que en los siguientes ciclos sea cada vez más difícil el retirar el hule cocido, la sugerencia para un mejor rendimiento es el de limpiar los carritos cada que se empiece un nuevo pedido de hule.
Lozano Romero Brandon Gabriel, Instituto Tecnológico Superior de Guanajuato
Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato

OBTENCIóN DE DATOS PARA LA INTERPRETACIóN DE GESTOS CORPORALES USANDO MéTODOS DE RECONOCIMIENTO.


OBTENCIóN DE DATOS PARA LA INTERPRETACIóN DE GESTOS CORPORALES USANDO MéTODOS DE RECONOCIMIENTO.

Chia Rodriguez Pamela Asusena, Instituto Tecnológico Superior de Guanajuato. Lozano Romero Brandon Gabriel, Instituto Tecnológico Superior de Guanajuato. Morales Trujillo Felipe Alberto, Instituto Tecnológico Superior de Guanajuato. Ortega Prieto Anayeli, Instituto Tecnológico Superior de Guanajuato. Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

 Planteamiento Del Problema: La interpretación de emociones humanas a través del lenguaje corporal es un área de creciente interés, ya que tiene un amplio campo para su desarrollo como la atención al cliente, educación, salud mental, interacción humano-computadora, interrogatorios judiciales y más. Sin embargo, el análisis del lenguaje corporal es complejo debido a la variabilidad y sutileza de las expresiones no verbales. Aunque existen sistemas automatizados para el reconocimiento facial, corporal y análisis de voz, estos suelen ser insuficientes para captar la gama completa de emociones expresadas a través del lenguaje corporal, ya que, por lo general, muchos trabajos han sido para la detección de gestos cuando única y exclusivamente se hace la postura exacta para dar la información al detector o programa. Por lo cual, en este trabajo dejamos una vía para que los métodos de reconocimiento sean más amplios para detectar dichas emociones.



METODOLOGÍA

Metodología: Se realizó la investigación de información sobre sistemas para el reconocimiento de posturas y obtener sus coordenadas, lo cual se registró como Estado del Arte. Posteriormente se decidió usar Python ya que este lenguaje, además de su versatilidad en programar, tiene bibliotecas que pueden servir para detectar movimientos y puntos del cuerpo en la cámara, en específico la biblioteca Mediapipe. Mediapipe con Landmarker es una herramienta que ayuda a detectar objetos cuando son vistos en una cámara, la herramienta por lo general proporciona elementos como líneas y puntos cuando detecta un objeto. En este caso, se usó para detectar las coordenadas de los puntos de diferentes personas y poder obtener una base de datos para su posterior uso en la investigación. Se tomaron diversas posturas de 3 estudiantes de diferentes estaturas, sexo y corpulencia con la intención de que exista una variedad en la información ya que en un entorno real no todos los usuarios serán de las mismas características.


CONCLUSIONES

Conclusión: En la implementación de este trabajo durante la estancia de verano, se adquirió un notable crecimiento en cuanto conocimientos sobre el manejo de bibliotecas y algoritmos para usarlos en la práctica con la detección de movimientos, cabe mencionar que estos datos obtenidos servirán como parte del trabajo a futuro de la investigación.
Lucas Sanjuanero Michelle, Universidad Tecnológica de Zinacantepec
Asesor: Mg. Mary Judith Arias Tapia, Universidad Tecnológica De Bolívar

DESARROLLO DE NANOPARTíCULAS MEDIANTE SíNTES VERDE A PARTIR DE ESPECIES VEGETALES COLOMBIANAS


DESARROLLO DE NANOPARTíCULAS MEDIANTE SíNTES VERDE A PARTIR DE ESPECIES VEGETALES COLOMBIANAS

Lucas Sanjuanero Michelle, Universidad Tecnológica de Zinacantepec. Velázquez Palmas Joaquín Elias, Universidad Tecnológica de Zinacantepec. Asesor: Mg. Mary Judith Arias Tapia, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

Actualmente alrededor de una quinta parte de la población mundial tiene acceso limitado o nulo a agua potable, aunque la cantidad requerida es tan solo de 5-10 litros por persona al día, muchas comunidades rurales en todo el mundo enfrentan escasez de agua a pesar de recibir abundante lluvia, que podría ser capturada, almacenada de manera eficiente y tratada localmente utilizando un enfoques asequible y sostenible para satisfacer la demanda de agua potable dado que habido pocos avances en la provisión de agua potable a las comunidades rurales. (Alim, 2020) Esto lleva a la recolección de agua lluvia, sin embargo no logra ser tratada, lo que puede provocar problemas de salud pública y de higiene (WASH), son quizás los temas más importantes que tienen un impacto sustancial en la prosperidad socioeconómica de una comunidad (et, 2005). En Colombia, especialmente en el Departamento de Bolívar ubicado al norte del país, existen municipios como San Jacinto, Bolivar San Estanislao, Cicuco y Cartagena de Indias los cuales actualmente a pesar de contar con acueductos sufren de desabastecimiento de agua, por lo cual tienen que recurrir a la recolección de agua de lluvia para su uso cotidiano. 



METODOLOGÍA

Pimpinella anisum 1.1 Preparación del extracto de Pimpinella anisum (anís): Se utilizó 1 g de semilla seca y lavada de Pimpinella Anisum esta se trituró con ayuda de un mortero, posteriormente se agregó a 100 mL de agua destilada y se colocó en una plancha de calentamiento a 80°C hasta obtener un volumen de 70 mL y finalmente se hizo el uso del papel filtro y el embudo para filtrar el extracto una vez teniendo la solución requerida. 1.2 Síntesis de las nanopartículas de plata AgNPs:  Se preparó una dilución de 30.5 mL utilizando 1.0 mL del extracto obtenido con 29.5 mL de agua destilada y a esta solución se le tomó el pH el cual fue de 5. Para el ajuste de pH se le añadieron gotas de NaOH hasta obtener un pH de 8, la concentración del NaOH fue de 0.5M. Finalmente, a la solución preparada de 30.5 mL conteniendo el extracto de Pimpinella anisum y el pH requerido se les adicionó lentamente gota a gota y en agitación constante 10 mL de solución de nitrato de plata AgNO3 1x10-3 M, se mantuvo en agitación constante hasta notar el cambio de color amarillo ámbar.      2. Eucalyptus 2.1 Preparación del extracto de Eucalyptus (eucalipto): Se utilizó 1 g de hojas secas y lavadas de Eucalyptus se trituran con ayuda de un mortero, posteriormente se agregó a 100 mL de agua destilada y se colocó en una plancha de calentamiento entre una temperatura de 80-90°C hasta obtener un volumen de 70 mL y finalmente se hizo el uso del papel filtro y el embudo para filtrar el extracto una vez teniendo la solución requerida. 2.2 Síntesis de las nanopartículas de plata AgNPs: Se preparó una dilución de 30 mL utilizando 1.0 mL del extracto obtenido con 29.5 mL de agua destilada y a esta solución se le tomó el pH el cual fue de 5.7. Para el ajuste de pH se le añadieron gotas de NaOH hasta obtener un pH de 9, la concentración del NaOH fue de 0.5M.Finalmente, a la solución preparada de 30 mL conteniendo el extracto de Eucalyptus y el pH requerido se le adicionó lentamente gota a gota y en agitación constante 10 mL de solución de nitrato de plata AgNO3 1x10-3 M, se mantuvo en agitación constante hasta notar el cambio de color amarillo ámbar.      3. Rosmarinus officinalis 3.1 Obtención del extracto natural de la hoja de Romero: Para la obtención del extracto natural de la planta se siguieron los siguientes pasos: primero se procedió a seleccionar las hojas que presentaron mejor estado. Estas se lavaron y desinfectaron con una solución de agua destilada 50 ml con alcohol 20 ml. Posteriormente el extracto obtenido se llevó a punto de ebullición (100 ◦C), hirviendo 8 gr de hojas con 100 ml de agua durante 20 a 25 minutos con agitación constante. Luego, la muestra se filtró en papel y al extracto obtenido se le agregaron 100 gr de hojas adicionales para concentrarlo hasta un volumen de 50 ml, repitiendo el procedimiento de extracción anteriormente mencionado. Por último, se filtró el extracto final, se dejó enfriar a temperatura ambiente y luego se almacenó en un recipiente de vidrio. Para mayor concentración se puede conservar durante 6 días en refrigeración a 4°C 3.2 Síntesis de nanopartículas de plata: Posteriormente y para comprobar cuál era la concentración adecuada se utilizó el extracto de hojas de romero en volúmenes de 10 ml, 20 ml, 30 ml, siempre manteniendo constantes la solución del nitrato de plata (5 ml). El pH de cada una de las soluciones preparadas se ajustó con hidróxido de sodio (NaOH) al 0,1 N hasta obtener un pH básico entre 8 y 10, medido con un potenciómetro, La temperatura en la cual se mantuvieron estas soluciones fue de 65 ◦C en agitación constante.      4. Petroselinum crispum 4.1 Elaboración del extracto: Se deshojó el perejil, se lavó con agua destilada, se puso a secar 15 min, se pesan 10 g de este, se trituró en el mortero, hasta que quede como masa y se vació el perejil en 200 ml de agua destilada, se puso a calentar en el agitador magnético a 65°C a por 20 min por último se lleva a filtrar, obtención del extracto de perejil. 4.2 Síntesis de nanopartículas: Se tomó 30 ml de solución de nitrato de plata y con ayuda de una pipeta se dejó gotear el extracto de extracto de perejil hasta 10 ml. Finalmente se puso a calentar en el agitador magnético a 65°C por 10 min. Esto se repitió con 20 ml y 30 ml de extracto de perejil.


CONCLUSIONES

Durante la estancia de verano se logró adquirir información sobre las nanopartículas de Ag, así como se logró obtenerlas mediante síntesis verde, las muestras se caracterizaron y analizaron mediante UV-vis y DLS para ver la presencia de nanopartículas de Ag. Posteriormente se utilizarán las nanopartículas de plata para el tratamiento de agua de lluvia gracias a una de sus propiedades de las nanopartículas de Ag ya que estas son antimicrobianas.
Lucio Florido Ricardo Emmanuel, Universidad Tecnologica de León
Asesor: Dr. Alan David Blanco Miranda, Universidad Tecnologica de León

USO DE HERRAMIENTAS STEM PARA CONTROL DE SISTEMA PLC EN AMBIENTES INDUSTRIALES


USO DE HERRAMIENTAS STEM PARA CONTROL DE SISTEMA PLC EN AMBIENTES INDUSTRIALES

Hernández Rivas Brayan Miguel, Universidad Tecnologica de León. Lucio Florido Ricardo Emmanuel, Universidad Tecnologica de León. Asesor: Dr. Alan David Blanco Miranda, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

Tradicionalmente, los sistemas PLC se han gestionado mediante software propietario y herramientas específicas que, aunque eficaces, limitan la flexibilidad y aumentan los costos de implementación y mantenimiento. La dependencia de software propietario también restringe la capacidad de personalización y adaptación a necesidades específicas de cada industria. En primer lugar, la dependencia de software propietario para la programación y monitoreo de sistemas PLC limita la flexibilidad y aumenta los costos operativos. Otro problema relevante es la gestión de datos generados por los sensores conectados a los PLCs. La falta de una herramienta que muestre los valores almacenados complica el análisis de datos y la identificación de tendencias y patrones que pueden optimizar los procesos industriales. La seguridad y gestión de usuarios también representan un área de oportunidad crítica. El sistema actual no proporciona un mecanismo robusto para el acceso o registro de nuevos usuarios, lo que puede comprometer la seguridad y la integridad de los datos operativos. Estos problemas resaltan la necesidad de una solución integrada que combine el uso de software libre y tecnologías IoT para el diseño, programación y monitoreo de sistemas PLC.



METODOLOGÍA

La metodología implementada en el proyecto abarcó una secuencia ordenada de actividades y técnicas, siguiendo los objetivos definidos. Diseño de interfaces gráficas en software libre Se utilizó Qt Designer como la herramienta principal para el diseño de la interfaz gráfica de usuario, debido a su compatibilidad con Python y su capacidad para crear interfaces intuitivas y personalizables. Se elaboraron prototipos iniciales en papel y se validaron con el encargado del desarrollo de las interfaces para asegurar que cumplían con los estándares y expectativas. La interfaz gráfica fue diseñada en Qt Designer, utilizando componentes estándar y personalizados para facilitar la interacción del usuario con el sistema de monitoreo. Se creó una estructura jerárquica de widgets y elementos de interfaz, que incluía botones, tablas y gráficos para la visualización de datos en tiempo real. La programación de la lógica de la interfaz se realizó en Python, asegurando la funcionalidad adecuada de todos los componentes y su integración con el sistema de monitoreo. Se verificó la funcionalidad de la interfaz en diferentes escenarios operativos, asegurando su estabilidad y desempeño en condiciones reales. Se implementó una base de datos para almacenar los datos de los usuarios que tienen acceso a los controles. Los usuarios cuentan con la opción de recuperar sus credenciales para acceder al sistema, ya que se implementó la opción para que las recuperen vía correo electrónico. Control y monitoreo de un sistema industrial con tecnología IoT Se realizó una investigación sobre las tecnologías IoT disponibles. Se llevaron a cabo pruebas de conexión y comunicación entre los dispositivos IoT (sensores) y el sistema PLC, utilizando protocolos estándar como OPC-UA. Se desarrollaron scripts en Python para la recolección de datos de los sensores IoT y su transmisión al sistema de monitoreo. La programación de estos scripts incluyó la implementación de protocolos de comunicación y la gestión de eventos en tiempo real. Se realizaron pruebas de monitoreo en tiempo real, verificando la exactitud y la eficiencia de la recolección de datos. Integración de la recolección y visualización de datos Se diseñó una base de datos relacional para almacenar los datos recolectados por los sensores del PLC. La estructura de la base de datos incluyó tablas para la captura de datos en tiempo real, así como mecanismos de consulta para el análisis posterior. Se programaron scripts en Python para la captura y almacenamiento de datos, asegurando la integridad y la coherencia de los datos recolectados. La implementación de estos scripts incluyó la configuración de conexiones a la base de datos. Se desarrolló una tabla en la interfaz gráfica para mostrar los valores almacenados de las entradas del PLC. Se implementaron gráficos y otras herramientas de visualización para facilitar el análisis de los datos. Se llevaron a cabo pruebas exhaustivas para asegurar que los datos recolectados se almacenaban y visualizaban correctamente. La funcionalidad de la visualización de datos fue validada mediante pruebas de uso en diferentes condiciones operativas.


CONCLUSIONES

Para concluir, el proyecto ha demostrado ser una iniciativa significativa y beneficiosa. A través del desarrollo y la implementación de diversas tecnologías y herramientas de software libre, se han logrado avances notables en la optimización de los procesos industriales. La creación de interfaces gráficas intuitivas y personalizables en QtDesigner, programadas en Python, ha mejorado considerablemente la usabilidad y eficiencia operativa. La integración de tecnologías IoT con los sistemas PLC ha proporcionado capacidades avanzadas de monitoreo. La capacidad de recolectar y transmitir datos en tiempo real ha permitido un análisis más detallado y preciso de los datos operativos. En términos de seguridad, el desarrollo de un sistema de gestión de usuarios seguro y robusto ha asegurado que solo el personal autorizado tenga acceso a los controles de operación, protegiendo la integridad de los datos y la continuidad operativa. El proyecto ha cumplido con éxito la mayoría de los objetivos planteados. La implementación de soluciones basadas en herramientas STEM y software libre ha sentado las bases para futuras innovaciones y mejoras a este ambicioso proyecto que representa un paso significativo hacia la modernización y optimización de los procesos industriales.
Luna Almeida Jesus, Universidad Tecnológica de Tecamachalco
Asesor: Dr. Luis Román Dzib Pérez, Universidad Autónoma de Campeche

DETERMINACIóN DE LA CINéTICA DE TRANSFERENCIA DE ELECTRONES EN PELíCULAS SEMICONDUCTORAS DE BISMUTATO DE COBRE MEDIANTE SCANNING ELECTOCHEMICAL MICROSCOPY (SECM).


DETERMINACIóN DE LA CINéTICA DE TRANSFERENCIA DE ELECTRONES EN PELíCULAS SEMICONDUCTORAS DE BISMUTATO DE COBRE MEDIANTE SCANNING ELECTOCHEMICAL MICROSCOPY (SECM).

Luna Almeida Jesus, Universidad Tecnológica de Tecamachalco. Asesor: Dr. Luis Román Dzib Pérez, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

La transición hacia fuentes de energías limpias y renovables es una prioridad en México, por la importancia de diversificar la matriz energética y reducir las emisiones de contaminantes al medio habiente, esto se puede llevar a cabo debido a un gran potencial para la generación de estas energías. Sin embargo, la implementación de estas energías en la matriz energética aún enfrenta numerosos desafíos incluyendo infraestructura insuficiente, barreras regulatorias y limitaciones tecnológicas. El hidrogeno verde ha emergido como una opción prometedora debido a su potencia para la generación de energía al igual que su capacidad de almacenamiento a largo plazo. El problema radica en cómo integrar y maximizar el uso del hidrógeno verde en las principales fuentes de energía de México. La fotoelectrolisis del agua es una alternativa viable para la producción de hidrogeno verde se basa en dividir el agua (H₂O) en sus componentes básicos, hidrógeno (H₂) y oxígeno (O₂), este proceso se lleva a cabo en una célula fotoelectrolítica que consta de dos fotoelectrodos: un fotoánodo y un fotocátodo, sumergidos en un electrolito. En la presente investigación se implementa el uso de la técnica electroquímica, (SECM), para evaluar el comportamiento de foto celas de CuBi₂O₄ debido a que es un material semiconductor que ha atraído interés en la investigación debido a su capacidad para actuar como fotocátodo. El bismutato de cobre tiene propiedades ópticas y electrónicas adecuadas para la conversión de energía solar. Tiene una banda prohibida de alrededor de 1,5 eV, lo cual lo coloca en el rango de los semiconductores adecuados para absorber luz visible.



METODOLOGÍA

Fabricación de películas de óxido semiconductor de CuBi₂O₄ se utilizó como substrato vidrio conductor FTO, al cual se le aplicó un volumen total de 20 ml de una solución precursora preparada a partir de 20 mM de nitrato de cobre Cu(NO₃) ₂ disuelto en Metanol y de 40 mM de Bi(NO3)3 disuelto en ácido acético. Estos reactivos se mezclaron en una proporción 1/9 siendo así 2.5 ml de ácido acético y 22.5 ml de metanol. La solución resultante se colocó en un baño ultrasónico por 10 minutos para obtener una mezcla homogénea. Tres sustratos de vidrio FTO fueron colocados en una plancha de calentamiento, la cual fue calentada previamente a 450 °C, adicionando la solución de Bismutato de cobre en la parte central. El proceso de depósito fue realizado a una altura de 20 cm sobre el vidrio FTO. El rociado se realizó mediante un aerógrafo, a una presión de 2.0 bar. Esta técnica conocida como Spray Pirolisis permite la obtención de nanopartículas desde una gran variedad de soluciones precursoras. El método de aplicación consistió en 5 aplicaciones continúas teniendo tiempo de descanso de 55 segundos entre cada 5 depósitos continuos, hasta depositar los 25 mL de la solución obteniendo un total de 260 depósitos. Se prepararon un total de 8 muestras, de estas a una se le adicionó tetrabutil de titanio (TBOT) a 0.01 M disuelto en 30 ml de etanol a 60°c por 2 horas. Posteriormente, fue sinterizada a una temperatura de 550°c durante 1 h, esta técnica permite optimizar las propiedades del material para mejorar la eficiencia y estabilidad del fotocátodo. Para evaluar el comportamiento fotoelectroquímico de las películas de Bismutato de cobre se llevó a cabo la determinación de la cinética de transferencia de electrones mediante (SECM). Usando la técnica en el modo feedback fueron realizadas curvas de aproximación las cuales nos permitió estudiar la interacción entre un microelectrodo cuando se acerca a la superficie de una muestra al medir la corriente generada por el electrodo Para lo anterior se prepararon 4 soluciones de prueba de ferrocenometanol a 1, 0.5, 0.1 y 0.05 mM + sulfato de sodio 0.2 M + nitrato de potasio 0.1 M a un pH de 7.0 ajustados con solución de fosfatos a 0.1 M. Donde Ferrocenometanol es el mediador redox, nitrato de potasio es el electrolito de soporte lo cual permite mantener una alta conductividad iónica, y el sulfato de potasio es el agente agresivo.Para saber que el microelectrodo (UME) no tiene defectos y está limpio de cualquier residuo de sustancia se debe realizar una voltametría, la cual debe dar una respuesta sigmoidal corriente-voltaje. A continuación, se arma la celda electroquímica adicionando 2 mL de la solución previamente preparada. En la parte inferior de la celda fue colocado un led azul (435 nm), el cual fue encendido al aplicar 3.5 V mediante una fuente de poder. El UME fue posicionado utilizando un software y un potencial de 0.5 V vs Ag/AgCl 3.5 M KCl fue establecido en la punta del UME de platino. La punta del UME fue desplazada hacia el substrato a una velocidad de 1 µm/0.1s, registrando la corriente cada 1 µm. Las mediciones fueron repetidas al menos 4 veces en cada una de las soluciones utilizadas. Las curvas de aproximación fueron normalizadas y posteriormente se determinó la cinética de transferencia de electrones mediante ecuaciones teóricas plateadas por Shena et al. Si la corriente aumenta a medida que el microelectrodo se aproxima a la superficie, esto indica una alta actividad electroquímica en la superficie del CuBi₂O₄, sugerente de una mayor cinética de transferencia de electrones.


CONCLUSIONES

En mi estancia del programa delfín fue una experiencia sumamente buena, debido a que pude aprender distintos temas y técnicas electroquímicas, al igual que pude llevar a cabo distintas prácticas de laboratorio que me permitieron adquirir nuevos y mejores conocimientos, esto con ayuda de personas sumamente capacitadas en este tema los cuales estuvieron en todo momento para poder resolver y aclarar cualquier duda de los temas abordaos. Esta estancia me dejo una amplio conocimiento y una percepción nueva sobre qué es y cómo se realiza la investigación científica lo cual me podrá ayudar en mi formación académicamente y a futuro ser un mejor profesionista.
Luna Flores Gabriel, Instituto Tecnológico de Colima
Asesor: Ing. Reynaldo Cortez Solis, Tecnológico de Estudios Superiores de Valle de Bravo

DISEñO DE MECANISMO DE RODILLA EN CAD 3D


DISEñO DE MECANISMO DE RODILLA EN CAD 3D

Luna Flores Gabriel, Instituto Tecnológico de Colima. Asesor: Ing. Reynaldo Cortez Solis, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

En México, las enfermedades articulares y las amputaciones debido a accidentes o enfermedades como la diabetes son preocupaciones significativas de salud pública. Las prótesis de rodilla juegan un papel crucial en la rehabilitación y mejora de la calidad de vida de los pacientes. Sin embargo, su adopción y efectividad se enfrentan a varios desafíos específicos en el contexto mexicano. Desafíos Específicos Acceso y Costo: Costo Elevado: Las prótesis de rodilla son costosas y no todos los pacientes tienen acceso a ellas, especialmente en zonas rurales o de bajos ingresos. El precio de una prótesis puede ser prohibitivo, ya que oscila entre los 100,000 y 300,000 pesos mexicanos. Cobertura Limitada: Aunque el Instituto Mexicano del Seguro Social (IMSS) y otras instituciones de salud ofrecen algunos programas de apoyo, la cobertura puede ser limitada y no siempre incluye las prótesis más avanzadas o personalizadas. Personalización y Tecnología: Falta de Personalización: Las prótesis estándar pueden no adaptarse adecuadamente a las necesidades individuales de los pacientes mexicanos, afectando su comodidad y funcionalidad. Tecnología Limitada: La disponibilidad de tecnología avanzada para la personalización y ajuste de prótesis puede ser limitada en algunos centros de salud. Desempeño Biomecánico: Movimiento Limitado: Las prótesis actuales a veces no replican bien los movimientos naturales de la rodilla, lo que puede dificultar la marcha normal y las actividades diarias. Materiales y Durabilidad: Los materiales utilizados en las prótesis deben ser duraderos y adecuados para el clima y las condiciones de vida en México. Impacto Social y Psicológico: Aceptación Social: Los usuarios de prótesis pueden enfrentar desafíos en cuanto a la percepción social y la integración, lo que puede afectar su bienestar psicológico. Programas de Apoyo: Es crucial desarrollar programas que no solo proporcionen prótesis, sino que también ofrezcan apoyo psicológico y social. Objetivos para Mejorar la Situación Aumentar el Acceso: Desarrollar programas de subsidios y financiamiento para reducir el costo de las prótesis y mejorar su accesibilidad en áreas rurales y comunidades desfavorecidas. Mejorar la Personalización: Implementar tecnologías de impresión 3D y escaneo corporal para crear prótesis más personalizadas y cómodas. Optimizar la Funcionalidad: Invertir en investigación y desarrollo de materiales y diseños que mejoren la biomecánica de las prótesis para emular mejor el movimiento natural de la rodilla. Fomentar la Integración Social: Establecer programas comunitarios y educativos que promuevan la aceptación y comprensión de las necesidades de los usuarios de prótesis. Proporcionar apoyo psicológico para mejorar la autoestima y el bienestar mental de los usuarios.



METODOLOGÍA

La metodología que se empleó para la realización de este proyecto fue usando ingeniería inversa con un scanner 3D de la marca artek eva, se mostró su funcionamiento y cómo se podía utilizar para el diseño y manufactura de las prótesis biomecánicas, en este caso, el mecanismo de la rodilla. Se visualizaron algunos archivos multimedia, y fuentes de información tanto en la biblioteca local de la universidad, como en fuentes externas a la misma, logrando tener la información necesaria para el correcto diseño del mecanismo.    Teniendo en cuenta el funcionamiento de flexo-extensión de la rodilla se procedió a realizar el diseño en un programa de diseño CAD 3D (Fusion 360), que tras varios intentos se logró hacer el diseño más adecuado desde mi punto de vista.  


CONCLUSIONES

Puedo concluir que este verano de investigación fue fructífero para mi formación tanto personal, como profesional, gracias a las herramientas utilizadas en este periodo, el uso del scanner y la investigación autodidacta. Con el escanner 3D puedo realizar mas cosas en cuestion profesional no solo en cuestión de prótesis mecánicas, sino también en otros ámbitos laborales tales como el mantenimiento de maquinaria y con los mismo escaneos, poder realizar diseños CAD más apegados a lo que necesite el cliente. Referencias bibliográficas: Avila-Ortiz, M. N., & Padilla, J. A. (2017). Desafíos y oportunidades en la atención de las amputaciones de extremidades inferiores en México. Revista Médica del IMSS, 55(4), 363-370. Cruz, C., & Reyes, A. (2015). Acceso a prótesis y ortesis en México: Situación actual y perspectivas futuras. Salud Pública de México, 57(4), 290-297. doi:10.21149/spm.v57i4.7513 González, J. G., Martínez, M. L., & López, M. (2020). Avances en la personalización de prótesis mediante impresión 3D en México. Ingeniería Biomédica, 9(1), 45-52. doi:10.22201/fq.24484861e.2020.9.1.636 López, R. R., & Vázquez, G. (2018). La importancia de la rehabilitación integral para usuarios de prótesis de rodilla en México. Revista Mexicana de Rehabilitación, 30(2), 100-108. Pérez, H. J., & Ramírez, L. (2016). Impacto social y psicológico de las prótesis en pacientes mexicanos. Psicología y Salud, 26(1), 45-56. doi:10.23923/salud.2016.26.1.456 Secretaría de Salud. (2019). Estrategias para mejorar el acceso a dispositivos de asistencia en México. Boletín de Salud Pública, 21(2), 35-40.   
Luna López Juan Jair, Universidad Tecnológica de Tehuacán
Asesor: Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango

DISEÑO DE UN CONTROL DIFUSO PARA UN AEROPENDULO


DISEÑO DE UN CONTROL DIFUSO PARA UN AEROPENDULO

Luna López Juan Jair, Universidad Tecnológica de Tehuacán. Asesor: Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El comportamiento de un sistema dinámico se encuentra condicionado por las acciones que se ejerzan sobre el mismo, esas acciones pueden ser ejercidas como acciones deseadas a través de variables manipuladas o no manipuladas directamente. Sin en cambio los desafíos actuales se encuentran más enfocadas en el diseño de un sistema de control que permita a los empresarios a mejorar su producción, tener mejores estándares de calidad, manipular sus variables, etc. Por ello el desarrollo de este proyecto tiene como finalidad mejorar el sistema de control de un Aeropéndulo, ya que dicho sistema de control ya existe, sin embargo, presenta algunas deficiencias en el posicionamiento deseado y en el tiempo de estabilidad de este, es por ello que se pretende mejorar el sistema de control para que el modelo didáctico del Aeropéndulo obtenga un control más preciso sobre su posición esto a través de la manipulación de las variables o de manera autónoma mediante matemática aplicada obtenida. Para el desarrollo del sistema de control de este se parte desde el diseño existente, cuyo análisis es directamente a la posición que este modelo didáctico llega a tener, sin embargo, al encontrar deficiencias en sus estabilidad y precisión, se parte nuevamente desde el análisis matemático usando el método de Euler-Lagrange para establecer una función matemática que satisface a dicho modelo y así obtener mejores resultados, así mismo se linealiza por el método de retroalimentación. Dicho controlador se diseñó en el software Simulink de Matlab que nos proporciona herramientas para el diseño de planta, diseño de un controlador mediante ciertas variables proporcionadas.



METODOLOGÍA

El desarrollo de este trabajo surgió como una necesidad para desarrollar un sistema de control más preciso de un modelo didáctico de un Aeropéndulo cuyo control ya existe, sin embargo, presenta deficiencias en el control de su posición por lo que es un sistema no estable ya que presenta oscilaciones al momento de posicionarse al ángulo deseado, por ello se describe de la siguiente manera el proceso a seguir para resolver este tipo de problemas: Identificar los parámetros y las variables del módulo didáctico de posición: Analizar el sistema desde el punto de vista de la modelación matemática. Desglosar a detalle el modelo matemático del módulo didáctico de posición: Analizar las ecuaciones matemáticas que describen el comportamiento del módulo didáctico de posición. Simulación numérica el modelo matemático a través de Matlab-Simulink: probar el modelo matemático para verificar su efectividad es decir con la ayuda del software demostrar que el sistema puede reproducirse en físico. Diseño del controlador difuso: en esta etapa se crea el sistema de control considerando los métodos existentes en la teoría. Implementación del control difuso en realidad virtual: En esta etapa se registran los resultados para cada muestreo y se verifica su efectividad. Durante el desarrollo de las pruebas del control difuso desarrollado se busca el mejor procedimiento para cumplir con las expectativas que garantice su mejor rendimiento.


CONCLUSIONES

El desarrollo de este proyecto parte de la necesidad de mejorar el control de posición de un aeropéndulo, donde la respuesta de la posición deseada de este módulo utilizando un control difuso presenta deficiencias en su respuesta gráfica, es decir no tiene una estabilidad precisa, ya que presenta variaciones a lo largo del tiempo. Sin embargo; el nuevo control difuso diseñado, presenta mejorías en su respuesta gráfica, por lo tanto, es un control que en la simulación real presenta muy pocas oscilaciones y el tiempo de estabilidad es muy reducido, es decir el tiempo en que el aeropéndulo alcanza la posición deseada en un tiempo menor, por lo que este control es muy práctico y garantiza respuestas de control favorables en cuanto al tiempo y control de posición de este módulo.
Luque Carranza Jeniffer, Universidad Simón Bolivar
Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez

OPTIMIZACIóN PARA PROCESOS DE MANUFACTURA ESBELTA Y ADITIVA CON IMPRESIóN 3D: APLICACIóN DE METODOLOGíAS LEAN SIX SIGMA, ESTUDIO DE TIEMPOS PREDETERMINADOS MOST Y DISEñO DE EXPERIMENTOS (DOE)


OPTIMIZACIóN PARA PROCESOS DE MANUFACTURA ESBELTA Y ADITIVA CON IMPRESIóN 3D: APLICACIóN DE METODOLOGíAS LEAN SIX SIGMA, ESTUDIO DE TIEMPOS PREDETERMINADOS MOST Y DISEñO DE EXPERIMENTOS (DOE)

Becerra Gómez Ismael, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Gómez Acuña José Alfonso, Universidad Simón Bolivar. Luque Carranza Jeniffer, Universidad Simón Bolivar. Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

En la manufactura moderna, combinar técnicas esbeltas y aditivas es crucial para maximizar eficiencia y calidad. Este proyecto se centra en optimizar procesos mediante Lean Six Sigma, el Estudio de Tiempos Predeterminados MOST y el Diseño de Experimentos (DOE).  La línea de ensamblaje del carro LEGO Green Cruiser 31056 necesita ajustar el tiempo de ciclo para alcanzar una producción de 180 unidades por hora, manteniendo eficiencia y reduciendo inventario. La implementación precisa de MOST es clave para asegurar un Takt Time de 20 segundos por unidad. En la producción de probetas de plástico, variables como temperatura del filamento, temperatura de la cama y patrón de relleno son cruciales para la resistencia a la tensión. Identificar y optimizar estos factores es esencial para mejorar la calidad y consistencia de las probetas. El diseño de turbinas eólicas de pequeña escala utilizando impresión 3D se explora para generar energía renovable. El reto es encontrar el diseño más eficiente para un generador de 15 cm, optimizando la conversión de energía cinética en mecánica, contribuyendo a soluciones energéticas sostenibles. Para los aviones de papel, se ha identificado variabilidad en la longitud de las alas, que debe ser de 60 mm ± 2 mm. Esta inconsistencia sugiere problemas en fabricación y medición, haciendo necesario estandarizar el proceso para cumplir con las especificaciones. Este proyecto integra Lean Six Sigma, MOST y DOE para reducir desperdicios, mejorar eficiencia, y optimizar tiempos y procesos. Además, busca mejorar la calidad identificando y ajustando variables críticas como la resistencia a la tensión y la eficiencia de turbinas eólicas impresas en 3D. Así, establece un marco para futuras mejoras y la adaptación de nuevas tecnologías en manufactura esbelta y aditiva.



METODOLOGÍA

Para optimizar los procesos de manufactura esbelta y aditiva mediante impresión 3D, se integraron metodologías clave: Lean Six Sigma, Estudio de Tiempos Predeterminados MOST y Diseño de Experimentos (DOE). El proyecto inicial se enfocó en mejorar la eficiencia y calidad en la producción de turbinas de Arquímedes a escala reducida (15 cm), utilizando impresión 3D para maximizar la eficiencia energética. Con Lean Six Sigma, se identificaron los requisitos del cliente y se redujo la variabilidad en el rendimiento mediante mejoras en el diseño y fabricación de aviones de papel, que debían tener una longitud de 60 mm con un margen de ±2 mm. El análisis de los procesos actuales de impresión 3D permitió evaluar la capacidad del proceso y abordar la variabilidad en la calidad de los componentes, utilizando herramientas estadísticas como Cpk y pruebas de normalidad para identificar causas raíz y oportunidades de mejora. El método MOST se aplicó para optimizar los tiempos de ensamblaje y fabricación de carros LEGO, descomponiendo las actividades en movimientos básicos medidos en unidades de tiempo estándar (TMU). Esto ayudó a determinar el número óptimo de estaciones de trabajo y el ciclo necesario para cumplir eficientemente con la demanda del cliente de 180 carros/hora. Por último, el Diseño de Experimentos (DOE) se utilizó para evaluar diferentes diseños de probetas impresas en 3D. Usando software como Minitab, se planificaron y analizaron experimentos fraccionados, considerando variables críticas como el material de impresión y los parámetros de impresión. Las pruebas de rendimiento midieron la resistencia de las probetas, integrando un enfoque que mejoró la calidad, eficiencia y competitividad en la manufactura de componentes avanzados mediante tecnologías innovadoras de fabricación.


CONCLUSIONES

El proyecto "Optimización para Procesos de Manufactura Esbelta y Aditiva con Impresión 3D" ha alcanzado sus metas al aplicar metodologías avanzadas para mejorar procesos de manufactura. La implementación de Lean Six Sigma, MOST y DOE ha permitido identificar y corregir ineficiencias, resultando en productos de alta calidad y eficiencia operativa. Para la Turbina de Arquímedes, las pruebas con modelos impresos en 3D confirmaron la viabilidad de estas estructuras para generar energía limpia. El diseño optimizado para impresión 3D demostró ser altamente eficiente, resaltando el potencial de esta tecnología para desarrollar dispositivos energéticos sostenibles y personalizados, contribuyendo a la lucha contra el cambio climático. En el caso de los Aviones de Papel, Six Sigma resolvió problemas de variabilidad en la producción, mejorando el sistema de medición y estableciendo estándares operativos más rigurosos. Esto condujo a una notable mejora en la capacidad del proceso y a una reducción en las piezas defectuosas, validando la efectividad de Lean Six Sigma en la estandarización y mejora continua. Para los Carros LEGO, la técnica MOST permitió una optimización precisa del proceso de ensamblaje, ajustando el tiempo de ciclo para cumplir con el Takt Time requerido. Esto resultó en un flujo de producción eficiente y alineado con la demanda del cliente, validando la precisión de las estimaciones de tiempo y asegurando la consistencia del proceso. Finalmente, en las Probetas de Plástico, el diseño experimental identificó los factores clave para maximizar la resistencia a la tensión, destacando la importancia de la cabina de impresión. La validación del modelo permitió predecir y alcanzar configuraciones óptimas para la producción, esencial para mejorar la calidad y durabilidad de los productos impresos en 3D. En resumen, el proyecto demuestra que combinar metodologías de manufactura esbelta y aditiva con herramientas analíticas avanzadas puede transformar procesos industriales, mejorando significativamente la calidad, eficiencia y sostenibilidad, y sentando una base sólida para futuras innovaciones.
Macay Sandoval Marino Uriel, Instituto Politécnico Nacional
Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla

DISEñO Y ANáLISIS DE UN MATERIAL AVANZADO POR IMPRESIóN 3D


DISEñO Y ANáLISIS DE UN MATERIAL AVANZADO POR IMPRESIóN 3D

García Mirón Octavio Fabián, Benemérita Universidad Autónoma de Puebla. Lopez Dorame Julisa, Universidad de Sonora. Macay Sandoval Marino Uriel, Instituto Politécnico Nacional. Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La impresión 3D ha revolucionado la fabricación de materiales avanzados, permitiendo crear estructuras complejas con precisión. Entre los desarrollos más prometedores se encuentran los smart-materials, que responden a estímulos externos, y los materiales con memoria, que pueden regresar a una forma predefinida tras deformarse. Estos materiales tienen aplicaciones innovadoras en medicina, robótica y aeroespacial. Sin embargo, integrar estas propiedades en materiales impresos en 3D enfrenta desafíos técnicos en diseño, desarrollo y análisis. El proyecto explora el diseño, desarrollo y análisis de un material con memoria, producido mediante impresión 3D en resina fotosensible. Se abordarán el diseño de la estructura del material, optimización de parámetros de impresión y técnicas de caracterización para evaluar el material. El objetivo general es demostrar cómo la impresión 3D puede crear materiales inteligentes, y en tanto a objetivos específicos es proporcionar una estructura a partir de resina fotosensible, y caracterizar el material a partir de su grafica Esfuerzo-Deformación proporcionando guías para su uso en aplicaciones industriales y tecnológicas, y estableciendo una base para futuras investigaciones.



METODOLOGÍA

Para el diseño de la estructura, se utilizaron diversos softwares para obtener una celda unitaria, a esta celda unitaria se le hizo una serie de 9 arreglos, el primero era la celda unitaria, el segundo un cubo hecho de una matriz 2x2x2 de esta misma celda, el tercero otro cubo hecho de una matriz 3x3x3 de la misma y así sucesivamente, esto lo hicimos para poder observar en que número de arreglo se observa un comportamiento interesante del material. Una vez concluido el diseño de la estructura avanzamos con la impresión 3D en resina rígida fotosensible a través de la ELEGOO Saturn 3, nuestras primeras 9 estructuras en resina rígida se imprimieron relativamente bien ya que en ciertas partes del cubo la impresión no se realizaba correctamente por lo cual decidimos ponerle unas paredes en el diseño de la estructura que sirvieran como soporte para poderse imprimir y también una forma de generar presión uniformemente cuando se fueran a caracterizar, después de hacer este pequeño ajuste nuestras piezas se imprimieron mucho mejor. Se intentó imprimir nuestras mismas piezas en resina flexible, pero debido a el tamaño tan pequeño del poro, el cubo se llenaba de resina y acababa colapsándolo, por lo que nos decidimos a solo imprimirlas en resina rígida. Al tener nuestras 9 estructuras listas, procedimos a la caracterización de estas muestras para la cual usamos una máquina de compresión en el laboratorio de geofísica del DITCo de la BUAP, esta máquina tiene un software que nos entrega datos sobre la deformación, desplazamiento, carga en kN, esfuerzo, que son muy importantes para poder analizar gráficas de nuestra estructura. Finalmente se procesan los datos, construimos gráficas esfuerzo vs deformación y analizamos estas gráficas de cada una de las estructuras.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos de diseño de materiales avanzados, así como su impresión 3D en resina fotosensible. Al caracterizar la estructura se encontró que las estructuras 7, 8 y 9 presentan una mayor zona plástica y elástica que sus anteriores estructuras, además de tardar más tiempo en llegar a su punto de compresión máximo. Todas las estructuras impresas se comportan como un Smart-material regresando a su forma original aún así después de ser comprimidas por un máximo de 5 kN.
Machorro Serrano Jonathan, Universidad Tecnológica de Tecamachalco
Asesor: Dr. Javier Garrido Meléndez, Universidad Veracruzana

OBSERVADORES DE SISTEMAS LINEALES Y NO LINEALES.


OBSERVADORES DE SISTEMAS LINEALES Y NO LINEALES.

Calderón García Rodrigo, Universidad Tecnológica de Tecamachalco. Machorro Serrano Jonathan, Universidad Tecnológica de Tecamachalco. Asesor: Dr. Javier Garrido Meléndez, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

En la actualidad los observadores de control se enfocan en las dificultades y desafíos inherentes a su diseño e implementación en sistemas de control. En muchos sistemas de control, es fundamental conocer todos los estados del sistema para implementar estrategias únicas de control efectivas. Sin embargo, no siempre es posible medir directamente todos los estados debido a limitaciones en los sensores, costos, accesibilidad o restricciones físicas. Los observadores de control se diseñan estimar los estados no medidos a partir de entradas y salidas. La función principal es estimar el estado completo de un sistema, cuando no es posible medir todos los estados directamente, por ejemplo, en motores de corriente continua y en motores de corriente alterna, no es muy práctico medir directamente todas las variables de estado, como las corrientes en las bobinas o la velocidad angular, El observador de estado, puede estimar variables no medibles a partir de la corriente y el voltaje aplicados, posteriormente permite un control más preciso de sistemas. En los sistemas dinámicos, tanto lineales como no lineales, la necesidad de conocer los estados internos del sistema a partir de mediciones limitadas es fundamental para el control de diversos tipos de componentes. Los observadores son códigos o estructuras diseñadas para estimar los estados internos de un sistema basándose en las salidas medidas y el modelo del sistema. Para un sistema que sea tanto lineal o no lineal, los estados internos del sistema no siempre son accesibles directamente mediante mediciones con sensores. Sin embargo, es posible que dispongamos de ciertas salidas (outputs) y entradas (inputs) del sistema. El problema central es diseñar un observador lineal que su función sea la de estimar los estados internos del sistema de manera precisa y confiable en tiempo real para así hacer que nuestro sistema cargue o inicie lo más rápido posible, ya sea en segundos o milisegundos.



METODOLOGÍA

Para diseñar observadores para sistemas lineales y no lineales implica pasos bien definidos que aseguran la capacidad de estimar estados internos a partir de entradas y salidas. En sistemas lineales, el observador y la matriz de observación son herramientas clave. PASO SISTEMAS LINEALES SISTEMAS NO LINEALES Definición Espacio de estados A, B, C, D Funciones f (x, u), h (x, u) Observación Matriz de observación en 0 Criterios de observación Diseño de observador Observador Observadores lineales Implementación Simulación y pruebas Simulación y pruebas Realización Circuito en físico Circuito en físico Se han estado utilizando sistemas básicos principalmente para reconocer y familiarizarse más a fondo con los sistemas lineales, como, por ejemplo: x˙(t)=A x(t)+Bu(t)                                                      y(t)=C x(t)+Du(t) Donde: x(t) es el vector de estados. u(t) es el vector de entradas. y(t) es el vector de salidas. A, B, C, D, son matrices de dimensiones apropiadas que definen la dinámica del sistema. El diseño de observadores para sistemas lineales es un área fundamental en el control de sistemas en aplicaciones que abarcan desde la robótica hasta la ingeniería de procesos. La capacidad de estimar estados internos difíciles de medir de forma física  permite un control más preciso y eficiente, mejorando la seguridad, la estabilidad y el rendimiento de los sistemas dinámicos.    


CONCLUSIONES

Durante la estancia de verano logre adquirir nuevos conocimientos fundamentales sobre la función de los observadores de estado, ya que son importantes para la estimación de estados no medibles directamente en un sistema. Aprender sobre observadores de estado me ayudo a comprender la base sólida en la teoría de control de sistemas, así como habilidades prácticas esenciales para implementar y ajustar estos sistemas en entornos reales. Durante el programa Delfín he logrado adquirir conocimientos teóricos y prácticos de Observadores de sistemas lineales, logré ponerlos en practica para comprobar que lo que nos dicen los libros de observadores como es el libro de Control Moderno de Katzuhiko Ogata. Aprendimos la importancia del uso de observadores en la industria, en el área de control moderno, sin embargo, al ser un tema muy amplió las fases del proyecto se siguen aplicando y ajustando, ya que se espera diseñar un observador que pueda ser más rápido y más preciso, debido al tiempo de la estancia no se pudo llevar a acabo muchas pruebas de otros observadores, pero los resultados obtenidos con el observador lineal cumplen con los objetivos previstos.
Machuca Bedoya Alejandro, Universidad de Investigación y Desarrollo
Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave

PLANEACIóN FINANCIERA COMO ESTRATEGIA DE GESTIóN E INNOVACIóN DE PROCESOS EN UNA MICROEMPRESA COMERCIAL DE GUASAVE, SINALOA.


PLANEACIóN FINANCIERA COMO ESTRATEGIA DE GESTIóN E INNOVACIóN DE PROCESOS EN UNA MICROEMPRESA COMERCIAL DE GUASAVE, SINALOA.

Arellano Hinojosa Fidel Ernesto, Instituto Tecnológico de Ciudad Juárez. Cantú Dueñas José Antonio, Instituto Tecnológico de Nuevo Laredo. Cervantes Dominguez Fernando Ivan, Instituto Tecnológico de Ciudad Juárez. Huerta Uribe Brittania, Instituto Tecnológico de Ciudad Juárez. Machuca Bedoya Alejandro, Universidad de Investigación y Desarrollo. Martinez Segovia Karen Paola, Instituto Tecnológico de Ciudad Juárez. Sierra Barrios José Vicente, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Vazquez Marquez Erika, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

La gestión e innovación de procesos son esenciales para que las microempresas comerciales puedan mantenerse competitivas y eficientes en el mercado actual. Sin embargo, muchas de estas microempresas enfrentan desafíos significativos debido a la falta de una planeación financiera adecuada. En el municipio de Guasave, las microempresas comerciales representan una parte sustancial de la economía local, pero a menudo carecen de las herramientas y estrategias necesarias para gestionar eficazmente sus recursos financieros y operativos. La ausencia de una planeación financiera robusta puede resultar en una gestión ineficiente de los procesos internos, llevando a problemas como la falta de control de inventarios, registros financieros inadecuados y decisiones financieras erróneas. Estos problemas no solo afectan la operatividad diaria de las empresas, sino que también limitan su capacidad para crecer y adaptarse a las cambiantes condiciones del mercado. El Instituto Nacional de Estadística y Geografía (INEGI, 2018) reporta que una gran mayoría de las microempresas en México, incluyendo aquellas en Guasave, no llevan registros contables formales y enfrentan complicaciones administrativas que obstaculizan su crecimiento. Esta situación subraya la necesidad de implementar estrategias de planeación financiera que apoyen la gestión e innovación de procesos en estas empresas. Por lo tanto, la problemática central de esta investigación se plantea de la siguiente manera: ¿Cómo influye la implementación de una planeación financiera adecuada en la gestión e innovación de procesos en una microempresa comercial en el municipio de Guasave?



METODOLOGÍA

Esta investigación adopta un enfoque mixto y descriptivo exploratorio mediante un estudio de caso para evaluar la eficiencia del proceso de gestión e innovación de procesos apoyado por la planeación financiera en una microempresa comercial. La investigación mixta, descrita por Johnson et al. (2006) como una combinación de enfoques cuantitativos y cualitativos, y definida por Sampieri, Fernández y Baptista (2014) como una metodología multimétodo, permite una comprensión integral del fenómeno estudiado. Stake (1984) define el estudio de caso como un análisis riguroso orientado a obtener relaciones generales del caso observado. La metodología descriptiva, según Caballero (2014), se enfoca en desarrollar definiciones y conceptos básicos, mientras que Cea (2010) resalta que los estudios exploratorios identifican variables relevantes para futuras investigaciones. Para la recolección de datos, se utilizaron técnicas cualitativas como entrevistas semiestructuradas y observación participante. Mendicoa (2003) describe la entrevista semiestructurada como una herramienta cualitativa que facilita la comprensión de las perspectivas de los informantes. Lahire (2008) y Spradley (1980) sostienen que la observación participante permite un estudio profundo de situaciones sociales específicas.


CONCLUSIONES

Un proceso de gestión e innovación de procesos deficiente puede llevar a decisiones erróneas, dificultades financieras y pérdida de oportunidades de crecimiento. La implementación de herramientas tecnológicas, como software para control de flujo de efectivo e inventarios, es fundamental para mejorar la eficiencia y precisión en la gestión. La elaboración de estados financieros es crucial para la toma de decisiones y planificación futura. La falta de financiamiento externo puede limitar la capacidad de expansión y respuesta a situaciones imprevistas. Se recomienda a la empresa implementar un punto de venta para mejorar el control de ingresos y salidas, realizar inventarios físicos semestrales y registrar adecuadamente todos los egresos. Además, se sugiere elaborar informes financieros proforma para planificar operaciones futuras. Esta investigación se realizó durante mi estancia de investigación científica, y ha sido una experiencia invaluable para mi formación profesional. Participar en este proyecto me ha permitido aplicar conocimientos teóricos a un contexto real, desarrollando habilidades prácticas en la recolección y análisis de datos, así como en la elaboración de estrategias de mejora para microempresas. Esta experiencia ha reforzado mi comprensión sobre la importancia de la planeación financiera en la gestión e innovación de procesos y su impacto en la competitividad y sostenibilidad de las empresas. Futuras investigaciones deben explorar la planificación financiera en MiPymes más organizadas y evaluar la utilidad de las estrategias propuestas en este trabajo. Además, es fundamental seguir investigando para identificar y desarrollar nuevas herramientas y metodologías que puedan apoyar aún más a las microempresas en su camino hacia una gestión más eficiente y efectiva.
Macías Ochoa Gilberto, Instituto Tecnológico de Jiquilpan
Asesor: Dr. Cristian Giovanny Gomez Marin, Instituto Tecnológico Metropolitano

ANÁLISIS DE INFERENCIA DIFUSA PARA CARTAS DE CONTROL ESTADÍSTICO POR ATRIBUTOS


ANÁLISIS DE INFERENCIA DIFUSA PARA CARTAS DE CONTROL ESTADÍSTICO POR ATRIBUTOS

Macías Ochoa Gilberto, Instituto Tecnológico de Jiquilpan. Ramírez López Jennifer Areli, Universidad de Guadalajara. Asesor: Dr. Cristian Giovanny Gomez Marin, Instituto Tecnológico Metropolitano



PLANTEAMIENTO DEL PROBLEMA

Tradicionalmente, el control de calidad ha dependido de métodos de inspección convencionales, que a menudo no capturan adecuadamente la incertidumbre y la vaguedad en los datos. Esto resulta en dificultades para identificar y corregir defectos, lo que puede llevar a productos defectuosos, costos adicionales debido a reprocesos y una disminución en la satisfacción del cliente. La integración de herramientas de control estadístico de procesos (CEP) con inferencia difusa se presenta como una solución prometedora para abordar estos desafíos, ya que permite manejar la incertidumbre y la subjetividad en la evaluación de la calidad. Al capturar los datos de atributos de manera difusa, es posible generar una evaluación más precisa y ajustada a la realidad. Posteriormente, mediante un motor de inferencia difusa y un proceso de defuzzificación, se obtienen datos concretos que reflejan la calidad del producto. Estos datos de salida, que representan una evaluación cuantitativa de la calidad, pueden ser utilizados como entradas para cartas de control básicas. Las cartas de control permiten monitorear los procesos de producción en tiempo real, identificando desviaciones significativas que puedan indicar problemas de calidad. Así, es posible implementar acciones correctivas de manera oportuna, mejorando la eficiencia y la consistencia del proceso de producción.



METODOLOGÍA

2.1 Análisis bibliométrico Determinar las tendencias, patrones y relaciones en la literatura científica sobre un tema específico utilizando el análisis bibliométrico en publicaciones relacionadas con cartas de control e inferencia difusa. Este análisis incluirá: Revisión Preliminar: Realizar una revisión exhaustiva de la literatura existente sobre el uso de cartas de control y la inferencia difusa en estudios similares. Fuentes de Datos: Elegir bases de datos relevantes como Web of Science o Scopus para recolectar los datos bibliométricos. Criterios de Inclusión: Definir criterios de inclusión y exclusión para seleccionar los documentos relevantes como rango de fechas, idiomas, tipos de publicaciones. Extracción de Datos: Extraer datos bibliométricos clave como el número de citas, autores, instituciones, y publicaciones por año. Cálculo de Métricas: Utilizar herramientas de análisis bibliométrico para calcular métricas como el impacto de las citas, y la colaboración entre autores e instituciones. Visualización de Datos: Crear visualizaciones como gráficos y análisis de tendencias temporales.   2.2. Captura de Datos Recopilación de datos de atributos críticos y diseño de cartas de control difusas para capturar información. Estos datos serán preprocesados para eliminar ruido y asegurar su consistencia.   2.3. Modelado de Lógica Difusa Desarrollo de un modelo de lógica difusa para interpretar los datos capturados. Este modelo incluirá: Definición de Variables de Entrada: Definición de atributos como variables de entrada. Creación de Conjuntos Difusos: Definicion de conjuntos difusos para cada atributo que describan diferentes niveles de calidad (por ejemplo, bajo, medio, alto). Base de Reglas Difusas: Formulación de reglas difusas basadas en el conocimiento experto y datos históricos para relacionar las entradas con la calidad del producto final. Defuzzificación: Implementación de métodos como el centroide para convertir los resultados difusos en valores numéricos precisos que representen la calidad del producto.   2.4. Implementación de la Carta de Control Implementación de valores numéricos resultantes del proceso de defuzzificación para alimentar una carta de control básica. La carta de control monitoreará continuamente los procesos de producción, ayudando a identificar desviaciones de las especificaciones establecidas. Esto permitirá una intervención temprana en el caso de que se detecten anomalías, asegurando así la consistencia y calidad del producto final.   2.5. Validación y Pruebas Validación del sistema mediante pruebas exhaustivas en un entorno de producción real. Se compararán los resultados del sistema de control difuso con los métodos tradicionales de control de calidad para evaluar su eficacia y precisión. Se realizarán ajustes en el modelo difuso y la carta de control según sea necesario para mejorar su rendimiento.


CONCLUSIONES

Resultados Al realizar el análisis bibliométrico se obtuvo como resultado:  El total de articulos publicados por año donde en el año 2023 supero con diferencia a los demas años referente a publicaciones científicas relacionadas con cartas de control e inferencia difusa. Así como el total de articulos por autores que ha publicado sobre el tema.  Esto permitió un análisis de datos base como referencias para el desarrollo de la investigación. Conclusión El uso de lógica difusa y cartas de control en el control de calidad de productos ofrece una solución innovadora para gestionar la incertidumbre y mejorar la precisión del proceso de evaluación. Este proyecto no solo contribuirá a mejorar la calidad del producto, sino que también ofrecerá una ventaja competitiva a las empresas al optimizar sus procesos de producción y reducir costos.
Madrid Ruiz Carlos Oscar, Universidad Autónoma del Estado de México
Asesor: Dr. Jorge Gudiño Lau, Universidad de Colima

PLATAFORMA EXPERIMENTAL DE UN ROBOT UNICICLO PARA CONTROL UTILIZANDO VISIóN ARTIFICIAL RESUMEN


PLATAFORMA EXPERIMENTAL DE UN ROBOT UNICICLO PARA CONTROL UTILIZANDO VISIóN ARTIFICIAL RESUMEN

Madrid Ruiz Carlos Oscar, Universidad Autónoma del Estado de México. Asesor: Dr. Jorge Gudiño Lau, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

El objetivo de esta investigación es desarrollar un método de control robótico empleando visión por computadora como retroalimentación para el control de un robot móvil uniciclo. Este método busca aplicar la robótica móvil en la asistencia personal para plataformas virtuales y a distancia, abordando aspectos clave como el procesamiento de imágenes, la segmentación, los modelos de color, y el modelado de cámaras. La comunicación serial COM se utiliza como medio de transmisión inalámbrica, permitiendo el control efectivo del robot, con el uso de Arduino y Python.



METODOLOGÍA

Diseño y Construcción del Robot El prototipo del robot móvil uniciclo fue construido utilizando un chasis de acrílico, se le implemento un microcontrolador Arduino para la gestión de los motores encoder y la cámara. Los motores encoder del robot se controlan mediante un algoritmo de control PID, que se ajusta para lograr un movimiento suave y preciso, se debe conocer las especificaciones de los motores encoder y la distancia entre las llantas. La programación se realizó en Arduino para la decodificación de información, dirección, posición y control de los motores encoder. Implementación de Visión por Computadora Para la visión computacional, se utilizó Python con la librería OpenCV. El sistema de visión incluye una cámara IP configurada con la aplicación IP Webcam, al igual que se usó una Web Cam para uso en cámara fija,  que transmite video en tiempo real al software en Python. Este video se procesa para identificar objetos de interés y determinar la ruta del robot. Procesamiento de Imágenes y Segmentación El procesamiento de imágenes implica la conversión de las mismas al espacio de color HSV, que permite una segmentación más efectiva de los objetos de interés. Se aplicaron máscaras binarias ajustables para aislar los colores deseados, facilitando la detección precisa de objetos, códigos QR y líneas.


CONCLUSIONES

Robot Seguidor de Línea Negra En el proyecto del robot seguidor de línea negra, se utilizó Python con OpenCV para la visión virtual del entorno. La cámara IP Webcam permitió la transmisión en vivo de video, identificando con precisión la línea negra en el suelo. La comunicación bidireccional entre el Arduino y el software en Python se facilitó mediante el módulo HC-05. Robot Seguidor de Objetos Para el robot seguidor de objetos, se desarrolló un sistema que detecta colores y objetos en tiempo real usando la Web Cam y OpenCV. La conversión de imágenes al espacio de color HSV y la aplicación de una máscara binaria permitieron un control preciso del robot. Una interfaz gráfica del usuario desarrollada con Tkinter permitió ajustar los valores de HSV y controlar el sistema, mostrando las velocidades calculadas y la orientación del robot, este permite identificar al robot como un circulo azul y a su destino donde debe llegar como un cuadrado azul.     Robot Seguidor de Códigos QR En las pruebas del robot seguidor de códigos QR, se implementó una GUI con Tkinter, se utilizó OpenCV para la captura de video en tiempo real. La detección de dos tipos de códigos QR, uno para el robot y otro para el objeto de destino, permitió el control eficiente del movimiento del robot mediante la comunicación serial con una placa Arduino. Resultados Experimentales Los resultados experimentales demostraron la efectividad del sistema de visión por computadora en el control del robot móvil uniciclo. Se logró una identificación y seguimiento precisos de objetos y trayectorias, permitiendo un control suave y eficiente del robot. Cada uno de los proyectos tuvo un resultado positivo en cada prueba.
Madrigal Equihua Paola Ines, Instituto Tecnológico Superior de Los Reyes
Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo

FACTORES GENERADORES DEL VALLE DE LA MUERTE


FACTORES GENERADORES DEL VALLE DE LA MUERTE

Madrigal Equihua Paola Ines, Instituto Tecnológico Superior de Los Reyes. Medina Ramirez Christian Ariel, Instituto Tecnológico Superior de Irapuato. Rolon Chávez Jafeth Valente, Instituto Tecnológico Superior de Los Reyes. Zepeda García Jesús Andany, Instituto Tecnológico Superior de Los Reyes. Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo



PLANTEAMIENTO DEL PROBLEMA

Dentro del marco de la innovación y el emprendimiento académico, el concepto denominado "valle de la muerte" continúa siendo un obstáculo crucial para la exitosa transición de proyectos desde su concepción inicial hasta su viabilidad económica, según investigadores (Björklund et al., 2020). Esta dificultad es especialmente relevante en instituciones de enseñanza superior como el Tecnológico Nacional de México, donde la generación y aplicación de conocimiento son metas esenciales. Es importante destacar que, en la actualidad el término "valle de la muerte" no se utiliza mucho en los Tecnológicos Nacionales de México. No existen investigaciones específicas sobre esta expresión debido a la falta de información proporcionada por las instituciones tecnológicas. En el contexto de las instituciones de educación superior mexicana, se ha resaltado la relevancia de los entornos de emprendimiento universitario para impulsar la innovación (Guerrero et al., 2019). No obstante, subsiste una brecha importante en la comprensión sobre cómo funcionan estos ecosistemas, en particular los mecanismos de financiamiento que operan en ellos, en cuanto a su influencia en la supervivencia y el éxito de los proyectos durante la denominada etapa del "valle de la muerte" en el Tecnológico Nacional de México. La financiación ha sido identificada como un elemento clave en la habilidad de los proyectos para superar este desafío crítico. No obstante, la verdadera repercusión de este factor ya sea positiva o negativa, aún no se ha esclarecido adecuadamente en el ámbito específico del Tecnológico Nacional de México. Esta entidad, como parte esencial del sistema educativo superior de México, muestra rasgos singulares que necesitan ser examinados minuciosamente para comprender cómo la financiación impacta en el éxito de los proyectos innovadores. Este estudio tiene como objetivo responder a las siguientes interrogantes de investigación: ¿De qué forma la financiación impacta en la capacidad de los proyectos del Tecnológico Nacional de México para superar el desafío del "valle de la muerte? La investigación de estas cuestiones es fundamental para desarrollar una comprensión más profunda de los mecanismos que facilitan o impiden el éxito de los proyectos innovadores en el contexto de la educación superior mexicana. Los resultados de este estudio podrían proporcionar información valiosa para la formulación de políticas y estrategias más efectivas de apoyo a la innovación y el emprendimiento en el Tecnológico Nacional de México y otras instituciones similares. Haciendo mención del Tecnológico Nacional de México Campus los Reyes, se destaca que el aspecto predominante en el valle de la muerte es la financiación, debido a la falta de recursos asignados para proyectos universitarios en el Tecnológico, lo cual necesita ser planificado con antelación para obtener la aprobación de los directivos.



METODOLOGÍA

Caracterizado por su enfoque exploratorio y descriptivo, se dedica a comprender y describir la relación entre la financiación, la innovación y su influencia en los proyectos de investigación del Tecnológico Nacional de México. Esto se enfoca principalmente en el desafío del "valle de la muerte" en el ámbito del emprendimiento académico. El objetivo de esta investigación es abordar un problema complejo y poco explorado, con el propósito de generar conocimiento que ayude a comprender los factores que afectan el éxito de los proyectos innovadores en la educación superior mexicana. A través de este enfoque, se busca responder preguntas específicas sobre cómo la financiación afecta la capacidad de los proyectos del Tecnológico Nacional de México para hacer frente al desafío del "valle de la muerte". Este enfoque facilita la exploración de un territorio poco estudiado y fomenta nuevas perspectivas que pueden enriquecer el ámbito del emprendimiento académico y la innovación tecnológica. Al detallar y analizar estas particularidades, se busca ofrecer una visión integral de la situación actual y de las posibles implicaciones para el diseño de políticas y estrategias de respaldo a la innovación en instituciones educativas semejantes.


CONCLUSIONES

El problema conocido como "valle de la muerte" supone un obstáculo importante para la innovación y el emprendimiento en el Tecnológico Nacional de México y, por ende, en la educación superior del país. Estudios han demostrado que la falta de financiamiento adecuado, la poca coordinación entre los actores del ecosistema de innovación y la escasa ayuda gubernamental son factores críticos que dificultan la transición de los proyectos desde la fase de investigación y desarrollo hacia su viabilidad comercial. Una forma de superar estos retos es mediante la adopción de un enfoque integral que incluya el fortalecimiento de los mecanismos de financiamiento, la promoción de una mayor colaboración entre universidades, centros de investigación, empresas y entidades financieras, así como la implementación de políticas públicas más efectivas que apoyen a los emprendedores en las fases clave de desarrollo de sus proyectos. La creación de un ecosistema sólido que respalde la creatividad y el espíritu emprendedor resulta fundamental para asegurar que las ideas innovadoras puedan prosperar y convertirse en ventajas tangibles para la sociedad.
Magaña García Karelia Jazmín, Universidad Autónoma de Baja California
Asesor: Dra. Gabriela Pérez Osorio, Benemérita Universidad Autónoma de Puebla

REMOCIóN DE CONTAMINANTES DEL AGUA MEDIANTE ADSORCIóN


REMOCIóN DE CONTAMINANTES DEL AGUA MEDIANTE ADSORCIóN

Magaña García Karelia Jazmín, Universidad Autónoma de Baja California. Asesor: Dra. Gabriela Pérez Osorio, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Se considera que el agua está contaminada cuando su composición se modifica de tal manera que no cumple con las condiciones necesarias para el uso al que estaba destinada en su estado natural. Existen diferentes contaminantes que alteran su estado químico, físico o biológico, representando un daño para los seres vivos que la consuman. Los contaminantes emergentes son sustancias químicas suspendidas en el agua, tales como los compuestos farmacéuticos y colorantes, que derivan de una mala gestión y disposición de productos farmacéuticos y del uso de colorantes en los alimentos, los cuales terminan en aguas residuales y las plantas tratadoras no cuentan con procesos para la remoción de contaminantes emergentes.  Las concentraciones menores de miligramos por litro de estos contaminantes tienen consecuencias nocivas para el medio ambiente y los seres vivos. Por este motivo, se busca analizar los resultados obtenidos a partir de procesos como la fotocatálisis y la adsorción para la remoción de estos contaminantes.



METODOLOGÍA

Se preparó una solución de 10 ppm de ibuprofeno, utilizando 5 mg de ibuprofeno en 500 mL de agua y se denominará blanco.  Se prepararon las siguientes soluciones y un duplicado: Dióxido de titanio: 5 mg de dióxido de titanio en .5 L de blanco Dióxido de silicio: 5 mg de dióxido de silicio en .5 L de blanco Clioptilolita: 5 mg de clioptilolita en .5 L de blanco  Se mantuvieron los matraces en agitación constante y se tomaron las alícuotas de las soluciones a las 9 h y 11 h. Posteriormente se colocaron los matraces en exposición de la radiación solar, teniendo un índice UV de 9. Se tomaron dos alícuotas más cada dos horas.  En el segundo día se colocaron los matraces con agitación en exposición solar y se conectaron a bombas para contribuir a la oxigenación de la solución, favoreciendo el proceso de óxido-reducción.  Se tomaron tres alícuotas más cada dos horas. Posteriormente se realiza la medición de la absorbancia de las alícuotas, se utilizó el equipo UV-VIS SPECTROMETER y el software LAMBDA. El mismo se configuró de la siguiente manera: Longitudes de onda: 800 nm máximo y 200 nm mínimo Lámparas encendidas Se seleccionó el número y nombre de las alícuotas Se deposita agua desionizada en las celdas Posteriormente, se tiró el agua de una de las celdas y se reemplazó por la alícuota, se repite el procedimiento y se guarda el resultado. Se graficaron las curvas de absorbancia y se calculó el porcentaje de remoción utilizando la siguiente ecuación: % de remoción=(ABSinicial-ABSfinal)/ABSinicial*100 Se repitió el mismo procedimiento, con dos soluciones de 50 ppm de ciprofloxacino y levofloxacino, utilizando 25 mg del fármaco en 500 mL de agua, denominadas blanco ciprofloxacino y blanco levofloxacino y se procedió a preparar dos soluciones y sus duplicados de Dióxido de titanio/Dióxido de silicio con 25 mg de cada catalizador en .5 L de blanco ciprofloxacino y otra con blanco levofloxacino. Se analizaron las alícuotas en el equipo UV-VIS SPECTROMETER y se graficaron las curvas de absorbancia y se calculó el porcentaje de remoción.    Para el proceso de adsorción, se agregaron 50 g de cada uno de los residuos (cáscara de cacahuate y pistache) a un vaso de precipitado con 400 mL del agente activante H₃PO₄ con concentración 0.2 M, y se realizó una agitación por dos horas a 70 ºC. Posteriormente, se calcinaron las muestras a 550 ºC durante dos horas. El carbón activado obtenido se lavó con agua desionizada hasta alcanzar un pH cercano a 6, y se secó a 110 ºC por dos horas. Posteriormente se realizaron las soluciones de azul terasil (5 ppm) y anaranjado de metilo (25 ppm), las cuales se separaron en 6 vasos de precipitado con 100 mL de solución con diferentes niveles de pH (3, 5, 7, 9 y 11) y se les añadió 2.5 g de carbón activado. Para la solución de azúl terasil se utilizó carbón activado a base de residuo de pistache, y el anaranjado de metilo con residuo de cacahuate. Se dejó en agitación por 48 h y se procedió a la filtración del residuo del carbón activado y la toma de las alícuotas.  Se analizaron las alícuotas en el equipo UV-VIS SPECTROMETER y se graficaron las curvas de absorbancia y se calculó el porcentaje de remoción.


CONCLUSIONES

El dióxido de titanio mostró ser un buen catalizador debido a que degrada casi el 100% de los contaminantes. La solución de clioptololita mostró que no cambia la banda principal del ibuprofeno conforme el tiempo, por lo que no tiene efecto en la degradación del fármaco y no cumple como catalizador. El ibuprofeno no mostró degradación bajo la exposición del sol y el dióxido de silicio no mostró tener la capacidad de degradación del fármaco. Las soluciones de ciprofloxacino y levofloxacino mostraron poca degradación, se recomienda realizar la prueba fotocatalítica con menor concentración para observar la degradación del fármaco. Se concluye que sin catalizador no se logra la degradación del fármaco. La muestra de pH 9 del azul de terasil no se pudo medir debido a que hubo problemas en la filtración final. Se logró la adsorción del azul de terasil, el cual tiene un máximo de absorbancia en 590 nm, después del proceso se observa que la banda característica disminuye completamente, lo que significa que el colorante se quedó en la estructura del carbón y se observó visiblemente. También se logró la adsorción del anaranjado de metilo, después del proceso se observa que la banda característica disminuye o desaparece por completo, siendo que la longitud de onda máxima es de 465 nm, interpretándose como una adsorción total del anaranjado de metilo, se observó visiblemente. Se concluye que ambos procesos funcionan para descontaminar el agua y mejorar su calidad, evitando los efectos nocivos que tienen los colorantes y fármacos que no se logran limpiar en las plantas tratadoras de aguas residuales.
Magaña Loera Christian Alejandro, Instituto Tecnológico Superior de Uruapan
Asesor: Mtro. Miguel ángel Núñez Cárdenas, Instituto Tecnológico Superior de Uruapan

ESTUDIO BIOMECáNICO DE COLUMNA CERVICAL (DISEñO DE COLLARíN CERVICAL)


ESTUDIO BIOMECáNICO DE COLUMNA CERVICAL (DISEñO DE COLLARíN CERVICAL)

Magaña Loera Christian Alejandro, Instituto Tecnológico Superior de Uruapan. Asesor: Mtro. Miguel ángel Núñez Cárdenas, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Los pacientes a menudo reportan incomodidad, restricción de movimiento y en algunos casos desarrollo de úlceras por presión debido al uso prolongado. Por lo tanto, existe una necesidad crítica de desarrollar un collarín cervical que ofrezca un mejor soporte ergonómico, materiales avanzados y características que eviten lesiones adicionales durante su uso.



METODOLOGÍA

Fase 1: Investigación y Selección de Materiales En esta primera fase se utilizará una combinación de materiales entre ellos fibra de carbono y pe/plastazote. La fibra de carbono es para la estructura principal del collarín por su alta rigidez y ligereza, para un soporte y sin añadir peso innecesario. El pe/plastazote es para el acolchado interno para más comodidad y absorción de impactos, reduciendo así el riesgo de lesiones por presión al paciente.  Fibra de carbono: Ventajas: Alta resistencia, ligereza, rigidez excepcional, y biocompatibilidad. Proporciona un soporte fuerte sin añadir peso innecesario, mejorando la comodidad del paciente y la eficacia del dispositivo. Desventajas: Costo elevado y complejidad en el proceso de fabricación. Aplicaciones: Ideal para la estructura principal del collarín donde se necesita máxima rigidez y soporte. PE/Plastazote (Espuma de polietileno): Ventajas: Ligereza, flexibilidad, excelente absorción de impactos, y comodidad. Es fácil de moldear y proporciona un contacto suave con la piel del paciente, reduciendo la posibilidad de lesiones por presión. Aplicaciones: Ideal para el acolchado y las partes internas en contacto directo con la piel del paciente. Fase 2: Diseño Ergonómico Para la realización de este diseño se utilizó el software de SolidWorks en un modelado 3D para diseñar un collarín que distribuya el peso de manera uniforme y que sea cómodo para quien lo utiliza. Con posibles ajustes personalizados para que sea adapte a diferentes tamaños de cuellos y necesidades de soporte. Así mismo un diseño que sea un diseño liviano y que tenga respiraciones para que la persona que lo utilice no sienta la necesidad de estar retirando para limpiar los excesos de sudor o que este mismo le cause sudoración. Diseño 1 Lo que se buscaba con este diseño es la ventilación del cuello y así mismo el asiste para la circulación de sangre para que al usuario no tenga problemas al momento de usarlo. Se puede observar que La pe la estructura general del collarín está hecha a base de fibra de carbono no lo que da la libertad de poder realizar diseños aerodinámicos los cuales son así mismo ergonómicos para el uso. Diseño 2 Lo que se buscaba con este diseño al igual que el anterior es tener una conformidad en cuanto a la transpiración, a diferencia con el diseño anterior, en este diseño 2 tenemos un soporte en la parte a la mitad del collarín el cual es de un material más flexible que el carbono como el plastazote el cual nos brinda una facilidad al momento de abrir y colocar en el usuario.  


CONCLUSIONES

Se fabricaron diferentes diseños para obtener resultados diferentes en los análisis de deformaciones y desplazamientos que sufre el material al aplicarle una fuerza de 4kgf que se asemejan a la que se realizaría con la cabeza de usuario. Diseño 1 Se aprecia que tenemos una deformación de 0.00177 cm en la parte más susceptible del diseño esto aplicándole un a fuerza de 4 N por lo que el diseño hecho es óptimo en cuanto a su capacidad de soportar la deformidad y el peso que se le está ejerciendo por la cabeza manteniéndola en un lugar adecuado para su recuperación por lesión. Se fabricarán diferentes prototipos del collarín utilizando los materiales seleccionados para tener diferentes análisis estáticos. Por último, se realizará una prueba con un maniquí en SolidWorks para verificar que su utilidad sea correcta Diseño 2 Se aprecia que tenemos una deformación de 0.000239 cm en la parte más susceptible del diseño que corresponde a la parte de la nuca o parte trasera del collarín, esto aplicándole un a fuerza de 4 N por lo que el diseño hecho es óptimo en cuanto a su capacidad de soportar la deformidad y el peso que se le está ejerciendo.
Magaña Ruiz Adrián, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)

MODELADO MATEMETICO DE UN CUADRIRROTOR Y VEHICULO TIPO COHETE. ASESOR: DR. DIEGO ALBERTO MERCADO RAVELL, CENTRO DE INVESTIGACIóN EN MATEMáTICAS (CONACYT). ADRIAN MAGAñA RUIZ, UNIVERSIDAD MICHOACANA DE SAN NICOLáS DE HIDALGO, 2100784X@UMICH.MX.


MODELADO MATEMETICO DE UN CUADRIRROTOR Y VEHICULO TIPO COHETE. ASESOR: DR. DIEGO ALBERTO MERCADO RAVELL, CENTRO DE INVESTIGACIóN EN MATEMáTICAS (CONACYT). ADRIAN MAGAñA RUIZ, UNIVERSIDAD MICHOACANA DE SAN NICOLáS DE HIDALGO, 2100784X@UMICH.MX.

Magaña Ruiz Adrián, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El motivo de realizar una simulacion de este tipo, es que nos podrá permitir concer el comportamiento de un sistema como el cuadrirrotor o el cohete a lo largo del tiempo, para asi realizar mejores diseños y optimizar procesos dentro de estos sistemas.



METODOLOGÍA

Fase 1.- En esta etapa,se le dio seguimiento y entendimiento a la demostracion de las 6 ecuaciones diferenciales que describen el movimiento del cuadrirrotor basadas en la segunda ley de movimiento impuesta por Isaac Newton. Fase 2.-Ya entendidas las ecuaciones, se siguió con el entendimiento del software simulink de MATLAB para poder realizar la simulacion en este entorno. Fase 3,-Habiendo completado la simulacion, se le adjudicó un control de tipo PD para cuestiones de altura,orientacion y posicion para el cuadrirrotor. Fase 4- En esta etapa, se realizó una revisión de la literatura para determinar las ecuaciones necesarias para el modelado del vehiculo tipo cohete Fase 5.- Se realizó el modelado del vehiculo tipo cohete en el software simulink de MATLAB.  


CONCLUSIONES

Con la respuesta de la simulacion, es posible realizar predicciones de cómo se comportarán estos sistemas  en diferentes condiciones. Esto es útil para evaluar posibles resultados antes de tomar decisiones o realizar cambios en un sistema real. Ademas de la gran utilidad que tiene para realizar una mejora de optimizacion en estos sistemas.
Maldonado Chávez Amaury David, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

RELACIóN ENTRE LA SATISFACCIóN LABORAL Y LA SATISFACCIóN DEL CLIENTE EN EMPRESAS COMERCIALES


RELACIóN ENTRE LA SATISFACCIóN LABORAL Y LA SATISFACCIóN DEL CLIENTE EN EMPRESAS COMERCIALES

Maldonado Chávez Amaury David, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

La investigación se centra en explorar la relación entre la satisfacción laboral de los empleados y la satisfacción del cliente en organizaciones comerciales, reconociendo su importancia fundamental para el éxito empresarial. Al comprender cómo la satisfacción laboral influye en la calidad del servicio, la retención de clientes, la lealtad a la marca, la reputación corporativa y la salud organizacional, este estudio busca proporcionar un diagnóstico de cómo la experiencia del cliente se puede mejorar o empeorar si el ambiente laboral es satisfactorio o no. Los resultados obtenidos tendrán implicaciones significativas para la gestión empresarial, destacando la importancia de la inversión en el bienestar y la satisfacción de los empleados como un medio para alcanzar el éxito comercial y fortalecer la relación con los clientes.



METODOLOGÍA

En primera instancia se hizo una investigación cualitativa para determinar el comienzo de las acciones necesarias para mejorar los aspectos. Realicé una investigación explicativa ya que no es un tema en el cual se haya prestado especial atención, al centrarse en actitudes y en variables casi por completo en percepciones es la mejor opción ya que podrán ser acciones cambiantes a lo largo del tiempo y de la investigación Se aplicaron entrevistas, observaciones y cuestionarios para evaluar el comportamiento de todos los individuos y como interfieren entre sí para su satisfacción Se analizara desde dos teorías, la primera es para los colaboradores que se llama "teoría de la discrepancia" y la segunda para los clientes titulada "Teoría de la Desconfirmación de Expectativas" como su nombre lo menciona se centran en las expectativas iniciales y finales de ambos individuos, se eligieron con la intención de comparar los resultados en contextos similares, ya que las expectativas al ser personales pueden jugar un papel unico en la interacción de ambos.


CONCLUSIONES

En conclusión, después de haber realizado la investigación podemos observar dos cosas: 1.- Las espectativas de ambos son cambiantes, ya que pueden ser completamente alteradas por los contextos personales, acontecimientos transcurridos antes de la interacción y experiencias pasadas. 2.- Se entiende que sí hay una estrecha relación entre la satisfacción laboral y la satisfacción del cliente, ya que la calidad de atención y la expectativa de la misma cambia con la interacción de ambos, sin embargo no es solo el servicio el que altera la satisfacción del cliente, interfieren factores tanto internos como externos que no son alterados por el servicio y la satisfacción laboral que tienen los colaboradores, es importante analizar como se puede llegar a fusionar con esta investigación y que repercusiones se tiene en los clientes y los colaboradores.
Maldonado Trevizo Julaedy, Universidad de Sonora
Asesor: Mtra. Ariadna Leecet González Solís, Benemérita Universidad Autónoma de Puebla

LA CASA URUCHURTU Y SU TRANSFORMACIóN A LA SOCIEDAD SONORENSE DE HISTORIA


LA CASA URUCHURTU Y SU TRANSFORMACIóN A LA SOCIEDAD SONORENSE DE HISTORIA

Maldonado Trevizo Julaedy, Universidad de Sonora. Asesor: Mtra. Ariadna Leecet González Solís, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La preservación y promoción del patrimonio sigue siendo un desafío en muchas áreas. En Hermosillo, Sonora, la Casa Uruchurtu, un edificio histórico del siglo XIX, enfrentaba desafíos de seguridad debido a su antigüedad y al clima. El edificio no solo es un ejemplo reconocido de la arquitectura local, sino que también tiene una rica historia como residencia de Manuel Uruchurtu, el famoso hombre que murió en el Titanic. La conversión de este edificio en la sede de Sonorense de Historia A.C. debe considerar seriamente mantener, embellecer y apoyar su uso como institución cultural y educativa.



METODOLOGÍA

La investigación se centró en la historia y el estado actual de la Casa Uruchurtu mediante un análisis entrevistas y documentos relacionados al edifico. Además, se realizaron visitas al sitio para evaluar las características arquitectónicas y el estado de conservación del edificio la metodología incluyó: Revisión de documentos y archivos históricos: Documentos y bibliografía relevante sobre la Casa Uruchurtu y la Sociedad Sonorense de Historia.   Entrevistas: Comunicados y entrevistas relacionados con el edificio.   Inspección física del edificio: Evaluación del estado actual del inmueble, incluyendo la estructura, materiales, y detalles arquitectónicos.   Documentación fotográfica: Registro visual de las condiciones actuales y los elementos arquitectónicos del edificio.


CONCLUSIONES

Durante la estancia científica se pudo llevar a cabo una investigación de un edificio de patrimonio cultural en este caso la: Casa Uruchurtu resulto ser un importante sitio de patrimonio cultural en Hermosillo, bien conservado y restaurado como sede de la Sociedad Sonorense de Historia A.C. El edificio conserva estilos arquitectónicos originales del siglo XIX como piedra, madera y metal, además de decoración neoclásica. El desarrollo moderno es importante para mantener el carácter y la belleza del edificio para que pueda seguir siendo un centro cultural. La preservación de la Casa Uruchurtu no es sólo un vínculo visual con el pasado, sino también un lugar conveniente para actividades culturales, educativas y artísticas y una preparación adecuada para las generaciones futuras.
Mallozzi Martínez Erika Daniela, Universidad Politécnica de Victoria
Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz

APLICACIóN DE REALIDAD VIRTUAL ESCAPE ROOM DE ADA LOVELACE, MUJER RECONOCIDA EN STEM


APLICACIóN DE REALIDAD VIRTUAL ESCAPE ROOM DE ADA LOVELACE, MUJER RECONOCIDA EN STEM

Mallozzi Martínez Erika Daniela, Universidad Politécnica de Victoria. Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

El proyecto consiste en el desarrollo de una aplicación de realidad virtual titulada "Escape Room de Ada Lovelace". Utilizando la plataforma Unity 3D y las gafas Meta Quest 2, la aplicación busca ofrecer una experiencia inmersiva y educativa que resalte la vida y los logros de Ada Lovelace, una pionera en el campo de la programación y una figura inspiradora en las disciplinas STEM. Objetivo Principal: El objetivo del proyecto es crear una experiencia interactiva y educativa que permita a los usuarios aprender sobre la historia y contribuciones de Ada Lovelace a través de una serie de desafíos y rompecabezas diseñados dentro de un entorno de escape room. Al involucrar a los usuarios en la resolución de problemas relacionados con la vida y trabajo de Ada Lovelace, el proyecto pretende inspirar a más mujeres a explorar y perseguir carreras en las disciplinas de Ciencia, Tecnología, Ingeniería, Arte y Matemáticas (STEAM).



METODOLOGÍA

Investigación: Se realizó una investigación exhaustiva sobre la vida y las contribuciones de Ada Lovelace, asegurando la precisión histórica y técnica de los contenidos presentados en el juego. Esta investigación incluyó el estudio de su trabajo con la Máquina Analítica de Charles Babbage, su interés por las matemáticas, y su legado como la primera programadora de la historia. Diseño del Entorno: El escenario del escape room fue cuidadosamente seleccionado para crear una atmósfera inmersiva y desafiante. Se optó por un castillo medieval, que proporciona un ambiente misterioso y evocador. El entorno fue diseñado en Unity 3D, incorporando detalles arquitectónicos y elementos visuales que refuerzan la temática del juego y la conexión con la era de Ada Lovelace. Desarrollo de Interacciones: El sistema de movimiento en el juego se implementó utilizando la teletransportación por alfombras, lo que permite a los usuarios desplazarse por el mapa apuntando con los controladores a la zona deseada y accionando el botón de Trigger. La interacción con objetos se realiza mediante el botón de Select, que permite a los usuarios recoger y manipular objetos necesarios para completar los puzzles. Esta mecánica fue diseñada para ser intuitiva y accesible, facilitando la inmersión en la experiencia de juego. Diseño de Rompecabezas: Cada rompecabezas fue diseñado para reflejar aspectos clave de la vida y el trabajo de Ada Lovelace. Estos incluyen: Organización de Libros: Un puzzle en el que los usuarios deben encontrar y organizar libros siguiendo una secuencia numérica, inspirada en la lógica y el orden matemático que caracterizan el trabajo de Ada. Montaje de Engranajes: Un desafío que requiere que los usuarios coloquen engranajes en una recreación de la Máquina Analítica, subrayando la importancia de Ada en la historia de la computación. Ordenación de Bloques de Código: Un puzzle en el que los usuarios deben organizar correctamente líneas de código en una terminal, destacando el papel de Ada como pionera de la programación.


CONCLUSIONES

El desarrollo del proyecto "Escape Room de Ada Lovelace" ha sido una experiencia invaluable, tanto en términos de aprendizaje técnico como en su impacto potencial en la educación. A lo largo del proceso, logré combinar habilidades adquiridas en Unity 3D con una profunda exploración de la historia y contribuciones de Ada Lovelace, una figura clave en el desarrollo de la programación. Resultados Obtenidos: Desarrollo Técnico y Creativo: La aplicación de los conocimientos adquiridos en los tutoriales permitió crear un entorno inmersivo en realidad virtual, que combina elementos visuales y narrativos para ofrecer una experiencia educativa atractiva. Se diseñaron e implementaron rompecabezas que no solo son entretenidos, sino que también educan a los usuarios sobre conceptos matemáticos y la historia de la computación, alineados con la vida y obra de Ada Lovelace. Impacto Educativo: El proyecto tiene un enfoque claro en inspirar a más mujeres a explorar carreras en STEAM. A través de la interacción con los puzzles y la inmersión en la historia de Ada Lovelace, los usuarios pueden apreciar la relevancia de sus contribuciones y la importancia de la diversidad en el campo de la tecnología. La experiencia en realidad virtual permite una conexión emocional con el contenido educativo, lo que podría aumentar el interés y la retención del conocimiento entre los usuarios. Resultados por Obtener: Pruebas de Usuario y Feedback: Aunque se han realizado pruebas iniciales, el próximo paso es llevar a cabo pruebas más amplias con diferentes tipos de usuarios para recopilar un mayor feedback sobre la usabilidad, la dificultad de los rompecabezas y la efectividad educativa del juego. Basado en este feedback, se planea realizar ajustes adicionales para mejorar la experiencia del usuario, asegurando que sea intuitiva, accesible y envolvente. Expansión y Mejora del Proyecto: A partir de los resultados obtenidos en las pruebas de usuario, se prevé la posibilidad de expandir el escape room con nuevas interacciones y rompecabezas que aborden otras facetas de la historia de Ada Lovelace y la evolución de la programación. También se evaluará la posibilidad de adaptar la experiencia para diferentes plataformas de realidad virtual, aumentando así su accesibilidad y alcance. Este proyecto ha sido un ejercicio integral en el desarrollo de aplicaciones de realidad virtual con un propósito educativo. Al resaltar la figura de Ada Lovelace, no solo se busca honrar su legado, sino también contribuir a cerrar la brecha de género en el ámbito de la tecnología. El trabajo realizado hasta ahora es solo el comienzo, y las mejoras futuras permitirán que esta experiencia continúe evolucionando y alcanzando su máximo potencial como herramienta educativa.
Malpica Baca Ana Paola, Universidad Veracruzana
Asesor: Dr. Alex Sandro Landeo Quispe, Universidad Nacional de Huancavelica

¿CUáL ES EL IMPACTO DE LA TRANSFORMACIóN DIGITAL EN BPM Y CóMO PUEDE SER UTILIZADO PARA BENEFICIAR A LAS EMPRESAS?


¿CUáL ES EL IMPACTO DE LA TRANSFORMACIóN DIGITAL EN BPM Y CóMO PUEDE SER UTILIZADO PARA BENEFICIAR A LAS EMPRESAS?

Malpica Baca Ana Paola, Universidad Veracruzana. Asesor: Dr. Alex Sandro Landeo Quispe, Universidad Nacional de Huancavelica



PLANTEAMIENTO DEL PROBLEMA

La transformación digital ha emergido como un factor crítico en la evolución de las organizaciones modernas. Esta tendencia implica la integración de tecnologías avanzadas, como la inteligencia artificial (IA), el Internet de las Cosas (IoT), la automatización robótica de procesos (RPA), el Cloud Computing y el Machine Learning, La inteligencia artificial (IA) se refiere a la creación de sistemas que pueden realizar tareas que normalmente requieren inteligencia humana, como el reconocimiento de voz y la toma de decisiones. El Internet de las Cosas (IoT) conecta dispositivos físicos a internet, permitiendo la recopilación y el intercambio de datos en tiempo real. La automatización robótica de procesos (RPA) utiliza software para automatizar tareas repetitivas y rutinarias en los negocios, mejorando la eficiencia operativa. El Cloud Computing ofrece servicios de computación a través de internet, proporcionando almacenamiento, procesamiento y aplicaciones en la nube. El Machine Learning es una rama de la IA que permite a las máquinas aprender y mejorar a partir de datos sin ser explícitamente programadas. Aunque la transformación digital ofrece numerosas oportunidades, también plantea desafíos significativos para el BPM.  La investigación sobre el impacto de la transformación digital es crucial debido a la creciente importancia de la digitalización en el mundo empresarial para entender cómo ésta impacta la eficiencia, eficacia, efectividad, transparencia y agilidad del BPM. El objetivo general de esta investigación es evaluar el impacto de la transformación digital en la eficiencia, eficacia, efectividad, transparencia y agilidad de los procesos de negocio gestionados mediante Business Process Management (BPM). Este objetivo establece la dirección principal del estudio para comprender cómo la adopción de tecnologías digitales afecta y transforma los procesos empresariales. Es importante identificar las tecnologías digitales más utilizadas en la transformación digital y su aplicación en BPM. Esto incluye determinar la relevancia de tecnologías como la inteligencia artificial (IA), el Internet de las Cosas (IoT) y la automatización robótica de procesos (RPA), Machine Learning, y Cloud Computing y analizar casos de estudio donde estas tecnologías hayan sido implementadas. Para lograrlo se debe analizar los cambios en la eficiencia operativa de los procesos de negocio tras la adopción de tecnologías digitales. Esto implica medir el tiempo y los recursos necesarios antes y después de la implementación de estas tecnologías, evaluando su impacto en la reducción de costos y la mejora de la productividad.



METODOLOGÍA

Se realizó una revisión exhaustiva de la literatura, incluyendo fuentes académicas y estudios de caso, para identificar cómo tecnologías como IA, IoT, RPA, Cloud Computing y Machine Learning optimizan la gestión de procesos de negocio (BPM). Estas tecnologías mejoran la eficiencia operativa, la agilidad y la innovación. Caso 1: Siemens - IoT y Cloud Computing   Siemens implementó sensores IoT y una plataforma de Cloud Computing para recolectar y analizar datos en tiempo real sobre el estado de las máquinas y procesos de producción. Esto mejoró la monitorización, permitió el mantenimiento predictivo, redujo los tiempos de inactividad no planificados y optimizó la eficiencia operativa. Caso 2: General Electric (GE) - Machine Learning e IA   GE utilizó Machine Learning e IA para analizar datos históricos y operativos, prediciendo fallos en equipos y optimizando el mantenimiento. La iniciativa Digital Thread conectó todas las etapas del ciclo de vida del producto, facilitando la personalización y mejorando la eficiencia, reduciendo tiempos de inactividad y costos. Caso 3: DHL - RPA   DHL implementó RPA para automatizar tareas repetitivas como la entrada de datos de pedidos y la actualización de inventarios. Esto mejoró la eficiencia y precisión de las operaciones, reduciendo errores y tiempos de respuesta, y optimizando el uso de recursos humanos para tareas estratégicas. Caso 4: Telefónica - IA   Telefónica implementó chatbots y asistentes virtuales para manejar consultas de clientes, ofreciendo soporte 24/7 y reduciendo tiempos de espera. La IA mejoró la experiencia del cliente y recopiló datos para mejorar servicios, liberando a los agentes humanos para manejar casos más complejos y mejorando la eficiencia del centro de atención.  


CONCLUSIONES

La transformación digital ha revolucionado la gestión de procesos de negocio (BPM) mediante la integración de tecnologías avanzadas como IA, IoT, RPA, Cloud Computing y Machine Learning. Estas tecnologías han mejorado la eficiencia operativa, la agilidad, la efectividad y la transparencia de las organizaciones. Ejemplos incluyen la monitorización en tiempo real y el análisis predictivo con IoT y Cloud Computing, que reducen tiempos de inactividad y costos operativos, y el uso de IA y Machine Learning para mejorar la personalización e innovación de servicios. En resumen, la adopción de tecnologías digitales en el BPM es esencial para la competitividad en el mercado global. Las empresas que implementan estas tecnologías logran mejoras significativas en costos, tiempos de inactividad, innovación y personalización, optimizando recursos y alineando avances tecnológicos con objetivos estratégicos para asegurar beneficios sostenibles a largo plazo.
Manjarrez Cervantes Adrian Alfredo, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Daniel Betancur Vasquez, Institución Universitaria de Envigado

DETECCIóN DE OBSTáCULOS EN VEHíCULOS DE NAVEGACIóN AUTóNOMA.


DETECCIóN DE OBSTáCULOS EN VEHíCULOS DE NAVEGACIóN AUTóNOMA.

Manjarrez Cervantes Adrian Alfredo, Instituto Tecnológico Superior de Irapuato. Asesor: Mg. Daniel Betancur Vasquez, Institución Universitaria de Envigado



PLANTEAMIENTO DEL PROBLEMA

La navegación autónoma ha emergido como una de las áreas más prometedoras y desafiantes en el campo de la inteligencia artificial (IA). La capacidad de un vehículo para percibir su entorno, tomar decisiones y moverse sin intervención humana tiene el potencial de revolucionar múltiples industrias, incluyendo el transporte, la logística y la exploración. Sin embargo, a pesar de los avances significativos, la implementación práctica y segura de sistemas de navegación autónoma sigue enfrentándose a numerosos desafíos técnicos y operacionales. En este proyecto, nos enfocaremos en el Machine Learning, una rama de la inteligencia artificial que mediante la iteración de los datos estas tecnologías son capaces de extraer patrones, tendencias y regularidades que aprenden, las cuales sirven como parámetros para tomar decisiones en el futuro. Profundizando por completo en el reconocimiento de obstáculos, enfocándonos así en vehículos o robots con navegación autónoma. En concreto con este proyecto buscamos desarrollar un programa capaz de reconocer obstáculos en tiempo real para evitar accidentes en vehículos de navegación autónoma.



METODOLOGÍA

  El primer paso para el proyecto fue entender lo que se estaba intentando lograr y lo que se necesitaba saber, por lo que se realizo un trabajo de investigación que partía desde la inteligencia artificial, llegando hasta la subrama de la detección de objetos La Inteligencia Artificial es una rama de la tecnología que permite que las computadoras simulen la inteligencia y capacidades humanas en cuanto a la solución de problemas y la toma de decisiones. El machine learning que, mediante la iteración o repetición de datos, estas tecnologías son capaces de extraer patrones, tendencias y regularidades que aprenden, las cuales sirven como parámetros para tomar decisiones en un futuro. El deep learning es un subconjunto del machine learning que utiliza redes neuronales multicapa, llamadas redes neuronales profundas, para simular el complejo poder de toma de decisiones del cerebro humano.  Las Redes Neuronales se utilizan principalmente en aplicaciones de visión artificial y clasificación de imágenes. Pueden detectar características y patrones dentro de imágenes y videos, lo que permite tareas como la detección de objetos, el reconocimiento de imágenes y el reconocimiento de patrones. En nuestro trabajo, utilizamos una red neuronal para clasificar e identificar los objetos, o en este caso obstáculos que pudiera tener un vehículo de navegación autónoma. (coches, camiones, trenes, plantas, mascotas, etc.). La detección de obstáculos. Es un componente crítico y un problema técnico central en los sistemas de navegación autónoma, ya que implica la identificación y clasificación de objetos estáticos y dinámicos como vehículos, peatones y otros obstáculos que puedan estar presentes en la trayectoria del vehículo. En las últimas décadas, se han utilizado y desarrollado diversos sensores para este fin, como cámaras, sensores ultrasónicos, etc. Sin embargo, el sensor más comúnmente utilizado para la detección de obstáculos es la cámara, ya que es el sensor más rentable y ampliamente disponible que también son capaces de capturar un amplio campo de visión, por lo que es posible detectar objetos que están lejos del vehículo. Posteriormente realizamos un código en Python, capaz de reconocer y clasificar a través de una cámara y mostrar sus detecciones en tiempo real. Decidimos trabajar con el modelo MobileNet-SSD que es un modelo de detección de objetos perfecto para nuestro objetivo, ya que puede lograr una detección de objetos bastante rápida en dispositivos móviles. Por último, se implementó el programa en un computador compacto para que sea posible su uso en un vehículo de navegación autónoma, en este caso usaremos una Raspberry Pi 4. Esta utiliza el sistema operativo Linux por lo que se tuvieron que hacer ciertas adecuaciones en el código para que lograra ejecutarse.  


CONCLUSIONES

Al realizar este proyecto se realizó un trabajo de investigación enfocado por completo a la inteligencia artificial, en específico a la navegación autónoma y la detección de objetos. En conjunto, al aplicar esas habilidades y conocimientos se desarrolló el código, siendo totalmente funcional. Posteriormente se implementó en la Raspberry haciendo así posible su uso en vehículos de navegación autónoma. Cumpliendo exitosamente el objetivo del trabajo de investigación.
Manzanares Aguilar Juan Jesús, Tecnológico de Estudios Superiores de Villa Guerrero
Asesor: Dr. Bernardino Castillo Toledo, Instituto Politécnico Nacional

PUESTA A PUNTO DE UN DRON PARA MONITOREO PERIMETRAL.


PUESTA A PUNTO DE UN DRON PARA MONITOREO PERIMETRAL.

Iñiguez Hernández Marco Antonio, Universidad Autónoma de Baja California. Manzanares Aguilar Juan Jesús, Tecnológico de Estudios Superiores de Villa Guerrero. Nájera Aguilar Priscila, Instituto Tecnológico Superior de Irapuato. Vazquez Ledesma Brandon, Universidad Autónoma de Baja California. Asesor: Dr. Bernardino Castillo Toledo, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual, la seguridad en las instituciones educativas es una preocupación primordial. Las escuelas buscan constantemente métodos más eficientes y efectivos para garantizar la seguridad de sus instalaciones y proteger a sus estudiantes y personal. Sin embargo, los métodos tradicionales de vigilancia, como el uso de guardias de seguridad o cámaras fijas, presentan limitaciones en cuanto a cobertura, costo y efectividad. La vigilancia manual es costosa y limitada por el número de personal disponible y su capacidad para monitorear grandes áreas de manera constante. Por otro lado, las cámaras de seguridad fijas, aunque son muy útiles, no pueden cubrir todas las áreas y ángulos de un perímetro extenso, y su instalación y mantenimiento representan un costo significativo. En respuesta a estas limitaciones, surge la necesidad de un sistema de vigilancia más avanzado y eficiente. El uso de drones para el monitoreo perimetral se presenta como una solución innovadora, capaz de ofrecer una cobertura más amplia y flexible a un costo relativamente menor. Los drones equipados con cámaras pueden volar de manera autónoma alrededor de un perímetro, proporcionando una vigilancia continua y en tiempo real de áreas extensas y de difícil acceso para el personal de seguridad. Además, para que este sistema sea verdaderamente autónomo y eficiente, es crucial que los drones puedan gestionar su energía de manera independiente. Una base de carga autónoma permitiría que los drones se recarguen automáticamente cuando sus niveles de batería sean bajos, asegurando así una operación ininterrumpida. El objetivo de este trabajo de investigación es desarrollar un dron con capacidad de vuelo autónomo para el monitoreo perimetral del CINVESTAV, equipado con una cámara para vigilancia y una base de carga que permita su recarga automática. Este sistema tiene el potencial de mejorar significativamente la seguridad en esta institución, ofreciendo una solución más flexible, eficiente y económica que los métodos tradicionales de vigilancia.



METODOLOGÍA

Selección del equipo Controlador del dron: Para el control del dron se utilizó el Pixhawk 2.4.8, conocido por su capacidad de manejar vuelos autónomos y su compatibilidad con diversas plataformas de software de control de vuelo. Software de control: Inicialmente se intentó utilizar Matlab para la conexión y control del dron. Sin embargo, debido a dificultades técnicas, se optó por usar Mission Planner, un software ampliamente utilizado y compatible con Pixhawk, que permite la planificación y control de vuelos autónomos. Evaluación y selección del dron Se probaron varios drones disponibles en la escuela para evaluar su rendimiento. Las pruebas incluyeron la verificación de la estabilidad de vuelo y la duración de la batería. Tras una serie de pruebas, se seleccionó el dron que mostró el mejor desempeño y estabilidad, adecuado para el monitoreo perimetral de la escuela. Desarrollo del controlador Controlador PID: Se desarrolló un controlador PID (Proporcional-Integral-Derivativo) para el dron, con el objetivo de garantizar un vuelo estable y preciso. El controlador PID fue ajustado y probado en múltiples iteraciones para optimizar el rendimiento del dron durante vuelos autónomos. Pruebas de vuelo autónomo: Se realizaron pruebas de vuelo autónomo utilizando el controlador PID desarrollado. Estas pruebas incluyeron la planificación de rutas de vuelo específicas alrededor del perímetro de la escuela, con el objetivo de asegurar que el dron pudiera seguir la ruta planificada de manera precisa y estable. Modelado y control del dron Se dedicó tiempo a comprender y modelar el comportamiento dinámico del dron. El modelado permitió simular el comportamiento del dron bajo diferentes condiciones y ajustar los parámetros del controlador para mejorar el rendimiento.


CONCLUSIONES

El objetivo principal de este proyecto era desarrollar un sistema de vuelo autónomo para un dron destinado al monitoreo perimetral del CINVESTAV. A lo largo de las últimas siete semanas, se logró implementar y probar con éxito el controlador PID en el dron seleccionado, lo que permitió realizar pruebas de vuelo autónomo. Estas pruebas demostraron la capacidad del dron para seguir rutas planificadas de manera precisa y estable, cumpliendo así con el objetivo inicial de establecer un vuelo autónomo eficaz. La metodología empleada incluyó la selección del dron adecuado, el desarrollo y ajuste del controlador PID, y la planificación de rutas de vuelo específicas. A pesar de los desafíos iniciales con el uso de Matlab, la transición a Mission Planner permitió superar estos obstáculos y avanzar en el proyecto de manera efectiva. Los siguientes pasos en este proyecto incluyen la integración de una cámara para la captura de video en tiempo real, lo que permitirá la vigilancia continua del perímetro de la escuela. Además, es crucial definir y optimizar las rutas de vuelo del dron para maximizar la cobertura y eficiencia del monitoreo. Finalmente, la implementación de una base de carga autónoma garantizará que el dron pueda operar de manera continua sin intervención humana, completando así el sistema autónomo de monitoreo perimetral. Con estos avances, el proyecto está bien encaminado para ofrecer una solución innovadora y eficiente para la seguridad de la institución educativa, proporcionando una vigilancia flexible y económica que supera las limitaciones de los métodos tradicionales.
Manzanarez Mejía Stephanie, Instituto Tecnológico de Acapulco
Asesor: Dra. María Mercedes Sinisterra Díaz, Universidad Libre

EL IMPACTO DE LAS TECNOLOGÍAS EMERGENTES EN EL DESARROLLO DEL EMPRENDIMIENTO EN LA INDUSTRIA TURÍSTICA DE ACAPULCO DE JUÁREZ, GUERRERO.


EL IMPACTO DE LAS TECNOLOGÍAS EMERGENTES EN EL DESARROLLO DEL EMPRENDIMIENTO EN LA INDUSTRIA TURÍSTICA DE ACAPULCO DE JUÁREZ, GUERRERO.

Manzanarez Mejía Stephanie, Instituto Tecnológico de Acapulco. Ramírez Reyna Aylin Isabel, Instituto Tecnológico de Acapulco. Asesor: Dra. María Mercedes Sinisterra Díaz, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

Acapulco de Juárez, Guerrero es una ciudad costera de México, conocida por sus playas, vida nocturna y rica historia cultural. Ha sido históricamente uno de los destinos turísticos más importantes del país, atrayendo a millones de nacionales y extranjeros. Sin embargo, durante las últimas dos décadas, la industria turística local experimentó cambios significativos influenciados por la tecnología (Yee, 2023). Entre el periodo 2000-2024, es objeto de investigación sobre el rápido desarrollo tecnológico y la mayor integración en el sector turístico. La adopción de tecnologías emergentes se ha vuelto esencial para el desarrollo y sostenibilidad de los negocios turísticos. La ciudad, con una población diversa y en crecimiento, depende en gran medida del turismo como motor económico. En general, el impacto de la tecnología sobre el emprendimiento en Acapulco incluye la infraestructura de la ciudad en cuanto a tecnología, el acceso a oportunidades de formación en TIC para los locales, así como también la capacidad de las empresas para absorber nuevas tecnologías y conocimientos. Es de reconocer que la infraestructura tecnológica ha mejorado, con un mayor acceso a internet de alta velocidad y la disponibilidad de servicios digitales. No obstante, persisten desafíos significativos, como la brecha digital, la necesidad de mejorar la ciberseguridad y la competencia con grandes plataformas tecnológicas internacionales (Rivero, 2023). El gobierno local y varias organizaciones han puesto en marcha programas y políticas para impulsar el uso de tecnologías en el turismo, brindando incentivos y apoyo a los emprendedores. A pesar de estos esfuerzos, muchos negocios aún se encuentran con obstáculos para adoptar plenamente estas tecnologías



METODOLOGÍA

Esta investigación se realizará utilizando un método cuantitativo, lo cual permitirá obtener una visión general sobre cómo las nuevas tecnologías están impactando el desarrollo de los emprendimientos en Acapulco. Se optó por un enfoque explicativo o causal, con el objetivo de descubrir e identificar las causas de la brecha significativa en la implementación y aprovechamiento de tecnologías emergentes por parte de los emprendedores de Acapulco. Para recopilar datos, se aplicará un cuestionario diseñado para reflejar el criterio de los encuestados en relación al impacto de la tecnología en el desarrollo del emprendimiento en la industria turística de Acapulco. En la ciudad hay 36,545 unidades de negocio, de las cuales el 98% son MIPYMES. Se calculó una muestra representativa de 380 emprendimientos. El cuestionario constará de 10 preguntas de opción múltiple, permitiendo recopilar datos valiosos para analizar cómo las tecnologías emergentes están afectando tanto la experiencia del turista como la operación y gestión de los negocios turísticos en Acapulco.


CONCLUSIONES

El estudio de investigación pone de manifiesto que el sector turístico en Acapulco está progresando gradualmente en la adopción de tecnologías emergentes, lo cual es un indicativo positivo del dinamismo y la capacidad de adaptación de las empresas turísticas locales. Sin embargo, este avance no está exento de desafíos significativos que requieren una atención cuidadosa y un abordaje estratégico por parte de todos los actores involucrados en la industria.  Entre los principales obstáculos identificados se encuentran la falta de personal suficientemente capacitado en el uso y aprovechamiento de estas tecnologías emergentes, así como los altos costos de implementación que suponen una barrera considerable, especialmente para las pequeñas y medianas empresas (PYMES) del sector. Estas barreras limitan la capacidad de estas empresas para adoptar nuevas herramientas y prácticas que podrían mejorar significativamente su competitividad y la calidad de los servicios ofrecidos a los turistas. Este panorama sugiere que, para que las empresas turísticas de Acapulco puedan maximizar los beneficios asociados con la incorporación de tecnologías emergentes, es fundamental que enfoquen sus esfuerzos en la capacitación continua de su personal. La inversión en la formación y actualización de las habilidades tecnológicas de los trabajadores no solo facilitará la integración de nuevas tecnologías, sino que también contribuirá a mejorar la experiencia del cliente, lo que a su vez podría traducirse en un mayor éxito comercial. Además, las empresas deben desarrollar soluciones estratégicas que les permitan superar los desafíos económicos y logísticos de la implementación tecnológica, optimizando recursos y explorando oportunidades de colaboración que puedan reducir costos y facilitar el acceso a las innovaciones tecnológicas. 
Mar Valdez Darian, Universidad Veracruzana
Asesor: Dra. María Ysabel García Alvarez, Universidad César Vallejo

APLICACIóN DEL ÍNDICE DE VULNERABILIDAD SíSMICA EN EDIFICACIONES: ENFOQUE INTEGRAL PARA LA EVALUACIóN DE RIESGOS


APLICACIóN DEL ÍNDICE DE VULNERABILIDAD SíSMICA EN EDIFICACIONES: ENFOQUE INTEGRAL PARA LA EVALUACIóN DE RIESGOS

Mar Valdez Darian, Universidad Veracruzana. Asesor: Dra. María Ysabel García Alvarez, Universidad César Vallejo



PLANTEAMIENTO DEL PROBLEMA

México es un país con alta actividad sísmica debido a su ubicación en el Cinturón de Fuego del Pacifico (Pérez, 2022), siendo una de las regiones más activas tectónicamente. Los sismos han provocado grandes pérdidas humanas y materiales, tal como sucedió en el terremoto de 1985 y en el del 2017, los cuales afectaron grandemente a la Ciudad de México. y estados colindantes. Este tipo de sucesos de carácter natural, evidencian la vulnerabilidad que tienen las edificaciones ante eventos sísmicos, de la misma manera la deficiencia que existe en algunas estructuras que fueron construidas antes de la implementación de normativas de construcción resistente a terremotos. Gran parte de las edificaciones que tiene México están compuestas por estructuras las cuales no cumplen con los estándares de resistencia sísmica. Esta problemática genera preocupación sobre la capacidad de estas estructuras para resistir sismos sin sufrir daños desastrosos, poniendo en riesgo la vida de los habitantes, así como la estabilidad económica (González, 2021). La falta de una evaluación adecuada de la vulnerabilidad sísmica puede provocar escenarios de desastre con grandes consecuencias. Por lo que se considera qué es importante aplicar herramientas que permiten identificar las edificaciones más vulnerables, para priorizar esos edificios y darles el mantenimiento preventivo para reducir el riesgo. 



METODOLOGÍA

En esta investigación se utilizó una técnica simplificada basada en el Índice de Vulnerabilidad Sísmica (IVS) que permita evaluar el riesgo sísmico de edificaciones. Una metodología basada en la adaptación del enfoque de Grupo Nacional de Defensa" (GNDT) utilizado en Italia y de los enfoques macrosísmicos europeos (Moustafa et al., 2019). Se lleva a cabo una revisión crítica y una comparación de las técnicas de evaluación de vulnerabilidad sísmica existentes para edificios para evaluar su idoneidad para su uso en la evaluación del riesgo sísmico (Alam et al., 2012). Estos enfoques podrían ser efectivos en la evaluación de la vulnerabilidad sísmica en otros contextos y ajustarse para adecuarse a las condiciones locales y normativas de construcción en México. Es importante mencionar que se identifican ocho parámetros que influyen en la vulnerabilidad sísmica de las edificaciones de concreto armado, siendo categorizadas en tres clases de vulnerabilidad como lo son: baja, moderada y alta. Estos factores incluyen el tipo de material, su diseño estructural, el estado en el que se encuentra la edificación y las características específicas de la edificación (Moustafa, 2019).  


CONCLUSIONES

Se ha destacado la importancia de adquirir conocimientos solidos sobre la teoría de la evaluación de la vulnerabilidad símica de edificaciones. Se aplicaron varias claves de la ingeniería sísmica, lo cual permitió adquirir el conocimiento del índice de vulnerabilidad sísmica. Es importante mencionar que la teoría de la vulnerabilidad sísmica ha sido fundamental para evaluar la susceptibilidad de las estructuras ante los eventos sísmicos. Determinándose que se debe tomar en cuenta las características específicas de las edificaciones y su entorno, proporcionando una evaluación precisa del riesgo estructural
Marcial Ruiz Rebeca, Instituto Tecnológico Superior de Xalapa
Asesor: Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

APLICACIONES DEL APRENDIZAJE PROFUNDO AL DIAGNóSTICO MéDICO


APLICACIONES DEL APRENDIZAJE PROFUNDO AL DIAGNóSTICO MéDICO

Marcial Ruiz Rebeca, Instituto Tecnológico Superior de Xalapa. Asesor: Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La retinopatía diabética es una complicación severa de la diabetes que puede conducir a la pérdida de visión si no se diagnostica y trata oportunamente. Debido al aumento global de pacientes con diabetes, la detección temprana y precisa es crucial. El diagnóstico manual a partir de imágenes retinales es lento y propenso a errores humanos. Este estudio investiga la aplicación de modelos de aprendizaje profundo para la detección automatizada de retinopatía diabética, utilizando el software MVTec HALCON y modelos preentrenados. Se llevaron a cabo experimentos sistemáticos variando el número de clases, imágenes y épocas de entrenamiento para optimizar el desempeño del modelo. Además, se analizó el comportamiento de cada modelo para evaluar su eficacia y proporcionar insights valiosos aplicables a la detección de condiciones similares.



METODOLOGÍA

Parámetros de entrenamiento Para el entrenamiento y evaluación, se utilizaron los modelos compact, resnet-18 y alexnet con las siguientes configuraciones: Conjunto reducido 1: Modelos: compact, resnet-18, alexnet Épocas: 20 Iteraciones: 100 Tamaño de lote: 32 Optimizador: adam División de datos: 70% entrenamiento (140 imágenes), 15% validación (30 imágenes), 15% prueba (30 imágenes) Conjunto reducido 2: Modelos: compact, resnet-18, alexnet Épocas: 20 Iteraciones: 100 Tamaño de lote: 32 Optimizador: adam División de datos: 70% entrenamiento (672 imágenes), 15% validación (144 imágenes), 15% prueba (144 imágenes) Conjunto completo: Modelos: compact, resnet-18 Épocas: 20 y 100 Iteraciones: 100 Tamaño de lote: 32 Optimizador: adam División de datos: 70% entrenamiento (1925 imágenes), 15% validación (412 imágenes), 15% prueba (413 imágenes)


CONCLUSIONES

Impacto del número de clases: Los modelos lograron alta precisión con dos clases (healthy y severe dr), pero la precisión disminuyó considerablemente con cinco clases. Esto indica que la clasificación es más difícil con más clases. Análisis del número de épocas: El número de épocas es crucial. Compact mantuvo alta precisión con 20 épocas en conjuntos pequeños, pero la precisión disminuyó en conjuntos completos con cinco clases. Más épocas podrían mejorar la precisión en conjuntos complejos. Impacto del tamaño del conjunto de datos: Con conjuntos más pequeños, los modelos lograron alta precisión. Sin embargo, al aumentar el tamaño del conjunto de datos, la precisión disminuyó, especialmente con cinco clases. Se necesitan más datos y épocas para manejar la complejidad adicional. Precisión y recall por clase: Compact tuvo alta precisión en healthy (93.08%) y moderate dr (62.57%), pero dificultades con proliferate dr (69.23%) y severe (38.1%). Resnet-18 y alexnet mostraron patrones similares, siendo más efectivos en clases más comunes. Tiempo de inferencia: Compact tuvo el menor tiempo de inferencia, con 9.11 ms en el conjunto reducido 1 y 12.64 ms en el conjunto completo. Resnet-18 y alexnet tuvieron tiempos más largos, especialmente resnet-18 con 41.51 ms. Compact es más eficiente para aplicaciones que requieren respuestas rápidas. Análisis comparativo del comportamiento de los modelos: Compact: Menor tiempo de inferencia y alta precisión en conjuntos reducidos, pero rendimiento disminuido con más clases y datos complejos. Resnet-18: Capacidad para manejar conjuntos más grandes y complejos, pero con mayor tiempo de inferencia. Alexnet: Rendimiento consistente y buena generalización, pero dificultades con clases menos representadas. La selección del modelo adecuado depende de las características del conjunto de datos y los requisitos de la aplicación. Para mejorar la precisión y aplicabilidad de las técnicas de diagnóstico automático, es esencial ajustar los parámetros de entrenamiento, ampliar los conjuntos de datos, enfocarse en la eficiencia computacional y considerar el uso de modelos combinados. En conclusión, este estudio ofrece un análisis del rendimiento de los modelos compact, resnet-18 y alexnet en la clasificación de retinopatía diabética, proporcionando insights para la mejora de entrenamientos de modelos en el aprendizaje automático, aplicables también a otras condiciones médicas.
Marin Buenrostro Jedidian, Instituto Tecnológico de Acapulco
Asesor: Post-doc Mauricio Becerra Fernández, Universidad del Rosario

CADENAS DE SUMINISTRO MODELADO Y SIMULACIÓN


CADENAS DE SUMINISTRO MODELADO Y SIMULACIÓN

Lopez Castro Citlali, Instituto Tecnológico de Acapulco. Marin Buenrostro Jedidian, Instituto Tecnológico de Acapulco. Asesor: Post-doc Mauricio Becerra Fernández, Universidad del Rosario



PLANTEAMIENTO DEL PROBLEMA

La empresa de serigrafía de playeras ubicada en el puerto de Acapulco, ha enfrentado varios desafíos en su cadena de suministro. Los problemas incluyen retrasos en la recepción de materias primas, inventarios ineficientes, variabilidad en la demanda y baja capacidad de producción durante picos de demanda. Estos problemas afectan la eficiencia del proceso de producción y la capacidad de satisfacer la demanda del mercado. El proyecto busca modelar la cadena de suministro actual utilizando dinámica de sistemas para identificar cuellos de botella y áreas de mejora. A través de simulaciones de diferentes escenarios, se pretende optimizar los niveles de inventario, mejorar la capacidad de respuesta durante picos de demanda y reducir costos. Los beneficios esperados incluyen una reducción de costos de almacenamiento y distribución, una mayor eficiencia en la producción y una mejor satisfacción del cliente. Esto permitirá a mejorar su competitividad y asegurar un crecimiento sostenible.



METODOLOGÍA

Estudio Teórico y Capacitación: Libro Especializado: Se utilizó un libro especializado en dinámica de sistemas para adquirir una comprensión profunda de los conceptos teóricos y metodológicos. Se resolvieron ejercicios prácticos del libro para aplicar y afianzar los conocimientos adquiridos. Capacitación en Vensim: Se llevó a cabo una capacitación en el uso del software de simulación Vensim, enfocándose en sus funcionalidades y capacidades para modelar sistemas dinámicos. Desarrollo del Modelo de Dinámica de Sistemas: Diagramas Causales y de Flujo: Se crearon diagramas causales y de flujo para mapear las interacciones entre las variables clave de la cadena de suministro, como la recepción de materias primas, producción, inventarios y distribución. Implementación en Vensim: Se utilizó Vensim para desarrollar un modelo de simulación que integra los datos recolectados y las relaciones identificadas en los diagramas. Validación del Modelo: Comparación con Datos Reales: Se validó el modelo comparando los resultados de las simulaciones con los datos reales de la empresa. Se ajustaron parámetros según fuera necesario para mejorar la precisión del modelo. Pruebas de Sensibilidad: Se realizaron pruebas de sensibilidad para evaluar cómo cambios en los parámetros clave afectaban los resultados del modelo, asegurando su robustez y confiabilidad. Simulación de Escenarios: Diseño de Escenarios: Se diseñaron y simularon diferentes escenarios para evaluar el impacto de diversas estrategias de mejora en la cadena de suministro, como ajustes en los niveles de inventario, mejoras en los tiempos de entrega de proveedores y aumento de la capacidad de producción. Análisis de Resultados: Se analizaron los resultados de las simulaciones para identificar las estrategias más efectivas en términos de eficiencia, costos y capacidad de respuesta. Implementación de Estrategias: Recomendaciones: Se elaboraron recomendaciones basadas en los resultados del análisis, proponiendo acciones concretas para optimizar la cadena de suministro. ​Esta metodología, que combina la recolección de datos, el estudio teórico, la capacitación en herramientas de simulación, y un enfoque sistemático de modelado y análisis, permitió desarrollar un modelo preciso y útil de la cadena de suministro. Las simulaciones y el análisis de escenarios ayudaron a identificar áreas clave de mejora y proponer estrategias efectivas para lograr una operación más eficiente y competitiva.


CONCLUSIONES

El proyecto de modelado y simulación de la cadena de suministro para la empresa  ha proporcionado resultados significativos que permiten mejorar la eficiencia operativa y la competitividad de la empresa. Utilizando el software de simulación Vensim y aplicando conocimientos adquiridos de un libro especializado en dinámica de sistemas, se logró desarrollar un modelo preciso que representa fielmente las interacciones y flujos dentro de la cadena de suministro. Resultados Clave: El modelo permitió identificar los principales cuellos de botella en el proceso de producción, como los retrasos en la recepción de materias primas y la variabilidad en la demanda, que impactaban negativamente la eficiencia y capacidad de respuesta de la empresa. Optimización de Inventarios: Las simulaciones ayudaron a determinar los niveles óptimos de inventario de materias primas y productos terminados, reduciendo costos de almacenamiento y minimizando el riesgo de obsolescencia sin comprometer la disponibilidad de productos. Mejora en la Capacidad de Producción: Se evaluaron diversas estrategias para aumentar la capacidad de producción durante los picos de demanda, logrando una mejor alineación entre la capacidad de producción y la demanda del mercado.
Marin Espinosa Juan Eduardo, Instituto Tecnológico Superior de Apatzingán
Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios

SISTEMA DE RIEGO AUTOMATIZADO QUE REGISTRA EL MONITOREO DE HUMEDAD MEDIANTE SERVICIOS EN LA NUBE EN CULTIVOS DE LIMóN.


SISTEMA DE RIEGO AUTOMATIZADO QUE REGISTRA EL MONITOREO DE HUMEDAD MEDIANTE SERVICIOS EN LA NUBE EN CULTIVOS DE LIMóN.

Gonzalez Cobarrubias Iran Ramses, Instituto Tecnológico Superior de Apatzingán. Marin Espinosa Juan Eduardo, Instituto Tecnológico Superior de Apatzingán. Palomares Samano Kevin Brandon, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

El problema principal es la dificultad para cultivar limón en la región de Apatzingán, Michoacán, porque la mayoría cuidadores de las huertas desconocen el cuidado adecuado de esta planta, acaban regando los cultivos mucho o menos de lo que se debe y provocan problemas a los árboles cuando pueden causar daños como consecuencia el árbol puede perderse, o el cultivo llega a tener imperfecciones notables. El problema surge desde un tiempo prologado, especialmente después de la época de la pandemia, ya que un gran número de habitantes en busca de una fuente de ingresos, se encontró un gran potencial en este cultivo debido a su extensa variedad de usos, sin embargo, las instrucciones que deben llevarse a cabo para mantener saludable no suelen encontrarse. Los problemas provocados por los cuidados en la actualidad la gran mayoría de las áreas en parcelas de limón realizan el trabajo de manera manual, esto puede ser un problema ya que atrasa actividades que pudieran de mayor prioridad, además de que suele cansar a los trabajadores más aun en la época actual donde las temperaturas promedio son mucho más elevadas. ¿En qué ayuda el implementar tecnologías modernas al cultivado del Limón? A continuación, tenemos las siguientes ventajas que aportan positivamente en el cultivo de limón sobre la implementación de las tecnologías más modernas en la actualidad: Ayuda a la simplificación del trabajo mediante a la automatización la cual hace que la mano de obra humana sea nula. Hace que el cuidado del árbol del limón sea más preciso en el riego según el ambiente de estas huertas. Ayuda a los trabajadores con el ahorro de tiempo de riego para que se enforquen en otros trabajos que sean más necesarios, ya que se encargan de cosechar las frutas.



METODOLOGÍA

En Apatzingán, la producción de limón es crucial para la economía local. La implementación de sistemas de riego automatizado mejora la eficiencia y salud de las huertas, optimizando el uso del agua y ajustándose a las necesidades de las plantas y las condiciones climáticas. Estos sistemas, con sensores y control remoto, permiten un riego preciso y eficiente, promoviendo la sostenibilidad y reduciendo el desperdicio de recursos hídricos. Esto no solo aumenta la productividad y calidad de los limones, sino que también contribuye a la sostenibilidad ambiental y económica de la región. Para implementar un sistema de riego automatizado en las huertas de limón de Apatzingán, se realizaron encuestas para obtener datos sobre los cuidados necesarios para los limoneros. Las respuestas destacaron la importancia de la poda, el control de plagas, la fertilización adecuada, el uso de suelo bien drenado y ligeramente ácido, y el riego por goteo como el método más efectivo. También se mencionaron los riesgos del riego excesivo e insuficiente y la necesidad de ajustar la frecuencia de riego según la temporada. Con esta información, se identificaron los materiales necesarios para el sistema de riego automatizado, que incluye sensores de humedad, mangueras, un ESP32, computadoras, cables, software Thonny, una protoboard, un relay de corriente y un motor de agua sumergible. El funcionamiento físico del sistema implica la instalación de estos componentes y la conversión de los valores de humedad del suelo de analógico a digital para controlar la bomba de agua a través del relay. En cuanto al funcionamiento lógico, se desarrolló una base de datos virtual para almacenar los datos registrados por el sistema. Estos datos se convierten a formato JSON y se envían a la base de datos mediante el protocolo HTTP, permitiendo un monitoreo y control eficiente del riego.


CONCLUSIONES

El análisis de las arquitecturas de software y hardware del sistema de riego automatizado presenta un diseño donde el firmware programado en MicroPython permite que el microcontrolador gestione las funciones asignadas a sus pines de entrada y salida, así como retardos y condicionales. El programa, una vez ejecutado, recoge datos importantes y los convierte en un archivo JSON para su lectura y escritura en una base de datos. Estos datos se ordenan y envían a Firebase, un servicio en la nube de Google, a través de HTTP, aprovechando la conectividad WiFi del microcontrolador. En el hardware, el sistema cuenta con un sensor de humedad que, alimentado por 3.3V a 5V, envía una señal analógica convertida a digital para medir la resistencia y determinar la humedad del suelo. El ESP32, que incluye WiFi y Bluetooth, es clave para la comunicación y el control del sistema, enviando señales a un relay que, a su vez, controla una bomba de agua sumergible para el riego según la humedad detectada. La base de datos no relacional del sistema almacena registros en la tabla "sensor data", con campos como el identificador del registro, el valor del sensor, la humedad, el voltaje y la fecha y hora de cada registro, realizados cada 15 segundos. En la programación del sistema, se desarrollaron rutinas en MicroPython para la lectura de datos, comparación, activación de actuadores y envío de información a la base de datos. El proceso de actualización de datos se realiza cada 20 segundos para permitir el riego adecuado de los cultivos. El uso de tecnologías modernas, como la inteligencia artificial, en tareas de cuidado de cultivos puede tener un impacto significativo y escalable. Este proyecto, inicialmente orientado al cuidado de árboles de limón, puede aplicarse a otros campos más complejos o sencillos. Además, es esencial considerar las leyes internacionales, ya que estas pueden imponer restricciones a largo plazo que afecten el alcance del proyecto. La protección de la información es crucial para evitar la replicación del sistema o la exposición de datos de clientes finales. Un ejemplo notable de aplicación es el cuidado de Bonsáis, donde el ajuste del modelo y microprocesador puede facilitar su mantenimiento. Otro caso es el cultivo de árboles de aguacate, donde las tecnologías modernas podrían identificar condiciones adecuadas de cultivo de manera más precisa, evitando el método de prueba y error.
Marín Pérez Miguel Angel, Instituto Tecnológico Superior de Irapuato
Asesor: Mtro. José Miguel García Guzmán, Instituto Tecnológico Superior de Irapuato

ANáLISIS DE ESTABILIDAD ESTáTICA DE TENSIóN MEDIANTE LAS CURVAS V-P Y V-Q


ANáLISIS DE ESTABILIDAD ESTáTICA DE TENSIóN MEDIANTE LAS CURVAS V-P Y V-Q

Alanis Sánchez Julio Alejandro, Instituto Tecnológico Superior de Irapuato. Hernández Ocampo Bryan Abdiel, Instituto Tecnológico Superior de Irapuato. Marín Pérez Miguel Angel, Instituto Tecnológico Superior de Irapuato. Asesor: Mtro. José Miguel García Guzmán, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

El análisis de estabilidad de tensión es uno de los tópicos importantes que se utilizan ampliamente alrededor del mundo para evaluar la seguridad de los sistemas de potencia. Los fenómenos de colapso de tensión provocados por una inestabilidad de tensión se han convertido en una de las mayores preocupaciones en los sistemas eléctricos de potencia para llevar a cabo un correcto suministro hacia las cargas, por lo que, es necesario llevar a cabo estudios y análisis que permitan evaluar el nivel de seguridad que posee cada sistema de potencia.   La mayor problemática que se presentan son los colapsos de tensión o el caso más crítico que son los grandes apagones. Durante el verano de investigación se estudian los resultados obtenidos en base a la estabilidad estática de tensión para conocer el punto máximo de potencia antes de que aparezca una inestabilidad o colapso en el sistema de potencia.



METODOLOGÍA

Como primer paso en el verano de investigación se realizó una investigación bibliográfica de los tópicos requeridos para desarrollar los algoritmos computacionales y entender de mejor manera la teoría para la interpretación de resultados.   Para la obtención de los resultados de la estabilidad estática de tensión se implementó un algoritmo computacional basado en la teoría de flujos de potencia mediante el método Newton-Raphson.   El algoritmo computacional implementado para el análisis de la estabilidad de tensión en los sistemas eléctricos de potencia basado en la interpretación de las curvas V-P y V-Q consta de las siguientes etapas: 1. Selección del Tipo de Análisis Al ejecutar el programa se muestra un mensaje en la pantalla el cual solicita la selección del tipo de análisis de potencia que se desea realizar: Carga automáticamente los datos del sistema eléctrico desde los archivos Data_5. A continuación, el programa identifica los nodos de carga del sistema y los almacena para un análisis posterior. 2. Análisis de Flujos de Potencia Dependiendo de la selección realizada en el paso anterior, se define un vector de potencia demandada, el cuál calcula las magnitudes de tensión en el sistema para cada valor de potencia demandada utilizando el método de Newton-Raphson. Estos cálculos se realizan al ejecutar el programa n veces de manera iterativa para cada nodo de carga identificado. Así mismo, se identifica el punto en el cual la tensión en un nodo de carga deja de disminuir significativamente, con el fin de conocer el punto máximo de cargabilidad que el nodo puede soportar (Pmax o Qmax). 3. Visualización de Resultados El programa genera gráficas que muestren la relación entre la potencia demandada y la magnitud de la tensión en cada nodo de carga (V-P y V-Q). Las gráficas incluyen: Potencia activa máxima en cada nodo. Potencia reactiva máxima en cada nodo. De acuerdo con los resultados obtenidos y por los comportamientos de las gráficas V-P y V-Q se conoce el nodo más débil con respecto a la potencia máxima que puede soportar y se realiza la comparativa con los demás nodos del sistema analizado.      


CONCLUSIONES

La estancia en el verano fue muy productiva, ya que se adquirieron conocimientos de la estabilidad de tensión en sistemas eléctricos de potencia, específicamente la estabilidad relacionada con la tensión nodal, la cual fue analizada mediante las curvas V-P y V-Q con la finalidad de conocer el límite de estabilidad de voltaje nodal de sistemas de potencia. Con los resultados obtenidos de la investigación y la implementación del algoritmo computacional se logró identificar los límites de potencia que puede soportar el sistema analizado antes de presentarse una inestabilidad de tensión, el trabajo de investigación fue realizado con éxito y fue concluido en tiempo y forma.
Marin Ramirez Pedro, Universidad Vizcaya de las Américas
Asesor: Mg. Yulieth Vanessa Palomino Perez, Corporación Politécnico de la Costa Atlántica

DESAFíOS Y OPORTUNIDADES EN LA IMPLEMENTACIóN DE TECNOLOGíAS INTELIGENTES EN LAS CIUDADES EMERGENTES DEL CARIBE: UN ENFOQUE EN ADAPTACIóN Y COLABORACIóN REGIONAL


DESAFíOS Y OPORTUNIDADES EN LA IMPLEMENTACIóN DE TECNOLOGíAS INTELIGENTES EN LAS CIUDADES EMERGENTES DEL CARIBE: UN ENFOQUE EN ADAPTACIóN Y COLABORACIóN REGIONAL

Marin Ramirez Pedro, Universidad Vizcaya de las Américas. Asesor: Mg. Yulieth Vanessa Palomino Perez, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

Las ciudades emergentes del Caribe se enfrentan a obstáculos específicos en la implementación de tecnologías inteligentes debido a limitaciones en infraestructura, la diversidad económica y los riesgos ambientales únicos de la región. Estas limitaciones incluyen infraestructuras deficientes o subdesarrolladas, que dificultan la integración de sistemas avanzados y conectividad esencial para las tecnologías inteligentes. La diversidad económica, reflejada en una disparidad significativa en términos de riqueza y desarrollo entre diferentes áreas, influye en la capacidad de las ciudades para financiar y mantener estas innovaciones tecnológicas. A pesar de los desafíos, las tecnologías inteligentes ofrecen beneficios potenciales significativos, como la mejora en la sostenibilidad ambiental, la eficiencia en la gestión de recursos y la optimización de servicios urbanos. Sin embargo, la transferencia y adaptación de estas tecnologías desde países desarrollados hacia el Caribe no es un proceso directo. Requiere un enfoque personalizado que considere las particularidades culturales, sociales y económicas de la región. Es esencial adaptar estas tecnologías para que sean asequibles, accesibles y sostenibles en el contexto caribeño. Este estudio tiene como objetivo investigar las mejores formas de adaptar y aplicar tecnologías inteligentes en las ciudades emergentes del Caribe. Se busca identificar estrategias clave y desafíos que puedan surgir durante este proceso de adaptación e integración, explorando cómo superar obstáculos específicos relacionados con la infraestructura, el financiamiento y la resiliencia ante desastres. A través de un análisis detallado, se espera desarrollar un marco estratégico que guíe la implementación exitosa y sostenible de tecnologías inteligentes en la región, contribuyendo al desarrollo urbano y mejorando la calidad de vida de sus habitantes.    



METODOLOGÍA

Ecuación de Búsqueda La búsqueda de artículos relevantes para la investigación se realizó utilizando la siguiente ecuación en bibliotecas digitales como ScienceDirect: (smart cities" OR "intelligent cities") AND (strategies OR "best practices" OR implementation) AND (developed OR "advanced economies") AND (review OR framework) Criterios de Inclusión y Exclusión - Inclusión:   - Artículos publicados en revistas académicas.   - Artículos publicados del 2021 hasta el 2024.   - Publicaciones que aborden estrategias y mejores prácticas para ciudades inteligentes.   - Estudios que ofrezcan marcos teóricos y aplicaciones en economías desarrolladas y contextos similares al Caribe. - Exclusión:   - Artículos que no estén disponibles en texto completo.   - Publicaciones que no proporcionen información relevante para la adaptación de tecnologías en contextos emergentes.   - Estudios que no presenten evidencias empíricas o casos de estudio aplicables.   Procedimiento de Búsqueda y Selección 1. Identificación de Fuentes: Utilización de bases de datos académicas como ScienceDirect, Scopus y Google Scholar. 2. Aplicación de la Ecuación de Búsqueda: Realización de búsquedas avanzadas utilizando la ecuación definida para identificar artículos relevantes. 3. Evaluación de Artículos: Revisión de resúmenes y contenido completo para asegurar que cumplan con los criterios de inclusión. 4. Selección Final: Compilación de los artículos más relevantes que cumplen con los criterios definidos y que aportan valor a la investigación sobre la transferencia y adaptación de tecnologías en el Caribe.  


CONCLUSIONES

La implementación de tecnologías inteligentes en las ciudades emergentes del Caribe presenta tanto desafíos como oportunidades. La investigación revela que la implementación exitosa de tecnologías inteligentes en las ciudades emergentes del Caribe depende de una adaptación cuidadosa a las condiciones locales, la participación activa de las comunidades y el fortalecimiento de colaboraciones regionales. Adaptar las tecnologías a las infraestructuras y entornos específicos del Caribe es esencial para su efectividad y sostenibilidad. Involucrar a los ciudadanos en el diseño e implementación de soluciones garantiza una alineación con sus necesidades y fomenta una mayor aceptación. Además, las alianzas entre ciudades y actores regionales son cruciales para compartir conocimientos y superar limitaciones, facilitando la integración y el mantenimiento de estas tecnologías. Por lo tanto, desarrollar estrategias específicas que consideren las particularidades del Caribe es fundamental para maximizar el impacto positivo de las tecnologías inteligentes en la región. Recomendaciones 1. Desarrollar Planes de Adaptación: Crear estrategias específicas para ajustar las tecnologías a las condiciones locales del Caribe. 2. Fomentar la Participación Ciudadana: Incluir a la comunidad en el proceso de desarrollo e implementación para asegurar que las soluciones se alineen con las necesidades locales. 3. Fortalecer las Colaboraciones: Establecer alianzas entre gobiernos, empresas y organizaciones para compartir conocimientos y recursos.
Marmolejo Jimenez Belen Elizabeth, Universidad Politécnica de Altamira
Asesor: Dr. Carlos Arturo Hernández Gracidas, Benemérita Universidad Autónoma de Puebla

RECONOCIMIENTO DE EMOCIONES UTILIZANDO INTELIGENCIA ARTIFICIAL.


RECONOCIMIENTO DE EMOCIONES UTILIZANDO INTELIGENCIA ARTIFICIAL.

Marmolejo Jimenez Belen Elizabeth, Universidad Politécnica de Altamira. Romero Perez Lucio Angel, Universidad Politécnica de Altamira. Vega Robles Ana Lizbeth, Universidad Politécnica de Altamira. Asesor: Dr. Carlos Arturo Hernández Gracidas, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Este proyecto desarrolla un sistema de inteligencia artificial para identificar y clasificar emociones humanas a partir de expresiones faciales utilizando redes neuronales convolucionales (CNN). El objetivo es crear un modelo preciso para reconocer emociones como felicidad, tristeza, enojo, miedo y sorpresa. Se emplean técnicas avanzadas de procesamiento de imágenes y aprendizaje profundo para mejorar la precisión y generalización del modelo. También se exploran técnicas como Eigenrostros para la reducción de dimensionalidad y la optimización de parámetros para mejorar el rendimiento.



METODOLOGÍA

1. Preparación de datos 1.1 Fuente y descripción de los datos El conjunto de datos, extraído de Kaggle, incluye siete categorías de emociones: enojo, disgusto, miedo, felicidad, tristeza, sorpresa y neutral. Las imágenes están en escalas de grises, tienen un tamaño de 48x48 píxeles y los rostros están centrados y ocupan un espacio consistente en cada imagen. El conjunto consta de 28,709 ejemplos de entrenamiento y 2,589 ejemplos de prueba. 1.2 Preprocesamiento de imágenes Redimensionamiento y normalización de las imágenes. Técnicas de aumento de datos: rotación, traslación, cambio de escala y flip para ampliar el conjunto de datos de entrenamiento. 2. Desarrollo del modelo 2.1 Arquitectura del modelo El modelo utiliza una CNN con capas convolucionales, filtros, funciones de activación, capas densas y dropout. 2.2 Implementación de Eigenrostros La técnica de Eigenrostros utiliza el análisis de componentes principales (PCA) para reducir la dimensionalidad de las imágenes faciales. Esta técnica destaca las direcciones principales de variación en los datos, simplificando la posterior clasificación y reconocimiento facial. 2.3 Bloques de atención Los bloques de atención ayudan al modelo a enfocarse en las regiones más relevantes de las imágenes, mejorando la identificación de características cruciales para el reconocimiento de emociones. 3. Entrenamiento del modelo 3.1 Configuración del entrenamiento El modelo se entrena con lotes de 32 imágenes durante 100 épocas. La tasa de aprendizaje es 0.001 y se aplican técnicas de regularización como dropout para mejorar la generalización y evitar el sobreajuste. 3.2 Optimización de hiperparámetros Se utiliza búsqueda bayesiana para optimizar los hiperparámetros del modelo. Este método ajusta sus estimaciones basándose en resultados anteriores, encontrando configuraciones óptimas de manera más eficiente que la búsqueda aleatoria. 3.3 Uso del dropout El dropout previene el sobreajuste al apagar aleatoriamente un porcentaje de neuronas durante el entrenamiento, promoviendo un peso más uniforme entre las neuronas. 4. Evaluación del modelo 4.1 Balance del conjunto de datos Para mejorar la precisión, se equilibró el conjunto de datos eliminando la clase de disgusto y ajustando el número de ejemplos en cada clase: 3000 para entrenamiento y 830 para prueba por clase. 4.2 Métrica de evaluación Se utilizan las siguientes métricas para evaluar el modelo: Exactitud (Accuracy): Mide la cantidad de aciertos del modelo en los datos de prueba y entrenamiento. Pérdida (Loss): Observa la discrepancia entre las predicciones del modelo y los resultados reales. Matriz de Confusión: Detalla las predicciones del modelo, mostrando las emociones que el modelo confunde más y aquellas que clasifica con mayor precisión.


CONCLUSIONES

Análisis de Resultados Precisión del Modelo: El modelo de seis emociones (feliz, triste, enojado, sopresa, miedo y neutral) alcanzó una exactitud del 88% en entrenamiento y 55% en prueba. Aunque es efectivo, emociones como la tristeza tienen menor precisión comparada con emociones como felicidad o sorpresa. Impacto del Preprocesamiento y Aumento de Datos: Las técnicas de aumento de datos, como rotación y escalado, mejoraron la robustez del modelo ante variaciones en las imágenes, evitando el sobreajuste y mejorando el rendimiento en el conjunto de prueba. Evaluación de Arquitecturas de Redes Neuronales: Se probaron diversas arquitecturas de CNN. Las más profundas ofrecieron mayor precisión pero también un mayor riesgo de sobreajuste. Se encontró un equilibrio óptimo entre profundidad y capacidad de generalización. Desempeño en Diferentes Categorías de Emociones: El modelo clasifica algunas emociones con mayor facilidad que otras. Emociones como felicidad y tristeza tienen características faciales distintivas, facilitando su clasificación, mientras que el miedo presenta mayor variabilidad y menos ejemplos, dificultando su clasificación. El desarrollo del sistema de reconocimiento de emociones mediante CNN ha logrado avances significativos desde nuestro primer modelo hasta el último que se realizó. Aunque la precisión es destacable, hay áreas para mejorar, especialmente en la clasificación de ciertas emociones. Los resultados validan la efectividad de las técnicas empleadas y proporcionan una base sólida para futuros trabajos en este campo.
Marquez Azuara Luis Ivan, Universidad Tecnológica de Xicotepec de Juárez
Asesor: Dra. Sandra Lorena Galarza Molina, Pontificia Universidad Javeriana

CUANTIFICACIóN Y VALORACIóN DE SERVICIOS ECOSISTéMICOS DE SOLUCIONES BASADAS EN LA NATURALEZA (SBN) EN EL CAMPUS DE LA UNIVERSIDAD JAVERIANA (CALI)


CUANTIFICACIóN Y VALORACIóN DE SERVICIOS ECOSISTéMICOS DE SOLUCIONES BASADAS EN LA NATURALEZA (SBN) EN EL CAMPUS DE LA UNIVERSIDAD JAVERIANA (CALI)

Marquez Azuara Luis Ivan, Universidad Tecnológica de Xicotepec de Juárez. Asesor: Dra. Sandra Lorena Galarza Molina, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

En el campus de la Universidad Javeriana Cali, las soluciones basadas en la naturaleza (SbN) mejoran la calidad del entorno y proporcionan beneficios ecológicos, sociales y económicos. Sin embargo, no se ha cuantificado ni valorado sistemáticamente estos beneficios, dificultando el desarrollo de estrategias de gestión y conservación efectivas. Actualmente, no existe una forma práctica y accesible de visualizar los datos recolectados por los sensores, ya que es necesario ir físicamente a un PC para obtener esta información, lo que limita la eficiencia del monitoreo ambiental.   Para abordar este problema, se desarrolló un sitio web interactivo usando React que permite la visualización gráfica y en tiempo real de los datos recolectados por los sensores, monitoreando variables ambientales cruciales. Estos datos son enviados a la consola del Arduino IDE y luego visualizados en el sitio web.



METODOLOGÍA

El modelo en cascada se utilizó, dividiendo el proyecto en fases secuenciales: requisitos, diseño, implementación, pruebas y despliegue. Requisitos Recopilación y documentación exhaustiva de necesidades mediante entrevistas con investigadores. Diseño Arquitectura del Sistema: Diagramas de flujo y modelos de datos. Diseño de la Interfaz: Uso de Chakra UI para una interfaz intuitiva. Implementación Backend: Node.js y Express.js para desarrollar la API REST. Frontend: React con componentes modulares, React Router para la gestión de rutas, Chakra UI para el diseño, y Recharts para la visualización de datos. Pruebas Pruebas Unitarias de Sensores: Evaluación de la precisión y fiabilidad de los sensores. Pruebas del Software: Pruebas unitarias, de integración y de aceptación. Despliegue Implementación en producción con monitorización post-despliegue para detectar y solucionar problemas. Procedimientos Para las fases mencionadas, se realizaron las siguientes acciones detalladas: Recopilación de Requisitos: Identificación y documentación de necesidades mediante entrevistas. Diseño del Sistema: Creación de diagramas y prototipos para planificar la arquitectura. Desarrollo de Software: Programación del backend y frontend de manera iterativa. Pruebas de Software: Pruebas exhaustivas para asegurar la funcionalidad y calidad del software. Despliegue y Entrega: Implementación en producción con monitorización continua. Pruebas Unitarias de Sensores Sensor de Turbidez en un Estanque de Agua Verificar precisión en condiciones controladas. Lecturas dentro de un rango específico que indique la calidad del agua. Sensor de Turbidez en el Río Evaluar capacidad para medir sedimentación en condiciones variables. Lecturas coherentes y precisas bajo variaciones de caudal. Sensor de Nivel de Agua Evaluar exactitud a diferentes profundidades. Lecturas precisas que coincidan con mediciones manuales.


CONCLUSIONES

La creación del sitio web con React facilitó enormemente la lectura y visualización de los datos recolectados por los sensores. La interfaz gráfica interactiva permitió una comprensión más clara y accesible de la información, haciendo que el análisis de los datos fuera más eficiente y efectivo. Esta herramienta digital no solo mejoró la presentación de los resultados, sino que también potenció el proceso de toma de decisiones basadas en datos precisos y actualizados.
Márquez Delgado Ximena Joen, Universidad de Guadalajara
Asesor: Dr. Carlos Alberto Ligarda Samanez , Universidad Nacional José María Arguedas

EVALUACIóN DE MICROCáPSULAS DE PROPóLEO OBTENIDAS POR COACERVACIóN COMPLEJA Y SECADO POR ASPERSIóN.


EVALUACIóN DE MICROCáPSULAS DE PROPóLEO OBTENIDAS POR COACERVACIóN COMPLEJA Y SECADO POR ASPERSIóN.

Márquez Delgado Ximena Joen, Universidad de Guadalajara. Mercado González Miguel Angel, Universidad de Guadalajara. Asesor: Dr. Carlos Alberto Ligarda Samanez , Universidad Nacional José María Arguedas



PLANTEAMIENTO DEL PROBLEMA

El trabajo realizado tiene como propósito estudiar las características de los encapsulados de propóleo obtenidas por las técnicas de coacervación compleja y secado por aspersión, Se pretende demostrar que se logran conservar las cualidades del producto en un periodo de tiempo.  Se diseño un estudio factorial de tipo 2 a la 2, donde se pretende evaluar cómo afectan dos factores a las características físicas y químicas de un encapsulado. Los factores son el concentrado de encapsulante y la temperatura de encapsulado, ambos son cuestiones fundamentales a definir a la hora de realizar el procedimiento de coarcdrvacion compleja y secado por aspersión.



METODOLOGÍA

Coacervación compleja y encapsulado. Para la coacervacion compleja se trabajan con diferentes materiales de pared, los cuales se agregan en relación 1:1 (mucílago:gelatina). Se comparan dos concentraciones de material de pared (combinación) 4% y 5%. Se miden 100 ml de agua destilada, se agrega 4 y 5 gramos del material de pared combinado, se homogeniza con agitación a una temperatura de 40 ºC, se agrega 1 gr del extracto de propóleo, se agrega ácido cítrico para obtener un pH de 4.5 + 0.2. El coacervado formado se encapsula por aspersión en el equipo MiniSprayDryer, empleando dos temperaturas de encapsulado, 120 y 140 ºC. Caracterización Para la caracterización del encapsulado obtenido se realizaron las siguientes determinaciones de la manera que se describe. Densidad aparente Se calculó colocando una cantidad conocida de muestra en una probeta graduada de 10 mL, luego se golpeó varias veces sobre una superficie plana, registrándose la masa en gramos y el volumen para el cálculo de la densidad aparente. Fenoles totales.  Se tomó 1g de muestra y 20 mL de metanol al 80% para preparar los extractos metanólicos, dejándose en maceración por 24 horas a temperatura ambiente y protegidos de la luz. Para la cuantificación de compuestos fenólicos totales, se empleó la metodología de Folin-Ciocalteu, utilizando acido gálico para la curva de calibración. Se tomó 0.9 mL del extracto metanólico y se le añadió 2.4 mL de agua ultrapura (considerando 3.7 como factor de dilución), asimismo se le adicionó 0.15 mL de Na2CO3 al 20% y 0.3 mL del reactivo FolinCiocalteau al 0.25N. Luego de 15 minutos se realizó la lectura de las absorbancias a una longitud de onda de 755 nm en un espectrofotómetro UV (CR-5, Konica Minolta, Tokio, Japón). Flavonoides totales. Se empleó una solución etanólica de quercetina como patrón para la elaboración de la curva de calibración. Para la extracción de los flavonoides se utilizó 0.5 g de muestra y 20 mL de metanol al 80%, manteniéndose a temperatura ambiente y protegidos de la luz por 24 horas. Para la cuantificación de los flavonoides se tomaron 90 µL de extracto, 100 µL de AlCl3 y 4.81 mL de metanol al 80%. Las mediciones se llevaron a cabo a una longitud de onda de 425 nm utilizando un espectrofotómetro UV (CR-5, Konica Minolta, Tokyo, Japan) DPPH: La capacidad antioxidante se determinó el ensayo DPPH, los extractos metanólicos fueron preparados con 0.5 g de muestra y 20 mL de metanol al 80%, manteniéndose a temperatura ambiente por 24 horas. Se empleo Trolox (ácido 6-hidroxi-2,5,7,8-tetrametilcroman-2-carboxílico) para la curva de calibración. Se utilizó el radical libre de DPPH (2,2-difenil-1-picrilhidrazilo), preparándose una solución diluida con absorbancia de 1.1 ± 0.02 a una longitud de onda de 515nm. Se tomaron 150 µL del extracto de muestra y se mezclaron con 2850 µL de la solución diluida de DPPH, dejándolos reaccionar en tubos de ensayo protegidos de la luz durante 15 minutos a temperatura ambiente. Al mismo tiempo, se preparó un blanco con 150 µL de metanol. Las lecturas se registraron a 515 nm y los resultados se expresaron en µmol ET/g de muestra seca. Humedad. Se determinó según la metodología de la AOAC 950.10. Se pesaron 2 g de muestra en lunas de reloj y se colocaron dentro de una estufa de convección forzada FED 115 (BINDER, Tuttlingen, Alemania) a una temperatura controlada de 105°C, hasta alcanzar un peso constante. Se anotaron los valores de masa inicial y final de cada muestra para los cálculos necesario Solubilidad. 0.2gramos de muestra se colocaron en un tubo Falcón al cual se le agregó 100 ml de agua destilada. Tras 2horas de baño a 80 º se centrifugó la muestra y el sobrenadante se llevó a sequedad a 120ºC durante 24 horas. Se determinó el peso seco y se calculó el porcentaje taje de solubilidad. Análisis estadístico Para el análisis estadístico de los resultados se empleó el software Statgraphics. Se describió un modelo de 2 a la 2, en este se establecen dos variables con dos niveles cada una de ellas. 


CONCLUSIONES

Los resultados obtenidos demuestran la presencia de compuestos fenolicos y su capacidad antioxidante, lo cual nos indica que el uso de este procedimiento para encapsulacion, es funcional mantener viable estos compuestos y que conservan su capacidad. Los resultados también indican una diferencia en cuanto a la capacidad antioxidante dependiente de las condiciones que se utilicen para la encapsulacion y el porcentaje de encapsulante. La implementación de este encapsulado permite dispensar compuestos activos u otras moléculas que por su carcteristicas químicas requieran cuidarse de la acondicione externas, Se ha demostrado que conservando estos compuestos dentro del encapsulado se logran preservar moléculas con capacidad antioxidante. El estudio ha permitido evaluar distintas características, químicas y físicas del encapsulado obtenido por coacervscion compleja y secado por aspersión, así mismo se han comparado distintas condiciones de operación del encapsulador y diferentes concentraciones de encapsulante.
Marquez Garcia Diego Israel, Universidad de Guadalajara
Asesor: Dra. Mireya Astrid Jaime Arias, Corporación Universitaria Minuto de Dios

ANáLISIS DE ESTUDIOS SOBRE POLíTICAS DE CIENCIA ABIERTA EN LATINOAMéRICA.


ANáLISIS DE ESTUDIOS SOBRE POLíTICAS DE CIENCIA ABIERTA EN LATINOAMéRICA.

Marquez Garcia Diego Israel, Universidad de Guadalajara. Mendoza Salas Luis Damian, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dra. Mireya Astrid Jaime Arias, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

Introducción Introduccion La ciencia abierta promueve el acceso libre y transparente a la investigación científica. En Latinoamérica, las políticas para apoyar esta modalidad de ciencia varían considerablemente y pueden tanto fomentar como limitar su desarrollo. El análisis busca evaluar estas políticas y su impacto en la región. Objetivo El objetivo principal es realizar un análisis comparativo de las políticas existentes en Latinoamérica para la promoción de la ciencia abierta, a partir de estudios relevantes encontrados en diferentes bases de datos.



METODOLOGÍA

Se realizó un análisis de literatura basado en artículos científicos relevantes sobre políticas de ciencia abierta. Se utilizaron tres principales bases de datos: OpenAlex, Scielo y Redalyc. El diagrama de metodología ilustra el proceso de selección y análisis de los artículos pertinentes.


CONCLUSIONES

Estos son los siguientes artículos encontrados que sí son relevantes y hablen de política de ciencia abierta en cada uno de los buscadores: Buscadores:        Relevantes            No Relevantes OpenAlex           2 Artículos.              2 Artículos Scielo                 3 Artículos.              2 Artículos Redalyc             6 Artículos.               5 Artículos Los artículos se clasificaron en los temas que a continuación se presentan. Ciencia Abierta 1. Titulo: Investigadores junior españoles y su implicación en la ciencia abierta. Hallazgo: Los resultados más globales de los datos obtenidos tanto de las entrevistas como de la encuesta se han publicado en diversos trabajos entre los que cabría señalar (Nicholas et al., 2017, 2019a, 2020a, 2020b). En este artículo se presentan resultados relacionados con el interés que en los investigadores noveles españoles han despertado las prácticas de una ciencia abierta y transparente y la colaboración y difusión de su trabajo a todos los stakeholders y a la sociedad. https://doi.org/10.6018/analesdoc.470671 2. Título: Avanzando hacia la ciencia abierta: primeros pasos. Hallazgo: Al permitir a los revisores conocer la identidad de los autores, se fomento la comunicación y el intercambio de ideas, lo que puede mejorar la calidad del trabajo final; los revisores pueden tener en cuenta los comentarios y discusiones generados en torno al preprint, lo que enriquece el proceso de revisión formal.   https://doi.org/10.62580/ipsc.2023.8.10 3. Título: Ciencia abierta como una nueva forma de hacer investigación Hallazgo:  Los resultados obtenidos por las diversas  investigaciones realizadas a lo largo de la última década permiten inferir que existen diversas barreras que impiden el acceso libre a   la información obtenida por los investigadores y que se derivan de  aspectos más bien de tipo colectivo. Entre ellas, destacan las lógicas institucionales que incluyen prohibiciones para la difusión  de resultados de investigación, las reglamentaciones nacionales, y   en algunos casos, internacionales, respecto a la propiedad  intelectual del conocimiento generado, así como la estabilidad y reputación de las plataformas digitales donde se concentran los  datos obtenidos.   http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S20 s ● Título: Contribución del Instituto Brasileño de Información en Ciencia y Tecnología a la promoción del acceso abierto y la ciencia abierta: Análisis de sus infraestructuras Hallazgo: https://doi.org/10.14483/23448350.20924 ● Título: Ciencia abierta en la Policía Nacional de Colombia Hallazgo: Esta práctica puede llevar a los jóvenes colombianos 07-21712023000100008&lang=e   El estudio histórico realizado destaca 14 acciones, proyectos e infraestructuras creados y coordinados por el Ibict. En primer plano, estos se   presentan desde la emergencia del Manifiesto de acceso abierto (Ibict, 2005).  Resultados: pag 53a 63. a que, en el futuro, se conviertan en el relevo generacional, por ejemplo, de  personalidades como Bill Gates o Steve Jobs, entre otros, todo porque en   investigación e innovación siempre hay caminos abiertos que pueden transitarse con ingenio.   https://www.redalyc.org/articulo.oa?id=517775572001 (Ciencia Abierta) Recursos Educativos Abiertos 1. Título: Recursos educativos abiertos y políticas institucionales en universidades públicas mexicanas: estudio de caso. Hallazgo: Se obtuvo un total de 25 contribuciones que integraron el corpus de análisis. Con base en el estudio exploratorio de las 35 universidades públicas estatales que registró la Secretaría de Educación Pública (SEP) se obtuvieron los siguientes hallazgos: dichas universidades carecen de políticas institucionales que les permita integrar los REA a los programas institucionales de desarrollo educativo que se han implementado en cada una de ellas. http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S2007- 74672021000100125&lang=es
Marquez Torres Gabriel Josue, Instituto Tecnológico de Chihuahua II
Asesor: Dra. María de los Angeles Ahumada Cervantes, Instituto Tecnológico Superior de Pánuco

ANáLISIS Y DESARROLLO DE CHATBOTS DE IA PARA ASISTENCIA MéDICA EN ÁREAS VULNERABLES.


ANáLISIS Y DESARROLLO DE CHATBOTS DE IA PARA ASISTENCIA MéDICA EN ÁREAS VULNERABLES.

Marquez Torres Gabriel Josue, Instituto Tecnológico de Chihuahua II. Muñoz Montes Paola Guadalupe, Instituto Tecnológico de Chihuahua II. Asesor: Dra. María de los Angeles Ahumada Cervantes, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, la Inteligencia Artificial se utiliza en diversos ámbitos, incluyendo el uso cotidiano, escolar y profesional, en campos como la medicina y las leyes. Los modelos lingüísticos de gran escala (LLM) tienen el potencial de evolucionar en el ámbito médico, mejorando la precisión de los diagnósticos y apoyando la toma de decisiones clínicas, según Karabacak y Margetis (2023). La Inteligencia Artificial no solo mejora la eficiencia y precisión en diagnósticos y tratamientos, sino que también transforma la relación entre médicos y pacientes, permitiendo un enfoque más personalizado y humano en la atención médica, de acuerdo con Lanzagorta Ortega y colaboradores (2022). Ante estos desarrollos, se plantea crear una IA que asista a cualquier persona en el mundo desde un dispositivo móvil con internet, proporcionando asesoramiento médico o diagnósticos especializados, especialmente en comunidades marginadas. Además, esta IA realizará un seguimiento del tratamiento y permitiría la conexión virtual entre el usuario y un médico especializado, si es necesario o solicitado.



METODOLOGÍA

Se utilizó Meta Developers para trabajar con la API de WhatsApp y crear una aplicación que permite programar respuestas automáticas. Luego, se creó una cuenta en Always Data para almacenar la programación en Python, subiéndola mediante FTP y FileZilla, e instalando las librerías necesarias a través de SSH. La base de datos se guardó en MySQL utilizando phpMyAdmin. Se realizaron pruebas exitosas de envío y recepción de información a través de la API de WhatsApp. Además, se investigó cómo utilizar la tecnología de OpenAI para consultas médicas, trabajando con la versión gpt-3.5-turbo-0613 de ChatGPT. Se determinó la información crítica a almacenar en la base de datos para el seguimiento de pacientes, permitiendo a la IA ofrecer diagnósticos más precisos. Las librerías utilizadas incluyeron Flask, OpenAI, Heyoo, y Logging. Se validaron tokens con Verificación GET, se procesaron mensajes de WhatsApp y se obtuvieron respuestas usando OpenAI. Las respuestas se guardaron en ‘mensajes.txt’ y se manejaron excepciones durante las llamadas a la API y el envío de mensajes. Se implementó una ruta para guardar datos en MySQL y se ejecutó la aplicación Flask en modo de depuración. El código incluyó una clase en Python llamada ‘BDConector’ para interactuar con MySQL, con métodos para insertar y consultar mensajes. Otra clase, ‘LLM’, utilizó GPT-3.5 de OpenAI para procesar textos médicos y generar diagnósticos y sugerencias de tratamiento.


CONCLUSIONES

La implementación de IA en el ámbito médico promete revolucionar la atención sanitaria, ofreciendo diagnósticos más precisos y un seguimiento personalizado de los pacientes. La creación de una IA accesible desde dispositivos móviles es una solución innovadora para brindar asistencia médica en comunidades marginadas, mejorando significativamente el acceso a servicios de salud. Sin embargo, es crucial abordar los desafíos éticos y garantizar la transparencia y equidad en la aplicación. La combinación de tecnología avanzada y un enfoque humano puede transformar la medicina, llevando a una atención más eficiente y efectiva.
Martin de la Rosa Carlos Humberto, Universidad de Guadalajara
Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional

RECONOCIMIENTO DE SEñALES DE FLUORESCENCIA INDUCIDA EN MUESTRAS HEPáTICAS


RECONOCIMIENTO DE SEñALES DE FLUORESCENCIA INDUCIDA EN MUESTRAS HEPáTICAS

Delgadillo González Andrea, Universidad de Guadalajara. Leon Cruz Mayra Lizett, Universidad de Guadalajara. Martin de la Rosa Carlos Humberto, Universidad de Guadalajara. Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El hígado es crucial para la vida, pero las enfermedades hepáticas están aumentando alarmantemente. La fibrosis hepática, una condición prevalente, implica la acumulación de tejido cicatricial en el hígado, frecuentemente debido al consumo excesivo de alcohol y hepatitis previa. Sin tratamiento, la fibrosis puede evolucionar a cirrosis. En 2021, la cirrosis fue la sexta causa de mortalidad y la octava de años de vida saludable perdidos. Actualmente, la biopsia hepática es el estándar de oro para la detección y estudio de la fibrosis hepática, pero es un método invasivo y costoso.



METODOLOGÍA

Se utilizaron muestras de biopsias hepáticas humanas proporcionadas por el Hospital General de México. Estas fueron clasificadas según la escala Ishak-Knodell en cuatro grupos: sano (F0), fibrosis inicial (F1-F2), fibrosis avanzada (F3) y cirrosis (F4). Se empleó un sistema portátil para adquirir espectros de fluorescencia del tejido hepático usando un LED UVB y una fibra óptica bifurcada. Un espectrómetro de alta sensibilidad capturó los espectros, y un programa en LabVIEW controló el proceso. Para mejorar el diagnóstico de enfermedades hepáticas, se propuso un clasificador móvil. Los datos de las biopsias, normalizados para uniformidad, fueron utilizados para diseñar e implementar tres redes neuronales con TensorFlow: una red densa y dos convolucionales (una para imágenes y otra para señales). Red densa Esta red clasifica los grupos utilizando datos estadísticos (promedio, desviación estándar y varianza) de los espectros. Se entrenó con el 80% de los datos y se validó con el 20%. Con tres capas densas de 64 neuronas cada una y una capa final de 4 neuronas, se logró una precisión del 0.95, indicando un posible sobreentrenamiento. Red Convolucional (Imágenes) Utilizó espectrogramas de 468 x 812 píxeles, obtenidos de señales normalizadas. Las imágenes se convirtieron a blanco y negro para mejorar la respuesta de la red. El modelo, con 11 capas (MaxPooling2D, Conv2D, Flatten, Densa) y un kernel de 3x3, alcanzó una precisión del 0.8 tras 200 épocas de entrenamiento. Red Convolucional (Señales) Esta red clasifica señales generadas, normalizadas para uniformidad. Leyó 1024 datos por archivo y utilizó una matriz de confusión para evaluar el aprendizaje. Las etiquetas asignadas fueron "Sano" (F0), "Fibrosis inicial" (F1-F2), "Fibrosis avanzada" (F3) y "Cirrosis" (F4). La precisión obtenida varió entre 0.4 y 0.6.


CONCLUSIONES

El proyecto comenzó con el aprendizaje sobre los archivos espectrales de fluorescencia de muestras hepáticas. Se adquirieron conocimientos teóricos y prácticos sobre redes neuronales, utilizando código para procesar y normalizar archivos .txt. Las redes densas se usaron para interpretar señales, mientras que las convolucionales adaptaron las señales a imágenes. Se concluyó que las redes convolucionales aplicadas a imágenes en blanco y negro proporcionaron mejores resultados, alcanzando una precisión del 0.8. Aunque el trabajo sigue en desarrollo, se espera optimizar las redes implementadas para garantizar una clasificación precisa y certera de enfermedades hepáticas.
Martín del Campo Cervantes Aldo, Universidad de Guadalajara
Asesor: Mg. Anderson Gallego Montoya, Institución Universitaria Pascual Bravo

EVALUACIóN TEóRICA Y EXPERIMENTAL DE UN RENAULT LOGAN 1.6 L OPERANDO BAJO UN CICLO DE CONDUCCIóN WLTC


EVALUACIóN TEóRICA Y EXPERIMENTAL DE UN RENAULT LOGAN 1.6 L OPERANDO BAJO UN CICLO DE CONDUCCIóN WLTC

de la Torre Ledezma Luis David, Universidad de Guadalajara. Martín del Campo Cervantes Aldo, Universidad de Guadalajara. Asesor: Mg. Anderson Gallego Montoya, Institución Universitaria Pascual Bravo



PLANTEAMIENTO DEL PROBLEMA

Los vehículos actuales, en su gran mayoría, cuentan con motores de combustión interna de tecnologías diésel o gasolina, estos generan gran parte de las emisiones de efecto de invernadero las cuales varían según el modo de operación y las circunstancias de conducción a las cuales se somete el vehículo, así como factores geográficos y ambientales. En Colombia, según el Ministerio de Ambiente y Desarrollo Sostenible, los vehículos son responsables del 78% de las emisiones de gases de efecto invernadero y del 80% de las emisiones contaminantes atmosféricas del país. Por otro lado, el uso de los motores de combustión interna causa la mayor parte de la emisión de gases de efecto invernadero como los hidrocarburos no quemados (HC), el vapor de agua (H2Ov), el dióxido de carbono (CO2) y algunos óxidos de nitrógeno (NOx). Asimismo, estos motores emiten otras especies contaminantes como el monóxido de carbono (CO), los óxidos de azufre (SOx), entre otros, los cuales son los causantes de algunos problemas de salud pública, contaminación ambiental y acidificación de los ríos, mares y suelos. De esta manera, es importante conocer con precisión las tecnologías de los motores de combustión interna, determinar su alcance, aplicación y, sobre todo, estimar su rendimiento y emisiones. En consecuencia, con este trabajo se pretende responder como pregunta de investigación ¿Qué resultados se tendría sobre el rendimiento y las emisiones de un Renault Logan 1,6L si estas se comparan entre un trabajo experimental y numérico?



METODOLOGÍA

Metodología experimental Para la evaluación experimental del rendimiento del vehículo, así como la emisión de gases contaminantes, se emplean varios instrumentos de medición, los cuales son acoplados con un vehículo Renault Logan 1.6L. Entre los equipos más destacados para esto se encuentran los siguientes: Dinamómetro de rodillos MD 150 de Mustang Analizador de gases MD-Gas-5C Mediante el dinamómetro de rodillos se obtienen los datos de operación del vehículo con respecto al tiempo durante toda la prueba experimental, entre ellos destacan y serán analizados la velocidad del motor y de las ruedas, la potencia y el par desarrollado. Asimismo, dado que el analizador de gases está acoplado al software del dinamómetro (PowerDyne), se obtienen las especies gaseosas como el CO2, CO, HC y O2. Inicialmente, se consideran los parámetros obtenidos mediante el Coast Down. De esta manera, se obtiene el coeficiente de arrastre aerodinámico, el coeficiente de resistencia a la rodadura y la resistencia a la fricción. Al calibrar el dinamómetro con dichos parámetros, se ajusta su respuesta dinámica para que simule más fielmente las condiciones de conducción reales y de esta manera mejora la precisión de los resultados obtenidos. Los valores empleados para las pruebas fueron 0.34 (N/(Km/h)2) para el coeficiente de arrastre aerodinámico, 0.014 (N) para el coeficiente de resistencia a la rodadura y 0.02 (N/(Km/h)) para el coeficiente de fricción. Posteriormente, el analizador de gases es conectado al escape del automóvil mediante una sonda, considerando una calibración de ceros y verificación de fugas previa al inicio de las pruebas y al colocar la sonda del analizador en el escape. Por otra parte, para las pruebas experimentales, las llantas delanteras del vehículo (tracción 2WD) se descargan sobre los rodillos del dinamómetro, a su vez, el vehículo se asegura mediante eslingas para evitar accidentes. Después, el vehículo se debe encender y permanecer de esta manera durante aproximadamente 30 minutos. Luego, el Renault Logan es sometido a una serie de pruebas operando bajo el ciclo de conducción WLTC clase 3, el cual tiene una duración aproximada de 30 minutos y se divide en subciclos que tienen su nombre dada la velocidad alcanzada. Finalmente, se realiza un análisis de combustión inversa para llevar las emisiones entregadas por el analizador de gases en base seca y en porcentaje a índice de emisiones. Metodología teórica Con el objetivo de validar los datos obtenidos en las pruebas experimentales, se propuso un modelado en Matlab Simulink en donde primeramente fue necesario recabar algunos datos de la ficha técnica del vehículo, como la masa de 975 kg y el área frontal del vehículo de 2.65 m2. Estos datos generales sirven para alimentar el modelo. Posteriormente con los parámetros de Coast Down mencionados previamente y los datos técnicos del vehículo, se formulan en Matlab Simulink diferentes subsistemas, en donde cada uno contiene las ecuaciones de la dinámica longitudinal vehicular, como lo son la resistencia aerodinámica, la resistencia a la pendiente, la resistencia a la rodadura y la resistencia a la fricción, los cuales se usaron en la metodología experimental. Algunas de estas ecuaciones necesitan datos de velocidad, de tal manera que todas estas entradas son alimentadas con el ciclo de conducción WLTC clase 3. Las pérdidas calculadas en cada subsistema se agrupan mediante un bloque de suma en Simulink, y esta fuerza resultante se utiliza para calcular la potencia y el par desarrollado por el vehículo en cada etapa del ciclo de conducción WLTC clase 3. Los resultados se muestran a través del uso de gráficas y se comparan los resultados experimentales con los resultados teóricos.


CONCLUSIONES

Tras el análisis de los datos obtenidos, se concluye que la generación de hidrocarburos no quemados y monóxido de carbono tiende a incrementarse en cada proceso de aceleración súbita del vehículo, lo cual evidencia el desarrollo de una combustión incompleta en cada uno de esos puntos, de manera contraria, en cada proceso de combustión completa se tiende a generar una mayor cantidad de dióxido de carbono. Por otra parte, al comparar los resultados experimentales con los numéricos, se tiene una tendencia similar de las tendencias obtenidas, por lo tanto, este modelo será de gran utilidad para modelar la implementación de tecnologías vehiculares, combustibles alternativos y/o renovables y analizar numéricamente su comportamiento, y su impacto en la emisión de gases contaminantes y en el rendimiento del vehículo.
Martínez Aguilar Saúl Naim, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Manuel Pérez Villegas, Universidad Tecnológica de Tecamachalco

MANTENIMIENTO PREDICTIVO EN EL SECTOR INDUSTRIAL


MANTENIMIENTO PREDICTIVO EN EL SECTOR INDUSTRIAL

Martínez Aguilar Saúl Naim, Benemérita Universidad Autónoma de Puebla. Navarrete de Jesus Raul, Tecnológico de Estudios Superiores de Jocotitlán. Pérez Soto Juan Diego, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: M.C. Manuel Pérez Villegas, Universidad Tecnológica de Tecamachalco



PLANTEAMIENTO DEL PROBLEMA

El mantenimiento industrial es un conjunto de actividades destinadas a garantizar que los equipos, maquinarias e instalaciones de una planta funcionen de manera eficiente y segura durante su ciclo de vida útil. Este proceso incluye la inspección, la reparación, la lubricación, el reemplazo de piezas desgastadas y la implementación de mejoras para prevenir averías y maximizar la disponibilidad operativa. Es crucial para asegurar la continuidad de la producción, reducir costos de operación y mantener altos estándares de calidad y seguridad en el entorno industrial. La Universidad Tecnológica de Tecamachalco (UTTECAM) cuenta con diversos equipos industriales en la carrera de Ingeniería en Mantenimiento Industrial, por lo que durante la estancia de investigación se abordaran diferentes técnicas de mantenimiento predictivo, y junto con ello se tomaran cursos para mejor entendimiento.



METODOLOGÍA

Se abordaron diferentes técnicas de mantenimiento predictivo para un sector industrial, las cuales son: Inspección visual: esta técnica permite observar a simple vista si la maquinaria tiene una anomalía, con el fin de indicar fallos superficiales que se manifiestan físicamente mediante grietas, fisuras, desgaste, soltura de elementos de fijación, cambios de color, etc., a nivel industrial lo podemos identificar en los check-list. Líquidos penetrantes: se trata de una inspección no destructiva que se usa para encontrar fisuras superficiales o fallos internos del material que presentan alguna apertura en la superficie. Se aplican tres líquidos a la pieza mediante un spray, utilizándolos de la siguiente manera: el primero de ellos es el PENETRANT el cual funciona para detectar la posible fisura con un tiempo de trabajo de 5-10 minutos, el segundo es el CLEANER funcionando como limpiador de la superficie, posterior a él se aplica el DEVELOPER el cual tendrá un tiempo de trabajo de 10 minutos después de ello se resaltara de un color rojizo la superficie dañada, y por ultimo se vuelve a aplicar el CLEANER para limpiar por completo la pieza. Partículas magnéticas: la técnica consiste en utilizar una herramienta nombrada YUGO ELECTROMAGNÉTICO la cual produce un campo magnético al material ferromagnético y luego usar partículas magnéticas para revelar defectos en la superficie del material, tales defectos alteran el campo magnético, lo que provoca una acumulación de partículas magnéticas en esos puntos, haciéndolos visibles. Análisis termográfico: se utilizan cámaras termográficas para capturar imágenes de la radiación infrarroja emitida por la maquinaria u objeto, permitiendo ver la temperatura en la que se encuentran, y de esta manera, ayudando a detectar posibles anomalías en temperatura que podrían indicar posibles problemas. Análisis de vibraciones; se basa en la medición y evaluación de las vibraciones generadas por máquinas, como consecuencia de holguras mecánicas, desbalanceo dinámico, holguras mecánicas, rozamientos, daños en rodamientos, etc., utilizando un analizador de vibraciones, el cual al colocarlo en el equipo nos permite evaluar mediante espectros de vibración las condiciones en las que se encontraba. Rayos x: esta técnica utiliza radiación electromagnética de alta energía para penetrar materiales y revelar estructuras internas, que nos va a permitir obtener imágenes claras y detalladas de la estructura interna de los componentes, de igual forma nos facilita la inspección sin necesidad de desmantelar o mover el equipo. Ultrasonido: utiliza ondas acústicas de alta frecuencia para detectar y analizar defectos en materiales y componentes, la técnica mide el tiempo que tarda una onda en viajar a través de un objeto y regresar, proporcionando información sobre la estructura interna y posibles defectos, estos datos son proporcionados mediante un analizador ultrasónico, el cual manda espectros para saber el estado actual de la maquinaria.  Existen equipos para medir espesores de materiales y defectos en soldaduras, así como equipos enfocados en la detección de fugas. Análisis de lubricantes: técnica enfocada en el análisis físico-químico de muestras de aceite en servicio y el análisis de partículas de desgaste contenidas en el aceite para determinar el desgaste interno de los equipos y tomar acciones preventivas. Prueba hidrostática: la cual consiste en aplicar agua, a un equipo o sistema a una presión 1.3 veces superior a la operativa, durante un periodo mínimo de 1 hora, para detectar posibles fugas, deformaciones o debilidades en la estructura.  La presión de prueba y los tiempos de aplicación deben hacerse de acuerdo a las normas vigentes. Prueba neumática: utiliza gases, como aire comprimido o nitrógeno, para realizar la prueba, pero se aplica en sistemas donde el uso de líquidos no es práctico o seguro. Los cursos que se abordaron son:​ Energías Renovables (energía solar fotovoltaica) Soldadura Torneado Neumática Pantallas HMI CNC Programación de robot


CONCLUSIONES

En conclusión, el mantenimiento predictivo se ha consolidado como una estrategia fundamental en la gestión de activos industriales, ofreciendo ventajas significativas frente a los enfoques tradicionales. Al utilizar estas técnicas junto con tecnologías avanzadas para monitorear y analizar el estado de los equipos nos permite anticipar fallos y realizar intervenciones precisas, lo que resulta en una reducción de costos operativos y un incremento en la eficiencia de las operaciones. El sector industrial es cada vez más competitivo, y la implementación efectiva del mantenimiento predictivo en las áreas, se traduce como una ventaja estratégica crucial para mantener la continuidad y la sostenibilidad de las operaciones, siendo clave para el éxito a largo plazo de la empresa.
Martinez Aquino Carlos Daniel, Instituto Politécnico Nacional
Asesor: Dr. Rodolfo Zola García Lozano, Universidad Autónoma del Estado de México

ELECTRóNICA FLEXIBLE


ELECTRóNICA FLEXIBLE

Arroyo Cruz Brandon Daniel, Universidad Tecnológica Fidel Velázquez. Martinez Aquino Carlos Daniel, Instituto Politécnico Nacional. Asesor: Dr. Rodolfo Zola García Lozano, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Los circuitos flexibles representan hoy en día un avance tecnológico emergente, con creciente relevancia en áreas tales como la energética, médica, electrónica e industrial. Una muestra de esta condición es el gran esfuerzo que se está realizando, en el ámbito global, para el desarrollo de diferentes aplicaciones como: las pantallas flexibles en diversos dispositivos, así como los circuitos de aplicación, sensores, celdas solares entre otros. La complementariedad que ofrece la electrónica flexible con la electrónica convencional de silicio ha generado que esta tecnología esté ganando presencia, tanto en el ámbito científico como en el mercado. Un área de oportunidad que actualmente se tiene en México es la investigación, diseño, fabricación y aplicación de circuitos flexibles en dispositivos comerciales. En México pocas instituciones educativas abordan estos temas en sus programas de estudio. Por esta razón, como parte del Verano de investigación del Programa Delfin se inició en el aprendizaje del diseño de circuitos digitales básicos con base a la electrónica flexible.



METODOLOGÍA

Para contar con los elementos teóricos necesarios, se comenzó a estudiar el funcionamiento principal de los transistores MOSFET y TFT’s. Asimismo, se analizó el principio de funcionamiento de circuitos digitales básicos tales como: inversores con carga resistiva y carga activa. En colaboración con el Centro de Nanociencias y Micro y Nanotecnologías (CNMN) del IPN se participó en el diseño de una oblea multiproyecto, en la cual diferentes grupos de investigación enviaron sus diseños de circuitos digitales y analógicos. Estos diseños fueron fabricados en el CNMN-IPN. El circuito propuesto por el CU UAEM Ecatepec fue desarrollado en colaboración por los estudiantes del verano de investigación y por los estudiantes del programa de Maestría en ciencias de la computación que se imparte en el CU UAEM Ecatepec.  En el diseño se integraron los siguientes circuitos lógicos: AND de 2 y 3 entradas, OR de 2 y 3 entradas, XOR de 2 entradas, NOR de 3 entradas y OAI12. Para el diseño de los circuitos se utilizó la siguiente metodología: Análisis de requerimientos del circuito. Se analizaba el funcionamiento del circuito. Con base al uso de tablas de verdad y la expresión como suma de minitérminos se definía la salida para cada condición de entrada. Diseño y simulación eléctrica del circuito. Utilizando el software LTspice, realizamos el diagrama eléctrico de cada circuito. Para comprobar el funcionamiento se realizaba la simulación en CD y la simulación transitoria. Diseño del Layout. Una vez que las simulaciones en LT-Spice funcionaban se utilizó el software L-Edit para diseñar los circuitos a fabricar. Una vez concluidos los Layouts, con el apoyo del Dr. Zola, optimizamos los diseños para integrar todos los circuitos lógicos en una sola oblea de silicio. Al lograr esto, obtuvimos el diseño final. Durante todo el proceso, se llevó una bitácora donde se registró toda la información básica sobre cada circuito, incluyendo observaciones, diagramas y tablas de verdad. Con toda la información recopilada y los diseños terminados, contactamos al Instituto Politécnico Nacional (IPN), ya que la Universidad Autónoma del Estado de México (UAEM) colabora con el IPN en el Centro de Nanociencias y Micro y Nanotecnologías (CNMN). Ellos fueron los encargados de materializar nuestra oblea multiproyecto. El objetivo final al obtener los resultados de nuestra oblea, realizar la extracción de datos y compararlos con nuestras simulaciones, verificando la eficiencia y precisión de nuestros cálculos. En caso de discrepancias, estudiaríamos los factores externos que causaron dichas variaciones.  Paralelamente, para complementar la formación en el área se realizó la medición  de dispositivos básicos, tanto comerciales como de  película delgada. Entre los dispositivos que se caracterizaron se encuentran: diodos LED de diversos colores (rojo, azul, amarillo, naranja) y transistores (2N4401, 2N7000). Para ello, utilizamos fuentes de alimentación marca Keithley y una estación de puntas conectados al software MATLAB, para hacer la recopilación de datos. Con los datos obtenidos graficamos el comportamiento de cada componente utilizando Origin8, esto para procesar los datos de mediciones previamente extraídas para interpretar el comportamiento del voltaje con respecto a la corriente en cada dispositivo experimental. Simultáneamente, utilizamos ecuaciones matemáticas para simular el comportamiento de dispositivos similares, nuevamente empleando Origin8, con la asesoría del Ing. Ulises Blanco, estudiante de maestría. Lo que nos permitió obtener 3 resultados (Simulación LTSpice, Medición de datos y Modelo generado en Origin8), así comparar en graficas los distintos comportamientos de cada componente. 


CONCLUSIONES

Durante la estancia de verano se profundizó en el estudio de transistores MOSFET y circuitos inversores, se logró la integración de múltiples circuitos lógicos en una sola oblea de silicio. Esta experiencia no solo permitió adquirir un conocimiento profundo sobre el diseño y la simulación de circuitos, sino que también resaltó las limitaciones actuales y las oportunidades de mejora en la fabricación de circuitos flexibles. En conclusión, la estancia en el Proyecto Delfín proporcionó una valiosa oportunidad para contribuir al campo de los circuitos flexibles, estableciendo un puente entre la teoría y la práctica, y preparando el camino para futuros desarrollos y aplicaciones en este prometedor ámbito tecnológico.
Martínez Ayala Brenda Cristina, Instituto Tecnológico de La Piedad
Asesor: M.C. Eduardo Sánchez Valdez, Centro de Investigación en Alimentación y Desarrollo (CONACYT)

ANáLISIS DE LABORATORIO DE ALIMENTOS PARA ANáLISIS PROXIMALES. ELABORACIóN DE ETIQUETA NUTRIMENTAL.


ANáLISIS DE LABORATORIO DE ALIMENTOS PARA ANáLISIS PROXIMALES. ELABORACIóN DE ETIQUETA NUTRIMENTAL.

Martínez Ayala Brenda Cristina, Instituto Tecnológico de La Piedad. Asesor: M.C. Eduardo Sánchez Valdez, Centro de Investigación en Alimentación y Desarrollo (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Desde hace ya tiempo, las sociedades se han preocupado por analizar los alimentos para conocer sus características nutritivas, desarrollando distintas metodologías para tal fin y con ello poder generar distintos cuadros de composición de tales alimentos para brindar información según los requerimientos por región geográfica. El conocimiento de la composición química de los alimentos nos permite hacer uso de ellos de una forma racional, así como poder incorporar alimentos no habituales como materia prima en un producto terminado. En México hay muchos problemas de obesidad y sobrepeso, siendo la alimentación el principal factor de influencia. En la etiqueta se da a conocer también el exceso de calorías lo cual hace aún más importante al etiquetado de estos. Para el presente resumen, los valores obtenidos son de interés nutricional y comercial ya que los resultados finales deberán ser utilizados con los respectivos criterios para generar tablas nutrimentales y el etiquetado según la norma NOM-051—SCFI/SSA-2010 modificada



METODOLOGÍA

Se utilizaron las metodologías de la AOAC para determinar contenido de humedad, cenizas, proteínas, grasas y carbohidratos en productos alimenticios que se recibieron en el Laboratorio de Análisis de Alimentos del CIAD. Para el desarrollo de la tabla nutrimental se hizo uso de los criterios de la NOM-051—SCFI/SSA-2010 modificada.    


CONCLUSIONES

Durante la estancia virtual  de verano Delfín se logró adquirir conocimientos del desarrollo de las metodologías para conocer la composición de alimentos y elaborar su etiqueta nutricional correspondiente.
Martinez Barboza Patricia Jacqueline, Instituto Tecnológico de Reynosa
Asesor: Mg. Johann Barragan Gómez, Universidad Autónoma de Bucaramanga

ANáLISIS DE SEñALES DE ELECTROENCEFALOGRAFíA (EEG) CON FINES DE CONTROL DE DISPOSITIVOS EXTERNOS USANDO EL PARADIGMA DE IMAGINACIóN MOTORA


ANáLISIS DE SEñALES DE ELECTROENCEFALOGRAFíA (EEG) CON FINES DE CONTROL DE DISPOSITIVOS EXTERNOS USANDO EL PARADIGMA DE IMAGINACIóN MOTORA

Martinez Barboza Patricia Jacqueline, Instituto Tecnológico de Reynosa. Molina Martinez Lady Laura, Corporación Universitaria Rafael Núñez. Sustersick Covarrubias Edson, Universidad de Guadalajara. Asesor: Mg. Johann Barragan Gómez, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

Actualmente, se estima que 2,400 millones de personas en el mundo podrían beneficiarse significativamente de la rehabilitación, según la OMS (2024). Este número resalta la necesidad urgente de enfoques efectivos y accesibles para la rehabilitación, que es crucial para mejorar la calidad de vida y es esencial para la cobertura sanitaria universal. Garantizar el acceso a la rehabilitación es clave para alcanzar el Objetivo de Desarrollo Sostenible 3 de las Naciones Unidas, que promueve el bienestar para todos a todas las edades. Un desafío significativo es la falta de personal especializado en rehabilitación y la desigual disponibilidad de recursos y equipos. En este contexto, el uso de dispositivos externos controlados por señales EEG y código Python permite la supervisión y seguimiento de múltiples pacientes de manera eficiente. Los dispositivos pueden proporcionar ejercicios de rehabilitación a distancia y el análisis de datos en tiempo real para adaptar las sesiones a las necesidades individuales. Este proyecto se enfoca en analizar datos de señales EEG para integrar la tecnología EEG en la rehabilitación mediante interfaces cerebro-computador (BCI) y el paradigma de la imaginación motora. Esto permite un monitoreo preciso de la actividad cerebral, crucial para ajustar programas de rehabilitación basados en la respuesta neurológica del paciente, optimizando la eficacia del tratamiento y reduciendo la carga sobre el personal médico.



METODOLOGÍA

Ajuste de Interfaz OpenVibe: Escalado entre -100 y 100 microvoltios con BCI Enobio. Inclusión de marcadores de fases del experimento: adquisición y validación online. Retroalimentación de desempeño en validación online: Indicación de acierto o fallo, almacenamiento y despliegue del puntaje final. Librerías para Análisis de Señales EEG en Python: Análisis en el dominio del tiempo y frecuencia. Gráficos de violín. Filtrado y extracción de características: Patrones espaciales comunes (CSP) (FBCSP). Clasificación: Análisis Discriminante Lineal (LDA). Análisis de dominio de la frecuencia (Potencia espectral). Captura de Señales EEG: Se utilizó un dispositivo BCI Enobio para registrar la actividad cerebral mediante electrodos en el cuero cabelludo. La captura de datos se realizó en un entorno controlado con el software OpenViBE. Debido a la distancia, los datos no fueron adquiridos en tiempo real. Filtrado y Análisis de Señal EEG: El filtrado es crucial para eliminar ruido y artefactos. Se aplicó un banco de filtros pasa banda para dividir la señal en bandas de frecuencia relevantes para la imaginación motora. Se creó un código en Python para convertir las señales a un formato adecuado para el análisis y clasificar los datos con LDA. Implementación Preprocesamiento de las Señales: Filtrado y normalización para eliminar ruido. Eliminación de artefactos y valores atípicos. Segmentación en ventanas de tiempo. Extracción de características relevantes. Entrenamiento y Evaluación del Modelo LDA: Se dividieron los datos en conjuntos de entrenamiento y prueba. Entrenamiento del modelo LDA con los datos preprocesados. Evaluación del modelo mediante precisión y matriz de confusión. Código Python Utilizado: El script en Python realiza las siguientes acciones: Carga y muestra los datos. Convierte los datos a valores numéricos. Aplica un filtro de paso de banda a los datos EEG. Extrae características de cada segmento de datos. Divide los datos en conjuntos de entrenamiento y prueba. Entrena y evalúa un modelo LDA. Imprime la precisión y la matriz de confusión. Visualiza la matriz de confusión.  


CONCLUSIONES

El filtrado de señales EEG mediante un banco de filtros pasa banda fue esencial para eliminar ruido y artefactos no deseados, mejorando la calidad de las señales y facilitando la extracción de características. Un proceso de filtrado robusto garantiza que las señales EEG retenidas sean representativas de la actividad cerebral real, crucial para el análisis posterior. El uso de LDA en el análisis de señales EEG asociadas a la imaginación motora es una metodología efectiva para el desarrollo de tecnologías BCI. Su adecuada aplicación permite la discriminación precisa de estados mentales, facilitando avances en neurotecnología y rehabilitación. Este estudio subraya la importancia de un filtrado adecuado y la robustez de LDA para asegurar la precisión y fiabilidad de los datos EEG en el contexto de rehabilitación.
Martinez Castillo Danae Esmeralda, Universidad Tecnológica Fidel Velázquez
Asesor: Mtro. Ruben Valdez Sanchez, Universidad Mexiquense del Bicentenario

LA INFLUENCIA DE LOS MéTODOS DE EXTRACCIóN CON LA MINERíA DE DATOS


LA INFLUENCIA DE LOS MéTODOS DE EXTRACCIóN CON LA MINERíA DE DATOS

Martinez Castillo Danae Esmeralda, Universidad Tecnológica Fidel Velázquez. Asesor: Mtro. Ruben Valdez Sanchez, Universidad Mexiquense del Bicentenario



PLANTEAMIENTO DEL PROBLEMA

En la actualidad,el comercio electrónico ha experimentado un crecimiento acelerado,convirtiéndose en un componente vital para las empresas que buscan expandir su alcance y aumentar sus ventas.A medida que las empresas compiten por la atención de los consumidores,la extracción de datos web se ha vuelto muy importante para comprender las tendencias del mercado y el comportamiento del consumidor.Sin embargo,la diversidad y la complejidad de las plataformas de e-commerce,como Amazon y Mercado Libre,presentan desafíos significativos en la obtención de información valiosa,así como otras plataformas que han alcanzado mucha popularidad. La minería de datos cumple un papel importante en la búsqueda de información prioritaria en la gran cantidad de datos disponibles en internet,pues esto se convierte en un reto constante;en particular,la diferencia en la estructura de las páginas web y en la disponibilidad de datos entre las plataformas,pues dificulta la creación de un enfoque universal para el scraping.Por ejemplo, aunque varios sitios pueden ofrecer información similar sobre productos,su organización y presentación varían considerablemente,lo que complica el proceso de extracción y análisis de información útil. El propósito de este estudio es evaluar la influencia de los métodos de extracción de datos,específicamente Scrapy, en la minería de datos aplicada al comercio electrónico.A través de la comparación de la recolección de datos de productos entre Amazon y Mercado Libre,se busca identificar qué plataforma ofrece un proceso más eficiente y efectivo.Además, se abordarán las dificultades encontradas en la extracción de datos y la utilidad de la información recopilada.Esto permitirá reflexionar sobre la importancia de contar con herramientas adecuadas y estrategias efectivas para mejorar la toma de decisiones en el ámbito del comercio electrónico.



METODOLOGÍA

Para llevar a cabo este estudio,se desarrolló un proyecto utilizando la herramienta Scrapy,un marco de trabajo para realizar scraping de datos.El proyecto se centró en la recolección de información sobre productos,incluyendo título,precio y enlace,desde dos plataformas de comercio electrónico: Amazon y Mercado Libre.La metodología se dividió en varias etapas clave: 1.Configuración del Entorno de Trabajo:Se inició creando un proyecto Scrapy llamado 'mercado_libre_scraper' para la extracción de datos de Mercado Libre. A continuación, se configuró un segundo proyecto llamado 'amazon_scraper' para la recolección de datos de Amazon.Ambas configuraciones incluyeron la instalación de las bibliotecas necesarias,como Pandas y Openpyxl,para facilitar la manipulación y exportación de datos en formato Excel. 2.Desarrollo del Spider: Se diseñaron spiders específicos para cada plataforma. Para Mercado Libre, se elaboró un spider que accedía a la URL de búsqueda de productos y extraía la información deseada. El proceso involucró el uso de selectores CSS para navegar a través del HTML de las páginas y capturar los datos relevantes. Sin embargo, se encontraron dificultades en la estructura del código de Mercado Libre, lo que complicó la extracción de la información. En lugar de usar selectores CSS, se podría considerar el uso de selectores XPath, que son más flexibles y robustos para manejar estructuras más complejas. 3.Exportación de Datos: Una vez obtenidos los datos, se utilizó Pandas para almacenar y exportar la información a un archivo Excel. Esto permitió una fácil visualización y análisis posterior de los resultados. Para Mercado Libre, se podría considerar el uso de la biblioteca `csv` para exportar los datos a un archivo CSV, ya que es un formato más común para trabajar con datos en este tipo de proyectos. 4.Análisis Comparativo:Se llevó a cabo un análisis comparativo de la eficiencia de los métodos de extracción de información utilizados en las plataformas de Amazon y Mercado Libre.Se observó que la extracción de datos en Mercado Libre presentó mayores dificultades en comparación con Amazon,lo que sugiere que la estructura de los datos de Mercado Libre presenta desafíos específicos. 5.Reflexiones y Mejoras:El proceso de extracción reveló la importancia de adaptar las estrategias de scraping según la plataforma específica.En el caso de Mercado Libre,la complejidad del proceso de extracción sugiere la necesidad de desarrollar estrategias de scraping más flexibles y robustas para manejar la estructura única de sus datos,lo mismo que podría pasar con otras plataformas populares.


CONCLUSIONES

La estancia de verano permitió adquirir experiencia práctica en minería de datos aplicada al comercio electrónico. El desarrollo de proyectos de scraping con Scrapy demostró la eficacia de esta herramienta, pero también reveló la complejidad de las plataformas. Se logró extraer información valiosa de Amazon y Mercado Libre, aunque el proceso para Mercado Libre fue más desafiante debido a la estructura de su sitio web. El estudio subraya la importancia de la minería de datos en el contexto del comercio electrónico, así como la necesidad de desarrollar métodos flexibles y adaptables para abordar los desafíos que surgen en la extracción de información. Este trabajo no solo contribuye a la comprensión de las técnicas de scraping, sino que también resalta el valor de la información obtenida para la toma de decisiones estratégicas en las empresas del sector público. La posibilidad de utilizar datos extraídos para mejorar las tasas de conversión y la fidelización del cliente es una conclusión clave que se extrae de esta experiencia.
Martínez Castillo Karoll Jesús, Instituto Politécnico Nacional
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

CONTAMINACIóN Y MORTALIDAD EN LA CDMX


CONTAMINACIóN Y MORTALIDAD EN LA CDMX

Lopez Palacios Angel Gabriel, Universidad de Guadalajara. Martínez Castillo Karoll Jesús, Instituto Politécnico Nacional. Tapia Valle Alex Kevin, Universidad de Guadalajara. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Actualmente el aumento de enfermedades respiratorias ha sido preocupante tanto para la comunidad médica, como para la población en general, una de las principales causas de la propagación y aumento de estas, es la calidad del aire ambiente que la población respira. La contaminación del aire es el principal riesgo ambiental para la salud pública en América, según la OMS en 2019 más de 380.000 muertes prematuras fueron atribuibles a la contaminación del aire ambiente en América. Cuando se establecieron los Estándares nacionales de calidad del aire ambiental en 1970, la contaminación del aire se consideraba principalmente como una amenaza para la salud respiratoria. Durante las décadas siguientes, la preocupación por la salud pública fue aumentando y diversos estudios afirmaron que la exposición a los altos niveles de contaminación del aire puede causar una variedad de efectos adversos para la salud: aumenta el riesgo de infecciones respiratorias, enfermedades cardíacas, accidentes cerebrovasculares y cáncer de pulmón, las cuales afectan en mayor proporción a población vulnerable, en riesgo y marginada (niños, mujeres y ancianos). La Organización Mundial de la Salud (OMS) establece que los niveles de contaminación del aire son considerados estables y seguros cuando las concentraciones de PM2.5 (partículas finas) no exceden los 10 µg/m³ como promedio anual y los 25 µg/m³ en un promedio de 24 horas. Para el ozono (O3), el nivel guía es de 100 µg/m³ en un promedio de 8 horas. En comparación, la Ciudad de México frecuentemente supera estos niveles, especialmente durante los meses de invierno y primavera, cuando las concentraciones de PM2.5 y O3 alcanzan picos que exceden las recomendaciones de la OMS, lo que pone en riesgo la salud de sus habitantes. La presente investigación realizada en la UPIITA se centra en el análisis de datos de la calidad del aire y su relación con las enfermedades respiratorias a lo largo del tiempo en la Zona Metropolitana de la Ciudad de México y el Estado de México. El objetivo de la investigación es construir una interfaz web interactiva que integre datos abiertos utilizando criterios espacio-temporales y datos sociales mediante el uso de técnicas de ciencias de datos para identificar los días con más presencia de contaminantes y las principales causas de defunción en la zona del Valle De México.



METODOLOGÍA

El primer paso para nuestra investigación fue la selección y recopilación de datos. En este sentido, tuvimos dos fuentes principales para esto, que fue la Red Automática de Monitoreo Atmosférico para los datos relacionados a la calidad del aire y la Dirección General de Información en Salud para nuestros datos relacionados con las defunciones registradas y sus causas. Una vez seleccionadas las fuentes para nuestra investigación, pasamos a un proceso de depuración de los datos. Primero se seleccionó los años con los que se van a trabajar, en este caso, de 2012 a 2022, y también se determinó que únicamente se trabajaría con datos relacionados al Valle de México. Al establecer estos criterios, lo siguiente fue un procedimiento de limpieza de datos, en donde se seleccionaron las variables más relevantes para nuestra investigación, principalmente en la base de datos de DGIS, ya que se contaba en algunos casos con hasta 73 columnas de información diferentes, y para nuestro análisis se determinó que sólo serían relevantes 12 de ellas. Ya con la información filtrada para solo trabajar con datos del 2012 al 2022 en la zona del Valle de México, se utilizó Python para obtener gráficas que permitieran entender la información de manera más sencilla, así como algunos análisis estadísticos para poder determinar cuáles son las principales causas de defunciones en esta zona de estudio. Después de esto, se utilizó el software de QGIS para poder realizar mapas delimitando distintas zonas del Valle de México, específicamente determinando las regiones denominadas por nosotros como Noreste, Noroeste, Centro, Sureste y Suroeste. Finalmente, mediante la utilización de Python y HTML se realizó una página web en donde todas las gráficas obtenidas así como los mapas creados se muestran al usuario según sus criterios de búsqueda, y además de esto se tiene una pequeña sección de blog con entradas relacionadas a los temas que se abordaron en la investigación, así como una sección de links con información útil para que el usuario puede consultar más información en caso de que le interese.


CONCLUSIONES

Durante seis semanas, participamos en un proyecto de investigación en el que tuvimos la oportunidad de sumergirnos en el mundo de los sistemas de información geográfica (SIG), utilizando herramientas como QGIS. Fue una experiencia extremadamente gratificante, ya que no solo pudimos aprender a manejar estos sistemas, sino que también descubrimos cómo integrar y analizar grandes volúmenes de datos. Uno de los aspectos más desafiantes y educativos del proyecto fue el manejo de datos proporcionados por el DGIS y la página de Aire y Salud. Estos datos venían en grandes cantidades, desordenados y sin un formato claro. Utilizando herramientas de manejo de datos, pudimos limpiar, organizar y analizar esta información, lo que nos permitió extraer conclusiones significativas y relevantes para el estudio. Una de nuestras principales conclusiones es que, generalmente, se pueden observar concentraciones de contaminantes más significativas a finales de año o principios de año, entre los meses de noviembre y febrero. Probablemente podemos atribuir esto a dos principales factores, las festividades y el clima. Como sabemos, la lluvia es de gran ayuda para limpiar el medio ambiente, por lo que en estas épocas, cuando estas condiciones no son tan comunes, se llega a mayores niveles de concentración.De la misma manera, debido al frío, es más común la quema de combustibles para mantener un clima cálido tanto en los hogares como en exteriores, y se da un mayor consumo energético gracias a todas las luces que se ponen en estas fechas. También pudimos observar que las enfermedades del sistema respiratorio siguen siendo una causa muy grande de mortalidad en la Ciudad. Por lo laborioso de realizar un análisis que correlacione estas defunciones con las condiciones climáticas a lo largo del tiempo, y debido al poco tiempo con el que contamos para desarrollar nuestro análisis, no se puede obtener una conclusión contundente, pero con base a los datos recopilados en esta investigación se podría cimentar un análisis de los datos con Machine Learning para intentar encontrar la correlación de estas variables.
Martínez Castillo Marlem, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla

EDUCACIóN NUTRICIONAL Y DE HIDRATACIóN PARA NIñOS A TRAVéS DE REALIDAD AUMENTADA: EXPLORANDO EL PLATO DEL BUEN COMER Y LA JARRA DEL BUEN BEBER


EDUCACIóN NUTRICIONAL Y DE HIDRATACIóN PARA NIñOS A TRAVéS DE REALIDAD AUMENTADA: EXPLORANDO EL PLATO DEL BUEN COMER Y LA JARRA DEL BUEN BEBER

Guevara Cocolotl Hugo Jesus, Benemérita Universidad Autónoma de Puebla. Martínez Castillo Marlem, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, los problemas relacionados con una alimentación desequilibrada y una hidratación inadecuada en niños son preocupaciones crecientes. La falta de educación adecuada sobre nutrición y la ingesta correcta de líquidos puede llevar a hábitos poco saludables y a diversas enfermedades a largo plazo. Las estrategias educativas tradicionales sobre el "Plato del Buen Comer" y la "Jarra del Buen Beber" a menudo no logran captar el interés de los niños ni transmitir eficazmente la importancia de estos conceptos. Por lo tanto, surge la necesidad de desarrollar herramientas educativas innovadoras que utilicen tecnologías emergentes para involucrar a los niños y facilitar el aprendizaje sobre hábitos saludables.



METODOLOGÍA

Investigación y Desarrollo del Contenido: Se realizó una revisión exhaustiva de materiales educativos y recomendaciones oficiales sobre el "Plato del Buen Comer" y la "Jarra del Buen Beber". Esto incluyó consultas para asegurar la precisión y relevancia del contenido. Se identificaron los grupos de alimentos y las porciones recomendadas, así como las mejores prácticas para una hidratación adecuada y las consecuencias del consumo excesivo de bebidas azucaradas. Diseño de Prototipos y Contenidos: Se desarrollaron interfaces llamativas para guiar a los usuarios a través de la aplicación, utilizando un lenguaje simple y actividades interactivas que refuercen los conceptos de nutrición y hidratación. Se utilizaron herramientas como Canvas para crear prototipos de la interfaz de usuario de la aplicación, asegurando una navegación intuitiva y atractiva para los niños. Creación de Modelos 3D: Se empleó Blender para diseñar modelos 3D de alimentos y bebidas representativos del "Plato del Buen Comer" y la "Jarra del Buen Beber". Estos modelos fueron diseñados para mostrar efectos visuales atractivos. Los modelos incluyeron alimentos saludables y opciones de bebidas para ilustrar sus beneficios y efectos en la salud. Implementación en Unity: Los modelos y prototipos fueron integrados en Unity, utilizando tecnología de realidad aumentada (RA) para superponer elementos educativos en el entorno real del usuario. Se desarrollaron funcionalidades interactivas que permitieron a los usuarios usar sus camaras para identificar las partes del plato y los niveles de la jarra, y observar los resultados de sus elecciones en tiempo real. Pruebas y Evaluación: Se llevaron a cabo pruebas piloto con grupos de niños para evaluar la usabilidad, el interés y la efectividad educativa de la aplicación. Se recopilaron datos a través de encuestas, cuestionarios de conocimiento y observaciones directas, para realizar ajustes y mejorar la aplicación en base a la retroalimentación recibida.


CONCLUSIONES

Durante esta estancia de verano, se logró adquirir un conocimiento integral sobre nutrición y hidratación y se implementó este conocimiento en el desarrollo de una aplicación educativa innovadora con realidad aumentada. La aplicación ha sido completada con éxito y está ahora disponible para su uso. La versión final de la aplicación proporciona a los niños una comprensión clara y motivadora sobre el "Plato del Buen Comer" y la "Jarra del Buen Beber". Esta herramienta innovadora promueve hábitos alimenticios y de hidratación saludables, contribuyendo significativamente al bienestar general de los jóvenes usuarios.
Martinez Cerino Paola Yosabeth, Instituto Tecnológico de Pachuca
Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE PROTOTIPOS: HORNO DE VITROFUSIóN, EXPRIMIDOR DE PIñAS Y EXTRUSOR DE FILAMENTO


DESARROLLO DE PROTOTIPOS: HORNO DE VITROFUSIóN, EXPRIMIDOR DE PIñAS Y EXTRUSOR DE FILAMENTO

Carlos Patricio Isaac Emmanuel, Universidad Autónoma de Ciudad Juárez. Chab Contreras Diana Elizabeth, Universidad Autónoma de Yucatán. Espinoza Franco Sofia, Universidad Autónoma de Ciudad Juárez. Haro Bustamante Ana Laura, Universidad de Guadalajara. Leon Cancino Jesus Eduardo, Instituto Tecnológico de Tuxtla Gutiérrez. Martinez Cerino Paola Yosabeth, Instituto Tecnológico de Pachuca. Rodríguez Hernández Evelyn, Universidad de Guadalajara. Suriano Natarén Amairany, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La innovación tecnológica en el desarrollo de dispositivos industriales es fundamental para mejorar la eficiencia y calidad de los procesos productivos. Sin embargo, en muchas industrias, la adopción de tecnologías avanzadas se ve limitada por la falta de herramientas adecuadas que respondan a necesidades específicas de producción. En particular, se observa una carencia de soluciones efectivas en el ámbito de la vitrofusión, el procesamiento de frutas (como la extracción de jugo de piñas), y la fabricación de filamentos para impresión 3D. Cada prototipo presenta desafíos específicos en términos de diseño, integración de componentes electrónicos y optimización de funcionalidad. Este trabajo se centra en la cotización de materiales, diseño detallado, pruebas de componentes, programación y armado, con el objetivo de producir prototipos eficientes y funcionales



METODOLOGÍA

El desarrollo del primer prototipo de un horno de vitrofusión incluyó el diseño de una estructura con apertura en el plano (X, Z). La cápsula metálica, sin considerar la altura de las patas y tomando en cuenta la tapa superior e inferior, tiene dimensiones de 140 cm x 90 cm x 60 cm, y permite un rango de temperatura operativa de 80°C a 1300°C. Definieron las especificaciones técnicas, se elaboraron los planos correspondientes en el software SolidWorks. Con estos planos y especificaciones técnicas, se procedió a la cotización y adquisición de los materiales necesarios. Con los materiales, se realizaron pruebas exhaustivas de los componentes electrónicos para asegurar su funcionalidad y compatibilidad con el diseño del horno, estos componentes fueron integrados en la estructura del horno. Finalmente, se procedió al ensamblaje de la estructura del horno, utilizando principalmente soldadura y herramientas de medición, corte y esmeril. El segundo prototipo desarrollado es un exprimidor de piñas, el cual genera jugo por presión mecánica entre la base y un mazo fijado al techo de su soporte del exprimidor. La estructura esta diseñada para acomodar diversos tamaños de fruta. El proceso de desarrollo comenzó con el diseño del exprimidor en el software SolidWorks, donde se elaboró un esquema detallado del dispositivo, incluyendo todas las partes mecánicas y su ensamblaje. Este diseño permitió definir claramente las especificaciones y requerimientos técnicos. Una vez completado el diseño con los materiales disponibles, se realizaron pruebas para asegurar la operatividad, a diferencia de sistemas automatizados, este prototipo utiliza una manivela que permite a una persona ejercer la fuerza necesaria para operar el gato hidráulico. Finalmente, se armó la estructura del exprimidor utilizando técnicas de ensamblaje como soldadura y herramientas de precisión. El desarrollo del tercer prototipo, un extrusor de filamento, consiste en un motor que impulsa un husillo conectado a una tolva que transporta los restos del material de las impresoras 3D como PLA hacia un tubo caliente para fusionar los restos y por medio de una boquilla obtener filamento de un diámetro específico. El prototipo se diseñó en SolidWorks, los componentes que necesitamos fueron integrados en el diseño, seguido por el armado de su estructura y ensamblando todas las piezas, por último, se llevaron a cabo pruebas generales para verificar el correcto funcionamiento.


CONCLUSIONES

Se logró diseñar y desarrollar tres prototipos, enfrentando y superando diversos desafíos técnicos como la identificación de los materiales adecuados para cada prototipo, técnicas de soldadura, corte, desbaste y golpe, así como la implementación de los componentes electrónicos para el horno y el extrusor de filamento. Los resultados obtenidos indican que el prototipo del horno de vitrofusión cuenta con una estructura más grande a comparación de los hornos caseros, el sistema de aislamiento es funcional e innovador y el circuito electrónico es eficiente al controlar la temperatura. Asimismo, el exprimidor de piñas cuenta con una estructura que funciona manualmente y el extrusor de filamento fue adaptado para el uso y manejo del laboratorio. Los tres prototipos cuentan con potencial para mejoras futuras, una vez completados y refinados, estos dispositivos contribuyan significativamente a sus respectivas áreas de aplicación y abran la puerta a futuras investigaciones.
Martínez Cervantes Luis Fernando, Tecnológico de Antioquia Institución Universitaria
Asesor: Dra. Daniela Alejandra Moctezuma Ochoa, Centro de Investigación en Ciencias de Información Geoespacial, A.C. (CONACYT)

ENTENDIMIENTO Y APLICACIÓN DE UN MODELO DE PROCESAMIENTO DE LENGUAJE NATURAL


ENTENDIMIENTO Y APLICACIÓN DE UN MODELO DE PROCESAMIENTO DE LENGUAJE NATURAL

Martínez Cervantes Luis Fernando, Tecnológico de Antioquia Institución Universitaria. Asesor: Dra. Daniela Alejandra Moctezuma Ochoa, Centro de Investigación en Ciencias de Información Geoespacial, A.C. (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Desde sus inicios, la tecnología ha tenido la intención tanto de reducir la carga laboral, automatizar procesos e imitar el comportamiento humano. En los últimos años, la tecnología ha permitido acelerar el proceso de entendimiento humano gracias a la inteligencia artificial. El presente proyecto de investigación tiene como objeto entender en que consiste la inteligencia artificial enfocada en identificar sentimientos humanos para la detección de depresión en redes sociales.



METODOLOGÍA

Se inició proporcionando una comprensión integral de los conceptos básicos del Procesamiento de Lenguaje Natural (PLN). Esto incluyó una introducción a las herramientas específicas, así como a las bibliotecas y paquetes necesarios para llevar a cabo la implementación de un modelo de clasificación. Además, se explicó en detalle cómo funcionan estos elementos en conjunto para procesar y analizar el lenguaje natural. Una vez que se establecieron y comprendieron estos conceptos fundamentales, el siguiente paso fue experimentar con diversas herramientas y métodos de uso. Se utilizó Visual Studio y Anaconda como entornos principales para el desarrollo. Durante esta fase, se realizaron pruebas exhaustivas para evaluar la comodidad y compatibilidad de estas herramientas con los requisitos del proyecto. Se consideraron factores como la facilidad de uso, la integración con otros componentes del sistema y el soporte para bibliotecas específicas de PLN. Estas pruebas permitieron identificar las mejores prácticas y ajustar el entorno de desarrollo para optimizar el rendimiento y la eficiencia del modelo de clasificación. Como resultado, se logró una configuración de trabajo que no solo era compatible con las necesidades del proyecto, sino que también facilitaba un flujo de trabajo más eficiente y productivo.


CONCLUSIONES

Una herramienta de clasificación y análisis puede ser muy útil a la hora de entender qué opina la gente respecto a un tema o concepto específico. En este caso fue empleado para análisis de reviews de compras y salud mental, pero puede fácilmente emplearse, por ejemplo, en el entendimiento de lo que opina el público sobre un producto o servicio en las redes sociales.
Martínez Cruces Fernanda Zurysadai, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Everardo Mares Mares, Instituto Tecnológico Superior de Guanajuato

INNOVACIóN Y DESARROLLO DE TOTOPOS SALUDABLES A BASE DE LA DIETA DE MILPA LIBRE DE GRASAS SATURADAS-TRANS


INNOVACIóN Y DESARROLLO DE TOTOPOS SALUDABLES A BASE DE LA DIETA DE MILPA LIBRE DE GRASAS SATURADAS-TRANS

Martínez Cruces Fernanda Zurysadai, Instituto Tecnológico Superior de Guanajuato. Porras Delgado Mariana, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Everardo Mares Mares, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Hay informes que reportan que en México de 1990 a 1998, disminuyo significativamente el consumo de frutas y verduras en un 23.33% y por contraparte, aumento la ingesta de bebidas azucaradas y alimentos procesados hipercalóricos en un 37.21% por otro lado debido al aumento del índice de obesidad, desnutrición e hipertensión en la población mexicana de acuerdo con la Encuesta Nacional de Salud y Nutrición en 2016 (ENSANUT) [1]. Se requieren del desarrollo e incorporación de nuevas alternativas alimentarias en la dieta de la población mexicana como el modelo de la dieta de la milpa que nos provee la facilidad de regular la alimentación con un balance de macronutrientes en alimentos como la calabaza, el maíz, el chile y el frijol. La dieta de la milpa es un modelo de alimentación tradicional, sustentable, accesible, asequible, saludable y culturalmente pertinente, desarrollado y presentado por la secretaria de salud de México ya que rescata conocimientos culinarios y nutricionales cuyos alimentos principales son el frijol, el maíz, la calabaza y el chile;  la milpa juega un papel muy importante en la atención tradicional, es un método de cultivo más sensato, pertinente y productivo, debido a su amigabilidad con el medio ambiente permitiendo seguridad alimentaria para la población que mejora el equilibrio de ácidos grasos antiinflamatorios, lo cual es importante para disminuir el riesgo de las enfermedades crónicas no transmisibles que representan una problemática nacional. Por eso se proponen desarrollar un totopo con base en los ingredientes de la milpa y que, por su naturaleza en el procesamiento de freído, contenga una reducción y/o eliminación de ácidos grasos saturados y trans para cumplir con estricto apego a la nueva ley de grasas saturadas y trans, que establece Diario Oficial de la Federación que publicó la aprobación del pleno de la Cámara de Diputados sobre el artículo 216 Bis a la Ley General de Salud[2].Pero también basándonos en la NOM-187-SSA1/SCFI-2002, para determinar el proceso y métodos de prueba garantizando un alimento saludable, balanceado, legal e inocuo



METODOLOGÍA

Esta investigación adopta un enfoque cuantitativo y analítico, ya que se investigarán los métodos para la elaboración del totopo que sean más convenientes, apegándonos a los lineamientos de contenido de grasas trans y saturadas, la cual nos indica que para el caso de los totopos deben tener un porcentaje de 90% de maíz nixtamalizado y el otro 10% de ingredientes opcionales. Siendo estos puntos las bases para partir de la investigación. Se realizaron varias pruebas de tiempo de freído a distintas temperaturas:  Prueba 1: 160°C a 40 minutos textura crocante pero color desfavorable. Prueba 2: 120°C a 30 minutos se aplico el uso de aceite en spray lo cual dio un color mucho mas llamativo y una textura mas buena en cuanto al tostado. Prueba 3: 95°C a 40 minutos. Esta prueba nos dio un color y textura muy palidos dando como referencia a que estaban crudos.  Prueba 4: Se hizo un cambio en la formulación con el objetivo de tener un sabor uniforme del chile en todo el producto dado que sobresalia en unas partes pero no en todo el producto, se intento realizando una molienda del frijol, chile y calabaza y integrandolos a la harina del maíz, sin embargo no fue el resultado que esperabamos, debido a que se perdieron todos los sabores de los demas ingredientes. Por lo que se descarto esta prueba. Prueba 5: Se realizo uma molienda unicamente del chile y integrandolo a la masa con los demas ingredientes, esto fue lo que hizo el sabor del picante mas uniforme. Prueba 6: 150°C a 40 minutos: Esta prueba dio como resultado un totopo mas llamativo en el color pero un tostado mas duro. Prueba 7: 180°C a 30 minutos: Esta prueba dio como resultado un totopo mas crocante sin ser tan duro y un color llamativo. Técnicas por utilizar: se hizo una evaluación sensorial con 10 jueces no entrenados para valorar color, olor, sabor, textura (crujiente) y aceptación general de los totopos.  Se realizo el PDCAAS que es una prueba que realizamos con el fin de conocer la utilización de los AA digeribles del producto para comprovar que realmente es sano y le sacamos el mayor provecho nutrimentalmente hablando. 


CONCLUSIONES

Utilizando un diseño de experimentos completamente al azar con un nivel de confianza del 95% se determino que a mayor temperatura pero a tiempo medio tiene un efecto significativo en el color, sabor, textura y aroma de los totopos. Por lo que podemos concluir que la formula 7 con mayor temperatura pero con un tiempo de hormeado no tan largo ejerce un efecto de interaccion sobre la variable de respuesta en el efecto del color, sabor, textura y aroma de los totopos. 
Martinez Dolores Bryan, Universidad Politécnica de Atlacomulco
Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez

PROYECTO DE ROBóTICA PARA LA ENSEñANZA DE LA PROGRAMACIóN Y LA PRESERVACIóN DE LAS LENGUAS AUTóCTONAS


PROYECTO DE ROBóTICA PARA LA ENSEñANZA DE LA PROGRAMACIóN Y LA PRESERVACIóN DE LAS LENGUAS AUTóCTONAS

Crespo Sanchez Aura Susana, Instituto Tecnológico de San Luis Potosí. Martinez Dolores Bryan, Universidad Politécnica de Atlacomulco. Romualdo González Veronica, Universidad Politécnica de Atlacomulco. Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

La programación es una de las habilidades más demandadas actualmente, siendo esencial en múltiples campos profesionales y educativos. A medida que la tecnología avanza, la necesidad de trabajadores con competencias en programación no deja de crecer. Por lo tanto, existen diversas plataformas diseñadas para la enseñanza de la programación, las cuales varían en su enfoque dependiendo del nivel de conocimiento de sus usuarios, ya sean novatos o expertos. Para los novatos, especialmente niños y adolescentes, es importante contar con métodos de enseñanza que sean atractivos y accesibles. Plataformas como code.org utilizan estrategias de "drag and drop" (arrastrar y soltar) para facilitar el aprendizaje, mientras que para los más avanzados se emplean ejercicios complejos y específicos. Scratch, por ejemplo, es una de las herramientas más populares para la enseñanza introductoria de la programación debido a su enfoque visual y amigable.  Sin embargo, a pesar de la disponibilidad de estas plataformas, existe una problemática significativa en el método de enseñanza de la tecnología y la programación a niños, especialmente en el contexto de fomentar el interés en la tecnología y la ingeniería. La falta de enfoques educativos que integren la robótica y la programación de una manera que también preserve y promueva las lenguas autóctonas es un desafío que debe ser abordado.



METODOLOGÍA

Al inicio, se planteó la idea y el diseño del proyecto, que consiste en una estructura de base con un pilar en el cual se colocan bloques con instrucciones, que se reciben en el robot y este las ejecuta según el orden en que se colocaron los bloques. Se realizan de una a dos reuniones por semana para demostrar avances, corregir errores o hacer pruebas de funcionamiento. Durante las primeras semanas, se realizó una investigación profunda sobre los sensores y materiales que se utilizaron en el proyecto. Para comprender el funcionamiento de los sensores, se llevaron a cabo pruebas de funcionamiento y se comenzó con la conexión del hardware utilizando Arduinos para la conexión de cajas que se detectan usando sensores infrarrojos. Estas señales se transmiten mediante módulos Bluetooth, juntados en un arreglo que recibe el Arduino base. Se ensambló el brazo robótico Dofbot de Yahboom y se logró la conexión Bluetooth del Arduino principal con la Raspberry Pi. Para finales del primer mes, se iniciaron las pruebas de comunicación entre Arduinos y la investigación e instalación de las librerías necesarias para la conexión con la Raspberry Pi para mover el brazo robótico. Se codificaron los programas necesarios para ejecutar los movimientos del brazo una vez recibida la instrucción del bloque. También se desarrollaron códigos para la detección de colores a través de una imagen, utilizando la cámara del robot para detectar cubos de colores, los cuales tienen una instrucción predeterminada. De esta manera, el robot los detecta y se mueve según el orden en que se colocaron. Una vez que los Arduinos se comunicaban entre sí y enviaban las instrucciones al Arduino principal, se iniciaron las pruebas para asegurar una conexión correcta y que el brazo ejecutara las instrucciones enviadas. Se diseñó el estilo de la caja que contiene los bloques utilizados en el proyecto y se mandaron a imprimir en 3D. Se redactó la documentación del desarrollo del proyecto y los manuales de usuario necesarios para su uso, con o sin capacitación, además de pequeñas actividades para el aprendizaje de programación básica para los niños y niñas que lo utilicen.


CONCLUSIONES

Durante la estancia de verano, se lograron adquirir conocimientos teóricos de robótica, electrónica y programación, y ponerlos en práctica al desarrollar el proyecto movilizando el brazo robótico mediante bloques con sensores. Además, se diseñó una manera práctica de enseñar y aprender programación básica. Se espera que el proyecto fomente el interés por la programación y la ingeniería en niños y niñas desde una edad temprana.
Martinez Flores Gabriela Lisette, Instituto Tecnológico de Tepic
Asesor: Mtro. Victor Manuel Mata Prado, Instituto Tecnológico de Tepic

ANáLISIS ESTADíSTICOS DE TRAYECTORIA ACADéMICA POR SEMESTRE: ESTUDIO CORRELACIONAL UTILIZANDO HERRAMIENTAS EN LA NUBE


ANáLISIS ESTADíSTICOS DE TRAYECTORIA ACADéMICA POR SEMESTRE: ESTUDIO CORRELACIONAL UTILIZANDO HERRAMIENTAS EN LA NUBE

Martinez Flores Gabriela Lisette, Instituto Tecnológico de Tepic. Asesor: Mtro. Victor Manuel Mata Prado, Instituto Tecnológico de Tepic



PLANTEAMIENTO DEL PROBLEMA

La trayectoria de un estudiante se mide a través de su avance registrado en documentos oficiales que evidencian el desarrollo de competencias. Los alumnos cursan diversas asignaturas organizadas en periodos académicos para completar su formación. La matriz de trayectoria escolar mide su avance por créditos y estado de evaluación. Analizar la dificultad para aprobar el segundo semestre es crucial para identificar desafíos específicos. Investigaciones indican que ciertos periodos son más difíciles por la complejidad del contenido. Identificar las razones detrás de la baja tasa de aprobación ayuda a implementar estrategias de apoyo. Tinto (1993) sugiere que la integración académica y social es crucial para la persistencia y éxito de los estudiantes. Yorgancı y Yorganci (2017) destacan la importancia de los primeros años universitarios para el éxito a largo plazo, señalando que establecer hábitos de estudio efectivos y desarrollar habilidades académicas en los primeros semestres es clave para el éxito.



METODOLOGÍA

  El estudio se realizó con un enfoque cuantitativo para analizar las correlaciones entre evaluaciones de materias numéricas en Ingeniería Industrial. Se recopilaron datos de calificaciones de estudiantes de bases académicas, garantizando anonimato. Se usaron tablas dinámicas para organizar y analizar datos, comparando calificaciones por semestre y materia para identificar patrones.  Hipótesis: - Ho: No hay diferencia significativa en la tasa de aprobación entre el segundo semestre y los demás. - H1: La tasa de aprobación del segundo semestre es significativamente menor. Se utilizó el coeficiente de correlación de Pearson para medir la fuerza y dirección de relaciones entre evaluaciones. Los análisis de correlación se presentaron en mapas de calor, mostrando visualmente las correlaciones.  Hipótesis adicionales: - Ho: Cursar dos asignaturas de competencia general matemática tiene correlación positiva con el desempeño global del semestre. - H1: Cursar dos asignaturas de competencia general matemática tiene correlación negativa con el desempeño global del semestre. Tres análisis de correlación con diferentes combinaciones aseguraron la validez y consistencia de los resultados.


CONCLUSIONES

Los resultados de los análisis de correlación se interpretaron para identificar qué materias numéricas influyen significativamente en otras. Esta interpretación se basó en la magnitud y dirección de las correlaciones y la consistencia de los patrones observados. **Comparativa Global:** 1. **Evaluaciones 7 y 8:**    - Consistencia: Correlación positiva moderada a fuerte en todas las tablas.    - Interpretación: Desempeño en una es buen predictor del desempeño en la otra. 2. **Evaluaciones 13, 14 y 15:**    - Consistencia: Correlaciones positivas en todas las tablas.    - Interpretación: Estudiantes que se desempeñan bien en una tienden a hacerlo en las otras dos. 3. **Evaluación 19:**    - Variación: Correlaciones negativas con Evaluación 26 en una tabla y con Evaluaciones 20 y 29 en otras.    - Interpretación: Relaciones inversas indican posibles diferencias en el enfoque o dificultad de la materia. 4. **Evaluaciones 26, 27 y 29:**    - Consistencia: Correlaciones positivas fuertes en todas las tablas.    - Interpretación: Desempeño en una correlaciona con buen desempeño en las otras dos. 5. **Evaluaciones 33 y 34:**    - Consistencia: Correlación positiva fuerte en todas las tablas.    - Interpretación: Materias estrechamente relacionadas en desempeño estudiantil. **Conclusiones:** El análisis de correlaciones revela patrones consistentes útiles para mejorar la planificación curricular y estrategias pedagógicas. Las correlaciones positivas fuertes sugieren que reforzar una materia puede mejorar el rendimiento en otras correlacionadas. Las variaciones en la Evaluación 19 indican la necesidad de investigar más sobre las diferencias en enfoque o dificultad de estas materias.
Martínez Floriano Pablo César, Instituto Tecnológico Superior de Xalapa
Asesor: M.C. Rosalía Daza Merino, Instituto Tecnológico Superior de Xalapa

ESTUDIO DEL TRABAJO PARA LA ELABORACIóN DE CARTóN Y HOJAS A PARTIR DE MATERIALES BIODEGRADABLES Y RESIDUOS FORESTALES.


ESTUDIO DEL TRABAJO PARA LA ELABORACIóN DE CARTóN Y HOJAS A PARTIR DE MATERIALES BIODEGRADABLES Y RESIDUOS FORESTALES.

Martínez Floriano Pablo César, Instituto Tecnológico Superior de Xalapa. Asesor: M.C. Rosalía Daza Merino, Instituto Tecnológico Superior de Xalapa



PLANTEAMIENTO DEL PROBLEMA

Definición del Objetivo del Proyecto Objetivo General: Desarrollar un proceso eficiente y sostenible para la producción de cartón y hojas utilizando materiales biodegradables y residuos forestales. Objetivos Específicos: Identificar y evaluar materiales biodegradables y residuos forestales disponibles. Diseñar un proceso de producción eficiente y ecológico. Hacer probar del proceso propuesto.   Justificación del Proyecto Ecológica: Reducir el impacto ambiental mediante el uso de materiales sostenibles y la reducción de residuos. Económica: Generar un producto competitivo en el mercado, aprovechando materiales de bajo costo. Social: Crear empleos y fomentar prácticas sostenibles en la comunidad.   Alcance del Proyecto Fase de Investigación: Análisis de materiales biodegradables y residuos forestales. Fase de Diseño: Desarrollo de un prototipo de proceso de producción. Fase de Implementación: Construcción y operación de una prueba piloto. Fase de Evaluación: Análisis de resultados y ajustes necesarios.   Recursos Necesarios Humanos: Ingenieros industriales. Materiales: Maquinaria para la producción de papel y cartón, materiales biodegradables y residuos forestales. Financieros: Presupuesto para investigación, desarrollo de prototipos, construcción de la planta piloto y evaluación.  



METODOLOGÍA

Investigación Documental: Información teórica y práctica sobre la utilización de materiales biodegradables y residuos forestales en la producción de papel y cartón. Desarrollar un proceso eficiente y sostenible para producir cartón y hojas utilizando materiales biodegradables y residuos forestales. Investigar artículos científicos, estudios de caso, y proyectos similares.  Identificar tipos de materiales biodegradables y residuos forestales que pueden ser utilizados. Muestreo de Materiales: Recoger muestras de residuos forestales y materiales biodegradables. Caracterización de Materiales: Análisis de las propiedades físicas y químicas de las muestras (por ejemplo, resistencia, biodegradabilidad).


CONCLUSIONES

Como resultado, se concluye que las condiciones óptimas y reproducibles para obtener pulpa de celulosa de Agave salmiana mediante pulpeo alcalino fueron: [NaOH] 12%; 24 horas; [Na2CO3] 2.5% y [Na2SO4] 0.2%. En contraste para el pulpeo ácido las condiciones óptimas fueron: H2O 60%; 6 horas; [CH3COOH] 80% y [HCl] 0.5%. Sobre la base del análisis de respuesta "mayor rendimiento mejor" en el ANOVA, se encontró que para el pulpeo alcalino, el factor que tiene mayor incidencia en el proceso es el tiempo, y el factor que tiene menor incidencia es [Na2CO3]; por otro lado, para el pulpeo ácido el factor que tiene la mayor contribución es [CH3COOH] y el de menor incidencia es la velocidad de agitación. En los experimentos confirmatorios de pulpeo alcalino se obtuvo un rendimiento de 39.69% de pulpa de celulosa de Agave salmiana, mientras que para pulpeo Organosolv se obtuvo un rendimiento de 71.57%. La pulpa de celulosa obtenida presentó un aumento del porcentaje de celulosa del 73,28% al 99,28%. Las mejores condiciones de tiempo y ralción ácido/celulosa para la obtencion de NCC fueron 45 minutos y 10 mL/g, purificadas a través del lavado mediante dialisis, que produjeron nanocristales con dimensiones de 4,69 nm de espesor y 300,90 nm de longitud, con un rendimiento de 7,94% y una cristalidad del 82,26% tiempos menores de hidólisis ( 15 y 30 mintuos) o lograron obtener nanocristales; mientras que tiempos mayores a 60 minutos, lograron obtener NCC pero con rencimientos bajos (4,26%).
Martinez Garcia Carla Sherlyn, Instituto Tecnológico de Pachuca
Asesor: Dr. Edgardo Jonathan Suarez Dominguez, Universidad Autónoma de Tamaulipas

MORFOLOGíA DE AGLOMERADOS DE ASFALTENO


MORFOLOGíA DE AGLOMERADOS DE ASFALTENO

Martinez Garcia Carla Sherlyn, Instituto Tecnológico de Pachuca. Asesor: Dr. Edgardo Jonathan Suarez Dominguez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

El petróleo crudo es una mezcla compleja de diferentes tipos de hidrocarburos que es inmiscible en agua, y que bajo los efectos de la agitación forma una emulsión con baja estabilidad, y el sistema tiende a una separación total de ambas fases en el estado de equilibrio y en ausencia de la aplicación de trabajo sobre el sistema. La morfología de los aglomerados de asfalteno (petróleo) es un tema de gran importancia en la industria petroquímica debido al impacto en la producción, transporte y procesamiento del crudo. Los aglomerados pueden llegar a causar obstrucciones en tuberías lo que resulta en grandes pérdidas económicas.Es necesario desarrollar una revisión de la situación que tiene la técnica de evaluación de asfaltenos debido de la necesidad durante el transporte de crudo extrapesado del uso de aditivos para mejorar las propiedades reológicas. Caracterización y morfología de aglomerados La caracterización de aglomerados de asfalteno ha avanzado considerablemente mediante el uso de técnicas como son microscopia y espectroscopía. Recientes estudios demuestran que los asfaltenos forman estructuras dependiendo de las condiciones a las que se encuentra como la temperatura, presión y composición del solvente.  Los asfaltenos son una fracción compleja del petróleo crudo, compuesta principalmente por moléculas policíclicas aromáticas con grupos funcionales heteroatómicos como azufre, oxígeno y nitrógeno. Estas moléculas tienen una alta tendencia a asociarse debido a interacciones π-π y fuerzas de Van der Waals, lo que conduce a la formación de aglomerados. La precipitación de asfaltenos puede ser inducida por cambios en las condiciones termodinámicas del crudo, tales como disminuciones en la presión y la temperatura, o por la mezcla con solventes ligeros. La morfología de aglomerados de asfalteno inicia con la asociación de moléculas individuales de asfalteno, esto debido a las interacciones π-π y fuerzas de Van der Waals. Las interacciones inducen la formación de nanoagregados, estos son un producto nanotecnológico de gran importancia, contienen nanopartículas de un tamaño inferior a los 100 nanómetros al menos en una de sus dimensiones, estos nanoagregados pueden evolucionar a estructuras más complejas, como esféricas o elipsoidales. Efecto de sus parámetros físicos y químicos La presencia de resinas puede estabilizar los nanoagregados, evitando su crecimiento excesivo. Las resinas actúan como dispersantes naturales, modulando la interacción entre moléculas de asfalteno y previniendo su precipitación. Además, la temperatura y la presión también juegan un papel importante. A temperaturas elevadas, la solubilidad de asfaltenos aumenta, reduciendo la tendencia a formar grandes aglomerados. Sin embargo, a temperaturas bajas, la disminución de solubilidad puede llevar a una aglomeración rápida precipitación. La presión puede afectar la densidad del crudo y la distribución de fases, influenciando la morfología de aglomerados.



METODOLOGÍA

Esta investigación consistió en una revisión de los diversos documentos actuales con las técnicas especializadas de evaluación de estabilidad de crudo. La táctica común es el uso de aditivos químicos como dispersantes. Estos aditivos reducen la viscosidad del crudo y altera las interacciones entre las moléculas del asfalteno, esto ayuda a mantener la dispersión uniforme de aglomerados. 


CONCLUSIONES

La morfología de aglomerados de asfaltenos es de suma importancia para la optimización de producción y transporte de petróleo crudo. A través del uso de técnicas de caracterización se ha logrado comprender sus estructuras y comportamientos de los aglomerados de asfaltenos bajo condiciones físicas y químicas. La presencia de resinas, la temperatura, y la presión son factores importantes en la formación y estabilidad de los aglomerados. La combinación de diversos enfoques experimentales derivado de la complejidad de la composición del petróleo y las diferencias entre los diversos yacimientos y pozos del país hacen necesaria una investigación a la medida con estrategias teórico-experimentales interdisciplinares.
Martínez Gómez Christhopher Damian, Instituto Tecnológico de Piedras Negras
Asesor: Mg. Raul Antonio Ortega López, Instituto Tecnológico Metropolitano

DISEñO DE DISPOSITIVO DE METROLOGíA AMBIENTAL DE BAJO COSTO PARA EL MONITOREO DE LA CALIDAD DE AGUA Y AIRE : CASO DE ESTUDIO EN PIEDRAS NEGRAS Y MEDELLíN


DISEñO DE DISPOSITIVO DE METROLOGíA AMBIENTAL DE BAJO COSTO PARA EL MONITOREO DE LA CALIDAD DE AGUA Y AIRE : CASO DE ESTUDIO EN PIEDRAS NEGRAS Y MEDELLíN

Martínez Gómez Christhopher Damian, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Raul Antonio Ortega López, Instituto Tecnológico Metropolitano



PLANTEAMIENTO DEL PROBLEMA

En algunas comunidades como Piedras Negras, Coahuila y Medellín, Antioquia, el acceso a herramientas precisas y accesibles para el monitoreo de la calidad del agua es limitado. La carencia de dispositivos de metrología ambiental de bajo costo y eficientes dificulta la identificación de problemas de contaminación y la adopción de medidas de prevención, lo que a su vez afecta en la salud pública y la sostenibilidad de los recursos. El monitoreo de la calidad del agua es trascendental para garantizar potabilidad y calidad de los cuerpos de agua, ya que estos parámetros impactan en la vida cotidiana y el bienestar de las comunidades. Distintos parámetros clave como pH, turbidez, temperatura y solidos totales disueltos son indicadores esenciales para la evaluación y gestión de la calidad del agua. La falta de datos precisos y accesibles sobre la calidad del agua en estas áreas limita la capacidad de las autoridades y comunidades para tomar decisiones e implementar estrategias de conservación y el uso sostenible del agua.



METODOLOGÍA

El objetivo es comprender las necesidades específicas de las comunidades seleccionadas, que en este caso son Piedras Negras, Coahuila en México y Medellín, Antioquia en Colombia para establecer los parámetros clave para el diseño de un dispositivo. Se realizó una revisión y estudios previos para analizar datos de información en investigaciones existentes sobre la calidad del agua y métodos de monitoreo con tecnologías actuales y sus limitaciones. Para crear el dispositivo funcional de bajo costo y fácil acceso. Primero, se definieron las características técnicas del dispositivo, los sensores necesarios y la tecnología de transmisión de datos. Para luego desarrollar el modelo inicial del dispositivo y su ensamblaje, seleccionando materiales y componentes adecuados. Nuestro siguiente objetivo es evaluar la precisión y fiabilidad del dispositivo en condiciones reales. Se llevarán a cabo pruebas para evaluar la precisión de las mediciones del dispositivo en un entorno, ajustando y calibrando los sensores según lo necesario. Finalmente se evaluará el impacto del proyecto y se realizaran mejoras al dispositivo basado en la retroalimentación recibida. Se medirá el impacto en la gestión de la calidad del agua y a conciencia comunitaria. Se identificarán las áreas de mejora y se evaluara la posibilidad de expandir el proyecto a otras comunidades.


CONCLUSIONES

El proyecto en curso busca resolver la carencia de acceso a la información mediante la creación de un dispositivo de metrología ambienta de bajo costo, al momento se incluye la revisión de estudios previos, las características técnicas, el diseño y ensamblaje del dispositivo. Se espera un avance significativo que mejorara la gestión de la calidad del agua y aumentar la conciencia dentro de las comunidades sobre la importancia de los recursos hídricos. La implementación exitosa de este dispositivo promete proporcionar una solución práctica y económica, empoderando a las comunidades locales y promoviendo el cuidado del agua.
Martínez Gómez Emma Fernanda, Universidad de Guadalajara
Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara

ABSORCIóN DE ROJO DE METILO A TRAVéS DE ESFERAS DE QUITOSANA


ABSORCIóN DE ROJO DE METILO A TRAVéS DE ESFERAS DE QUITOSANA

Martínez Gómez Emma Fernanda, Universidad de Guadalajara. Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Actualmente, la contaminación ambiental se ha convertido en un tema de vital importancia debido a su significativo impacto en la vida cotidiana de los seres humanos. La contaminación del agua es uno de los problemas más evidentes en el ámbito industrial. Día a día, las industrias buscan métodos para purificar sus desechos y reducir su huella ambiental. En sectores como el textil y el alimenticio, se emplean diversos colorantes químicos que resultan difíciles de eliminar de las aguas residuales, ya que están diseñados para ser altamente resistentes, incluso a la degradación microbiana de los tratamientos convencionales. Esto resalta la necesidad de desarrollar nuevas estrategias para la remoción de estos compuestos.       



METODOLOGÍA

n este proyecto se llevó a cabo una investigación cuantitativa, realizando dos pruebas diferentes. Para la síntesis de las esferas de quitosana, siguiendo la bibliografía consultada, se preparó una solución de quitosana al 1.5% en peso, disuelta en ácido acético glacial con una concentración de 2 a 100. Con el apoyo de una bomba de jeringa, se hizo gotear la solución de quitosana en hidróxido de sodio, lavándolas posteriormente hasta alcanzar un pH neutro. En la primera prueba, se utilizaron 100 ml de una solución de colorante a 10 ppm, introduciendo 20 gramos de esferas de quitosana. Se realizaron lecturas mediante espectrofotometría UV cada 10 minutos durante un período de 2 horas para determinar la cinética de absorción de las esferas. En la segunda prueba, se siguió el mismo procedimiento, pero con una concentración inicial de 1 ppm de solución de colorante. Los datos fueron registrados para realizar los análisis pertinentes.


CONCLUSIONES

Los resultados obtenidos en este proyecto indican que las esferas de quitosana son efectivas para absorber el colorante rojo de metilo, identificando que su capacidad máxima de absorción se alcanza en las primeras 2 horas. Aunque el proyecto requiere varias pruebas preliminares y mejoras en las técnicas utilizadas, ha sido una experiencia valiosa que ha proporcionado importantes aprendizajes a lo largo del proceso. Este estudio es de gran relevancia, ya que ha generado resultados positivos
Martínez González Daniela, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Javier D. Hoyos Leyva, Fundación Universitaria Agraria de Colombia

MICROENCAPSULACIóN DE COMPUESTOS BIOACTIVOS


MICROENCAPSULACIóN DE COMPUESTOS BIOACTIVOS

Martínez González Daniela, Tecnológico de Estudios Superiores de San Felipe del Progreso. Sanchez Montserrat Montserrat, Universidad Tecnológica de Tecamachalco. Asesor: Dr. Javier D. Hoyos Leyva, Fundación Universitaria Agraria de Colombia



PLANTEAMIENTO DEL PROBLEMA

Para el diseño de productos funcionales con un alto contenido de compuestos, se ha utilizado la microencapsulación. Este proceso consiste en proteger dichos compuestos y facilitar su consumo, gracias a la fácil manipulación de los mismos, su protección contra condiciones ambientales adversas y una mayor vida útil. Además, permite una liberación controlada y mejora la biodisponibilidad para el cuerpo.Existen diversos métodos de microencapsulación, como la aspersión, que es uno de los más utilizados debido a sus bajos costos y la estabilidad que proporciona al producto final, produciendo polvos de alta calidad con bajo contenido de humedad, y contando con disponibilidad industrial y experimental. Por otro lado, la liofilización es un método que presenta ventajas al no someter los compuestos a altas temperaturas, evitando así la pérdida de compuestos volátiles.El resultado de la microencapsulación son microcápsulas compuestas por un núcleo y un material de pared. La selección del material de pared es fundamental para obtener microcápsulas de calidad, siendo los polímeros como el almidón los más utilizados debido a su presencia en plantas como el trigo, el maíz y el arroz, lo que los hace económicos, ampliamente disponibles, biodegradables y biocompatibles.El objetivo de este trabajo es comparar las eficiencias de encapsulación utilizando almidón de maíz y almidón de aguacate como material de pared para la microencapsulación mediante liofilización. 



METODOLOGÍA

Para llevar a cabo la microencapsulación, se prepararon las muestras mediante un proceso de gelatinización con ambos almidones y ácido ascórbico a una temperatura de 120°C. Posteriormente, se congelaron a -120°C durante dos días y se sometieron a liofilización a 0.004 mbar y -50°C durante 36 horas para el almidón de maíz y 40 horas para el almidón de aguacate.Se realizaron caracterizaciones físico-químicas como eficiencia de encapsulación total y efectiva, cinética de liberación, densidad total y aparente, y morfología de las microcápsulas.


CONCLUSIONES

Los resultados mostraron que el almidón de aguacate presentó una eficiencia total de encapsulación del 16%, en comparación con el almidón de maíz que obtuvo un 2.8%. En cuanto a la eficiencia efectiva, el almidón de aguacate alcanzó un 7.3% y el de maíz un 2.5%. En la cinética de liberación, las microcápsulas con almidón de aguacate presentaron una mayor liberación a los 40 minutos, mientras que las microcápsulas con almidón de maíz alcanzaron la máxima concentración a los 30 minutos. Se observó que el almidón de aguacate presenta una mayor eficiencia debido a su estructura, lo que permite retener una mayor cantidad de compuestos bioactivos. Por otro lado, se concluyó que el método de liofilización tiene una baja eficiencia para microencapsular compuestos en matrices de almidón.
Martínez González Karen Paola, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Everardo Mares Mares, Instituto Tecnológico Superior de Guanajuato

EXTRACCIóN DE LA PROTEíNA DE LA SEMILLA DE YACA (ARTOCARPUS HETEROPHYLLUS LAM.) PARA LA FORMULACIóN DE UN SNACK SALUDABLE.


EXTRACCIóN DE LA PROTEíNA DE LA SEMILLA DE YACA (ARTOCARPUS HETEROPHYLLUS LAM.) PARA LA FORMULACIóN DE UN SNACK SALUDABLE.

Martínez González Karen Paola, Instituto Tecnológico Superior de Guanajuato. Ortega Meza Erika, Instituto Tecnológico Superior de Guanajuato. Ramírez González Moyra Daniela, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Everardo Mares Mares, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Actualmente el 9.4% de las personas de un rango de edades de 14-30 años salen rápido de sus casas sin poder cumplir con su alimentación adecuada, por ende, no adquieren los nutrimentos necesarios para empezar sus actividades cotidianas y uno de estos nutrimentos más importantes es la proteína ya que esta nos brinda la energía necesaria a nuestro cuerpo.  Este producto va dirigido a las personas (14-30 años) que buscan requerimientos proteicos para la obtención de nutrientes.



METODOLOGÍA

Trabajamos principalmente la formulación de la barrita con las harinas que se utilizarían, primero horneamos una barrita de harina avena, cacahuate, huevo y salvado de trigo obteniendo un resultado no favorable ya que esta tenia textura y sabor no agradable.  Para la siguiente barrita utilizamos los siguientes ingredientes: Harina de avena 30 gr Huevo 10 gr. Mantequilla 22 gr Azúcar blanca 10 gr 2 cucharaditas de vainilla. Harina de trigo refinada 20 gr Ate de yaca (bulbos) 10 gr Mermelada de yaca 8 gr  Obteniendo un sabor favorable, textura única y horneado adecuado aun sin agregarle ningún ingrediente de yaca Una vez de obtener la formulación trabajamos en la yaca; pelamos y separamos semillas, bulbos y fibra para luego poner en tratamiento las semillas  por el método de escaldado para quitar las sustancias toxicas que podrían producir daño, para  la fibra y bulbos el pretratamiento fue con agua, 4 gr de ácido cítrico  y  0.5 gr de bisulfito de sodio dejándolo una hora en reposo con el objetivo de que no se oxidara; pasando ese tiempo sacamos y separamos en kilos los bulbos, pasando la fibra, 3 kilos de bulbos y las semillas en charolas para llevar al horno dejándolo todo un día completo. Utilizamos 2 kilos de bulbos moliendo y obteniendo una pulpa pura de yaca que se llevó a refrigeración 24 hrs. Luego de un día completo, la semilla ya seca se molió para la elaboración de una harina de semilla de yaca y se hizo lo mismo con la fibra para también obtener una harina de fibra. Fabricamos una mermelada de la pulpa obtenida de los bulbos con los siguientes ingredientes: 1 kg de pulpa. 250 gr de azúcar. 3 gr de pectina. 25 gr de ácido cítrico. 0. 1 gr de benzoato de sodio. Todo esto a un fuego medio y mezclando hasta la obtención de la mermelada. Se elaboró también un ate de la misma manera y con los mismos ingredientes, pero para este utilizamos un fuego más alto. Finalmente, al tener todos los ingredientes y la formulación adecuada trabajamos en nuestro producto final, mezclando cada uno de los elementos (incluido todos los productos derivados de la yaca) dejando hornear por 30 minutos.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre el tratamiento de frutas y ponerlos en práctica para la extracción de proteína de semilla de yaca para la obtención de un snack saludable, además de formular distintas barritas hasta encontrar la adecuada en sabor, textura y horneado, a pesar de ser un trabajo extenso, logramos obtener nuestro producto listo para llevarlo al innovatec siendo nutritivo, económico y de buen sabor.
Martinez Gordillo Cristian Santiago, Escuela Colombiana de Ingeniería Julio Garavito
Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes

SOFTWARE PARA REHABILITACIóN DE PARáLISIS FACIAL CON VISIóN ARTIFICIAL Y EVALUADO MEDIANTE TéCNICAS DE EYE-TRACKING "RELIF".


SOFTWARE PARA REHABILITACIóN DE PARáLISIS FACIAL CON VISIóN ARTIFICIAL Y EVALUADO MEDIANTE TéCNICAS DE EYE-TRACKING "RELIF".

Martinez Gordillo Cristian Santiago, Escuela Colombiana de Ingeniería Julio Garavito. Morales Galdamez Camila, Instituto Politécnico Nacional. Orenday González Lizbeth Aurora, Instituto Politécnico Nacional. Silva Briseño Blanca Fabiola, Instituto Politécnico Nacional. Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Según el (IMSS 2017), en México existen entre 11 y 53 casos por cada 100,000 personas al año que sufren de parálisis facial. Así mismo, la OMS menciona la alta demanda de fisioterapeutas, ya que, hay 1.06 por cada 10 mil habitantes cuando la recomendación es contar con un especialista por cada mil habitantes (Padilla, 2023). Dado lo anterior el desarrollo de esta versión inicial del software, se busca ayudar a pacientes y apoyar a fisioterapeutas, con la pronta recuperación de los pacientes y, de cierta manera, controlar el seguimiento de las terapias asistidas. Haciendo del conocimiento del primero los ejercicios realizados por el segundo y el tiempo necesario para cada uno, dependiendo el tipo de parálisis padeciente.



METODOLOGÍA

MEXUU Para el desarrollo del proyecto se utilizó la metodología MEXUU que está enfocada en los elementos UDL Y TUD, la cual nuestro proyecto integra algunos elementos claves para el diseño universal para el aprendizaje. Este proceso estuvo definido por 4 etapas principales, descritas a continuación. Análisis: Se definen los requisitos de la aplicación a desarrollar, teniendo en cuenta las características físicas del usuario final. Esto es crucial para identificar qué herramientas y tecnologías se van a integrar en la aplicación y los elementos según el diseño universal para el aprendizaje. En esta primera parte se decidió el proyecto a tratar y los roles de cada integrante en el equipo, se plantearon objetivos tanto generales como específicos y las preguntas de investigación y requerimientos funcionales y no funcionales de la aplicación a desarrollar (RELIF). Pre-producción: En esta etapa se desarrolla la aplicación con los requerimientos definidos en la etapa de análisis, de la misma manera se define la representación basada en UDL. En esta etapa se crearon perfiles de usuario, para así poder diseñar la interfaz teniendo en cuenta estos y dirigirla hacia este tipo de personas en particular, para solucionar la problemática de los perfiles de usuario propuestos. Teniendo en cuenta que la investigación se está desarrollando con metodología experimental, en esta parte se desarrollan posibles hipótesis y/o soluciones que se resuelvan por medio del desarrollo de la aplicación , de la misma manera se incluye la visión artificial en el proyecto como parte fundamental en la rehabilitación del paciente al momento de utilizar la aplicación propuesta, esto con el fin de la detección de los ejercicios por la misma aplicación y validar una terapia exitosa, por esta misma razón en esta etapa se revisa la documentación necesaria con el fin de integrar las mejores tecnologías dentro del proyecto . Producción: Se construye la solución planteada con las herramientas estipuladas anteriormente y se agregan los elementos UDL. En esta parte ya se tiene un diseño no funcional de la aplicación, se empieza el desarrollo inicial en el motor de videojuegos unity. Se utiliza esta tecnología para los objetivos que se plantearon al inicio, como la integración del diseño y funcionalidad del programa. Así mismo tiempo en esta etapa influye una nueva metodología nos basamos en la de EVUSINET (Evaluación del uso de interfaces mediante eye-tracking), esta nos ayudó a realizar las pruebas con las tecnologías de eye-tracking por medio del entorno de Tobii pro nano permitiendo crear diseños experimentales, eventos, áreas de interés, para así generar una interfaz más atractiva visualmente cumpliendo con los requerimientos de la aplicación y mayor funcionalidad al utilizar RELIF.  Simultaneamente se produce el modelo de identificador de emociones por medio de la visión artificial, utilizamos tecnologías como lo son: tensor flow, keras, openCv, todo esto en lenguaje python. El modelo fue entrenado con la base de datos públicas de Kaggle(Fer- 2013), se utilizó la neutral y felicidad para la integración de estas en dos ejercicios de la aplicación diseñada. Post- producción: Etapa final centrada en realizar evaluaciones al software para evaluar criterios de usuario. Se cambiaron aspectos en la tercera y última interfaz, siendo evaluada con el eye tracker tobii pro nano creando tablas de uso deseado, para seleccionar áreas de interés en cada interfaz evaluada y poder sacar índices, se creó una tabla de uso real para ser comparada con la de uso esperado, igualmente observar si se cumplieron los objetivos y las preguntas de investigación establecidas en la etapa de análisis.


CONCLUSIONES

Pasadas las sesiones enfocadas a la investigación y recolección de datos sobre la problemática, se emprendió el desarrollo del software, adquiriendo conocimientos sobre diseño de interfaces UI y UX, analizando su usabilidad mediante eye-tracking. Además de lo anterior, se recolectó basto conocimiento sobre interpretaciones de gráficas arrojadas por la tecnología antes mencionada, logrando una base sólida de conocimiento sobre las necesidades de un interfaz respecto a las experiencias de usuario. De igual forma, para la creación del software se utilizó unity, una herramienta que fue de gran ayuda, sin embargo, para su uso también se tuvo que aprender a usarla, para que el software cumpliera con los requisitos propuestos y su funcionamiento fuera efectivo. el software funcionó de manera adecuada. Adicionalmente a esto se adquieren conocimientos en el campo del deep learning, utilizando redes neuronales convolucionales y como se pueden ajustar a distintos proyectos y la utilidad de estas, dichas tecnología fue de vital importancia para el desarrollo de la aplicación ya que esta sirve para que el software sea utilizado en el área de la rehabilitación en parálisis facial, de acuerdo a los planteamientos iniciales, logrando 3 de 4 objetivos.
Martínez Gutiérrez Agui Judith, Instituto Tecnológico de Morelia
Asesor: Mg. Carolina Herrera Solera, Universidad del Sinú

RETOS DE LA INTELIGENCIA ARTIFICIAL Y LA TRANSFORMACIóN ENERGéTICA EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA INDUSTRIA MANUFACTURERA EN LA CIUDAD DE CARTAGENA - COLOMBIA


RETOS DE LA INTELIGENCIA ARTIFICIAL Y LA TRANSFORMACIóN ENERGéTICA EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA INDUSTRIA MANUFACTURERA EN LA CIUDAD DE CARTAGENA - COLOMBIA

Equihua Cervantes Jovany Alexander, Instituto Tecnológico de Morelia. Martínez Gutiérrez Agui Judith, Instituto Tecnológico de Morelia. Asesor: Mg. Carolina Herrera Solera, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

El proyecto de investigación: Retos de la Inteligencia Artificial y la Transformación Energética en PYMES de la Industria Manufacturera en Cartagena, se enfoca en cómo la inteligencia artificial y la transición energética impactan a las pequeñas y medianas empresas (PYMES) de la industria manufacturera en Cartagena; de igual manera, se busca identificar los retos, amenazas y las oportunidades de estas tecnologías emergentes y cómo buscan mejorar la eficiencia, reducir costos y promover la sostenibilidad en el sector manufacturero local. Entre los principales objetivos está identificar los retos y oportunidades de las PYMES en Cartagena con la integración de la inteligencia artificial; y también se busca evaluar la adopción de energías renovables y proponer estrategias para la transformación digital y energética de las PYMES a nivel local. Para el desarrollo del proyecto de investigación utilizamos una metodología documental, ya que recopilamos y seleccionamos información de diversos documentos, revistas, etc. La mayoría de los datos estadísticos los obtuvimos del Departamento Administrativo Nacional de Estadística (DANE) y de la Cámara de Comercio de Cartagena; aunado a esto y aplicando un enfoque exploratorio-descriptivo, nos permitió comprender la aplicación de estas tecnologías de las PYMES en Cartagena.Además, se dan propuestas de solución ante los desafíos encontrados, implementando inteligencias artificiales que actualmente están en el mercado y que se encuentran en auge.  



METODOLOGÍA

El presente proyecto se enmarca dentro de una investigación de tipo documental, técnica del tipo cualitativo que consiste en recopilar y seleccionar información de lecturas de documentos, revistas, libros, periódicos, artículos y resultados de investigaciones, entre otros. Por otra parte, los datos estadísticos en su mayoría los obtuvimos del Departamento Administrativo Nacional de Estadística (DANE) y en la jurisdicción de la Cámara de Comercio de Cartagena. Se adoptó un enfoque exploratorio-descriptivo para comprender la aplicación de la inteligencia artificial (IA) y la transición energética en las PYMES de la industria manufacturera en Cartagena, Colombia.


CONCLUSIONES

Colombia se caracteriza por la predominancia de micro, pequeñas y medianas, así como grandes empresas (MiPYMES), todas jugando un papel fundamental en la economía. Según un artículo de El Universal (2021), algunas de sus principales amenazas y desafíos son la falta de conocimientos tecnológicos y la resistencia para invertir en la tecnología, lo que reduce su eficiencia y rendimiento. En particular, la industria manufacturera en Cartagena, que ha evolucionado significativamente, constituye una parte considerable de la producción industrial de la región. De acuerdo con El Universal (2021), Cartagena está posicionada como el cuarto centro industrial de Colombia, conocida por su turismo y su puerto, con un fuerte enfoque en la industria petroquímica y plástica y una estructura empresarial dominada por microempresas. A pesar de su importancia, las PYMES en Cartagena enfrentan desafíos significativos, como la alta carga tributaria con una presión fiscal del 25% (Vergara, 2024), la más alta de Colombia, así también la falta de conocimientos tecnológicos. Ante estos desafíos, es crucial considerar la implementación de tecnologías avanzadas como la inteligencia artificial (IA). Es por esto que algunos autores como Duque (2021), Mora & Valencia (2022) y documentos clave del gobierno como el CONPES (3975-2019), la Ley 1753-2015 y el Plan Nacional de Desarrollo 2018-2022 destacan la idea de utilizar IA para aumentar eficiencia en las industrias manufactureras, reducir costos al predecir fallos en maquinaria y optimizar la producción, mejorando tanto el rendimiento económico como el impacto ambiental. La adopción de estas tecnologías puede ser un factor clave para superar las debilidades actuales y aprovechar las oportunidades de crecimiento y desarrollo sostenible en la región. La propuesta de implementar una inteligencia artificial (IA), como el Machine Learning, en las PYMES se enfoca en mejorar la eficiencia. A través de ella, se puede realizar un análisis predictivo para la gestión financiera, como predecir flujos de caja e identificar patrones de gastos. Además, puede predecir fallos en maquinaria antes que ocurran, reduciendo así los tiempos de inactividad, al igual que GE Predix una plataforma industrial desarrollada por General Electric, instalando sensores en la maquinaria y equipos, puede recopilar datos en tiempo real sobre el estado y rendimiento, lo que se traduce en beneficios para las empresas manufactureras, pues reduce costos, optimiza operaciones y mejora la productividad. En cuanto a la atención al cliente, se propone implementar chatbots, como Voiceflow, para reducir la carga sobre el personal de la empresa, ofreciendo soporte continuo y mejorando la experiencia del cliente. Esta tecnología permite automatizar respuestas a consultas frecuentes, agilizando el proceso de servicio y manteniendo altos niveles de satisfacción. Para la gestión de recursos humanos, Workday es una IA que ofrece capacidades avanzadas de análisis predictivo. Esto ayuda a identificar potenciales líderes dentro de la empresa y así diseñar estrategias para la retención de talento.
Martinez Hernandez Jesus Eduardo, Universidad de Guadalajara
Asesor: Ing. Alejandro Amaro Flores, Instituto Tecnológico de Morelia

SISTEMA WEB HíBRIDO PARA GESTIóN DE ENCUESTAS INSTITUCIONALES EN EL INSTITUTO TECNOLóGICO DE MORELIA: CUMPLIMIENTO DE NOM151-SCFI-2016 E ISO/IEC 25010:2011


SISTEMA WEB HíBRIDO PARA GESTIóN DE ENCUESTAS INSTITUCIONALES EN EL INSTITUTO TECNOLóGICO DE MORELIA: CUMPLIMIENTO DE NOM151-SCFI-2016 E ISO/IEC 25010:2011

Coronado Cabrera Bryan Axl, Universidad de Guadalajara. Diaz Angel, Universidad de Guadalajara. Martinez Hernandez Jesus Eduardo, Universidad de Guadalajara. Medina Guerrero Manuel Fernando, Universidad de Guadalajara. Mendoza Garcia Miguel Angel, Universidad de Guadalajara. Quintero Garcia Oliver Israel, Universidad de Guadalajara. Asesor: Ing. Alejandro Amaro Flores, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En el Tecnológico Nacional de México Campus Morelia, la gestión de encuestas dirigidas a los miembros de la institución presenta varios desafíos significativos. Actualmente, las encuestas no están homologadas ni integradas, lo que genera fragmentación y falta de consistencia en la recolección de datos. Algunas encuestas se administran a través del sistema escolar vigente, mientras que otras utilizan plataformas comerciales como Microsoft y Google. Esta diversidad de plataformas dificulta la centralización y el acceso a los resultados para todos los involucrados en los procesos de toma de decisiones. Además, muchas de estas encuestas no se han actualizado en más de una década, aunque las necesidades y circunstancias de la institución evolucionaron mucho en ese tiempo. Esta falta de actualización limita la relevancia y efectividad de las encuestas para abordar las necesidades actuales de estudiantes, docentes y administrativos. En consecuencia, la institución carece de un sistema unificado y moderno que permita una gestión eficiente y un análisis integral de los datos recolectados, afectando la capacidad para tomar decisiones informadas y mejorar continuamente la calidad educativa.



METODOLOGÍA

1. Análisis de Requerimientos Identificación de los requisitos funcionales y no funcionales. Estudio de la base de datos existente para integración con la tabla de usuarios. Determinación de roles y permisos necesarios para el acceso al sistema. 2. Diseño del Sistema · Arquitectura del Sistema: o MVC-Componentes. o Framework Laravel con Livewire. o Base de datos relacional PostgreSQL para la gestión de áreas, roles, permisos, usuarios y encuestas.   · Diseño de la Base de Datos: o Tablas para almacenar encuestas, preguntas, respuestas y resultados. o Integración con la tabla de usuarios existente. Interfaces de Usuario: Formularios para la creación y administración de encuestas. Interfaces para la participación de encuestas por parte de estudiantes, docentes y administrativos. Panel de administración para jefes de área con acceso a resultados y generación de reportes. 3. Desarrollo del Sistema: Desarrollo de formularios dinámicos para la creación de encuestas. Implementación de mecanismos de autenticación y autorización basados en roles. Interfaces amigables para la participación de encuestas. Lógica de negocio para la asignación de encuestas a roles específicos. Generación de reportes en PDF utilizando bibliotecas como DomPDF o jsPDF (JavaScript). 4. Pruebas: Pruebas Unitarias: Verificación de la funcionalidad individual de los componentes del sistema. Pruebas de Integración: Aseguramiento de la correcta interacción entre los componentes del sistema. Pruebas de Usuario: Evaluación de la usabilidad y efectividad del sistema mediante pruebas con usuarios finales. 5. Implementación y Despliegue: Despliegue del sistema en un entorno de producción. Capacitación a los usuarios (jefes de área) para la administración de encuestas y análisis de resultados. 6. Mantenimiento y Actualización: Monitoreo continuo del sistema para identificar y corregir errores. Actualización del sistema con nuevas funcionalidades según las necesidades de los usuarios. Resultados Esperados Sistema web funcional y seguro para la gestión de encuestas en la institución. Mejora en la eficiencia de recolección y análisis de datos. Facilidad para la evaluación individual de docentes y administrativos. Generación de reportes detallados en PDF para la toma de decisiones.


CONCLUSIONES

La implementación de este sistema web proporcionará una herramienta eficiente y robusta para la creación y gestión de encuestas dentro de la institución educativa. Facilitará la recolección de datos, mejorará la toma de decisiones y permitirá una evaluación más detallada de los docentes y administrativos, contribuyendo al desarrollo continuo de la calidad educativa.
Martinez Hernandez Jorge, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Edgar Gonzalo Cossio Franco, Universidad del Valle de Atemajac

DESARROLLO DE SOFTWARE PARA LA VISUALIZACIóN DE BIOMARCADORES COMO APOYO A ENTREVISTAS CLíNICAS REALIZADAS A JóVENES CON TENDENCIAS SUICIDAS


DESARROLLO DE SOFTWARE PARA LA VISUALIZACIóN DE BIOMARCADORES COMO APOYO A ENTREVISTAS CLíNICAS REALIZADAS A JóVENES CON TENDENCIAS SUICIDAS

Betancourt Soto Roberto, Universidad Autónoma de Sinaloa. Duran de la Rosa Ailed Citlalli, Instituto Politécnico Nacional. Martinez Hernandez Jorge, Instituto Tecnológico Superior de Ciudad Hidalgo. Melendez Bustamante Luis Fernando, Instituto Politécnico Nacional. Ramírez Estrada Julio César, Universidad de Guadalajara. Tovar Morales Tania Carolina, Instituto Politécnico Nacional. Asesor: Dr. Edgar Gonzalo Cossio Franco, Universidad del Valle de Atemajac



PLANTEAMIENTO DEL PROBLEMA

La depresión y el suicidio son problemas graves de salud mental que afectan a un número creciente de jóvenes en todo el mundo, según datos de la OMS.  El manejo y tratamiento de la depresión y la prevención del suicidio requieren un enfoque multifacético, que incluya la monitorización y análisis de indicadores biométricos y comportamentales. Sin embargo, existe una falta de herramientas integradas que permitan a los profesionales de la salud mental correlacionar datos biométricos con respuestas emocionales y psicológicas en tiempo real. En respuesta a esta necesidad, nuestro proyecto tiene como objetivo desarrollar un software que interprete los datos de wearables y los relacione con audios de entrevistas a estudiantes con problemas de depresión que han intentado suicidarse. El software generará una base de datos que permitirá a los usuarios observar los cambios en las respuestas biométricas ante preguntas que puedan causar incomodidad. Este análisis proporcionará una visión integral de las interacciones entre las respuestas fisiológicas y emocionales, facilitando la identificación de patrones de riesgo y posibles intervenciones. Durante el periodo de investigación, estudiaremos las respuestas biométricas, tales como la acelerometría, giroscopio, actividad electrodermal (EDA), temperatura, frecuencia cardíaca (BVP) y picos sistólicos, correlacionándolas con las respuestas emocionales extraídas de los audios de las entrevistas. Esto permitirá un análisis predictivo de los trastornos, las formas de actuar de las personas y los cambios físicos del cuerpo, proporcionando una herramienta valiosa para la prevención y el tratamiento de la depresión y el comportamiento suicida en estudiantes.



METODOLOGÍA

Para el desarrollo de nuestro proyecto, seguimos una metodología estructurada basada en la investigación científica, inteligencia artificial aplicada a tendencias suicidas y principios de ingeniería de software. A continuación, se detallan los pasos seguidos: Recolección de Información: Se realizó una revisión exhaustiva de artículos científicos y bases de datos relevantes sobre metodologías de investigación, el método científico, tendencias suicidas y el uso de IA en este contexto. Se recopilaron datos sobre el diseño y desarrollo de software utilizando wearables, así como los aspectos biométricos que estos dispositivos pueden registrar. Diseño de Requerimientos Funcionales: Con base en la información recolectada, se definieron los requerimientos funcionales del software. Se elaboraron distintos tipos de diagramas para la representación de estos requerimientos: de estados, de secuencia, de clases, de casos de uso, de componentes, de nodos, de comunicación y de flujo. Documentación: Se prepararon documentos siguiendo los estándares IEEE 1016 y 830, que incluyen especificaciones de diseño y requisitos del software. Búsqueda y Selección de Herramientas y Librerías: Se investigaron y seleccionaron aplicaciones y librerías que facilitaran la creación de repositorios de código y la conversión de archivos. Para el manejo de datos biométricos, se optó por utilizar librerías de Python que permitan convertir archivos .avro (formato de los wearables) a .csv. Para la transcripción de entrevistas, se seleccionaron herramientas que conviertan archivos de audio .m4a a texto (.txt). Recolección de Datos: Con la colaboración de estudiantes de psicología de la Universidad del Valle de Atemajac (UNIVA), se realizaron entrevistas a estudiantes con problemas de depresión que han intentado suicidarse. Los datos biométricos se obtuvieron mediante el uso de wearables que registran cambios físicos como acelerometría, giroscopio, actividad electrodermal (EDA), temperatura, frecuencia cardíaca (BVP) y picos sistólicos. Desarrollo del Software: Se desarrollaron códigos y scripts en Python para la conversión de los datos recolectados y la creación de un sistema de correlación. Se diseñaron y programaron las estructuras de datos necesarias para almacenar y procesar la información biométrica y las transcripciones de las entrevistas. Se generaron archivos JSON y otros formatos de datos necesarios para el funcionamiento del software. Implementación y Validación: Se implementó el software de correlación que relaciona las respuestas biométricas con las transcripciones de las entrevistas. Se están desarrollando modelos de IA para la predicción del riesgo de suicidio basado en los datos obtenidos, utilizando técnicas avanzadas de análisis predictivo y machine learning. Próximos Pasos: Continuar con el desarrollo del software de predicción utilizando IA. Validar y mejorar los modelos predictivos con más datos y pruebas. Integrar el sistema completo y realizar pruebas exhaustivas para asegurar su precisión y efectividad en la identificación de patrones y riesgos asociados con tendencias suicidas. Con estas investigaciones y desarrollo se dió lugar a los inicios de los artículos para poder plasmar el análisis de este proyecto para futuros estudiantes e investigadores.


CONCLUSIONES

Durante la estancia de verano se logró el estudio y la interpretación en la logística y el desarrollo del software indicado, de factores que se relacionan a respuestas físicas y mentales con algún estímulo externo como son preguntas y/o personas en una entrevista, y de patrones sociales en estudiantes respecto a la forma de actuar ante la depresión, el estrés y la ansiedad con la finalidad de deducir signos de suicidio. Hasta este momento sólo se pueden mostrar las correlaciones físicas en el software de las entrevistas, aún faltan las predicciones respecto a estas pruebas.
Martínez Hernández Juan Carlos, Universidad Autónoma del Estado de México
Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana

ANÁLISIS COMPARATIVO DE MATERIALES PARA LA MEJORA ERGONÓMICA DE UNA PRÓTESIS ROBÓTICA COMERCIAL DE MANO


ANÁLISIS COMPARATIVO DE MATERIALES PARA LA MEJORA ERGONÓMICA DE UNA PRÓTESIS ROBÓTICA COMERCIAL DE MANO

Martínez Hernández Juan Carlos, Universidad Autónoma del Estado de México. Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana



PLANTEAMIENTO DEL PROBLEMA

En México hay cerca de 780 mil personas con amputaciones, de acuerdo con datos del INEGI, más de la mitad de las amputaciones son consecuencia de enfermedades vasculares como la arteriopatía periférica y la diabetes. Las prótesis de cualquier tipo que son fabricadas de forma personalizada empleando diferentes materiales, medidas y tecnologías en México puedes encontrarlas con un costo desde los $14,999 hasta más de $300,000; en la actualidad, las prótesis de mano la mano biónica pesa 700 gramos y tiene el aspecto de un guante que se ajusta al antebrazo. Se requiere que la prótesis siga manteniendo su ergonomía y sea de un bajo costo para los usuarios.



METODOLOGÍA

La metodología que se utilizó fue Scrum.


CONCLUSIONES

En conclusión, se tiene un diseño bastante resistente que pudo pasar las pruebas de sometimiento que se realizaron en 3D y así, pueda durar mucho tiempo, además de tener diferentes opciones para hacer una prótesis de mano conservando el peso que ya tiene o comparándola con otro brazo para que no haya desequilibrio y así poder igualarla, que sea más rápida de poner y quitar y lo más importante es que no se note a simple vista que es una prótesis robótica frente a otras personas.
Martínez Herrera César Augusto, Fundación Universitaria Tecnológico Comfenalco
Asesor: Post-doc Mauricio Becerra Fernández, Universidad del Rosario

MODELO DE SIMULACIóN LOGíSTICA PARA RUTA DE TRANSPORTE DE CARGA BóGOTA-CARTAGENA


MODELO DE SIMULACIóN LOGíSTICA PARA RUTA DE TRANSPORTE DE CARGA BóGOTA-CARTAGENA

Martínez Herrera César Augusto, Fundación Universitaria Tecnológico Comfenalco. Martinez Zarate Erick Rodrigo, Universidad Autónoma de Yucatán. Asesor: Post-doc Mauricio Becerra Fernández, Universidad del Rosario



PLANTEAMIENTO DEL PROBLEMA

La ruta Bogotá-Cartagena es una de las más importantes para el transporte de carga en Colombia, conectando la capital del país con uno de sus principales puertos marítimos. A pesar de su relevancia, esta ruta enfrenta múltiples desafíos logísticos que afectan la eficiencia del transporte de carga, incluyendo congestión vehicular, fluctuaciones en la demanda de transporte, problemas de infraestructura vial, y variabilidad en los tiempos de entrega. El transporte de carga en esta ruta es crucial para el comercio interno y externo, ya que facilita la movilidad de mercancías entre el interior del país y los mercados internacionales. No obstante, las ineficiencias en la cadena de suministro pueden generar costos adicionales, retrasos, y una disminución en la competitividad de los productos colombianos en el mercado global. El uso de modelos de sistemas dinámicos, como los desarrollados con el software VENSIM, ofrece una oportunidad para analizar y mejorar la comprensión de las complejas interacciones dentro del sistema de transporte de carga en esta ruta. A través de la simulación y la evaluación de diferentes escenarios, es posible identificar puntos críticos y proponer estrategias para optimizar el flujo de mercancías. Por lo tanto, el problema principal de esta investigación se centra en: ¿Cómo se puede mejorar la eficiencia del sistema de distribución logística por transporte de carga en la ruta Bogotá-Cartagena utilizando un modelo de sistemas dinámicos desarrollado con VENSIM?



METODOLOGÍA

Para abordar el problema de la eficiencia en la distribución logística por transporte de carga en la ruta Bogotá-Cartagena, se siguieron los siguientes pasos metodológicos: Capacitación en VENSIM: Primero, el equipo se capacitó en el uso del software VENSIM, una herramienta esencial para la modelación de sistemas dinámicos.  Investigación de Costos: Se realizó una investigación exhaustiva sobre los costos relacionados al proceso de transporte de carga. Esto incluyó el análisis del costo de combustible en Colombia, peajes, salarios de los conductores, mantenimiento de los vehículos, y otros gastos operativos relevantes. Generación de Demanda Verosímil: Con base en datos históricos y tendencias del mercado, se generó una demanda verosímil para el transporte de carga en la ruta Bogotá-Cartagena.  Diagrama Causal: Se desarrolló un diagrama causal donde se relacionaron todas las variables identificadas.  Diagrama de Forrester: Utilizando el software VENSIM, se construyó el diagrama de Forrester, que representa de manera más detallada y estructurada el sistema estudiado. Ejecución y Validación del Modelo: Se corrió el modelo en VENSIM para simular diferentes escenarios y validar los resultados obtenidos. Generación de Nuevas Preguntas: Finalmente, con base en las validaciones y los resultados obtenidos, se formularon nuevas preguntas y escenarios para futuros cambios y mejoras en el modelo. .


CONCLUSIONES

La investigación realizada sobre la distribución logística por transporte de carga en la ruta Bogotá-Cartagena utilizando el software VENSIM resultó en el desarrollo de un modelo funcional y robusto para estudiar el problema. Este modelo permitió simular y analizar diferentes escenarios, proporcionando una comprensión más profunda de las dinámicas del sistema y las interacciones entre sus variables clave. Entre los logros más significativos se encuentran: Desarrollo de un Modelo Funcional: Se logró generar un modelo funcional que captura de manera precisa la complejidad del sistema de transporte de carga en la ruta Bogotá-Cartagena. Este modelo fue validado con datos reales, demostrando su capacidad para representar adecuadamente las condiciones operativas y económicas del sistema. Determinación de la Cantidad Óptima de Tractocamiones: Una de las preguntas adicionales formuladas durante la investigación permitió identificar la cantidad óptima de tractocamiones necesarios para operar de manera eficiente en la ruta. Este hallazgo es crucial para mejorar la gestión de la flota y reducir costos operativos, manteniendo un nivel adecuado de servicio. Identificación del Precio Ideal para Generar Utilidades: Otra pregunta clave abordada con el modelo fue la determinación del precio ideal del servicio de transporte para maximizar las utilidades. Este análisis consideró diversos factores, como los costos operativos, la demanda del mercado y la competitividad, permitiendo establecer una estrategia de precios más efectiva. Replicación del Modelo para Otras Rutas: Actualmente, se está trabajando en la adaptación y replicación del modelo desarrollado para otras rutas de carretera en Colombia. Esto permitirá extender los beneficios del estudio a otras áreas críticas del transporte de carga, contribuyendo a la mejora general de la eficiencia logística en el país. Como es notable, el uso de VENSIM y la metodología aplicada permitieron abordar de manera efectiva el problema de la eficiencia en la distribución logística en la ruta Bogotá-Cartagena. Los resultados obtenidos no solo proporcionan soluciones prácticas y estratégicas para esta ruta específica, sino que también abren la puerta a mejoras continuas y la aplicación de los conocimientos adquiridos a otras rutas y contextos logísticos.
Martínez Herrera Hiromi Sarahi, Universidad Politécnica de Sinaloa
Asesor: Dr. Luis Javier Mena Camaré, Universidad Politécnica de Sinaloa

DESARROLLO DE LA APLICACIONES MóVILES


DESARROLLO DE LA APLICACIONES MóVILES

Martínez Herrera Hiromi Sarahi, Universidad Politécnica de Sinaloa. Asesor: Dr. Luis Javier Mena Camaré, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El uso de dispositivos móviles ha demostrado un crecimiento significativo en los últimos años, convirtiéndose en herramientas indispensables en la vida diaria de las personas. Esta tendencia ha generado una creciente demanda de aplicaciones móviles que satisfagan diversas necesidades y mejoren la calidad de vida de los usuarios. En México, el Instituto Nacional de Estadística y Geografía (INEGI), en su informe Estadísticas sobre el uso de dispositivos móviles 2022, indica que el 70% de la población utiliza celulares para acceder a internet, realizar compras, interactuar en redes sociales y utilizar aplicaciones que fomenten productividad, entretenimiento y educación. Sin embargo, esta demanda creciente enfrenta varios desafíos. 1. Calidad de las Aplicaciones: Muchas aplicaciones tienen problemas de funcionalidad y rendimiento, y no cumplen con las expectativas en términos de experiencia de usuario (UX) y diseño de interfaz de usuario (UI). 2. Brecha Digital: Un porcentaje considerable de la población, especialmente en áreas rurales, no tiene acceso a dispositivos avanzados ni a internet estable. El informe da a conocer que solo el 40% en áreas rurales tiene acceso a internet, lo que resalta la necesidad de aplicaciones ligeras y eficientes. 3. Seguridad y Privacidad: Con el aumento del uso de aplicaciones, crecen las preocupaciones sobre la seguridad de los datos personales, ya que muchas aplicaciones no cuentan con medidas de protección adecuadas.



METODOLOGÍA

Objetivo1: Establecer una base sólida de conocimientos sobre las mejores prácticas y desafíos en el desarrollo de aplicaciones móviles. Primero, se realizará una revisión exhaustiva de la literatura sobre experiencia de usuario (UX), diseño de interfaz de usuario (UI), y las mejores prácticas en el desarrollo de aplicaciones. Esto incluirá el análisis de informes recientes. Esta fase permitirá identificar las principales deficiencias en las aplicaciones actuales y las áreas que necesitan mejora. Objetivo2: Evaluar la calidad y accesibilidad de aplicaciones móviles actuales para identificar áreas de mejora. En la siguiente fase, se evaluarán diversas aplicaciones móviles para medir su calidad y accesibilidad. Se seleccionará una muestra representativa de aplicaciones en diferentes categorías y se realizarán pruebas de usabilidad y rendimiento, especialmente en dispositivos de gama baja y con conexiones de red limitadas. Objetivo3: Crear propuestas basadas en los descubrimientos de la fase anterior para mejorar aplicaciones móviles. Basándose en los hallazgos de la revisión de literatura y evaluación de aplicaciones existentes, se elaborarán propuestas para mejorar la accesibilidad, eficiencia y seguridad de las aplicaciones móviles. Estas propuestas incluirán recomendaciones sobre el diseño de interfaces, optimización para dispositivos de gama baja y medidas de seguridad robustas. Objetivo4: Validar las propuestas mediante la simulación teórica. Después se tiene planeado realizar simulaciones teóricas de cómo las propuestas podrían ser implementadas en un entorno de desarrollo real. Esto incluirá la evaluación de la factibilidad de las recomendaciones basadas en estudios de casos similares. Analizando el impacto potencial de las propuestas en los términos propuestos, utilizando modelos y ejemplos de estudios previos. Objetivo5: Evaluar los resultados obtenidos de las pruebas de los prototipos para determinar la efectividad de las mejoras propuestas. Comparar las propuestas con las mejores prácticas y estudios previos en el campo del desarrollo de aplicaciones móviles para identificar su potencial impacto y áreas de mejora. Realizar una revisión crítica de las propuestas para evaluar su aplicabilidad y efectividad en comparación con las aplicaciones móviles existentes y las necesidades identificadas. Objetivo6: Documentar los conocimientos obtenidos e información de la investigación. Elaborar un informe detallado que incluya las bases del tema, la metodología, hallazgos, propuestas y elementos tomados en cuenta para desarrollar una aplicación móvil que satisfaga las diversas necesidades que puede tener un usuario. Se documentan:  Evolución del Desarrollo de Aplicaciones Móviles  Investigación y Estudio de Casos Anteriores  Mejores Prácticas y Estándares  Tendencias Actuales y Futuras  Características y Expectativas del Usuario  Recursos Necesarios para el Desarrollo  Aspectos Éticos, de Privacidad y Seguridad


CONCLUSIONES

Durante la estancia de verano se logró adquirir una comprensión detallada del desarrollo de aplicaciones móviles, enfocándose en la evolución, mejores prácticas y desafíos actuales. Se logró formular propuestas para tomar en cuenta la accesibilidad, eficiencia y seguridad en las aplicaciones, y así buscar las mejoras de estas herramientas. Esta investigación se encuentra en proceso de recopilar información, y con ella se analizan los elementos base para avances futuros y contribuye al estudio de la calidad y seguridad que se debe considerar en el desarrollo de aplicaciones móviles para los distintos sectores de la población.
Martínez Ibarra José Aarón, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Carolina Herrera Solera, Universidad del Sinú

RETOS DE LA INTELIGENCIA ARTIFICIAL Y LA TRANSFORMACIóN ENERGéTICA EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA INDUSTRIA MANUFACTURERA EN LA CIUDAD DE CARTAGENA-COLOMBIA


RETOS DE LA INTELIGENCIA ARTIFICIAL Y LA TRANSFORMACIóN ENERGéTICA EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA INDUSTRIA MANUFACTURERA EN LA CIUDAD DE CARTAGENA-COLOMBIA

Elias Balandran Oscar Emmanuel, Instituto Tecnológico Superior de Irapuato. Martínez Ibarra José Aarón, Instituto Tecnológico Superior de Irapuato. Asesor: Mg. Carolina Herrera Solera, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

En la última década, la inteligencia artificial (IA) y la transformación energética han emergido como motores clave de innovación y competitividad en la industria manufacturera. La IA tiene el potencial de optimizar procesos, mejorar la eficiencia y reducir costos operativos, mientras que la adopción de energías renovables y la implementación de prácticas sostenibles pueden disminuir el impacto ambiental y reducir la dependencia de fuentes de energía no renovables. Cartagena, como una de las ciudades industriales más importantes de Colombia, alberga una significativa cantidad de PYMES en el sector manufacturero. Estas empresas enfrentan un entorno competitivo y dinámico, donde la adopción de nuevas tecnologías y prácticas sostenibles se presenta no solo como una ventaja competitiva sino como una necesidad para su supervivencia y crecimiento. A pesar de los beneficios potenciales de la IA y la transformación energética, las PYMES de la industria manufacturera en Cartagena enfrentan diversos retos para su implementación efectiva. Estos retos incluyen barreras tecnológicas, financieras, de conocimiento y de infraestructura, que limitan su capacidad para aprovechar plenamente estas innovaciones. Las siguientes estrategias podrían ser efectivas: Capacitación y Educación: Programas de formación y talleres para directivos y empleados sobre las ventajas y usos de la IA y energías renovables. Acceso a Financiamiento: Creación de fondos y programas de subsidios o préstamos con condiciones favorables para la inversión en tecnologías innovadoras. Desarrollo de Infraestructura: Inversiones en infraestructura tecnológica y redes de energía que faciliten la adopción de estas tecnologías. Políticas Públicas: Desarrollo de políticas gubernamentales que incentiven la adopción de IA y energías renovables, incluyendo beneficios fiscales y apoyo técnico. Colaboración: Fomentar alianzas entre PYMES, instituciones educativas y centros de investigación para compartir conocimientos y recursos. Implementar estas estrategias contribuirá significativamente a la modernización y sostenibilidad del sector manufacturero en Cartagena, ayudando a las PYMES a superar las barreras actuales y a aprovechar plenamente las oportunidades que ofrecen la IA y la transformación energética.



METODOLOGÍA

Para abordar los objetivos de este estudio, se ha diseñado una metodología exhaustiva que incluye la recolección de datos cualitativos y cuantitativos, así como el análisis de diversas fuentes secundarias y primarias. Diseño de la Investigación Este estudio adopta un enfoque mixto que combina métodos cualitativos y cuantitativos para proporcionar una visión integral de los retos que enfrentan las PYMES manufactureras en Cartagena en la implementación de tecnologías de inteligencia artificial (IA) y estrategias de transformación energética. Recolección de Datos Fuentes: •    Revisión de Literatura: Se realizó una revisión exhaustiva de artículos académicos, informes técnicos, y publicaciones en revistas especializadas sobre IA y transformación energética en el contexto de las PYMES manufactureras. •    Análisis de Políticas y Normativas: Se analizaron las políticas gubernamentales relevantes, incluyendo la Ley 1715 de 2014, para comprender el marco regulatorio y los incentivos fiscales disponibles. Análisis de Datos •    Análisis de Contenido: Se llevó a cabo un análisis de contenido de la revisión de literatura y las políticas para sintetizar los hallazgos clave y contextualizar los resultados en el marco teórico.      Otros Hallazgos Percepción de Beneficios: Aunque los directivos reconocen los beneficios potenciales de la IA y la transformación energética, muchos expresan incertidumbre sobre el retorno de inversión. Apoyo Gubernamental: Existe una percepción de falta de apoyo y subsidios por parte del gobierno para facilitar la implementación de estas tecnologías.      Discusión Los resultados subrayan la necesidad de políticas y programas de apoyo específicos para PYMES que desean adoptar tecnologías de IA y estrategias de transformación energética. Las barreras económicas y de capacitación deben abordarse mediante incentivos fiscales, subsidios y programas de formación técnica. Estos resultados se obtuvieron total y únicamente del sector industrial de Cartagena.


CONCLUSIONES

Para que las PYMES manufactureras en Cartagena puedan integrar tecnologías de inteligencia artificial y energías renovables de manera efectiva, es esencial que exploren diversas opciones de financiamiento, como préstamos a bajo interés, subsidios gubernamentales y asociaciones público-privadas. Además, deben invertir en la capacitación y el desarrollo de habilidades técnicas de su personal a través de programas de formación y colaboración con instituciones educativas. Aprovechar los incentivos fiscales y programas de apoyo del gobierno también es crucial para reducir los costos de implementación y mejorar la viabilidad económica de sus proyectos. Fomentar la colaboración y la creación de redes con otras empresas, instituciones de investigación y organizaciones gubernamentales les permitirá compartir conocimientos, recursos y mejores prácticas. Finalmente, es importante que desarrollen una planificación estratégica a largo plazo que incluya la adopción de tecnologías avanzadas y prácticas sostenibles como parte integral de su estrategia empresarial. Siguiendo estas recomendaciones, las PYMES pueden mejorar su competitividad, eficiencia y sostenibilidad.
Martínez Marreros Noé de Jesús, Universidad Tecnológica de Tecamachalco
Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías

DISEÑO DE UN SOFTWARE DE AYUDA EN EL PROCESO DE MEDICACIÓN SEGURA DEL PACIENTE


DISEÑO DE UN SOFTWARE DE AYUDA EN EL PROCESO DE MEDICACIÓN SEGURA DEL PACIENTE

Martínez Marreros Noé de Jesús, Universidad Tecnológica de Tecamachalco. Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías



PLANTEAMIENTO DEL PROBLEMA

Los errores de medicación representan una grave amenaza para la seguridad del paciente en el ámbito de la atención médica. Estos errores pueden ocasionar daños considerables, incluso la muerte, y generar un impacto significativo en los sistemas de salud. La complejidad del proceso de medicación, que involucra múltiples etapas y actores, aumenta el riesgo de que se produzcan errores.  



METODOLOGÍA

La metodología de desarrollo orientada a casos de uso (UseCase Driven Development - UDD) es una metodología ágil que se centra en la identificación, especificación y validación de casos de uso para guiar el desarrollo del software. Para la aplicación de Mejora de la Seguridad en la Medicación, se propone implementar una metodología UDD adaptada a las características del proyecto. Fases de la Metodología de Desarrollo Orientada a Casos de Uso (UDD) Adaptada 1. Identificación de Casos de Uso: Se identifican los actores principales (usuarios, administradores, etc.) Se definen los casos de uso que representan las funcionalidades del sistema 2. Especificación de Casos de Uso: Se detalla cada caso de uso: nombre, actores, descripción, condiciones previas, flujo normal, excepciones y casos de uso post-condiciones 3. Modelado con Diagramas de Casos de Uso: Se utilizan diagramas para visualizar las relaciones entre actores, casos de uso y sistemas externos 4. Priorización de Casos de Uso: Se priorizan los casos de uso según su importancia y su impacto en el negocio 5. Implementación de Casos de Uso: Se implementan los casos de uso utilizando un lenguaje de programación adecuado Se realizan pruebas unitarias y de integración 6. Validación de Casos de Uso: Se validan los casos de uso con los usuarios finales para verificar que cumplen con sus expectativas Se utilizan técnicas como las pruebas de aceptación y los grupos focales


CONCLUSIONES

El desarrollo de esta aplicación representa un avance significativo en la gestión de la medicación para los pacientes. Al alinear cada fase del proceso.  El proceso de manejo de medicamentos en el ámbito de la salud incluye varias etapas clave: prescripción, transcripción, dispensación, administración y seguimiento. Cada una de estas etapas es crucial para garantizar la seguridad y eficacia del tratamiento. Prescripción: Es la etapa en la que el médico determina y documenta el medicamento adecuado para el paciente, incluyendo la dosis y la duración del tratamiento. Transcripción: Consiste en la transferencia de la información de la prescripción a un formato que pueda ser utilizado por el personal de farmacia o enfermería. Dispensación: Es el proceso en el que el farmacéutico prepara y entrega el medicamento al paciente o al personal de enfermería. Administración: Involucra la entrega del medicamento al paciente, ya sea por el propio paciente o por el personal de salud, siguiendo las instrucciones de la prescripción. Seguimiento: Implica monitorear la respuesta del paciente al tratamiento, identificar posibles efectos adversos y ajustar la terapia según sea necesario Dentro de una plataforma digital, se garantiza una mayor precisión, eficiencia y seguridad en el tratamiento farmacológico. La aplicación no solo facilita la organización y el acceso a la información médica, sino que también promueve la adherencia al tratamiento al proporcionar recordatorios personalizados y herramientas de seguimiento. Sin embargo, reconocemos que la tecnología evoluciona constantemente, y estamos comprometidos a explorar nuevas funcionalidades que permitan optimizar aún más la experiencia del usuario y mejorar los resultados en salud. Entre las posibles mejoras a futuro, se considera la integración de sistemas de inteligencia artificial para la detección temprana de posibles interacciones medicamentosas o efectos adversos, la incorporación de módulos educativos para pacientes sobre sus tratamientos y la posibilidad de conectar la aplicación con dispositivos wearables para un monitoreo más preciso de los parámetros fisiológicos. En conclusión, esta aplicación se posiciona como una herramienta valiosa para mejorar la calidad de vida de los pacientes y facilitar la labor de los profesionales de la salud.  
Martínez Martínez Cecilia Lizbeth, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Esp. Angelica Maria Blanco Correa, Institución Universitaria de Envigado

CONDICIONES DE TRABAJO EN SALAS DE BELLEZA Y SPA DE UÑAS DEL MUNICIPIO DE ENVIGADO, ANTIOQUIA- COLOMBIA (2024)


CONDICIONES DE TRABAJO EN SALAS DE BELLEZA Y SPA DE UÑAS DEL MUNICIPIO DE ENVIGADO, ANTIOQUIA- COLOMBIA (2024)

Cuevas Ayala Bibiana Guadalupe, Instituto Tecnológico de Jiquilpan. González Hernández Erick Axel, Instituto Tecnológico de Morelia. Guijosa Hernández Brenda Estefany, Instituto Tecnológico Superior de Ciudad Hidalgo. Martínez Martínez Cecilia Lizbeth, Instituto Tecnológico Superior de Ciudad Hidalgo. Medina Tello Dulce Maria, Instituto Tecnológico Superior de Ciudad Hidalgo. Medina Tello Regina Vianeey, Instituto Tecnológico Superior de Ciudad Hidalgo. Pérez Delgado Rosario Nallely, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Esp. Angelica Maria Blanco Correa, Institución Universitaria de Envigado



PLANTEAMIENTO DEL PROBLEMA

En las salas de belleza y spa de uñas, los colaboradores se exponen a múltiples factores de riesgo que pueden afectar su salud y bienestar. Estos riesgos incluyen exposición a sustancias químicas, radiaciones no ionizantes, ruido, iluminación inadecuada, condiciones de confort térmico deficientes y factores ergonómicos debido a posturas forzadas y movimientos repetitivos. La falta de medidas preventivas específicas y el desconocimiento sobre los riesgos agravan la situación, aumentando la probabilidad de accidentes de trabajo y enfermedades laborales. Los colaboradores de las peluquerías y spa de uñas en Envigado están expuestos a riesgos ocupacionales y ergonómicos que pueden impactar negativamente su salud, y en la mayoría de los casos, no se implementan acciones preventivas adecuadas.



METODOLOGÍA

Diseño del Estudio El estudio se diseñará como una investigación descriptiva y transversal, evaluando los riesgos de higiene ocupacional y ergonómicos en los trabajadores de salas de belleza y spa de uñas en Envigado. Población y Muestra Población: Trabajadores de salas de belleza y spa de uñas en el municipio de Envigado. Muestra: Se seleccionará una muestra representativa de trabajadores de diferentes salas de belleza y spa de uñas en Envigado, utilizando un muestreo aleatorio estratificado. Instrumentos de Recolección de Datos Encuestas y Cuestionarios: Para caracterizar el perfil sociodemográfico y las condiciones de salud y trabajo de los trabajadores. Mediciones Ambientales: Para evaluar niveles de ruido, iluminación, radiación no ionizante y confort térmico en los lugares de trabajo. Análisis de Sustancias Químicas: Para identificar y medir la concentración de sustancias químicas presentes en el ambiente laboral. Evaluaciones Ergonómicas: Para identificar y analizar posturas forzadas y movimientos repetitivos. Procedimiento Recolección de Datos: Aplicación de encuestas y cuestionarios a los trabajadores. Realización de mediciones ambientales y análisis de sustancias químicas en las salas de belleza y spa de uñas. Evaluaciones ergonómicas en los puestos de trabajo. Análisis de Datos: Análisis descriptivo de los datos sociodemográficos, de salud y condiciones de trabajo. Análisis cuantitativo de los niveles de exposición a riesgos higiénicos y ergonómicos. Relación entre los riesgos evaluados y los efectos en la salud reportados por los trabajadores Elaboración de Recomendaciones: Basadas en los resultados obtenidos, se emitirán recomendaciones para mejorar las condiciones de trabajo y reducir la exposición a los riesgos identificados.


CONCLUSIONES

Perfil Sociodemográfico y Condiciones de Salud: Caracterización detallada del perfil sociodemográfico de los trabajadores y sus condiciones de salud, identificando posibles patrones o tendencias relacionadas con la exposición a riesgos. Evaluación de Riesgos: Identificación de los niveles de exposición a ruido, iluminación, radiación no ionizante, confort térmico y sustancias químicas en las salas de belleza y spa de uñas. Evaluación de los riesgos ergonómicos relacionados con posturas forzadas y movimientos repetitivos. Relación entre Riesgos y Salud: Análisis de la relación entre los riesgos ocupacionales y los efectos en la salud reportados por los trabajadores, proporcionando evidencia sobre el impacto de estos riesgos en su bienestar.
Martínez Mejía Carlos Eduardo, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. German Herrera Vidal, Universidad del Sinú

DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA


DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA

Martínez Mejía Carlos Eduardo, Instituto Tecnológico Superior de Ciudad Hidalgo. Velázquez Vidal Carlos Daniel, Instituto Tecnológico Superior de Uruapan. Zapien Garcia Carlos, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. German Herrera Vidal, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

La constante globalización hace que cada vez sea necesario que las Pymes se encuentren en constante actualización, adoptando nuevas estrategias y dando paso a la industria 4.0 para seguir siendo cada vez más competitivas. El objetivo de esta investigación es poder enfocarse en las problemáticas y desafíos que actualmente presentan este sector de empresas, investigando a fondo que son los factores que no permiten el desarrollo y avance de las mismas, además a su vez, que las vuelve más vulnerables a que no sigan adoptando un nuevo y mejorado paso a la tecnología y por ende todo termine en quiebra o pérdidas. Para el debido desarrollo de la investigación se tomó a el país de Colombia, enfocándonos en los principales departamentos para terminar con el departamento de Bolívar donde se encuentra la ciudad de Cartagena; que, observando la ubicación, cuenta con una gran oportunidad para la comercialización y desarrollo de empresas. 



METODOLOGÍA

La metodología para llevar a cabo la investigación se desarrolla en cuatro principales etapas que se conforman por, (1) Investigación de la documentación científica sobre la industria 4.0, (2) Investigación de la documentación científica sobre la industria 4.0 en el contexto nacional de Colombia, (3) Investigación de la documentación científica sobre la industria 4.0 en el contexto local Cartagena,-Colombia, (4) Análisis de los desafíos hacia la industria 4.0 en la ciudad de Cartagena, Colombia.  Investigación de la documentación científica sobre la industria 4.0. Los documentos utilizados (libros, tesis y artículos científicos) fueron obtenidos mediante la herramienta de Google académico. Investigación de la documentación científica sobre la industria 4.0 en el contexto nacional de Colombia. Se investigó documentación científica que examina cómo se está desarrollando la Industria 4.0 en Colombia, identificando investigaciones previas, tendencias actuales, desafíos, y oportunidades que se están presentando a nivel nacional en Colombia. Investigación de la documentación científica sobre la industria 4.0 en el contexto local de Cartagena, Colombia. Se investigó documentación científica que aporta conocimiento sobre los antecedentes, problemas y principales desafíos a nivel local de la ciudad de Cartagena hacía la industria 4.0. Análisis de los desafíos hacia la industria 4.0 en la ciudad de Cartagena, Colombia. Para el análisis de los desafíos hacia la industria 4.0 se tomaron en cuenta los principales problemas que los autores de los documentos de investigación abordaron cómo los principales desafíos que enfrenta la ciudad de Cartagena Colombia hacia la industria 4.0.


CONCLUSIONES

Los hallazgos encontrados nos dicen que las Pymes representan una parte crucial del tejido empresarial colombiano, constituyendo el 99.5% del total de empresas y generando aproximadamente el 65% del empleo. Sin embargo, estas empresas enfrentan una alta volatilidad económica y desafíos financieros significativos debido a la falta de acceso a garantías mobiliarias y créditos adecuados, lo que aumenta su riesgo de quiebra y su vulnerabilidad financiera.   Aunado a lo anterior y centrándonos en una parte específica, las Pymes en Cartagena, al igual que en el resto del país, enfrentan una serie de problemas, como la falta de recursos propios, la inadecuada estructura financiera, y la escasa formación del personal en nuevas tecnologías. Estos problemas resultan en una baja calidad de productos y una falta de ventajas competitivas, lo que pone en riesgo la sostenibilidad de estas empresas en el largo plazo. Eso sumado a problemas de gestión estratégica, y una baja participación en procesos de innovación provocan variaciones notables en su producción y la falta de visión estratégica a mediano y largo plazo limita la competitividad de las Pymes. Algunas recomendaciones que se sugieren son que las Pymes deben invertir en la formación y capacitación de su personal en nuevas tecnologías y procesos innovadores. Programas de capacitación y desarrollo profesional ayudarán a mejorar la calidad de los productos y servicios ofrecidos, incrementando su competitividad. A su vez es vital que las Pymes adopten una visión estratégica a mediano y largo plazo. La planificación estratégica permitirá a estas empresas anticipar desafíos y aprovechar oportunidades de manera más efectiva, mejorando su sostenibilidad y crecimiento. Esto va de la mano con la siguiente recomendación, ya que se debe incentivar la participación de las Pymes en procesos de innovación y abordar investigaciones sobre la industria 4.0 generando estrategias para implementar nuevas tecnologías en los procesos productivos y logísticos que permitan estandarizar los procesos y se aprovechen al máximo los recursos como mano de obra, tiempo, materia prima, etc., dando ese diferenciador que ayude al crecimiento de las Pymes. Para lo anterior es necesario ayuda del gobierno, Es esencial que las Pymes accedan a financiamiento adecuado. Se recomienda promover políticas públicas que faciliten el acceso a créditos y garantías mobiliarias. Las instituciones financieras deben simplificar los trámites administrativos y fomentar el crecimiento de las Pymes, esto genera mayor crecimiento económico y un impulso hacía nuevos horizontes en todo el país colombiano.
Martinez Meraz Juan Carlos, Universidad Mexiquense del Bicentenario
Asesor: Dra. Nayeli Naidee Mejia Riveira, Universidad de la Guajira

APLICACION PARA EL APOYO A LOS ESTUDIANTES DE LA UMB ATENCO


APLICACION PARA EL APOYO A LOS ESTUDIANTES DE LA UMB ATENCO

Martinez Meraz Juan Carlos, Universidad Mexiquense del Bicentenario. Asesor: Dra. Nayeli Naidee Mejia Riveira, Universidad de la Guajira



PLANTEAMIENTO DEL PROBLEMA

Las Tecnologías son un gran  avance Mundial , nos han ayudado a poder realizar muchos descubirminetos , muchas mejoras , ha sido un gran alcance para la sociedad , ademas que es una herramienta que facilita el trabajo de las personas , pueden trabajar de una menera mas concreta y eficiente , tiene muchas herraminetas en sus manos con las cuales pueden seguir innovando  y creando,  Este proyecto se realizco con la creación de una  aplicación para el benificio de mi comunidad estudiantil , nos ayudara a poder tener a la mano todas las aplicaciones , enciclopedias , meterial de trabajo a la mano ; en la UMB ATENCO  nos hacen falata herramientas para poder llevar acabao un trabajo , ya que hay veces que no tenermos le recurso de internet , esta app se podra utilizar sin internet para que todos puedan frealizar sus actividades. . 



METODOLOGÍA

Esta aplicación esta diseñana para alumno de estas carreras ; Ing. Industrial , Ing. en TICS  y en la Lic. en Derecho , estas carreras son con el que el plantel UMB ATENCO cuenta. Conatar con todas las aplicaciones o programas que los estudiantes utilizan desde primer semestre hasta el 9no semestre de su carrera tales como ;  Ing. en TICS ; 1- PSEINT  , 2 - MS-DOS , 3- VISIO -, 4 START UML  , 5- DEV C++ , 6  - JAVA , entre otros programas . ing.Industrial ; 1 - ,MATLAB , 2-AutoCAD , 3-Minitab , 4-proyect management software , 5-Python  , 6 - Simul , entre otros programas.  Lic. Derecho ; 1-MS Proyecct , 2-SPSS , 3-CODIGP PENAL , 4-Articulos de la constitucion entr otros muchos libros o enciclopedias.    Todo esta  diseñado para que los estudientes puedan tener un buen desempeño en esta apliacion y cumpliar con sus actividades.  


CONCLUSIONES

Los resultado que se tuvueron fueron muy buenos , esta apliacion hizo que muchos alumnos pudieran concluir connsus actibvidade de cuerre de semestre , se les facilito el uso de esta apliacion , pudieron encontar  todas  las apliaciones  , programas , libro , etec.que necesitaban. Se hizo una encuenta y los resultados fueron los mejores , todos estaban conformes con esta aplicacion.
Martínez Moreno Jorge Alberto, Instituto Tecnológico de Querétaro
Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional

ROBOPOLIC


ROBOPOLIC

Contreras Herrera Jordi Owuen, Instituto Politécnico Nacional. Martínez Moreno Jorge Alberto, Instituto Tecnológico de Querétaro. Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La robótica y la programación son de gran beneficio para los niños o jóvenes ya que les permite adquirir o desarrollar habilidades ya sean el trabajo y cooperación en equipo para poder   resolver algún problema, o al igual identificar las fortalezas y debilidades para desarrollar un proyecto y que se logren desenvolver mejor en estos ámbitos. Para lo cual hoy en día existen diversos tipos de robots didácticos en el mercado los cuales solo basta con adquirirlos y armarlos para poder usarlos, sin la oportunidad de obtener un mayor aprendizaje acerca de sus componentes electrónicos o la programación que usan. Por lo cual el propósito del proyecto es desarrollar un robot que sea fácil de armar desde los componentes electrónicos hasta las piezas mecánicas y su programación, de tal manera que el individuo no solo logre armar un robot si no que a la vez pueda aprender sobre el funcionamiento de los componentes electrónicos, mecánicos y la programación del robot.



METODOLOGÍA

Se comenzó con el diseño del robot mediante una aplicación de diseño 3D, basándose en la configuración de los robots Otto ya existentes, una vez desarrollado el prototipo de las piezas mecánicas se pasaron a imprimir en una impresora 3D con el fin de verificar que el ensamblaje mecánico estuviera bien y que los componentes electrónicos encajaran en sus respectivas posiciones. Una diferencia con respecto a los robots Otto es que se agregaron imanes al diseño para poder crear adornos que acompañen al robot y puedan ponerse fácilmente con el uso de Mini imanes de neodimio, los cuales tiene un espesor de 1mm y un diámetro de 5 mm, En cuanto a la electrónica se opto por usar una Arduino nano debido a su reducido tamaño y peso, el cual es el cerebro del robot ejecutando los programas y comandos necesarios para su uso. Con el fin de agilizar las conexiones entre componentes se le agrego un shield de expansión al Arduino nano permitiendo facilitar las conexiones entre los diferentes componentes. Otros componentes electrónicos son un señor ultrasónico con el fin de medir distancias y saber si el robot va a chocar con algún objeto usando un buzzer como forma de aviso, además del uso de 4 servomotores los cuales se encargan de poder realizar los movimientos del robot. Todos estos componentes conectados al Arduino son controlados mediante un módulo de bluetoothHC-05 o HC-06 el cual se encarga de generar una conexión entre el Arduino y nuestro celular para poder controlar al robot. La aplicación del robot fue desarrollada en App Inventor permitiendo al usuario poder controlar los movimientos así como la velocidad de estos, además de poder calibrar los servomotores en caso de ser necesario. Finalmente, para poder desarrollar el programa principal del robot se utilizó el lenguaje de Arduino junto con su IDE, además del uso de diversas librerías propias del lenguaje como SoftwareSerial.h Y Otto.h, las cuales permitieron generar las conexiones bluetooth y los movimientos del robot.


CONCLUSIONES

En esta estancia de verano se logró aprender tanto a diseñar como a ensamblar, modificar y programar un robot, también a como crear una aplicación en app inventor para poder moverlo, estos conocimientos fueron reforzados tanto teórica como de manera practica al desarrollar lo dicho. El resultado fue el esperado cumpliendo con la realización de dos productos los cuales serían dos robots de fácil comprensión y un manual para su armado.
Martínez Nova Jaen Manuel, Instituto Tecnológico de Acapulco
Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

DESARROLLO DE UNA APLICACIóN PARA DISPOSITIVOS MóVILES QUE PERMITA CONTROLAR UN ROBOT POR COMANDOS DE VOZ


DESARROLLO DE UNA APLICACIóN PARA DISPOSITIVOS MóVILES QUE PERMITA CONTROLAR UN ROBOT POR COMANDOS DE VOZ

Martínez Nova Jaen Manuel, Instituto Tecnológico de Acapulco. Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El objetivo de la estancia es desarrollar una aplicación para Windows o Android que permita un robot móvil a través de Wi-Fi. La línea de investigación del proyecto es el Internet de las cosas. Se optó por desarrollar la aplicación para Android dado que ya se tenía conocimientos previos sobre el desarrollo móvil en Android, además de su practicidad y movilidad para usuarios finales. Antes de iniciar a desarrollar, se investigó las características de la Raspberry Pi Pico (W) que es el cerebro del robot, se establecieron especificaciones técnicas y funcionalidades para poder realizar el software con el que se controlará el robot de forma remota.



METODOLOGÍA

Metodos de investigación utlizados: Revision de documentación y artículos Consulta de la documentación oficial de la Raspberry Pi Pico (W), asi como tambien la documentación oficial del robot y de Android y secciones relacionadas a lo que se aplica en la aplicación. Experimentación Prueba de diferentes configuraciones, protocolos de conexión, modificaciones de firmware y de la aplicación móvil para encontrar la mejor solucion Se realizó una investigación inicial para comprender las características técnicas de la placa que se encarga del control del robot, la Raspberry Pi Pico (W) y las formas de conexión remota via Wi-Fi y Bluetooth. Tambien se revisó la documentación oficial de la placa y se buscaron proyectos similares en internet, los cuales fueron escasos. Se modificó el firmware para adaptarlo al proyecto y sea compatible con los requerimientos de este, utilizando Arduino IDE para la instalación del firmware personalizado dentro de la Rasberry Pi Pico (W), asi como también se hizo uso de algunas bibliotecas descargadas desde el IDE de Arduino para el correcto funcionamiento del código fuente del hardware. Se desarrolló una aplicación móvil para la plataforma de Android para permitir el control remoto del robot utilizando Android Studio como entorno de desarrollo, Kotlin y Jetpack Compose para el desarrollo de la aplicación, tanto la parte lógica, como la parte de la interfaz grafica de usuario. También se utilizaron algunas herramientas intergradas en el IDE de Android Studio como el Emulador de Android para probar las aplicaciones, al igual que un dispositivo físico con Android. A la vez se hizo uso de la herramienta de Preview de Jetpack Compose para ver una vista previa de la interfaz que se estaba desarrollando. Se realizaron diversas pruebas en la aplicación para asegurar que la conexión entre la aplicación móvil y el robot funcionen correctamente, de manera estable e integra. Se documentó el proceso de desarrollo y la evaluación del desempeño de la aplicación con las respuestas del robot.


CONCLUSIONES

El desarrollo de la aplicación para controlar de forma remota un robot ha cumplido el objetivo del proyecto. A pesar de ello, aún hay limitaciones, como la dependencia de una conexión Wi-Fi estable, la precisión del reconocimiento de voz en entornos ruidosos, y las capacidades limitadas de procesamiento de la Raspberry Pi Pico W. Para abordar estas limitaciones, se proponen mejoras futuras, incluyendo la mejora de la seguridad, privacidad de la conexión y mejora de algoritmos y del firmware
Martinez Ortega Miriam Andrea, Universidad de Guadalajara
Asesor: Prfnal. Julian Arango Toro, Institución Universitaria Salazar y Herrera

IMPLEMENTACIóN DE ARREGLO DE ANTENAS TIPO PATCH PARA EL DIAGNóSTICO DEL CáNCER DE MAMA


IMPLEMENTACIóN DE ARREGLO DE ANTENAS TIPO PATCH PARA EL DIAGNóSTICO DEL CáNCER DE MAMA

Martinez Ortega Miriam Andrea, Universidad de Guadalajara. Mendoza Alvarez Patricia Carolina, Universidad de Guadalajara. Asesor: Prfnal. Julian Arango Toro, Institución Universitaria Salazar y Herrera



PLANTEAMIENTO DEL PROBLEMA

El cancer de mama es uno de los cánceres más agresivos que se presenta no únicamente en las personas de sexo femenino, sino en cualquier individuo. Actualmente la tasa de mortalidad del cáncer de mama ha ido en decrecimiento, por la concientización de la exploración, sin embargo, la detección tardía es la principal causa del agravio del cáncer. Por lo cual en esta investigación el objetivo principal es encontrar un método nuevo para la detección temprana del mismo, el uso de antenas MIMO en materiales textiles, ayuda a que se detecte la deformación del seno con mas facilidad.  



METODOLOGÍA

La metodología PHVA fue la empleada en esta investigación, la cual trata de cuatro etapas P Planear, H Hacer, V Verificar, A aplicar. La primera etapa la cual es planear, consta de plantear el trabajo al que se quiere llegar, incluyendo los resultados que se desean obtener, el hacer consta de simular el trabajo en este caso la antena con los estipulados en la primera etapa, posteriormente se simula con ayuda del CST dicha antena de tal forma que obtengamos los resultados deseado en el software, en apoyo del software flatcam se crean las plantillas de la antena para con ayuda del software candle el proyecto se lleve a recortar en el material planeado con ayuda de un CNC.  


CONCLUSIONES

Podemos concluir que las antenas MIMO permiten una mayor precisión y resolución en las imágenes obtenidas, lo que facilita la identificación de tumores en etapas tempranas. Ya que la entena hecha con materiales textiles nos permite adaptarlas a la ropa y medir datos en un lapso de tiempo determinado, capturarlos y detectar si la antena sufrió algún tipo de deformación lo cual nos da a conocer que el seno sufrió una deformación lo que puede significar que se están creando masas de células malignas o benignas dentro de alguna parte del seno, lo que lleva al individuo a poderse realizar una examinación mas profunda para saber si las células están creando masas malignas o benignas.  
Martínez Palafox Mariana Soledad, Universidad Autónoma de Occidente
Asesor: Dr. Marco Arturo Arciniega Galaviz, Universidad Autónoma de Occidente

EL SARGAZO COMO MEJORADOR DE SUELOS


EL SARGAZO COMO MEJORADOR DE SUELOS

Flores Gutierrez Maria Guadalupe, Universidad Autónoma de Occidente. Martínez Palafox Mariana Soledad, Universidad Autónoma de Occidente. Villa Castañeda Jesús Aramis, Universidad Autónoma de Occidente. Asesor: Dr. Marco Arturo Arciniega Galaviz, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

En 2011 se comenzaron a registrar incrementos masivos en la llegada de sargazo (Sargassum spp) a las costas. Este fenómeno ha impactado significativamente al medio ambiente, reduciendo la cantidad de luz y oxígeno en el agua. Además, el sargazo libera ácido sulfhídrico, lo que provoca un mal olor y genera molestias tanto para los habitantes como para los turistas. Debido a estas y muchas otras afectaciones que causa la acumulación del sargazo, buscar alternativas para su uso y aprovechamiento se presenta como un método efectivo para reducir el impacto ambiental de esta alga.   En el campo pesquero de El Colorado, Sinaloa, este fenómeno ha generado afectaciones en la economía local, ya que la pesca, que es la principal actividad económica de la zona, se ve comprometida debido a la alteración de los hábitats marinos. Por lo anterior, se decidió investigar al Sargazo como mejorador de suelos ya que, en el estado de Sinaloa las principales actividades económicas son la agricultura y la pesca.



METODOLOGÍA

La metodología empleada fue básicamente una metodología cuantitativa. Para el sargazo, se procedió a su recolección en el campo pesquero El Colorado, Ahome, Sinaloa. Posteriormente, se lavó con agua corriente para retirar materiales ajenos al alga. Luego, el sargazo se deshidrató en un horno a 60 grados centígrados durante 24 horas. Una vez deshidratado, se molió en un mortero hasta obtener un polvo fino y se tamizó para obtener un tamaño de partícula de 0.046 mm.   Se realizaron análisis en el laboratorio para determinar el contenido de materia orgánica, fósforo y nitratos contenidos en la biomasa del sargazo y suelo, con la finalidad de hacer mezclas del suelo natural con porciones de sargazo molido y obtener sustrato con distintas concentraciones de materia orgánica y nutrientes. Se molieron aproximadamente 500 g de sargazo y 800 g de tierra con los cuales se hicieron las mezclas que se mencionarán a continuación, para obtener 30 g de cada sustrato con porcentajes estimados de materia orgánica (MO), que se calcularon mediante operaciones de balance de materia y se les adicionó 100 mL de agua corriente: 6% de MO- 2 g de biomasa (Sargazo)- 28 g de suelo (tierra) 12% de MO- 4.9 g de biomasa- 25.1 g de suelo 18% de MO- 7.9 g de biomasa- 22.1 g de suelo 24% de MO- 10.80 g de biomasa- 19.2 g de suelo 30% de MO- 13.82 g de biomasa- 16.8 g de suelo Estas mezclas se dejaron reposar durante 2 semanas; posteriormente, se dividió cada sustrato en raciones de 10 gramos, las cuales se colocaron en 3 distintas cavidades de la charola germinadora. Por cada repetición se distribuyeron 5 semillas de rábano (Raphanus sativus) y se regó cada muestra con 5 mL de agua destilada 3 días a la semana, realizando las medidas de altura de cada germinado y el registro de la cantidad de semillas germinadas por repetición de cada sustrato. Hasta el momento, se ha observado que el único sustrato que ha generado germinación ha sido el de 6% de MO. En el resto de las muestras se intuye que la causa de ausencia de germinación pueda ser debida a la presencia de una costra que se ha generado en la parte superior donde se ubican las semillas. Para descartar errores en la metodología se planea repetir todo el proceso y realizar la biometría adecuada de ambos experimentos para obtener resultados confiables. Además se realizará un análisis detallado a las muestras ya elaboradas para descartar otras posibles causas de la ausencia de germinación en los sustratos.


CONCLUSIONES

Es importante el aprovechamiento de residuos orgánicos para ser utilizado como mejoradores de suelo, o en el tratamiento de aguas residuales, sobre todo aquellos residuos que pudieran producir problemas económicos, sociales o ambientales en comunidades rurales. El sargazo pudiera representar un problema para la comunidad pesquera de El Colorado, pero existe la opción de aprovecharlo como un abono orgánicos en los huertos familiares o jardines florísticos de ésta comunidad, reduciendo así la presencia de ésta alga en el mar y a la vez se podrá aportar nutrientes a los suelos de hogares de esta comunidad rural.
Martinez Pestaña Fatima Yumey, Instituto Tecnológico de Nuevo Laredo
Asesor: Mg. Nadia Judith Olaya Coronado, Universidad de la Costa

TECNOLOGíAS Y METODOLOGíAS DE CALIDAD PARA LA GESTIóN AMBIENTAL EN ZONAS INDUSTRIALES.


TECNOLOGíAS Y METODOLOGíAS DE CALIDAD PARA LA GESTIóN AMBIENTAL EN ZONAS INDUSTRIALES.

Cruz Barrios Wendy Zuzeth, Instituto Tecnológico de Nuevo Laredo. Martinez Pestaña Fatima Yumey, Instituto Tecnológico de Nuevo Laredo. Asesor: Mg. Nadia Judith Olaya Coronado, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

¿Cuáles son las Tecnologías y Metodologías de Calidad para la Gestión Ambiental en Zonas Industriales? El problema central de esta investigación es la contaminación del aire en las zonas industriales de Tamaulipas, la cual afecta tanto al medio ambiente como a la salud de la población. El problema central de esta investigación es la contaminación del aire en las zonas industriales de Tamaulipas. Las emisiones de contaminantes como dióxido de azufre (SO₂), óxidos de nitrógeno (NOₓ), compuestos orgánicos volátiles (COVs) y partículas en suspensión (PM10 y PM2.5) son preocupantes debido a sus efectos adversos que impactan en la salud humana. Algunos de los problemas son los siguientes: Los problemas Respiratorios ante la exposición a contaminantes atmosféricos en el cual puede causar enfermedades respiratorias agudas y crónicas, como asma, bronquitis y enfermedades pulmonares obstructivas. Las enfermedades Cardiovasculares, debido a los contaminantes del aire también están asociados con un aumento en las enfermedades cardiovasculares, incluyendo ataques cardíacos y accidentes cerebrovasculares. Ante el Impacto en el Medio Ambiente, las emisiones de SO₂ y NOₓ contribuyen a la acidificación de los suelos y cuerpos de agua, afectando la biodiversidad y los ecosistemas. La deposición de nutrientes como nitrógeno puede causar la eutrofización de cuerpos de agua, resultando en la proliferación de algas nocivas y la disminución de oxígeno en el agua, afectando la vida acuática. Muchos contaminantes atmosféricos, como los COVs y las partículas finas, contribuyen al calentamiento global y al cambio climático.



METODOLOGÍA

Para mejorar la calidad del aire en Tamaulipas, se requiere una gestión integral con transporte limpio, planificación urbana y uso de combustibles ecológicos. El programa ProAire busca reducir ozono, material particulado, dióxido de azufre, dióxido de nitrógeno y monóxido de carbono. Tamaulipas tiene 80,175 km² y 43 municipios. En 2015, tenía 3.4 millones de habitantes, y se espera que alcance los 4 millones en 2030. Reynosa, Matamoros, Nuevo Laredo y Victoria son las ciudades más pobladas. El estado contribuye con el 3% del PIB nacional, destacando en agricultura, pesca, manufactura y turismo. La manufactura genera el 43.1% de los nuevos empleos. Empresas clave: - Refinería Francisco I. Madero de Pemex: Emite NOx, SO2, VOCs y partículas. - BASF (Altamira): Emite VOCs, NOx y SO2. - Flex Américas (Altamira): Emite VOCs y partículas. - MG (Altamira): Emite partículas, metales pesados, SO2 y NOx. - Icon Recycling (Reynosa): Emite partículas y compuestos orgánicos. Estas empresas contaminan el aire, afectando el medio ambiente y la salud pública. El ProAire busca reducir contaminantes para mejorar la salud pública. La norma ISO 14001 ayuda a reducir residuos, cumplir la legislación y mejorar el desempeño ambiental.


CONCLUSIONES

Para diseñar un formulario de auditoría ambiental para la contaminación del aire en las industrias de Tamaulipas, es esencial incluir: 1. Identificación de la entidad auditada: Datos de la empresa, dirección, contacto, sector y actividades. 2. Información sobre la contaminación del aire: Fuentes, tipos, volumen y frecuencia de emisiones. 3. Prácticas de gestión: Políticas, monitoreo, seguimiento y certificaciones ambientales. 4. Verificación de cumplimiento normativo: Cumplimiento con leyes y documentación de incidentes previos. 5. Recomendaciones y documentación: Áreas de mejora, medidas correctivas, resultados de auditoría y plan de acción. 6. Herramientas de auditoría: Listas de comprobación, software de gestión y referencias legislativas. 7. Preguntas clave: Basadas en ISO 9001 e ISO 14001, evaluación de riesgos y principios de Shingo. 8. Evaluación de riesgos: Identificación, análisis y medidas de control. 9. Identificación de desperdicios ambientales: Residuos sólidos, líquidos, emisiones, peligrosos y de energía. 10. Principios de Shingo: Eliminación de desperdicios, mejora continua, trabajo en equipo, enfoque en el cliente y eficiencia. El formulario debe guiar la mejora de la gestión ambiental, con propuestas como monitoreo en tiempo real, nuevas tecnologías de control, capacitación y análisis de casos de éxito. Se espera reducir emisiones y residuos, mejorar la cultura organizacional, cumplir regulaciones, disminuir sanciones y reducir costos operativos mediante Lean Manufacturing y principios de Shingo.
Martínez Rubiños Yadira del Carmen, Instituto Tecnológico de Aguascalientes
Asesor: Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan

OPTIMIZACIÓN DE LA GEOMETRÍA PARA REDUCCIÓN DEL NIVEL DE ESFUERZOS.


OPTIMIZACIÓN DE LA GEOMETRÍA PARA REDUCCIÓN DEL NIVEL DE ESFUERZOS.

Gonzalez Espindola Yamilet Guadalupe, Instituto Tecnológico Superior de Ciudad Serdán. Martínez Rubiños Yadira del Carmen, Instituto Tecnológico de Aguascalientes. Asesor: Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

En el diseño mecánico generalmente se presentan dos problemas básicos, en los cuales se requiere optimizar, primero se encuentran los problemas que se requiere un nivel de esfuerzos mínimo, bajo las mismas condiciones de carga y en otras ocasiones se requiere una disminución de la masa de la pieza o elemento de máquina diseñado. Para esto existen diferentes métodos entre los que destacan diseño de experimentos y la optimización topológica, métodos que son incluidos en los módulos que contiene ANSYS Workbench. Siguiendo sobre esta mismo enfoque, en el diseño de piezas mecánicas, la selección adecuada en dimensiones como radios, en el caso de barrenos y redondeos en cambio de sección en estas piezas, es crucial para asegurar la integridad y desempeño. Una selección incorrecta puede resultar en concentraciones de esfuerzo que disminuyen la capacidad de carga. Para abordar este desafío, se propone el uso del software ANSYS Workbench y el módulo Mechanical Optimization para generar de manera automática combinaciones que cumplan con los niveles de esfuerzo deseados.



METODOLOGÍA

Se propuso el análisis de una placa a la cual se realiza en primera instancia un análisis estático, el cual sirve como base para visualizar el comportamiento cuando es sometida a una fuerza axial, una vez identificadas las regiones más críticas, se propone parametrizar las cotas de los radios y generar de manera automática las combinaciones factibles de acuerdo al análisis por diseño de experimentos. Se utilizó el software CAE ANSYS para el análisis y simulación por elementos finitos (FEA), para el análisis y optimización de las dimensiones de la geometría. En la fase de optimización, se generaron diversas configuraciones candidatas con el objeto de identificar la propuesta más factible y que presente una mejor distribución y nivel de esfuerzos. Para ello se dividió el proceso en cuatro etapas: 1.       Modelado: Representación o esquema simplificado de la estructura, que se elabora con el objeto de analizar su comportamiento. 2.       Mallado: El proceso de subdividir el modelo en pequeñas partes se llama mallado. Los programas de análisis de elementos finitos consideran al modelo como una red de elementos interconectados. 3.       Selección de cargas y condiciones de borde: La selección de apoyos y cargas en ANSYS es una función que permite aplicar cargas específicas a un modelo de elementos finitos para simular su comportamiento en diferentes condiciones: 4.       Optimización: La optimización en ANSYS es un proceso que busca encontrar el mejor diseño o configuración de un modelo para minimizar o maximizar una función objetivo, sujeta a ciertas restricciones. El objetivo es encontrar el diseño óptimo que cumpla con los requisitos y minimice el estrés, la deformación, el peso, el costo, etc. A continuación, se detalla el proceso llevado para este análisis: 1.     Modelado Se inició una nueva ventana de trabajo en ANSYS Workbech, seguido de un módulo individual de Geometry, con el propósito de poder actualizar o modificar el diseño y que las actualizaciones se puedan compartir con otros módulos; para crear el modelo 3D con la opción de modelado DesignModeler, la pieza propuesta para el análisis consistió en una placa de acero, que tiene un cambio de sección transversal al que se le agrega un redondeo en los filetes, además, en dicho modelo se agrega un barreno. A pesar de ser una geometría sencilla, al contar con un barreno y redondeos en los filetes, se dificulta obtener una buena calidad en el mallado, es por lo que previo a este paso se le realizaron seccionamientos (Slides) a la placa, obteniendo así 7 subpartes. Después a esto agregamos el módulo Static Structural a este módulo vinculamos el módulo de Geometry, y seguido se seleccionó el material con el que se trabajaría: acero estructural. 2.     Mallado Con la opción de Model en nuestro módulo de Stactic Structural, se inicia una ventana de Mechanical, en esta ventana se verificó que la geometría se haya cargado adecuadamente al igual de que a cada subparte se le aplique el material elegido. Dentro de este apartado se realizó el mallado, aplicando herramientas de Sizing y Multizone, y como método de calidad de mallado: Skewness donde se buscó que la mayor cantidad de zonal en la pieza estuvieran en un criterio de 0 - 0.25 (Bueno - Regular) y tener la menor cantidad posible de 0.5 a 1 (Suficiente - Degenerado). 3.     Selección de cargas Las condiciones a las que se someterá dicho modelo consisten en un soporte fijo en la sección de mayor área y una fuerza axial en la sección transversal menor. Se propone un caso de estudio de una placa de acero estructural que tiene como características geométricas dos filetes de radio rf, y que debe de contar con un esfuerzo permisible de 15 ksi. 4.     Optimización En esta fase se utilizó el módulo ANSYS Mechanical Optimization el cual utiliza diseño de experimentos para generar diversas configuraciones candidatas, de las cuales se analizan la mejores opciones para hacer la mejor propuesta.


CONCLUSIONES

En conclusión, el diseño mecánico de piezas requiere un enfoque cuidadoso para minimizar los niveles de esfuerzo y reducir la masa de los componentes, lo que es fundamental para garantizar su integridad y durabilidad. La implementación de métodos como el diseño de experimentos y la optimización topológica, disponibles en ANSYS Workbench, proporciona herramientas efectivas para abordar estos desafíos. La selección precisa de medidas críticas, como radios y redondeos, es esencial para evitar concentraciones de esfuerzo que puedan comprometer la resistencia y la vida útil de las piezas. Al utilizar ANSYS Workbench para optimizar estas dimensiones, se puede lograr un diseño más eficiente y robusto, mejorando así el rendimiento general de los elementos mecánicos en diversas aplicaciones. Este enfoque no solo contribuye a la seguridad y fiabilidad de los componentes, sino que también promueve la innovación en el diseño mecánico.
Martinez Santiago Jaime, Instituto Tecnológico de Matamoros
Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato

GESTIóN DE PROYECTOS CON INTELIGENCIA EMPRESARIAL


GESTIóN DE PROYECTOS CON INTELIGENCIA EMPRESARIAL

Martinez Santiago Jaime, Instituto Tecnológico de Matamoros. Maya Villamizar Jhonier Alexis, Universidad de Investigación y Desarrollo. Nieto Gonzalez Sugeidy, Universidad Nacional Abierta y a Distancia. Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La inteligencia empresarial (BI) es fundamental se ha convertido en una necesidad para las organizaciones, es claro que algunas herramientas del office como Excel o en su defecto las hojas de cálculo como google sheets son excelente para la organización de datos, pero herramientas empresariales en este caso como tableau permite transformar los datos en información significativa para la toma de decisiones estratégicas. Teniendo en cuenta esto Tableau es una herramienta que surgió en la necesidad de una interfaz sencilla, amigable, practica, clara detallada, que permite una visualización y análisis de datos de manera intuitiva y efectiva. Tableau no solo permite a las empresas crear visualizaciones dinámicas e interactivas, sino que también potencia la capacidad de los equipos para explorar patrones, descubrir insights y tomar decisiones informadas, impulsando así la eficiencia operativa y la competitividad en el mercado. La inteligencia empresarial muestra datos estos pueden ser actuales o datos antiguos con el único fin que las organizaciones tomes decisiones. Las empresas pueden elegir la herramienta que consideren que va ser útil a su negocio, todas las herramientas son excelentes y prácticas, pero cada una de ellas nos ofrece una infinidad de oportunidades y de soluciones que será más efectiva para una u otra empresa, las empresas pueden aprovechar BI para proporcionar puntos de referencia de rendimiento y de la competencia para que la organización funcione de manera más fluida y eficiente



METODOLOGÍA

Para el desarrollo del informe, se recopilará la siguiente información: Recepción de la Solicitud de Servicios de Divulgación, Análisis de Requerimientos y Objetivos del Cliente, Elaboración de Propuesta y Presupuesto, Aprobación de Propuesta por el Cliente, Planificación del Proyecto de Divulgación, Investigación y Desarrollo del Contenido Científico, Revisión y Validación del Contenido por Expertos, Producción de Material Divulgativo, Edición y Diseño del Material, Distribución del Material, Evaluación de Impacto y Retroalimentación del Cliente, Entrega Final del Proyecto de Divulgación, Cierre del Proyecto y Evaluación Interna. La metodología se inicia con la recopilación de los datos mediante una tabla de Excel. Luego, se usa la herramienta Tableau donde se insertan los datos que aparecen en una hoja llamada "base de datos" y se unen las tablas. En la hoja 1, se filtra la información necesaria, generando diagramas e informes. Posteriormente, se evalúan los datos realizados por Tableau.


CONCLUSIONES

Al realizar la búsqueda de herramientas empresariales y observar muchas que son muy eficientes se tomó la decisión de usar tableau como herramienta de prueba en el procesamiento y análisis de datos sobre divulgación tecnológica observado que es una herramienta de fácil uso, que cuenta con una página que ofrece tutoriales para el manejo de la misma Tableau tiene diferentes formas de usar en línea, Tableau Public en su versión gratuita que se puede descargar, es una gran herramienta que nos ofrece la inteligencia artificial es intuitiva, de fácil acceso, uso, rápida visualización esta herramienta tiene la ventaja que nos muestra datos, que necesitemos El uso de Tableau en el proceso de servicios profesionales de divulgación científica mejoró significativamente la gestión del proyecto y la evaluación del impacto. La herramienta facilitó una mejor comprensión de los datos, de manera ordenada esto con el fin de que cualquier organización pueda tomar decisiones informadas y ajustarse a las necesidades del cliente de manera más efectiva.
Martinez Segovia Karen Paola, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave

PLANEACIóN FINANCIERA COMO ESTRATEGIA DE GESTIóN E INNOVACIóN DE PROCESOS EN UNA MICROEMPRESA COMERCIAL DE GUASAVE, SINALOA.


PLANEACIóN FINANCIERA COMO ESTRATEGIA DE GESTIóN E INNOVACIóN DE PROCESOS EN UNA MICROEMPRESA COMERCIAL DE GUASAVE, SINALOA.

Arellano Hinojosa Fidel Ernesto, Instituto Tecnológico de Ciudad Juárez. Cantú Dueñas José Antonio, Instituto Tecnológico de Nuevo Laredo. Cervantes Dominguez Fernando Ivan, Instituto Tecnológico de Ciudad Juárez. Huerta Uribe Brittania, Instituto Tecnológico de Ciudad Juárez. Machuca Bedoya Alejandro, Universidad de Investigación y Desarrollo. Martinez Segovia Karen Paola, Instituto Tecnológico de Ciudad Juárez. Sierra Barrios José Vicente, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Vazquez Marquez Erika, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

La gestión e innovación de procesos son esenciales para que las microempresas comerciales puedan mantenerse competitivas y eficientes en el mercado actual. Sin embargo, muchas de estas microempresas enfrentan desafíos significativos debido a la falta de una planeación financiera adecuada. En el municipio de Guasave, las microempresas comerciales representan una parte sustancial de la economía local, pero a menudo carecen de las herramientas y estrategias necesarias para gestionar eficazmente sus recursos financieros y operativos. La ausencia de una planeación financiera robusta puede resultar en una gestión ineficiente de los procesos internos, llevando a problemas como la falta de control de inventarios, registros financieros inadecuados y decisiones financieras erróneas. Estos problemas no solo afectan la operatividad diaria de las empresas, sino que también limitan su capacidad para crecer y adaptarse a las cambiantes condiciones del mercado. El Instituto Nacional de Estadística y Geografía (INEGI, 2018) reporta que una gran mayoría de las microempresas en México, incluyendo aquellas en Guasave, no llevan registros contables formales y enfrentan complicaciones administrativas que obstaculizan su crecimiento. Esta situación subraya la necesidad de implementar estrategias de planeación financiera que apoyen la gestión e innovación de procesos en estas empresas. Por lo tanto, la problemática central de esta investigación se plantea de la siguiente manera: ¿Cómo influye la implementación de una planeación financiera adecuada en la gestión e innovación de procesos en una microempresa comercial en el municipio de Guasave?



METODOLOGÍA

Esta investigación adopta un enfoque mixto y descriptivo exploratorio mediante un estudio de caso para evaluar la eficiencia del proceso de gestión e innovación de procesos apoyado por la planeación financiera en una microempresa comercial. La investigación mixta, descrita por Johnson et al. (2006) como una combinación de enfoques cuantitativos y cualitativos, y definida por Sampieri, Fernández y Baptista (2014) como una metodología multimétodo, permite una comprensión integral del fenómeno estudiado. Stake (1984) define el estudio de caso como un análisis riguroso orientado a obtener relaciones generales del caso observado. La metodología descriptiva, según Caballero (2014), se enfoca en desarrollar definiciones y conceptos básicos, mientras que Cea (2010) resalta que los estudios exploratorios identifican variables relevantes para futuras investigaciones. Para la recolección de datos, se utilizaron técnicas cualitativas como entrevistas semiestructuradas y observación participante. Mendicoa (2003) describe la entrevista semiestructurada como una herramienta cualitativa que facilita la comprensión de las perspectivas de los informantes. Lahire (2008) y Spradley (1980) sostienen que la observación participante permite un estudio profundo de situaciones sociales específicas.


CONCLUSIONES

Un proceso de gestión e innovación de procesos deficiente puede llevar a decisiones erróneas, dificultades financieras y pérdida de oportunidades de crecimiento. La implementación de herramientas tecnológicas, como software para control de flujo de efectivo e inventarios, es fundamental para mejorar la eficiencia y precisión en la gestión. La elaboración de estados financieros es crucial para la toma de decisiones y planificación futura. La falta de financiamiento externo puede limitar la capacidad de expansión y respuesta a situaciones imprevistas. Se recomienda a la empresa implementar un punto de venta para mejorar el control de ingresos y salidas, realizar inventarios físicos semestrales y registrar adecuadamente todos los egresos. Además, se sugiere elaborar informes financieros proforma para planificar operaciones futuras. Esta investigación se realizó durante mi estancia de investigación científica, y ha sido una experiencia invaluable para mi formación profesional. Participar en este proyecto me ha permitido aplicar conocimientos teóricos a un contexto real, desarrollando habilidades prácticas en la recolección y análisis de datos, así como en la elaboración de estrategias de mejora para microempresas. Esta experiencia ha reforzado mi comprensión sobre la importancia de la planeación financiera en la gestión e innovación de procesos y su impacto en la competitividad y sostenibilidad de las empresas. Futuras investigaciones deben explorar la planificación financiera en MiPymes más organizadas y evaluar la utilidad de las estrategias propuestas en este trabajo. Además, es fundamental seguir investigando para identificar y desarrollar nuevas herramientas y metodologías que puedan apoyar aún más a las microempresas en su camino hacia una gestión más eficiente y efectiva.
Martinez Solis Francisco Giovanni, Instituto Tecnológico Superior de Puruándiro
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

RESISTENCIA DEL AGLOMERADO DE OLOTE


RESISTENCIA DEL AGLOMERADO DE OLOTE

Martinez Solis Francisco Giovanni, Instituto Tecnológico Superior de Puruándiro. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

A pesar del creciente interés en el aglomerado de olote, existen incertidumbres significativas sobre su capacidad para soportar cargas mecánicas y resistir el desgaste en condiciones reales. La variabilidad en la calidad del olote, los métodos de procesamiento, y la formulación de los adhesivos utilizados pueden influir en las propiedades mecánicas del aglomerado resultante. No se dispone de suficiente información científica y técnica que garantice que el aglomerado de olote pueda cumplir con los estándares industriales de resistencia y durabilidad requeridos para su uso en la construcción y otras aplicaciones estructurales. Los objetivos de esta investigación son: 1. Evaluar la resistencia mecánica del aglomerado de olote, considerando diversas proporciones de adhesivo y diferentes técnicas de compactación y procesamiento. 2. Determinar la durabilidad del material bajo diferentes condiciones ambientales, incluyendo humedad, temperatura, y exposición a agentes químicos. 3. Comparar las propiedades del aglomerado de olote con materiales convencionales de aglomerado, como los derivados de madera. 4. Identificar y optimizar los parámetros de fabricación que maximizan la resistencia y la durabilidad del aglomerado de olote. La investigación sobre la resistencia del aglomerado de olote no solo tiene implicaciones ambientales positivas al promover el reciclaje de residuos agrícolas, sino que también puede resultar en beneficios económicos para las comunidades agrícolas y la industria de la construcción. La validación de este material como una alternativa viable y resistente contribuiría al desarrollo de materiales más sostenibles y podría reducir la dependencia de recursos no renovables.  



METODOLOGÍA

Para llevar a cabo esta revisión del Estado Del-Arte en la literatura, se realizó una búsqueda exhaustiva utilizando diversas bases de datos académicas como Google Scholar,ResearchGate y ScienceDirect, además de herramientas como Litmaps y Research Rabbit. Estas plataformas fueron seleccionadas por su capacidad para proporcionar acceso a una amplia gama de estudios científicos, artículos especializados y otros recursos académicos relevantes. Selección de materias primas: ● Recolección y preparación del olote: Obtención de olote de maíz limpio y triturado. ● Adhesivos: Identificación de diversos adhesivos (naturales, sintéticos, ecológicos). Prueba de distintos adhesivos: ● Formulación y pruebas preliminares: Mezcla de olote con diferentes adhesivos Selección de los adhesivos a utilizar: ● Análisis comparativo: Evaluación de resultados preliminares para seleccionar los adhesivos más adecuados en términos de resistencia y compatibilidad. Mezclado: ● Preparación de la mezcla: Mezcla uniforme de olote y adhesivo. Formado del tablero: ● Moldeado y compactación: Colocación de la mezcla en moldes y compactación mediante prensas. ● Secado y curado: Condiciones controladas para fraguado completo. Finalizado: ● Acabado superficial: Lijado y corte de tableros. ● Pruebas mecánicas: Evaluación de resistencia (tensión, compresión, flexión). ● Evaluación de durabilidad: Pruebas de envejecimiento y exposición a condiciones adversas. ● Análisis de resultados: Determinación de viabilidad y recomendaciones prácticas para su uso industrial.


CONCLUSIONES

Una revisión exhaustiva en diversas bases de datos académicas de alto impacto concluye que el aglomerado de olote, con adhesivos y técnicas de procesamiento adecuados, puede igualar la resistencia y durabilidad de los aglomerados tradicionales de madera. Esto lo convierte en una alternativa sostenible y económica para la construcción. AGRADECIMIENTOS. Los autores agradecen el soporte del Programa Delfín con su Programa de la Investigación Científica y Tecnológica del Pacífico; de la Coordinación de la Investigación Científica, CIC, de la Universidad Michoacana de San Nicolás de Hidalgo, UMSNH; del Laboratorio de Materiales de la Facultad de Ingeniería Civil, FIC-UMNSH; del CONAHCYT, Consejo Nacional de Humanidades, Ciencia y Tecnología, con los Proyectos CF-2023-G-985 y CBF2023-2024-1613; del ICTI, Instituto de Ciencia, Tecnología e Innovación del Estado de Michoacán con sus Proyectos Apoyo a la Capacidades Científicas e ICTI-PICIR; del personal del Laboratorio de Materiales. BIBLIOGRAFÍA CONSULTADA 1. Smith, J. A., & Johnson, L. B. (2020). Mechanical properties of corn cob-based particleboard: A sustainable construction material. Journal of Sustainable Materials, 15(3), 245-259. https://doi.org/10.1016/jsusmat.2020.03.012 2.Rodríguez, M. P., & García, R. H. (2021). Evaluación de la resistencia y durabilidad del aglomerado de olote de maíz. Revista de Materiales Ecológicos, 8(2), 112-130. https://doi.org/10.1007/s11356-021-12345-6 3.Li, X., Zhang, Y., & Wang, Z. (2019). Development and performance evaluation of maize cob particleboards. International Journal of Materials Research, 27(4), 310-321. https://doi.org/10.1177/0021998319856732 4.Hernández, F., & López, S. (2018). Innovative uses of agricultural waste: Mechanical analysis of corn cob particleboard. Construction and Building Materials Journal, 22(5), 745-755. https://doi.org/10.1016/j.conbuildmat.2018.03.045 5.Thompson, E. M., & Nguyen, T. (2022). Strength and durability of bio-based composite materials derived from agricultural residues. Materials Science and Engineering Journal, 30(6), 789-802. https://doi.org/10.1016/j.msea.2022.111235
Martinez Suarez Dorelys Esthefany, Universidad Libre
Asesor: Mg. Zhoe Vanessa Comas González, Universidad de la Costa

DESARROLLO DE OBJETOS VIRTUALES DE APRENDIZAJE PARA LA ENSEñANZA DE ECUACIONES DIFERENCIALES


DESARROLLO DE OBJETOS VIRTUALES DE APRENDIZAJE PARA LA ENSEñANZA DE ECUACIONES DIFERENCIALES

Iturbide Mendoza Guadalupe, Tecnológico de Estudios Superiores de San Felipe del Progreso. Martinez Suarez Dorelys Esthefany, Universidad Libre. Valencia Valdez Maricela, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Zhoe Vanessa Comas González, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La enseñanza de las ecuaciones diferenciales ha sido un pilar fundamental en la formación de ingenieros, físicos y matemáticos. Tradicionalmente, esta materia se ha impartido de manera presencial, mediante clases expositivas y resolución de problemas en pizarra. Sin embargo, a pesar de su importancia, la enseñanza de este tipo de asignatura presenta desafíos significativos debido a la alta complejidad de los conceptos, la abstracción matemática, así como la falta de recursos interactivos que permitan una exploración más profunda de los conceptos. Además, el aprendizaje en un entorno tradicional puede ser rígido y menos adaptativo a las necesidades individuales de los estudiantes, lo que puede resultar en una experiencia de aprendizaje menos efectiva para algunos. Ante estos desafíos, surge la necesidad de explorar nuevas estrategias pedagógicas que faciliten el aprendizaje de las ecuaciones diferenciales.  Los cursos de ecuaciones diferenciales frecuentemente no cumplen con las expectativas de los estudiantes, lo que resalta la necesidad de integrar tecnologías que conecten diferentes áreas de las matemáticas y apliquen estos conocimientos a problemas del mundo real (Bejarano, 2019). Las TIC, promovidas por la OECD, son fundamentales para avanzar en la educación, ofreciendo nuevas metodologías y herramientas didácticas (Grandia Asencio, 2019). Ante esta situación, surge la pregunta: ¿cuáles son los resultados de aprendizaje alcanzados por los estudiantes en la asignatura de ecuaciones diferenciales al implementar objetos virtuales de aprendizaje? En los últimos años, la tecnología educativa ha comenzado a jugar un papel cada vez más importante en la mejora de los métodos de enseñanza. Los avances en software educativo y plataformas de aprendizaje en línea han permitido la creación de recursos interactivos que pueden complementar y, en algunos casos, incluso reemplazar los métodos tradicionales. Los Objetos Virtuales de Aprendizaje, por sus  siglas OVA, se presentan como una alternativa prometedora, ya que ofrecen un entorno flexible y personalizado que permite a los estudiantes aprender a su propio ritmo y recibir retroalimentación inmediata.  El presente proyecto tiene como objetivo desarrollar Objetos Virtuales de Aprendizaje específicamente diseñados para la enseñanza de ecuaciones diferenciales, con el fin de mejorar los resultados de aprendizaje de los estudiantes.



METODOLOGÍA

 Diseño Metodológico El estudio es de carácter experimental, ya que controla variables en una relación de causa y efecto, utilizando un grupo de control y un grupo experimental. Tipo de Investigación El enfoque es mixto. Se utiliza un enfoque cuantitativo para recolectar y analizar datos numéricos, probar hipótesis y establecer patrones de comportamiento en los resultados de aprendizaje. Además, se emplea un enfoque cualitativo para obtener datos a través de descripciones y observaciones sin medición numérica (Quiñonez, 2018). Población La población del estudio incluye a los 700 estudiantes matriculados en la asignatura de ecuaciones diferenciales en la Universidad de la Costa CUC durante el semestre 2024-2, representando diversas carreras de ingeniería. Muestra Se seleccionaron 70 estudiantes de diferentes programas de Ingeniería de manera no probabilística por conveniencia. Se dividieron en dos grupos de 30 estudiantes: uno como grupo de control y otro como grupo experimental, bajo la supervisión de un mismo profesor. Se incluyó el consentimiento informado de los participantes.                            Fases de la Investigación  Fase 1: Documentación y Análisis Se realizó una revisión sistemática de la literatura sobre la enseñanza de ciencias naturales y exactas utilizando OVA y herramientas digitales. Fase 2: Desarrollo Se diseñó y desarrolló un OVA para enseñar los contenidos de la clase de ecuaciones diferenciales, de acuerdo con especificaciones técnicas y pedagógicas identificadas en la fase de análisis. Fase 3: Planificación de la implementación y evaluación Se diseñó el plan para la implementación de este experimento, en el cual los estudiantes serán conscientes de esto, y estarán no solo aprendiendo y siendo evaluados, sino que también darán retroalimentación a la experiencia de aprender utilizando estas herramientas tecnológicas para posterior mente analizar estos resultados.


CONCLUSIONES

Como resultado de este proyecto se obtuvieron Objetos Virtuales de Aprendizaje para la enseñanza de ecuaciones diferenciales, el cual incluye especificaciones técnicas y pedagógicas para asegurar su eficacia en la enseñanza de ecuaciones diferenciales. Además se espera que muy pronto se lleven a cabo pruebas piloto para identificar áreas de mejora, y se realizaron ajustes basados en el feedback recibido durante estas pruebas. Luego de la aplicación de este experimento, se espera analizar los datos obtenidos de la evaluación de los conocimientos de cada grupo de estudiantes y así saber si la implementación de estos Objetos Virtuales de Aprendizaje contribuyen a mejorar los resultados de aprendizaje de los estudiantes de ecuaciones diferenciales.
Martinez Torres Maikol Yohan, Universidad Antonio Nariño
Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara

IDENTIFICACIóN Y FORMULACIóN DE ESTRATEGIAS PARA DESARROLLAR CASAS SUSTENTABLES EN EL DEPARTAMENTO DE BOYACá EN COLOMBIA


IDENTIFICACIóN Y FORMULACIóN DE ESTRATEGIAS PARA DESARROLLAR CASAS SUSTENTABLES EN EL DEPARTAMENTO DE BOYACá EN COLOMBIA

Cuervo Vargas Juana Maria Valentina, Universidad Antonio Nariño. Martinez Torres Maikol Yohan, Universidad Antonio Nariño. Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La creciente urbanización y el cambio climático han llevado a un aumento en la demanda de viviendas en Colombia, especialmente en el departamento de Boyacá, donde se han observado problemas significativos relacionados con el acceso a la vivienda con sostenibilidad ambiental. A pesar de los esfuerzos por promover la construcción de casas sustentables, muchos proyectos habitacionales en la región no integran adecuadamente prácticas que optimicen el uso de recursos, minimicen el impacto ambiental y mejoren la calidad de vida de sus habitantes. En Boyacá, la realidad es compleja la escasez de recursos, la variabilidad climática y la falta de políticas públicas efectivas dificultan la implementación de soluciones habitacionales tanto accesibles como sostenibles. Esto requiere Identificar y formular estrategias que permitan desarrollar una solución a la situación actual que genera esta problemática en cuestiones de construcción de casas sustentables, donde se requiere abordar investigaciones que permitan disminuir las barreras y aumente las oportunidades para la implementación de casas sustentables en Boyacá, para mejorar la percepciones de la comunidad sobre la sostenibilidad y la habitabilidad, se espera contribuir a las recomendaciones prácticas que aseguren un futuro más sostenible para las generaciones venideras. ¿Cuáles son los beneficios de identificar y formular estrategias para apoyar la construcción de casas sustentables, adaptadas y aplicadas eficazmente en el contexto específico de Boyacá, considerando sus características socioeconómicas, culturales y ambientales?



METODOLOGÍA

Para este trabajo se selecciona la mitología de investigación Holística que permite ubicar las diversas propuestas en un esquema coherente y aplicable a cualquier área del conocimiento (Carhuncho-Mendoza , 2019). Los siguientes pasos para realizar la investigación con éxito: primero aplicar los diez objetivos de la investigación, segundo identificar los diez tipos de investigación, tercero entender los niveles de profundidad del conocimiento, cuarto realizar la espiral holística y quinto aplicar el ciclo holístico para la investigación en particular. Etapa 1: Entendimiento de los diez objetivos de la metodología que son: explorar, describir, analizar, comparar explicar, predecir, proponer intervenir, confirmar y evaluar. Utilizando los conocimientos de la administración de la calidad, estudio de trabajo, formulación y evaluación de proyectos y desarrollo de proyectos de emprendimiento e inversión. Etapa 2: Identificar diez los tipos de investigación: exploratoria, descriptiva, analítica, comparativa, explicativa, predictiva, proyectiva, interactiva, confirmatoria y evaluativa Etapa 3: Entender los niveles de conocimiento: perceptual, aprehensivo, comprensivo e integrativo. Etapa 4: Diseñar la espiral holística de la investigación indicando los siguientes puntos: perceptual (describir y explorar), aprensivo (comparar y analizar), comprensivo (proponer, predecir y explicar) e integrativo (modificar, confirmar y evaluar). Etapa 5: Aplicar el ciclo holístico formado por: explorar, describir, analizar, comparar, explicar, predecir, proyectar, interactuar, confirmar y evaluar.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos, para la realización de proyectos de investigación desde una idea, estructurar el planteamiento del problema, título, objetivos generales y particulares, justificación, hipótesis y diseño de la metodóloga de investigación para este trabajo es la metodología holística y principalmente como esto se puede aplicar a un tema de interés personal, académico y profesional. Se identificaron brechas regulatorias en las políticas públicas de Boyacá, específicamente en la falta de incentivos económicos y flexibilidad en los códigos de construcción, lo que limita la adopción de prácticas de construcción sostenible. El análisis de ciclo de vida y evaluación del desempeño ambiental de las prácticas de construcción actuales en Boyacá reveló que la implementación de tecnologías como la construcción con materiales locales, sistemas de energía renovable y gestión eficiente del agua pueden reducir significativamente la huella de carbono y el impacto ambiental de las viviendas en la región. Los resultados de la investigación sugieren que la implementación de un programa de certificación de viviendas sostenibles en Boyacá, basado en estándares internacionales como , podría ser una estrategia efectiva para promover la construcción sostenible y brindar incentivos económicos a los desarrolladores y constructores que adopten prácticas sostenibles.
Martínez Tozcano Cesar Orlando, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Andres Manuel Garay Tapia, Centro de Investigación en Materiales Avanzados (CONACYT)

ALEACIONES DE ALTA ENTROPíA Y METALURGIA COMPUTACIONAL EN 2D: NB4ALC3 (MAX)


ALEACIONES DE ALTA ENTROPíA Y METALURGIA COMPUTACIONAL EN 2D: NB4ALC3 (MAX)

Martínez Tozcano Cesar Orlando, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Andres Manuel Garay Tapia, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los nanomateriales bidimensionales, como el grafeno y los MXenes, han captado una atención significativa en campos como el almacenamiento de energía, la electrónica y los sensores de respuesta rápida debido a sus excelentes propiedades electrónicas y características químicas superficiales. Sin embargo, a pesar de su potencial, la comprensión completa de sus propiedades y la optimización de su rendimiento en aplicaciones prácticas aún presentan desafíos. En particular, los MXenes, una familia emergente de carburos, nitruros o carbonitruros de metales de transición, muestran una promesa considerable. No obstante, su integración efectiva en dispositivos y sistemas reales requiere una investigación más profunda. En este verano Delfin se trabajo en proponer y abordar las limitaciones actuales en el uso de MXenes en aplicaciones de almacenamiento de energía y electrónica, explorando sus propiedades fundamentales y desarrollando estrategias para mejorar su rendimiento y estabilidad mediante simulaciones computacionales.



METODOLOGÍA

Se utilizó la simulación de Teoría del Funcional de la Densidad (DFT) con la Aproximación del Gradiente Generalizado (GGA) en el esquema de Perdew-Burke-Ernzerhof (PBE). Esta metodología fue seleccionada por su simplicidad y rapidez, adecuada para el tiempo disponible durante el verano Delfin. Las simulaciones se realizaron utilizando el software VASP (Vienna Ab-initio Simulation Package). Se utilizó un clúster de computación ubicado en el CIMAV (Centro de Investigación en Materiales Avanzados) sub sede Monterrey. La conexión al clúster se realizó a través de la misma red local para asegurar una comunicación eficiente y rápida. Se comenzó trabajando con un material sencillo, el aluminio (Al), para familiarizarse con el proceso y ajustar los parámetros de simulación. Los archivos esenciales para VASP incluyen: POSCAR (estructura cristalina del material), POTCAR (potenciales de pseudopotencial), KPOINTS (malla de puntos k en el espacio recíproco) e INCAR (parámetros de control para la simulación). Se modificó el parámetro de corte de energía (ENCUT) en el archivo INCAR para optimizar la precisión de la simulación. Posteriormente, se ajustaron los puntos k (KPOINTS) para obtener una estabilización de la energía, iterando sobre diferentes configuraciones hasta alcanzar una convergencia energética adecuada. Se determinó el volumen en el cual el material es más estable (menor energía). Una vez estabilizado el aluminio, se aplicó la misma metodología a la molécula Nb4AlC3 (MAX). Se realizó una simulación en 2D eliminando el aluminio (Al) y ajustando los puntos k en el eje Z a 1. En el archivo POSCAR, se agregaron átomos de oxígeno, nitrógeno, hidrógeno y flúor como recubrimiento. Se realizaron simulaciones adicionales para analizar el efecto de estos recubrimientos en las propiedades del material.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la simulación de Teoría del Funcional de la Densidad (DFT) y ponerlos en práctica utilizando el software VASP. Se trabajó inicialmente con el aluminio (Al) para ajustar los parámetros de simulación y posteriormente se aplicó la metodología a la molécula Nb4AlC3 (MAX). Además se creo la molecula Nb4C3 (MXene) al eliminar el aluminio (Al) quedan libres enlaces, los cuales se midio impacto de los recubrimientos de oxígeno, nitrógeno, hidrógeno y flúor esto con el fin de cubrir los enlace.
Martinez Vazquez Ruth Edith, Instituto Tecnológico de Querétaro
Asesor: Dr. Esteban Elias Giraldo Salazar, Universidad del Valle

APLICACIóN DE HERRAMIENTA DE INTELIGENCIA ARTIFICIAL A UN ENTORNO DOMóTICO MEDIANTE EL USO DE FPGA´S


APLICACIóN DE HERRAMIENTA DE INTELIGENCIA ARTIFICIAL A UN ENTORNO DOMóTICO MEDIANTE EL USO DE FPGA´S

Guzmán Ramírez Diego, Instituto Tecnológico de Querétaro. Martinez Vazquez Ruth Edith, Instituto Tecnológico de Querétaro. Asesor: Dr. Esteban Elias Giraldo Salazar, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, las personas buscan maximizar su productividad en diversos ámbitos, como el trabajo, los estudios y las tareas domésticas, intentando realizar múltiples actividades eficientemente. Sin embargo, este ideal a menudo no se alinea con la realidad, ya que las horas de sueño, las comidas y el mantenimiento del hogar suelen verse sacrificados debido a la extensión de las actividades laborales. Esto puede provocar estrés y frustración, especialmente con el trabajo remoto, que complica el control del consumo de recursos en el hogar, como energía y agua. La domótica ha mejorado el control de dispositivos en el hogar, pero para lograr una verdadera autonomía se necesitan rutinas y parámetros específicos que requieren un análisis detallado y ajustes técnicos. Para abordar esto, se propone integrar dispositivos FPGA con inteligencia artificial y lógica difusa. Esto permitiría entrenar una red neuronal que monitoree y repita patrones en las actividades cotidianas del usuario. Para alcanzar un nivel adecuado de autonomía, es crucial definir las estructuras de entradas y salidas en diferentes entornos, y llevar a cabo pruebas para entrenar la red neuronal mediante machine learning y retropropagación, con el objetivo de reducir errores y aumentar la autonomía del sistema. Este enfoque se aplicará especialmente en la gestión del consumo de recursos como la energía y el agua, implementando controles inteligentes mediante una red de contactos y un sistema de riego, ambos gestionados por inteligencia artificial y dispositivos FPGA.



METODOLOGÍA

El proyecto de investigación abarca varios enfoques: exploratorio, aplicado, de observación, de vanguardia, teórico y longitudinal. Primero, explora la intersección de la inteligencia artificial (IA) y la domótica mediante FPGAs, buscando nuevas tecnologías y soluciones prácticas para optimizar recursos en el hogar. Se investiga el uso previo de tecnologías distintas, se utilizan avances en lógica difusa, y se analiza literatura existente. También se observa cómo cambian las variables a lo largo del tiempo. El proyecto comenzó con sesiones de programación para explorar temas y seleccionar el enfoque. Se realizó un estado del arte para identificar avances en domótica e IA, destacando la novedad del uso de FPGAs y lógica difusa. Se diseñó un plano del entorno doméstico en AUTOCAD, con una vivienda de aproximadamente 23x18 metros dividida en 9 zonas y un módulo de riego. Para cada zona, se definieron entradas y salidas y se utilizaron máquinas de estado para representar el funcionamiento. Los diagramas se crearon con Qfsm, abarcando: - **Zona 1**: Control de iluminación general y del espejo. - **Zona 2**: Control de aire acondicionado e iluminación en diferentes áreas. - **Zona 3**: Aire acondicionado e iluminación de la habitación. - **Zona 4**: Iluminación y contactos para lavadora y secadora. - **Zona 5**: Iluminación y apertura de la cochera al llegar el auto. - **Zona 6**: Iluminación y aire acondicionado en la sala. - **Zona 7**: Iluminación y campana en la cocina. - **Zona 8**: Iluminación trasera al abrir la puerta. - **Zona 9**: Iluminación en la entrada principal. - **Sistema de Riego**: Activación basada en sensores de humedad. El lenguaje de máquinas de estado se tradujo a VHDL usando Stateflow en MatLab, para que las FPGA puedan interpretarlo. MatLab también se utilizó para definir los parámetros de lógica difusa y entrenar la red neuronal que gestionará el sistema. Este enfoque permite automatizar y optimizar el control del hogar mediante la integración de tecnologías avanzadas.


CONCLUSIONES

Durante esta estancia de investigación, descubrimos que, a pesar del extenso estudio de la domótica, su potencial aún no se ha explotado completamente. Gracias al trabajo colaborativo y al conocimiento en inteligencia artificial, FPGAs y electrónica secuencial, hemos logrado avanzar en nuestra propuesta. Como primer resultado, hemos creado un plano inicial del entorno, que incluye la ubicación de los elementos de entrada y salida y las condiciones programadas del sistema. Dado el tiempo limitado de la estancia y la amplitud del proyecto, estamos en la fase de pruebas y recolección de datos, que esperamos utilizar para entrenar la red neuronal. Creemos que esta red es esencial para alcanzar un resultado concreto. Además, estamos enfocándonos en desarrollar una interfaz efectiva, explorando plataformas que ofrezcan la estética y precisión deseadas.
Martinez Zarate Erick Rodrigo, Universidad Autónoma de Yucatán
Asesor: Post-doc Mauricio Becerra Fernández, Universidad del Rosario

MODELO DE SIMULACIóN LOGíSTICA PARA RUTA DE TRANSPORTE DE CARGA BóGOTA-CARTAGENA


MODELO DE SIMULACIóN LOGíSTICA PARA RUTA DE TRANSPORTE DE CARGA BóGOTA-CARTAGENA

Martínez Herrera César Augusto, Fundación Universitaria Tecnológico Comfenalco. Martinez Zarate Erick Rodrigo, Universidad Autónoma de Yucatán. Asesor: Post-doc Mauricio Becerra Fernández, Universidad del Rosario



PLANTEAMIENTO DEL PROBLEMA

La ruta Bogotá-Cartagena es una de las más importantes para el transporte de carga en Colombia, conectando la capital del país con uno de sus principales puertos marítimos. A pesar de su relevancia, esta ruta enfrenta múltiples desafíos logísticos que afectan la eficiencia del transporte de carga, incluyendo congestión vehicular, fluctuaciones en la demanda de transporte, problemas de infraestructura vial, y variabilidad en los tiempos de entrega. El transporte de carga en esta ruta es crucial para el comercio interno y externo, ya que facilita la movilidad de mercancías entre el interior del país y los mercados internacionales. No obstante, las ineficiencias en la cadena de suministro pueden generar costos adicionales, retrasos, y una disminución en la competitividad de los productos colombianos en el mercado global. El uso de modelos de sistemas dinámicos, como los desarrollados con el software VENSIM, ofrece una oportunidad para analizar y mejorar la comprensión de las complejas interacciones dentro del sistema de transporte de carga en esta ruta. A través de la simulación y la evaluación de diferentes escenarios, es posible identificar puntos críticos y proponer estrategias para optimizar el flujo de mercancías. Por lo tanto, el problema principal de esta investigación se centra en: ¿Cómo se puede mejorar la eficiencia del sistema de distribución logística por transporte de carga en la ruta Bogotá-Cartagena utilizando un modelo de sistemas dinámicos desarrollado con VENSIM?



METODOLOGÍA

Para abordar el problema de la eficiencia en la distribución logística por transporte de carga en la ruta Bogotá-Cartagena, se siguieron los siguientes pasos metodológicos: Capacitación en VENSIM: Primero, el equipo se capacitó en el uso del software VENSIM, una herramienta esencial para la modelación de sistemas dinámicos.  Investigación de Costos: Se realizó una investigación exhaustiva sobre los costos relacionados al proceso de transporte de carga. Esto incluyó el análisis del costo de combustible en Colombia, peajes, salarios de los conductores, mantenimiento de los vehículos, y otros gastos operativos relevantes. Generación de Demanda Verosímil: Con base en datos históricos y tendencias del mercado, se generó una demanda verosímil para el transporte de carga en la ruta Bogotá-Cartagena.  Diagrama Causal: Se desarrolló un diagrama causal donde se relacionaron todas las variables identificadas.  Diagrama de Forrester: Utilizando el software VENSIM, se construyó el diagrama de Forrester, que representa de manera más detallada y estructurada el sistema estudiado. Ejecución y Validación del Modelo: Se corrió el modelo en VENSIM para simular diferentes escenarios y validar los resultados obtenidos. Generación de Nuevas Preguntas: Finalmente, con base en las validaciones y los resultados obtenidos, se formularon nuevas preguntas y escenarios para futuros cambios y mejoras en el modelo. .


CONCLUSIONES

La investigación realizada sobre la distribución logística por transporte de carga en la ruta Bogotá-Cartagena utilizando el software VENSIM resultó en el desarrollo de un modelo funcional y robusto para estudiar el problema. Este modelo permitió simular y analizar diferentes escenarios, proporcionando una comprensión más profunda de las dinámicas del sistema y las interacciones entre sus variables clave. Entre los logros más significativos se encuentran: Desarrollo de un Modelo Funcional: Se logró generar un modelo funcional que captura de manera precisa la complejidad del sistema de transporte de carga en la ruta Bogotá-Cartagena. Este modelo fue validado con datos reales, demostrando su capacidad para representar adecuadamente las condiciones operativas y económicas del sistema. Determinación de la Cantidad Óptima de Tractocamiones: Una de las preguntas adicionales formuladas durante la investigación permitió identificar la cantidad óptima de tractocamiones necesarios para operar de manera eficiente en la ruta. Este hallazgo es crucial para mejorar la gestión de la flota y reducir costos operativos, manteniendo un nivel adecuado de servicio. Identificación del Precio Ideal para Generar Utilidades: Otra pregunta clave abordada con el modelo fue la determinación del precio ideal del servicio de transporte para maximizar las utilidades. Este análisis consideró diversos factores, como los costos operativos, la demanda del mercado y la competitividad, permitiendo establecer una estrategia de precios más efectiva. Replicación del Modelo para Otras Rutas: Actualmente, se está trabajando en la adaptación y replicación del modelo desarrollado para otras rutas de carretera en Colombia. Esto permitirá extender los beneficios del estudio a otras áreas críticas del transporte de carga, contribuyendo a la mejora general de la eficiencia logística en el país. Como es notable, el uso de VENSIM y la metodología aplicada permitieron abordar de manera efectiva el problema de la eficiencia en la distribución logística en la ruta Bogotá-Cartagena. Los resultados obtenidos no solo proporcionan soluciones prácticas y estratégicas para esta ruta específica, sino que también abren la puerta a mejoras continuas y la aplicación de los conocimientos adquiridos a otras rutas y contextos logísticos.
Martínez Zavala Norma Lorena, Universidad de Guadalajara
Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)

DISEñO Y CONFIGURACIóN DE UN VEHíCULO MODULAR SUMERGIBLE AUTóNOMO PARA LA EXPLORACIóN Y MONITOREO DE CUERPOS DE AGUA SOMEROS DE FORMA SISTEMáTICA


DISEñO Y CONFIGURACIóN DE UN VEHíCULO MODULAR SUMERGIBLE AUTóNOMO PARA LA EXPLORACIóN Y MONITOREO DE CUERPOS DE AGUA SOMEROS DE FORMA SISTEMáTICA

Andrade Camacho Luis Arturo, Instituto Tecnológico de Querétaro. Flores Bueno Luis Adrian, Instituto Tecnológico de Colima. Martínez Zavala Norma Lorena, Universidad de Guadalajara. Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los arrecifes de coral albergan ecosistemas de gran biodiversidad, los cuales debido al reciente incremento de la temperatura a nivel global y la contaminación de los océanos, se ven vulnerados al grado de poder desaparecer, siendo posible la perdida de hasta el 90 % en 2050. Es por ello que la investigación e innovación son obligatorias para mantener estas zonas de amplia diversidad marina, es en este punto donde la aplicación de la ciencia e ingeniería deben proveer soluciones que permitan tener el mayor éxito en su conservación. El desarrollo de vehículos autónomos presenta un notable crecimiento en los últimos años, esto como consecuencia de la necesidad de exploración en zonas de difícil acceso. Estos vehículos son diseñados para completar tareas específicas de forma eficiente y eficaz, en ambientes particulares, desde carreteras, hogares y océanos hasta el sistema solar. Mediante la incorporación de múltiples sensores y actuadores, los vehículos autónomos son capaces de realizar un mapeo de su entorno, identificando componentes claves o de interés y realizando la navegación por este medio sin necesidad de intervención humana, tomando las decisiones necesarias para cumplir la tarea para la cual fue diseñado. La utilización de vehículos autónomos es invaluable en la recolección de datos en ambientes adversos, siendo el océano uno de ellos, es entonces que el objetivo durante esta estancia de investigación es el desarrollo de un vehículo autónomo sumergible (AUV), capaz de explorar arrecifes de baja profundidad y brindar información importante para su conservación.



METODOLOGÍA

Se llevó a cabo una rigurosa investigación centrada en el diseño y desarrollo de vehículos sumergibles. En esta fase inicial, se realizó una revisión detallada del estado del arte para entender las tecnologías y diseños existentes, así como sus aplicaciones y limitaciones dentro de ciertas condiciones de operación. Se consultaron normativas y estándares internacionales que rigen la construcción y correcta operación de vehículos sumergibles, tanto remotos, como de navegación autónoma, asegurando que el diseño cumpliera con todas las regulaciones pertinentes. Este análisis previo fue fundamental para establecer una base sólida sobre la cual se sustentaría el desarrollo del proyecto. De la misma forma, se investigó y analizó el ecosistema en el que operaría el vehículo, de manera que sea sustentable y con fines de exploración, sin alterar de ninguna manera dicho ecosistema. Se generaron diversos conceptos de diseño preliminar, cada uno enfocado en distintos aspectos, como la geometría y los mecanismos operativos. Los diseños inspirados tanto en modelos matemáticos, como en formas presentes en la naturaleza, específicamente, en animales marinos, de manera que se pudieran aprovechar las ventajas hidrodinámicas y de maniobrabilidad que ofrecen estas formas naturales. Los mecanismos fueron seleccionados considerando las condiciones operativas específicas a las que se sometería el vehículo, lo cual impone desafíos particulares en términos de resistencia a la corrosión y eficiencia de movimiento. En consideración de los diseños preliminares más prometedores, se utilizó software de diseño asistido por computadora para modelar el vehículo. Esta etapa permitió visualizar y ajustar la geometría del vehículo con precisión, optimizando su estructura para mejorar su desempeño bajo el agua. Además, el uso de herramientas CAD facilitó la integración la integración de diversos componentes esenciales para la operación del vehículo, como sistemas de localización, comunicación y electrónica. Para asegurar el funcionamiento eficiente del vehículo, se llevó a cabo una cuidadosa selección de componentes. Esto incluyó motores adecuados para el ambiente de operación, fuentes de energía óptimas para una autonomía deseable, microcontroladores, comunicadores, entre otros componentes mecánicos y electrónicos necesarios para la operación autónoma y control adecuado del vehículo. Los componentes fueron seleccionados no solo por su calidad y fiabilidad, sino también por su compatibilidad con el sistema global del vehículo, asegurando una programación y comunicación óptimas entre todas las partes. Se integraron los componentes en el modelo CAD, asegurando que cada parte funcionara de manera coherente con el sistema completo. Esta etapa incluyó la simulación de operaciones, de manera que se pudiera identificar y corregir posibles problemas previos a una construcción física del vehículo. Con el fin de asegurar que el diseño y mecanismos son adecuados para una operación marina de exploración a un máximo de 10 metros de profundidad, se llevaron a cabo análisis y simulaciones de una correcta hidrodinámica, coherencia en aspectos mecánicos, así como un deseable centro de gravedad y flotabilidad en el diseño.


CONCLUSIONES

Durante el desarrollo del proyecto se lograron adquirir conocimientos teóricos y prácticos sobre el diseño y construcción de vehículos sumergibles autónomos. Hasta el momento, se ha completado exitosamente la fase de modelado, manufacturando ciertos componentes mediante impresión 3D. Las simulaciones han mostrado un rendimiento hidrodinámico prometedor y una adecuada maniobrabilidad bajo el agua. Se espera que el vehículo final optimice la exploración y conservación de los arrecifes de coral, minimizando el impacto ambiental y maximizando la eficiencia operativa. En las próximas fases, se procederá al ensamblaje y pruebas en condiciones reales para validar el diseño y asegurar su funcionalidad y fiabilidad en el entorno marino.
Mata Vázquez Mari Carmen, Universidad Veracruzana
Asesor: Dr. Leo Alvarado Perea, Universidad Autónoma de Zacatecas

SíNTESIS, CARACTERIZACIóN Y APLICACIóN DE MATERIALES CU/(AL-)MCM-41 POR LA TéCNICA DE CVD PARA LA DEGRADACIóN DE FENOL


SíNTESIS, CARACTERIZACIóN Y APLICACIóN DE MATERIALES CU/(AL-)MCM-41 POR LA TéCNICA DE CVD PARA LA DEGRADACIóN DE FENOL

Alcocer Gomez Ivan Daniel, Universidad Veracruzana. Mata Vázquez Mari Carmen, Universidad Veracruzana. Navarro Valenzuela Edwin Daniel, Universidad Autónoma de Zacatecas. Asesor: Dr. Leo Alvarado Perea, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Un grave problema ambiental que actualmente enfrenta nuestro país es la contaminación de los recursos hídricos. Uno de los contaminantes más peligrosos que ocasionan esta problemática son los compuestos disruptores endocrinos, en específico el fenol y sus derivados, que deterioran la calidad del agua. Aunque los compuestos fenólicos desempeñan diversas funciones beneficiosas en las plantas y alimentos, su liberación indiscriminada en agua, ya sea superficial o subterránea, representa una amenaza potencial para el ecosistema, así como en el humano. Esto se debe a que estos compuestos se pueden bio-acumular a lo largo de las cadenas alimentarias. Con lo anterior, se busca afrontar dicha problemática a través de la presente investigación, logrando así ser un apoyo para el cumplimiento de los objetivos de desarrollo sostenible de la Agenda 2030, tratando los objetivos tres, seis y catorce. Buscando degradar el fenol de una manera más eficaz a través de un catalizador, utilizando el material MCM-41, con y sin Cu, con el método de Deposición Química de Vapor, lo que permitirá un procedimiento más económico y efectivo a la hora de eliminar este compuesto.



METODOLOGÍA

Para la realización de esta metodología se siguió la propuesta del Dr. Leo Alvarado Perea, siendo asesorados por el M. en C. Pedro Antonio González Ocegueda, Dra. Laura Annette Romero de León. Etapa 1. Síntesis de los materiales MCM-41 y Al-MCM-41 con relaciones Si/Al ∞, 60 y 5. Etapa 2. Se deshidrató en la estufa durante 24 h a 120 °C, luego se metió al desecador durante 20 min aproximadamente. Se pesan 0.08 g la fibra de vidrio para su uso como soporte del material. Este es colocada dentro del reactor con forma de L, quedando en la parte de deposición. Se pesa cada material (0.2g - 0.5g) y se vierten en el reactor. Se coloca un empaque en cada salida del reactor para luego colocar los termopares, uno en la mitad de donde se encuentra el material a sintetizar y otro en donde estará el precursor (Acetilacetonato de Cobre II), para que finalmente el reactor se coloque en el horno de calentamiento a una temperatura de 300°C en la parte de deposición y 190°C en la parte de sublimación. Posteriormente, se purga el material durante 30 min con gas de nitrógeno. Se pesa la charola donde irá el precursor y el precursor. Meter al reactor, colocándolo en la zona de sublimación, sellar y abrir el flujo del oxígeno para esperar durante 1.30 h a que suceda la reacción. Se saca el material fotocatalítico, se pesa y se guarda. La metodología se repite con las diferentes relaciones de Al/Si y con los diferentes pesos. Etapa 3. Caracterización de materiales por Absorción Atómica. Cada muestra se mezcla después de salir del CVD, se toma 0.05 g por cada muestra y se vacía en un recipiente de plástico, se le agrega 10 ml de HF al 10% y se espera mínimo 24 h. Luego se le añaden 20 ml de agua regia con una relación 3:1 de HCl y HNO3 respectivamente, se espera mínimo 2 h y se afora a 100 ml en un matraz de propileno. Se guarda la muestra y se analiza en un equipo de absorción atómica para obtener resultados. Etapa 4. Degradación de fenol mediante fotocatálisis heterogénea con los materiales sintetizados. Se arma el reactor Batch colocado en una plancha de agitación con un agitador magnético que permitirá que el material esté en constante movimiento, posteriormente se coloca un tubo de cuarzo sostenido por un soporte universal donde se pondrá la lampara de luz UV, así como la manguera que permitirá que haya un burbujeo en la reacción, lo que dará oxígeno al experimento y se pueda iniciar la reacción permitiendo una esperada degradación de fenol. Se comenzó por la fotólisis del fenol y la hidroquinona. Posteriormente se realizó la fotocatálisis, donde se vierten al reactor de doble pared 200 ml de fenol a una concentración de 40 ppm. Se tomarán muestras, una inicial donde solo sea el fenol, otra a los 40 minutos con una agitación de 300 rpm. Después con la luz UV y el burbujeo se tomarán muestras cada 15 minutos durante una hora, cada 30 minutos durante la segunda hora y, finalmente, cada hora, hasta completar 8 horas. Cada muestra pasa por la centrifugadora a una velocidad de 4000 rpm, para posteriormente realizar un análisis de absorbancia en el UV-VIS, colocando en la celda 200 μl de la muestra para limpiar adecuadamente, luego vertiendo 500 μl para obtener los barridos y la absorbancia puntual a una longitud de onda de 270 nm, que corresponde al fenol, así como la de los intermediarios 245 nm (benzoquinona), 290 nm (hidroquinona) y 310 nm (catecol).


CONCLUSIONES

Durante la investigación se adquirieron conocimientos teóricos y prácticos, aprendiendo el proceso de síntesis de materiales, fotólisis, fotocatálisis y analizando los datos obtenidos de las actividades realizadas con los materiales sintetizados. Aunque por cuestión de tiempo no se hicieron las técnicas de caracterización propuestas como el DRX, RMN, TEM; se alcanzó a realizar la caracterización de espectroscopia por absorción atómica, determinando que hay un 37% de Cu en MCM-41 con relación Si/Al de 60, por lo que, se inquiere que el color del material obtenido no es un parámetro importante para tomar en cuenta, pues el material tenía un aspecto blanco en comparación al de referencia que su color era marrón obscuro. Por otro lado, a través de la experimentación y de los datos obtenidos del CVD, se concluyó que la temperatura de deposición es importante para el soporte, así como la cantidad de material para la deposición de Cu, observando que, a mayor cantidad de Al, menor material del MCM-41 en el reactor para CVD. El mejor material sin Cu para degradar al fenol en 8 h es el de 0.2 g Al-MCM-41 con relación Si/Al de 5, degradando un total del 97.7% de fenol. El mejor material con Cu para degradar al fenol en 8 h es el de 0.2 g Cu-Al-MCM-41 con relación Si/Al de 60, degradando un 45.8% de fenol. Por su parte, la fotolisis la hiroquinona se degrado un 91.3% en 8 h.
Matamoros Álvarez José Manuel, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Mayra Ruiz Reyes, Benemérita Universidad Autónoma de Puebla

MODELACIóN Y SIMULACIóN DE PROCESOS: ANáLISIS DE SEñALES óPTICAS PARA LA AUTOMATIZACIóN DE SISTEMAS DE MONITOREO.


MODELACIóN Y SIMULACIóN DE PROCESOS: ANáLISIS DE SEñALES óPTICAS PARA LA AUTOMATIZACIóN DE SISTEMAS DE MONITOREO.

Matamoros Álvarez José Manuel, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Mayra Ruiz Reyes, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Es un hecho que el sector industrial, es el eje principal de nuestra sociedad, pues desempeña un papel crucial en el desarrollo y bienestar de esta, dada su alta influencia en la creación de infraestructura, diversificación económica y desarrollo tecnológico. Si bien, sus beneficios son amplios, inevitablemente, traen consigo desventajas cruciales, principalmente a nivel ambiental, pues demandan grandes cantidades de materia prima, que terminan generando altas cantidades de emisiones contaminantes. Siendo esta, una de las principales problemáticas a resolver, generando la necesidad urgente de orientar el diseño de los procesos hacia un máximo aprovechamiento de los recursos y minimización de contaminantes. Complicando la naturaleza de los procesos y exigiendo el adoptar sistemas de automatización avanzados. La capacidad para monitorear y controlar en tiempo real los parámetros críticos del proceso minimiza problemas, evitando paradas inesperadas, desperdicio de materia prima, gastos energéticos innecesarios y pérdidas económicas significativas. Un ejemplo de la importancia de los sistemas de automatización es el tratamiento de la vinaza, la cual, es el principal desecho de la obtención del alcohol y se encuentra entre los residuales orgánicos de mayor efecto contaminante sobre la flora y fauna del planeta. En el cual, se suelen considerar variables íntimamente relacionadas con el comportamiento de los microorganismos que participan en los procesos de fermentación, complicando el control del proceso de tratamiento y convirtiendo a la correcta selección de variables de control e instrumentación en un punto crucial del éxito o fracaso de este. Dada su característica coloración marrón oscuro, y su relación con sus cambios químicos y físicos, se le puede considerar como una variable adecuada para contemplar en el control, pues al avanzar el proceso de degradación la vinaza se irá clarificando. Por ello se consideró la implementación de sensores ópticos como un medio adecuado para el monitoreo. Pues las variaciones en la coloración se relacionan íntimamente con la concentración de solidos suspendidos y a su vez, la absorbancia y transmitancia de la vinaza, son variables que están relacionadas directamente con la turbidez en la misma. Haciendo a esta, el parámetro principal para monitorear el cambio y mejorar la estabilidad del proceso. Si bien en el mercado, existen distintas propuestas de sensores con este propósito, suelen estar limitados a rangos de medición muy reducidos, a ciertas sustancias, o simplemente su forma de implementación no suele ser la más versátil. Es por ello, que se propone realizar desde 0 la propuesta de un prototipo capaz de adaptarse a las condiciones específicas del proceso de tratamiento a implementar.    



METODOLOGÍA

Se diseñó un prototipo para medir turbidez, partiendo del estudio de distintos equipos ópticos. Para evaluar los cambios de un haz de luz de distintas longitudes de onda al atravesar un líquido, utilizando un LED RGB para simular este efecto. Se seleccionaron tres sensores compatibles con Arduino: sensor de intensidad (BH1750), sensor de color (TCS230) y fotorresistencia (LDR).  Se construyó el circuito eléctrico para enviar las señales a un microcontrolador Arduino, usando alambre 22 AWG, fotorresistencias de 320 kΩ y una fuente de voltaje regulable. Estos se montaron en una placa MEGA 2560, que enviará los datos a una interfaz programada en Matlab. La fuente emisora se colocó en una carcasa troncocónica que concentra la luz, de colores rojo, verde y azul en intervalos de 1.5 segundos. La muestra se coloca en cubetas plásticas, a medio centímetro de los LED. Las señales emitidas, se graficaron y compararon para determinar el comportamiento. Buscando así un modelo matemático, entre los cambios de absorbancia y la intensidad de luz recibida por cada sensor. Para la identificación de la relación entre la señal del sensor y la absorbancia, se realizaron pruebas experimentales, para estas pruebas se prepararon disoluciones  de colorantes vegetales (rojo, amarillo, verde, azul) y de café, de 1:2 a 1:10. A partir de una disolución madre de un gramo de café y de cada colorante, en 25 ml de agua destilada. Para posteriormente determinar los valores sin muestra y para el blanco. Finalmente se compararon los resultados con un espectrofotómetro para obtener datos de absorbancia, longitud de onda, transmitancia y rangos de concentración válidos. Una vez que se expusieron cada una de las muestras al prototipo y se compararon con sus respectivos valores de absorbancia, se trabajó en encontrar la forma de traducir los valores obtenidos de voltaje, luxes y frecuencia, a intensidad, la cual posteriormente se traduciría a absorbancia con el modelo a proponer. Es decir, existe una relación inversamente proporcional entre la intensidad que recibe el sensor, con la absorbancia, a medida que la muestra se vuelve más clara, su absorbancia baja, así como los valores digitales y analógicos tienden a aproximarse a los valores obtenidos por el blanco.    


CONCLUSIONES

A lo largo de este verano, se han logrado adquirir y aplicar conocimientos teóricos y prácticos tanto de electrónica, óptica, diseño de proceso, así como de automatización y control. Se ha tenido la oportunidad de participar desde cero en la implementación de un sistema de control, proponiendo el diseño del sensor y visualizando su implementación en un proceso de digestión de vinaza. Sin embargo, dada la complejidad y extensión del proyecto, no se ha logrado llegar a la fase de modelado y calibración de cada uno de los sensores, pues el análisis que se requiere para encontrar una expresión matemática que sea capaz de aproximar los valores de absorbancia partiendo de la naturaleza de cada sensor seleccionado, requiere un extenso estudio de la teoría detrás de cada elemento. Se necesita de mucho mayor tiempo para añadir nuevas propuestas y/o herramientas.   Se espera que una vez encontrada la ecuación que relacione los valores digitales y analógicos obtenidos con intensidad. Se pueda aproximar en tiempo real y de forma precisa el cambio en la absorbancia y por lo tanto la turbidez dentro del proceso.    
Mauro Ramírez Violeta, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica

DESARROLLO DE UN PROTOTIPO PARA EL MONITOREO Y CONTROL DE ASPERSORES CON TECNOLOGíA DE INTERNET DE LAS COSAS ORIENTADO AL MEJORAMIENTO DE LA CALIDAD DEL AIRE EN EL SECTOR MINERO Y SUS POBLACIONES ALEDAñA.


DESARROLLO DE UN PROTOTIPO PARA EL MONITOREO Y CONTROL DE ASPERSORES CON TECNOLOGíA DE INTERNET DE LAS COSAS ORIENTADO AL MEJORAMIENTO DE LA CALIDAD DEL AIRE EN EL SECTOR MINERO Y SUS POBLACIONES ALEDAñA.

Garcia de Jesus Flor Lizeth, Tecnológico de Estudios Superiores de San Felipe del Progreso. Mauro Ramírez Violeta, Tecnológico de Estudios Superiores de San Felipe del Progreso. Ruiz Gonzalez Citlali, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

La minería es una actividad de las principales fuentes de contaminación ambiental, especialmente a la calidad del aire. La emisión de polvo y partículas durante el trabajo minero puede afectar gravemente la salud de los trabajadores y las comunidades cercanas. Es por eso que surge la idea de desarrollar un prototipo que aporte a la problemática de la contaminación del aire del sector minero de La Guajira. Integrando tecnologías como el Internet de las cosas (IoT) que pueda apoyar tecnológicamente la aspersión inteligente, con el objetivo de mejorar la calidad del aire de esa zona, de manera eficiente y efectiva, contribuyendo el bienestar de los trabajadores y comunidades vecinas.



METODOLOGÍA

Se realizó una investigación documental acerca de las plataformas que ofrece servicios en la nube que ayudarán con el monitoreo y almacenamiento de datos en tiempo real, de las cuales se destacan AWS, Azure y Google Cloud. Resaltando las características de cada una de estas herramientas para elegir la mejor opción.  De acuerdo a la información obtenida sobre estas plataformas se optó por la de AWS ya que es una opción superior en ciertos aspectos, como experiencia que se tiene desde su lanzamiento en 2006 y que fue uno de los principales servicios en la nube con una amplia gama de servicios con infraestructura robusta y que actualmente ha sido evolucionada y ofreciendo nuevos servicios con el tiempo, a diferencia de Google Cloud y Azure. AWS ofrece una mayor cantidad de servicios y características con una red de datos más extensa en regiones y zonas disponibles a diferencia de sus competidores, lo que permite a los usuarios desplegar sus aplicaciones de una manera más eficiente a sus clientes finales. Además de ser considerada más grande y activa, ya que cuenta con una comunidad de usuarios y desarrollares activa y extensa. Dentro de los costos suele ser un tanto complejo, aunque también suele ser más accesible dependiendo de las áreas, tiene también sus servicios gratuitos, pero por la variedad de opciones y necesidades de cada prototipo que puedan ser beneficiosos para diferentes tipos de cargas de trabajo. Por otro lado, está la innovación continua de la misma, constantemente introduce nuevos servicios y mejoras, manteniéndose a la vanguardia de la tecnología en la nube.


CONCLUSIONES

A lo largo de nuestra investigación, realizamos la comparación de diferentes plataformas y elegir una para trabajar de acuerdo a las necesidades del proyecto, gracias a la información obtenida pudimos saber cómo podríamos escoger la mejor entre ellas y por qué, es algo que podríamos resaltar ya que nuestro deber es asegurarnos que herramientas son eficientes e innovadoras para proyectos futuros relacionados con el internet de las cosas. Asimismo, tuvimos la oportunidad de poner en práctica algunos temas que ya habíamos visto en nuestra trayectoria académica, esta aplicación práctica reforzó nuestros conocimientos y contribuyo en nuestra formación profesional. En resumen, ser colaboradoras en el desarrollo de prototipos nos genera nuevas experiencias y ayuda a fortalecer nuestros conocimientos y generar nuevos referentes a la tecnología IoT adquiriendo nuevas competencias como futuros profesionales.
Maya Villamizar Jhonier Alexis, Universidad de Investigación y Desarrollo
Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato

GESTIóN DE PROYECTOS CON INTELIGENCIA EMPRESARIAL


GESTIóN DE PROYECTOS CON INTELIGENCIA EMPRESARIAL

Martinez Santiago Jaime, Instituto Tecnológico de Matamoros. Maya Villamizar Jhonier Alexis, Universidad de Investigación y Desarrollo. Nieto Gonzalez Sugeidy, Universidad Nacional Abierta y a Distancia. Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La inteligencia empresarial (BI) es fundamental se ha convertido en una necesidad para las organizaciones, es claro que algunas herramientas del office como Excel o en su defecto las hojas de cálculo como google sheets son excelente para la organización de datos, pero herramientas empresariales en este caso como tableau permite transformar los datos en información significativa para la toma de decisiones estratégicas. Teniendo en cuenta esto Tableau es una herramienta que surgió en la necesidad de una interfaz sencilla, amigable, practica, clara detallada, que permite una visualización y análisis de datos de manera intuitiva y efectiva. Tableau no solo permite a las empresas crear visualizaciones dinámicas e interactivas, sino que también potencia la capacidad de los equipos para explorar patrones, descubrir insights y tomar decisiones informadas, impulsando así la eficiencia operativa y la competitividad en el mercado. La inteligencia empresarial muestra datos estos pueden ser actuales o datos antiguos con el único fin que las organizaciones tomes decisiones. Las empresas pueden elegir la herramienta que consideren que va ser útil a su negocio, todas las herramientas son excelentes y prácticas, pero cada una de ellas nos ofrece una infinidad de oportunidades y de soluciones que será más efectiva para una u otra empresa, las empresas pueden aprovechar BI para proporcionar puntos de referencia de rendimiento y de la competencia para que la organización funcione de manera más fluida y eficiente



METODOLOGÍA

Para el desarrollo del informe, se recopilará la siguiente información: Recepción de la Solicitud de Servicios de Divulgación, Análisis de Requerimientos y Objetivos del Cliente, Elaboración de Propuesta y Presupuesto, Aprobación de Propuesta por el Cliente, Planificación del Proyecto de Divulgación, Investigación y Desarrollo del Contenido Científico, Revisión y Validación del Contenido por Expertos, Producción de Material Divulgativo, Edición y Diseño del Material, Distribución del Material, Evaluación de Impacto y Retroalimentación del Cliente, Entrega Final del Proyecto de Divulgación, Cierre del Proyecto y Evaluación Interna. La metodología se inicia con la recopilación de los datos mediante una tabla de Excel. Luego, se usa la herramienta Tableau donde se insertan los datos que aparecen en una hoja llamada "base de datos" y se unen las tablas. En la hoja 1, se filtra la información necesaria, generando diagramas e informes. Posteriormente, se evalúan los datos realizados por Tableau.


CONCLUSIONES

Al realizar la búsqueda de herramientas empresariales y observar muchas que son muy eficientes se tomó la decisión de usar tableau como herramienta de prueba en el procesamiento y análisis de datos sobre divulgación tecnológica observado que es una herramienta de fácil uso, que cuenta con una página que ofrece tutoriales para el manejo de la misma Tableau tiene diferentes formas de usar en línea, Tableau Public en su versión gratuita que se puede descargar, es una gran herramienta que nos ofrece la inteligencia artificial es intuitiva, de fácil acceso, uso, rápida visualización esta herramienta tiene la ventaja que nos muestra datos, que necesitemos El uso de Tableau en el proceso de servicios profesionales de divulgación científica mejoró significativamente la gestión del proyecto y la evaluación del impacto. La herramienta facilitó una mejor comprensión de los datos, de manera ordenada esto con el fin de que cualquier organización pueda tomar decisiones informadas y ajustarse a las necesidades del cliente de manera más efectiva.
Mazaba Ramón Ian, Universidad Veracruzana
Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla

PROTOTIPO DE TRITURADOR DE MATERIAL RECICLADO PARA LA IMPRESIóN 3D.


PROTOTIPO DE TRITURADOR DE MATERIAL RECICLADO PARA LA IMPRESIóN 3D.

Mazaba Ramón Ian, Universidad Veracruzana. Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La impresión 3D genera una cantidad significativa de residuos plásticos, lo cual representa un problema ambiental. El objetivo de este proyecto es diseñar y desarrollar un sistema de reciclaje de filamento para impresoras 3D, con el fin de reducir el desperdicio de plástico y promover prácticas más sostenibles en la fabricación aditiva. Se tiene la hipótesis de que es posible modificar una trituradora de papel y adaptar una impresora 3D para procesar y reutilizar los residuos de filamento de impresión, obteniendo resultados de impresión de calidad comparable al filamento virgen.



METODOLOGÍA

Para el desarrollo del prototipo de trituradora e iimpresora se realizaron las siguientes actividaes: Diseño: Se utilizaron softwares CAD (Fusion 360 y SolidWorks) para modelar las piezas necesarias para la trituradora y la tolva de la impresora. Modificación: Se adaptó una trituradora de papel para que pudiera procesar los residuos de filamento, así como se diseñó e imprimió 3D de una tolva personalizada. Impresión 3D: Fueron utilizadas diversas impresoras 3D para fabricar las piezas diseñadas y para realizar pruebas de impresión con filamento reciclado. Entre otras actividades realizadas durante la estancia se realizó: Automatización: Implementación de una Raspberry Pi Pico 4 Model B con Ubuntu y una pantalla táctil para el laboratorio. Escaneo 3D: Utilización de un sensor de estructura Kinect para realizar escaneos 3D de personas y su posterior impresión.


CONCLUSIONES

Con el desarrollo de los prototipos se demostró la viabilidad de reciclar filamento de impresión 3D para reducir el desperdicio de plástico. Los prototipos desarrollados demostraron ser funcionales y eficientes, aunque se debe de sguir trabajando en ellos para su optimización. El sistema de reciclaje desarrollado abre nuevas posibilidades para la implementación de prácticas más sostenibles en la fabricación aditiva, tales como el explorar otros tipos de materiales reciclados y desarrollar algoritmos de procesamiento de imágenes para mejorar la calidad de los escaneos 3D.
Medel Toxtle Concepción Abigail, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Rodrigo Rodríguez Rubio, Instituto Tecnológico de Querétaro

IMPLEMENTACIóN DEL LABORATORIO DE CALIBRACIóN PARA MEDICIONES ELéCTRICAS CON LABVIEW


IMPLEMENTACIóN DEL LABORATORIO DE CALIBRACIóN PARA MEDICIONES ELéCTRICAS CON LABVIEW

Fuentes Osorio Edwin Yahir, Instituto Tecnológico de Reynosa. Guevara Garay Eder Joel, Universidad Politécnica de Altamira. Medel Toxtle Concepción Abigail, Benemérita Universidad Autónoma de Puebla. Romero Zárate Valentina, Instituto Politécnico Nacional. Asesor: M.C. Rodrigo Rodríguez Rubio, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En el Tecnológico Nacional Campus Querétaro existen las carreras de Ingeniería Electrónica, Eléctrica, Semiconductores Y Mecatrónica. Estas carreras realizan prácticas con mediciones eléctricas y cálculos, por lo que se requieren instrumentos de medición conocidos y fuentes de tensión directa confiables. Con base en la Guía BIPM/ISO para la expresión de la incertidumbre en las mediciones, se determina el nivel de confiabilidad y el error de cada instrumento con su incertidumbre.   La incertidumbre del resultado de una medición muestra la carencia de conocimiento concreto del valor del mensurando. Los componentes de incertidumbre se clasifican en dos categorías: tipo A y tipo B. La incertidumbre tipo "A" (UA) es obtenida de una distribución de frecuencia observada, mientras que la incertidumbre tipo B (UB) se obtiene de una función de probabilidad basada en las especificaciones del fabricante de cada instrumento. La raíz de la suma de los cuadrados de estas funciones hace lo que se conoce como la incertidumbre combinada (UC). La incertidumbre expandida (UE) es el producto de la incertidumbre combinada por un factor de cobertura k = 2. 



METODOLOGÍA

Inicialmente, se realizaron mediciones manuales de fuentes de tensión y resistores para observar la deriva térmica en los instrumentos. Las fuentes de tensión utilizadas en este caso fueron: Agilent y BK Precision 1785B, mientras que los resistores muestreados fueron los BP 601 A1, A2, y A3; un resistor variable Höchstbelastung y un resistor fijo. El multímetro Keithley 199 fue el instrumento de medición empleado.   La comunicación entre LabVIEW y el equipo físico del laboratorio se realizó a través de puertos GPIB, los cuales siguen la Norma IEEE 488 aplicada en el control de aparatos de medición.   Mientras tanto, se llevó a cabo un mantenimiento correctivo tanto a la fuente de tensión Amrel como al regulador de CA. Al primer dispositivo se sustituyeron dos capacitores y se hizo una limpieza a sus componentes, mientras que, al segundo se le aplicaron 3 capas de barniz, ya que generaba ruido por las vibraciones del transformador.  Para la recolección automática de datos de resistencia se realizaron mediciones de los siguientes resistores: BP 601 A1 (15 Ω), A2 (150 Ω), A3 (15 Ω); un resistor fijo (60 Ω), resistor variable Supreix (62 Ω), 2 resistores variables Höchstbelastung (33 Ω), resistor variable Elettronica Veneta (370 Ω). El circuito empleado para medir la magnitud de resistencia consistió en una conexión de cuatro terminales del resistor con el Óhmetro.  Al medir la tensión se conectó cada una de las fuentes directamente al Voltímetro. En el caso de las dos fuentes BK Precision se ajustó el intervalo automáticamente desde 0.01 V hasta 18 V, para la Agilent se ajustaron manualmente los intervalos y se tomaron muestras desde 1 V hasta 20 V y de -10 V a -20 V, por último, de la fuente Amrel se tomaron muestras para sus dos canales en el intervalo de 0.01 V hasta 30 V.  Para tomar las muestras de la magnitud de corriente se realizó un circuito en el cual se utilizó la fuente BK Precision 2 y se seleccionaron las décadas BP 601 A1 y A2, dado que los valores requeridos fueron 0.001 A, 0.005 A, 0.01 A, 0.05 A, 0.1 A, 0.5 A y 1 A. Una vez teniendo los componentes adecuados se realizaron las mediciones utilizando un Amperímetro y un Voltímetro para recolectar los valores.  En el caso de la potencia, se realizó un circuito en el cual la resistencia a muestrear se conectó en paralelo con el Voltímetro del Wattmetro, a su vez se conectan en serie con el Amperímetro del mismo y con la fuente.  Para el cálculo de incertidumbre se consideraron las siguientes: tipo A, tipo B, combinada y expandida. La UA se obtuvo a partir de las mediciones y utilizando su desviación estándar. La UB se divide en dos subtipos: B1 y B2. El primero se obtuvo mediante las especificaciones del manual, mientras que el segundo se obtuvo con la resolución del instrumento de medición.  Para calcular la incertidumbre expandida era indispensable obtener la incertidumbre combinada, que se obtuvo con una ecuación propuesta en la que se implican las magnitudes en relación con las mediciones y valores de los promedios de cada medición junto con su error. También, se requería conocer los grados efectivos de libertad de cada magnitud, tomando este valor como referencia se utilizó la tabla de T de Student para determinar el factor de cobertura respecto al nivel de confianza definido. Este dato servirá para obtener la incertidumbre expandida.  Con los valores obtenidos, se realizaron gráficos del promedio y su desviación estándar, el promedio con su error y el error con la incertidumbre expandida, esto con el fin de visualizar gráficamente la variación de cada valor por días y así determinar si el instrumento bajo a prueba es confiable y conocer su nivel de precisión y exactitud. 


CONCLUSIONES

Al analizar la incertidumbre de cada uno de los equipos mencionados en la metodología se determinó que los resistores más precisos, tomando como referencia la incertidumbre expandida (UE) de cada dispositivo; en cuanto a resistores fijos, el BP 601 A1 es el más preciso, con un factor de incertidumbre de 8%, mientras que, con los resistores variables, los más precisos son ambos dispositivos alemanes (Höchstbelastung) con una incertidumbre promedio de 5% entre un valor y otro en una escala de resistividad de 0% a 100%. Por otra parte, la fuente de tensión menos dispersa y más precisa fue la BK Precision 2, debido a esto fue viable usarla para el muestreo de corriente.  La caracterización de los equipos e instrumentos del laboratorio de Electrónica se realizó de manera satisfactoria, lo cual permitirá llevar a cabo prácticas de medición y cálculos más exactos y precisos que servirán de apoyo a la comunidad estudiantil del ITQ.  
Medina Alvarado Alfonso, Instituto Tecnológico Superior de Pátzcuaro
Asesor: M.C. Angel González Navarrete, Universidad Autónoma de Occidente

PáGINA WEB EDUCATIVA PARA EL CLUB DE ROBóTICA DE LA SECUNDARIA FEDERAL 3


PáGINA WEB EDUCATIVA PARA EL CLUB DE ROBóTICA DE LA SECUNDARIA FEDERAL 3

Medina Alvarado Alfonso, Instituto Tecnológico Superior de Pátzcuaro. Asesor: M.C. Angel González Navarrete, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La Secundaria Federal 03, una institución comprometida con la excelencia educativa, se enfrenta al desafío de motivar y preparar a sus estudiantes para un futuro dominado por la tecnología. A pesar del interés creciente en la robótica y la programación, los recursos disponibles no siempre son accesibles ni están adaptados a la comprensión de los jóvenes de 12 a 15 años, por lo tanto, se identifica la necesidad de crear una plataforma educativa integral que ofrezca contenidos teóricos, prácticos y recursos interactivos diseñados específicamente para esta franja etaria, por ello esta plataforma debe ser capaz de proporcionar una estructura clara y atractiva que facilite el aprendizaje progresivo de la robótica y la programación.



METODOLOGÍA

Análisis de necesidades: Se inició el proyecto identificando las necesidades educativas y tecnológicas específicas de los estudiantes de la Secundaria Federal 3. Esto incluyó reuniones con docentes y revisión de los recursos existentes. Basado en este análisis, se definieron tres niveles de aprendizaje para la página web: Teoria, Practica y Desarrolla. Desarrollo de contenido: Teoria: Se desarrollaron módulos teóricos cubriendo temas básicos como la introducción a la electricidad, electrónica y programación. Estos módulos incluyen explicaciones claras, ejemplos visuales y recursos adicionales para profundizar en cada tema. Practica: Se crearon prácticas guiadas utilizando dos kits de robótica: i roboy Robo series. Estas prácticas fueron diseñadas para ser interactivas y accesibles, permitiendo a los estudiantes aplicar los conceptos teóricos aprendidos en Conoce. Desarrolla: Este nivel incluye contenido más avanzado, con prácticas en PSeInt, Scratch, Blockly y Arduino. Se proporcionaron ejercicios sencillos y progresivos que ayudan a los estudiantes a desarrollar habilidades de programación más complejas. Implementación de la plataforma: Utilizando Google Sites, se desarrolló una página web educativa accesible y fácil de navegar, la estructura de la página incluye secciones dedicadas a teoría, videos de apoyo, ejercicios prácticos y proyectos. Se prestó especial atención al diseño para asegurar que la información sea fácil de encontrar y comprender. Pruebas y retroalimentación: La plataforma fue probada por un grupo piloto de docentes. Se recogieron comentarios sobre la usabilidad y el contenido, y se hicieron ajustes según sus sugerencias para mejorar la experiencia de usuario y la eficacia educativa.


CONCLUSIONES

Los resultados preliminares indican que los estudiantes estarán adquiriendo habilidades tecnológicas importantes y desarrollando un entusiasmo por la ciencia y la ingeniería. Se espera que, con el uso continuo de la plataforma, estos beneficios se amplíen, promoviendo una mayor participación en el Club de Robótica y una mejor preparación de los estudiantes para futuros desafíos tecnológicos, la creación de esta página web educativa ha sido un paso significativo hacia la modernización de la educación en la Secundaria Federal 3, proporcionando a los estudiantes las herramientas y recursos necesarios para sobresalir en el mundo de la robótica y la programación.
Medina Barboza Miguel, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

PRUEBA DE MáXIMA TEMPERATURA DE UN TUBO EVACUADO SIN AGUA DE UN SISTEMA COLECTOR SOLAR


PRUEBA DE MáXIMA TEMPERATURA DE UN TUBO EVACUADO SIN AGUA DE UN SISTEMA COLECTOR SOLAR

Medina Barboza Miguel, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Ortiz Martínez Jesús Ramón, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Sonora es uno de los estados con mayor irradiancia solar a nivel nacional, ubicado geográficamente en el noroeste del país. La estancia de investigación se realizó en su capital, la ciudad de Hermosillo, ubicada en las coordenadas geográficas de 29.072967° de latitud norte y -110.955919° de longitud oeste (GeoHack, n.d.). Para aprovechar el abundante recurso solar de Sonora, se diseñan proyectos como sistemas colectores. Los colectores solares son dispositivos que captan la radiación solar y la transforman en energía térmica. Las temperaturas que alcanzan estos dispositivos son capaces de llegar al punto de ebullición del agua, es decir, alcanzar los 100°C. Existe una problemática social para quienes tienen dispositivos de colectores solares de tubos evacuados, ya que cuando los tubos se quedan sin agua, al reabastecerlos con agua, dichos tubos explotan, en la mayoría de los casos se desconoce el motivo científico de este fenómeno.



METODOLOGÍA

Mediante el estudio de transferencia de calor, se analizó el efecto de radiación sobre la superficie del tubo evacuado, conociendo el DNI de la ubicación. El DNI (Direct Normal Irradiance, por sus siglas en inglés) es la cantidad de energía solar recibida de manera perpendicular sobre una área durante cierto tiempo. Las coordenadas específicas del lugar de experimentación son 29.0273240, -111.1461074. Los días de experimentación fueron el 2 de julio de 2024 (sistema de termopares con tubo de PVC) con un tiempo de experimentación de 01:38:22:287 horas, el 9 de julio de 2024 (sistema de termopares en varilla de madera) con un tiempo de experimentación de 03:36:15:360 horas, el 11 de julio de 2024 (sistema de termopares con tubo Conduit de acero galvanizado) con un tiempo de experimentación de 03:39:44:291 horas y el 22 de julio de 2024 (sistema de termopares con tubo Conduit de acero galvanizado en tiempo climatológico mayormente nublado) con un tiempo de experimentación de 03:32:49:984 horas. La adquisición y tabulación de mediciones de temperatura se realizó utilizando un adquiridor de datos KEYSIGHT 34972A con el software Agilent BenchLink Data Logger 3. Es importante conocer el día y la hora de experimentación, ya que es un factor determinante del DNI y del ángulo de inclinación del tubo evacuado para que la incidencia de radiación solar sea perpendicular a la superficie. Determinado mediante una serie de ecuaciones que ayudan a conocer el ángulo cenital. Se determinó que el ángulo cenital de inclinación promedio es de 6°, alineado con el eje norte-sur, dando dicha inclinación hacia el sur. El ángulo horario es cero debido a que la superficie es un cilindro y no depende de la inclinación horaria. La ecuación del fenómeno por radiación solar desde un estudio de transferencia de calor nos ayuda a determinar las propiedades de la película selectiva de los tubos evacuados, como la emisividad y la absortancia, conociendo la energía por radiación solar recibida sobre la superficie de acuerdo a la base de datos de la estación meteorológica de la Plataforma Solar de Hermosillo, perteneciente a la Universidad de Sonora, ubicada en las mismas coordenadas geográficas de la experimentación.


CONCLUSIONES

Durante el periodo de investigación, se realizaron diversos estudios sobre la temperatura máxima interior en tubos evacuados, encontrando que las películas selectivas son de baja emisividad y alta absorción. Se realizaron 4 pruebas. 02 de julio de 2024 (Sistema de termopares con tubo de PVC) Condición climática: Soleado Temperatura máxima del tubo evacuado: 236°C 09 de julio de 2024 (Sistema de termopares en varilla de madera) Condición climática: Soleado Temperatura máxima del tubo evacuado: 287°C 11 de julio de 2024 (Sistema de termopares con tubo Conduit de acero galvanizado) Condición climática: Soleado Temperatura máxima del tubo evacuado: 270°C 22 de julio de 2024 (Sistema de termopares con tubo Conduit de acero galvanizado) Condición climática: Nublado Temperatura máxima del tubo evacuado: 255°C En conclusión, los diferentes experimentos mostraron que existe un cambio de temperatura significativo cuando los tubos se encuentran vacíos a la intemperie. De manera experimental, para la toma de mediciones, se demostró que la mejor opción es una condición climática soleada; los datos tomados crecen de manera exponencial estable. Resolviendo la problemática, se atribuye al choque térmico entre la temperatura del agua y del interior del tubo evacuado, provocando que exploten. Se recomienda que, una vez que estos tubos se hayan vaciado y queden expuestos a la intemperie, no sean reabastecidos con agua inmediatamente, sino cuando no estén expuestos a la radiación solar.
Medina Carbajal Alberto, Instituto Tecnológico de Ciudad Juárez
Asesor: Mtra. Edith Adriana Méndez Saucedo, Instituto Tecnológico Superior de Guanajuato

DESARROLLO DE DISEñOS MEDIANTE LA METODOLOGíA DE PROTOTIPADO RáPIDO.


DESARROLLO DE DISEñOS MEDIANTE LA METODOLOGíA DE PROTOTIPADO RáPIDO.

Medina Carbajal Alberto, Instituto Tecnológico de Ciudad Juárez. Asesor: Mtra. Edith Adriana Méndez Saucedo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

A pesar de los avances en el prototipado rápido y su amplia adopción en diversas industrias, aún existen desafíos que deben abordarse para aprovechar al máximo su potencial. Entre estos desafíos se encuentran: Falta de conocimiento y experiencia en el uso de herramientas de prototipado rápido. Dificultad para integrar el prototipado rápido en los procesos de desarrollo de productos existentes. Limitaciones en las tecnologías de manufactura aditiva para la creación de prototipos complejos. Necesidad de metodologías estandarizadas para la evaluación y validación de prototipos.



METODOLOGÍA

Se exploraron las diferentes fases del proceso de prototipado rápido en SolidWorks utilizando tecnologías como la impresión 3D, corte láser y CNC. Se analizaron las ventajas y desventajas de cada tecnología, así como los factores que influyen en la elección de una u otra.


CONCLUSIONES

La mejor opción dependerá del caso específico. Para prototipos rápidos y de baja complejidad, la impresión 3D es una excelente opción. Para piezas planas y con cortes precisos, el corte láser puede ser más adecuado. Si se requiere una alta precisión dimensional y un acabado superficial superior, el CNC es la elección ideal.
Medina Guerrero Manuel Fernando, Universidad de Guadalajara
Asesor: Ing. Alejandro Amaro Flores, Instituto Tecnológico de Morelia

SISTEMA WEB HíBRIDO PARA GESTIóN DE ENCUESTAS INSTITUCIONALES EN EL INSTITUTO TECNOLóGICO DE MORELIA: CUMPLIMIENTO DE NOM151-SCFI-2016 E ISO/IEC 25010:2011


SISTEMA WEB HíBRIDO PARA GESTIóN DE ENCUESTAS INSTITUCIONALES EN EL INSTITUTO TECNOLóGICO DE MORELIA: CUMPLIMIENTO DE NOM151-SCFI-2016 E ISO/IEC 25010:2011

Coronado Cabrera Bryan Axl, Universidad de Guadalajara. Diaz Angel, Universidad de Guadalajara. Martinez Hernandez Jesus Eduardo, Universidad de Guadalajara. Medina Guerrero Manuel Fernando, Universidad de Guadalajara. Mendoza Garcia Miguel Angel, Universidad de Guadalajara. Quintero Garcia Oliver Israel, Universidad de Guadalajara. Asesor: Ing. Alejandro Amaro Flores, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En el Tecnológico Nacional de México Campus Morelia, la gestión de encuestas dirigidas a los miembros de la institución presenta varios desafíos significativos. Actualmente, las encuestas no están homologadas ni integradas, lo que genera fragmentación y falta de consistencia en la recolección de datos. Algunas encuestas se administran a través del sistema escolar vigente, mientras que otras utilizan plataformas comerciales como Microsoft y Google. Esta diversidad de plataformas dificulta la centralización y el acceso a los resultados para todos los involucrados en los procesos de toma de decisiones. Además, muchas de estas encuestas no se han actualizado en más de una década, aunque las necesidades y circunstancias de la institución evolucionaron mucho en ese tiempo. Esta falta de actualización limita la relevancia y efectividad de las encuestas para abordar las necesidades actuales de estudiantes, docentes y administrativos. En consecuencia, la institución carece de un sistema unificado y moderno que permita una gestión eficiente y un análisis integral de los datos recolectados, afectando la capacidad para tomar decisiones informadas y mejorar continuamente la calidad educativa.



METODOLOGÍA

1. Análisis de Requerimientos Identificación de los requisitos funcionales y no funcionales. Estudio de la base de datos existente para integración con la tabla de usuarios. Determinación de roles y permisos necesarios para el acceso al sistema. 2. Diseño del Sistema · Arquitectura del Sistema: o MVC-Componentes. o Framework Laravel con Livewire. o Base de datos relacional PostgreSQL para la gestión de áreas, roles, permisos, usuarios y encuestas.   · Diseño de la Base de Datos: o Tablas para almacenar encuestas, preguntas, respuestas y resultados. o Integración con la tabla de usuarios existente. Interfaces de Usuario: Formularios para la creación y administración de encuestas. Interfaces para la participación de encuestas por parte de estudiantes, docentes y administrativos. Panel de administración para jefes de área con acceso a resultados y generación de reportes. 3. Desarrollo del Sistema: Desarrollo de formularios dinámicos para la creación de encuestas. Implementación de mecanismos de autenticación y autorización basados en roles. Interfaces amigables para la participación de encuestas. Lógica de negocio para la asignación de encuestas a roles específicos. Generación de reportes en PDF utilizando bibliotecas como DomPDF o jsPDF (JavaScript). 4. Pruebas: Pruebas Unitarias: Verificación de la funcionalidad individual de los componentes del sistema. Pruebas de Integración: Aseguramiento de la correcta interacción entre los componentes del sistema. Pruebas de Usuario: Evaluación de la usabilidad y efectividad del sistema mediante pruebas con usuarios finales. 5. Implementación y Despliegue: Despliegue del sistema en un entorno de producción. Capacitación a los usuarios (jefes de área) para la administración de encuestas y análisis de resultados. 6. Mantenimiento y Actualización: Monitoreo continuo del sistema para identificar y corregir errores. Actualización del sistema con nuevas funcionalidades según las necesidades de los usuarios. Resultados Esperados Sistema web funcional y seguro para la gestión de encuestas en la institución. Mejora en la eficiencia de recolección y análisis de datos. Facilidad para la evaluación individual de docentes y administrativos. Generación de reportes detallados en PDF para la toma de decisiones.


CONCLUSIONES

La implementación de este sistema web proporcionará una herramienta eficiente y robusta para la creación y gestión de encuestas dentro de la institución educativa. Facilitará la recolección de datos, mejorará la toma de decisiones y permitirá una evaluación más detallada de los docentes y administrativos, contribuyendo al desarrollo continuo de la calidad educativa.
Medina Lira Valeria Alejandra, Universidad de Guadalajara
Asesor: Dr. César Augusto Romero Beltrán, Institución Universitaria Antonio José Camacho

MODELO FíSICO DEL ANTEBRAZO CAPAZ DE EMULAR PROPIEDADES MECáNICAS Y ELéCTRICAS.


MODELO FíSICO DEL ANTEBRAZO CAPAZ DE EMULAR PROPIEDADES MECáNICAS Y ELéCTRICAS.

Medina Lira Valeria Alejandra, Universidad de Guadalajara. Asesor: Dr. César Augusto Romero Beltrán, Institución Universitaria Antonio José Camacho



PLANTEAMIENTO DEL PROBLEMA

En el campo de la medicina y la ingeniería biomédica, existe una necesidad constante de desarrollar modelos precisos que simulen el comportamiento del cuerpo humano, esenciales para la investigación, el desarrollo de dispositivos médicos y la capacitación de profesionales de la salud. Sin embargo, replicar fielmente las propiedades mecánicas y eléctricas del cuerpo humano sigue siendo un desafío. El objetivo de este proyecto es desarrollar un modelo de antebrazo utilizando gelatina de Agar que este emule las propiedades mecánicas (módulo de Young) y eléctricas del antebrazo humano. Este modelo servirá como plataforma para probar dispositivos médicos y capacitar a profesionales de la salud en procedimientos relacionados con el antebrazo. Un modelo de antebrazo basado en Gelatina de Agar ofrecería varias ventajas: ser una herramienta de investigación para estudiar el comportamiento del antebrazo, facilitar la capacitación de profesionales sin riesgo a pacientes, poner a prueba dispositivos médicos de manera segura y ser una alternativa económica respecto a otros modelos. Los objetivos son: desarrollar una formulación de Agar Gelatina que replique el módulo de Young del antebrazo humano, incorporar elementos conductores para emular las propiedades eléctricas, validar el modelo mediante pruebas mecánicas y eléctricas comparándolo con datos científicos, y evaluar su utilidad para probar dispositivos médicos.



METODOLOGÍA

La metodología se estructuró en: revisión bibliográfica, caracterización de propiedades físicas, desarrollo de protocolo y validación.


CONCLUSIONES

Se realizó una búsqueda exhaustiva de estudios previos, análisis de materiales y protocolos existentes. Se recolectaron datos sobre propiedades del antebrazo, se analizaron formulaciones de Agar Gelatina y se establecieron propiedades a replicar. Se desarrolló un protocolo para la fabricación del modelo, incluyendo formulación, modelo matemático y el análisis del comportamiento de algunas variables de interés. Finalmente, se validó el modelo mediante pruebas mecánicas, eléctricas y análisis comparativo con datos de la literatura, llevando a cabo ajustes si es necesario.
Medina Magaña Lizeth, Instituto Tecnológico Superior de Puruándiro
Asesor: Mtro. Segundo Victor Olivares Muñoz, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas

PELíCULAS BIOACTIVAS BASADAS EN RESIDUOS AGROINDUSTRIALES PARA EXTENDER LA VIDA úTIL DE FRESAS.


PELíCULAS BIOACTIVAS BASADAS EN RESIDUOS AGROINDUSTRIALES PARA EXTENDER LA VIDA úTIL DE FRESAS.

Medina Magaña Lizeth, Instituto Tecnológico Superior de Puruándiro. Saenz Garcia Hammer Ali, Instituto Tecnológico de Toluca. Salas Wences Arlyn, Instituto Tecnológico de Acapulco. Villa Juarez Nicol Karelyx, Instituto Tecnológico de Acapulco. Asesor: Mtro. Segundo Victor Olivares Muñoz, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas



PLANTEAMIENTO DEL PROBLEMA

Las fresas tienen un tiempo de vida útil muy corto, de 2 a 3 días sin refrigeración, lo que causa pérdidas económicas y desperdicio de alimentos. Existe una necesidad de soluciones naturales y sostenibles para extender su vida útil. Este proyecto busca desarrollar biopelículas a base de aceites esenciales de cáscara de lima, combinados con Tween 20, glicerol, pectina y almidón, para extender la vida útil de las fresas de 2-3 días a 6-12 días sin refrigeración. Se evaluará la efectividad de estas biopelículas para inhibir el crecimiento microbiano y mantener la calidad de las fresas.



METODOLOGÍA

Obtener y evaluar resudious de cascara de lima. Selecionar la fresa cumpliendo con las caracteristicas requeridas. Extraer aceite escencial de lima. Medir los biopolimeros utilizados: Aceite esencial de lima, tween, gliserol, almidón, pectina. Incorporar y mezclar elementos requeridos para las boipeliculas con agua destilada. .Recubrir la fresa en la mezcla obtenida. Reposar la fresa durante el tiempo requerido a temperatura ambiente.


CONCLUSIONES

Realizando uno de los tratamientos se obtuvo un resultado esperado, ya que la fresa con la boipelicula aparentemente estaba mas brillora, con una tonalidad mas rojiza. En comparación con las que no tenian las biopeliculas, estas estaban mas opacas y rugosas. Mencionando que el proyecto no se a concluido, debido a que lleva mas tiempo y pruebas con dististos tratamientos los cuales se llevaran a cabo en meses posteriores, sin embargo, con el tratamiento realizado se tuvueron buenos resultados.
Medina Mondragon Martin, Instituto Tecnológico de Matamoros
Asesor: Dr. José Eligio Moisés Gutiérrez Arias, Benemérita Universidad Autónoma de Puebla

DISEñO Y CONSTRUCCIóN DE UN AEROGENERADOR DEL TIPO OFFSHORE EL ALUMNO MARTíN MEDINA MONDRAGóN DE LA CARRERA DE INGENIERíA ELECTROMECáNICA DEL INSTITUTO TECNOLóGICO DE MATAMOROS PRESENTA SU APORTACIóN. DURANTE LA CONSTRUCCIóN DEL AEROGENERADOR CON CIMENTACIóN TIPO JACKET, APORTó AL DISEñO Y CONSTRUCCIóN DE LA TORRE CON SUS RESPECTIVAS PARTES, COMO FUERON LA BASE DE ACOPLAMIENTO PARA COLOCAR LA CIMENTACIóN, Y LA BASE PARA LA GóNDOLA. POSTERIOR A ESO, SE COMENZó A TRABAJAR CON EL PLATO DE ACOPLAMIENTO PARA LAS ASPAS Y QUE ESTE MISMO DISCO VAYA ACOPLADO AL EJE DE NUESTRO AEROGENERADOR. EN GENERAL, EL APORTE HECHO POR EL ALUMNO NO SOLO FUE EN ESAS PARTES SINO TAMBIéN EN EL DISEñO Y CONSTRUCCIóN DE LA CIMENTACIóN Y CONSTRUCCIóN DEL MISMO AEROGENERADOR.


DISEñO Y CONSTRUCCIóN DE UN AEROGENERADOR DEL TIPO OFFSHORE EL ALUMNO MARTíN MEDINA MONDRAGóN DE LA CARRERA DE INGENIERíA ELECTROMECáNICA DEL INSTITUTO TECNOLóGICO DE MATAMOROS PRESENTA SU APORTACIóN. DURANTE LA CONSTRUCCIóN DEL AEROGENERADOR CON CIMENTACIóN TIPO JACKET, APORTó AL DISEñO Y CONSTRUCCIóN DE LA TORRE CON SUS RESPECTIVAS PARTES, COMO FUERON LA BASE DE ACOPLAMIENTO PARA COLOCAR LA CIMENTACIóN, Y LA BASE PARA LA GóNDOLA. POSTERIOR A ESO, SE COMENZó A TRABAJAR CON EL PLATO DE ACOPLAMIENTO PARA LAS ASPAS Y QUE ESTE MISMO DISCO VAYA ACOPLADO AL EJE DE NUESTRO AEROGENERADOR. EN GENERAL, EL APORTE HECHO POR EL ALUMNO NO SOLO FUE EN ESAS PARTES SINO TAMBIéN EN EL DISEñO Y CONSTRUCCIóN DE LA CIMENTACIóN Y CONSTRUCCIóN DEL MISMO AEROGENERADOR.

Medina Mondragon Martin, Instituto Tecnológico de Matamoros. Asesor: Dr. José Eligio Moisés Gutiérrez Arias, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

  Los aerogeneradores tipo offshore están ubicados en alta mar para aprovechar vientos más fuertes y consistentes. Sin embargo, enfrentan desafíos únicos debido a su entorno remoto y a las duras condiciones ambientales marítimas. Estas estructuras, diseñadas para generar energía renovable de manera eficiente, están expuestas a condiciones mecánicas extremas y a la corrosión provocada por la exposición prolongada al agua salada y a los vientos intensos. La detección temprana de fallos y la implementación de un mantenimiento efectivo son cruciales para asegurar la operatividad y prolongar la vida útil de los aerogeneradores offshore.   El proyecto "Control de sistemas no lineales y sensores y transductores" tiene como objetivo desarrollar un aerogenerador tipo offshore con soporte tipo jacket. Dado que las condiciones climáticas cambiantes hacen que las tareas de mantenimiento en estos aerogeneradores sean significativamente más complejas y frecuentes que en tierra firme, es crucial la detección temprana de fallas para prevenir errores humanos y mecánicos.  



METODOLOGÍA

Se comenzó a trabajar con la cimentación tipo jacket del aerogenerador tipo offshore. Se dejó una altura de 1,3 m y se construyó a partir de PTR de acero con ángulo, lo cual le da solidez para sostener la torre y la góndola del aerogenerador. Una vez hecha la cimentación, se prosiguió a trabajar con la torre del aerogenerador, la cual está construida a partir de un tubo de cédula 40, con las siguientes dimensiones: 1/8 de pulgada de espesor, un diámetro de 11,4 cm y una longitud de 2,97 metros. Una vez obtenida la torre del aerogenerador, se procedió a soldar dos placas, una inferior y una superior, para sostener la góndola del aerogenerador. Las dimensiones de dichas placas son las siguientes:   Placa inferior (soporte para fijar en la cimentación): 35 x 35 cm Placa superior (soporte de la góndola): 34 x 63,3 cm                                   Una vez hecha la estructura, se comenzó a trabajar en el disco para sostener las aspas. Se eligió el aluminio por su peso y solidez. Se procedió a cortar un disco de 34,5 cm de diámetro y 4/16 pulgadas de espesor, y se hicieron perforaciones de 5/16 pulgadas para colocar las aspas. Una vez hecho el disco, se continuó trabajando en cómo fijarlo al eje. Se utilizó una pequeña placa de 23 x 15 cm para soldar el eje, y se colocó un cojinete antes del disco para sostener el peso. Finalmente, se aplicó una capa de pintura blanca a toda la estructura. Una vez completada la estructura, iniciamos nuestro análisis mecánico con los sensores. Estos sensores nos enviaron información del aerogenerador cuando estaba libre de vibraciones y fallas mecánicas. Luego, procedimos a provocar vibraciones al quitar ciertas piezas de la cimentación, como una calza, lo cual generó vibraciones en toda la estructura y envió información diferente a la anterior. Esto nos permitió realizar análisis y detectar posibles fallas, así como llevar a cabo mantenimiento preventivo en nuestro aerogenerador.


CONCLUSIONES

Cabe concluir que, los aerogeneradores offshore representan un avance fundamental en la generación de energía al aprovechar vientos más intensos y constantes en el mar. Sin embargo, su implementación plantea desafíos técnicos importantes, particularmente en cuanto a la integridad estructural de cimentaciones y torres. La evolución en el análisis de fallas, facilitada por el uso de bases de datos y sensores avanzados, permite un monitoreo constante de variables críticas como vibraciones, presión, entre otras. Esta tecnología no solo mejora la fiabilidad y seguridad de los aerogeneradores, sino que también optimiza el mantenimiento predictivo, ayudando a reducir costos y a asegurar un rendimiento eficiente a largo plazo.
Medina Orozco Delfin, Universidad Nacional Abierta y a Distancia
Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara

ANáLISIS DE LA IMPORTANCIA SOCIOECONóMICO Y CULTURAL DEL BIZCOCHO DE HARINA DE ACHIRA (SAGú), DEL MUNICIPIO DE ALTAMIRA - DEPARTAMENTO DEL HUILA – COLOMBIA


ANáLISIS DE LA IMPORTANCIA SOCIOECONóMICO Y CULTURAL DEL BIZCOCHO DE HARINA DE ACHIRA (SAGú), DEL MUNICIPIO DE ALTAMIRA - DEPARTAMENTO DEL HUILA – COLOMBIA

Medina Orozco Delfin, Universidad Nacional Abierta y a Distancia. Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Colombia es un país con una gran variedad de culturas y costumbres y su gastronomía es un fiel reflejo de cada una sus regiones de país, la gastronomía colombiana incorpora tradiciones ibéricas, africanas, medio oriente y por supuesto indígenas siendo estos uno de los mejores exponentes en la gran variedad de la cultura gastronómica que se posee, ya que se desarrolla el uso de varios cereales que a día de hoy hacen parte importante de las familias, entre estos aportes en el desarrollo de la cocina local se resaltar el Bizcocho de Achira o harina de Sagú y este producto es de gran reconocimiento en el Departamento del Huila en el Municipio de Altamira, sin embargo son poco los estudios que muestran su importancia socioeconómica y cultual. ¿Qué estudios muestran la importancia del Bizcocho de Achira o harina de Sagú para el municipio de Altamira? ¿Cuáles son los beneficios de realizar un análisis de la importancia del Bizcocho de Achira o harina de Sagú para el municipio de Altamira?



METODOLOGÍA

METODOLOGÍA    Para este trabajo se selecciona la mitología de investigación Holística que permite ubicar las diversas propuestas en un esquema coherente y aplicable a cualquier área del conocimiento (Carhuncho-Mendoza , 2019). Los siguientes pasos para realizar la investigación con éxito: primero aplicar los diez objetivos de la investigación, segundo  identificar los diez  tipos de investigación, tercero  entender los niveles de profundidad del conocimiento,  cuarto  realizar la espiral holística y quinto aplicar el ciclo holístico para la investigación en particular.   Etapa 1: Entendimiento de los diez objetivos de la metodología que son: explorar, describir, analizar, comparar explicar, predecir, proponer intervenir, confirmar y evaluar. Utilizando los conocimientos de la administración de la calidad e Industria y optimización.    Etapa 2: Identificar diez los tipos de investigación: exploratoria, descriptiva, analítica, comparativa, explicativa, predictiva, proyectiva, interactiva, confirmatoria y evaluativa    Etapa 3: Entender los niveles de conocimiento: perceptual, aprehensivo, comprensivo e integrativo.    Etapa  4: Diseñar la espiral holística de la investigación indicando los siguientes puntos: perceptual (describir y explorar), aprensivo (comparar y analizar), comprensivo (proponer, predecir y explicar) e integrativo (modificar, confirmar y evaluar).     Etapa 5: Aplicar el ciclo holístico formado por: explorar, describir, analizar, comparar, explicar, predecir, proyectar, interactuar, confirmar y evaluar.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos, para la realización de proyectos de investigación desde una idea, estructurar el planteamiento del problema, título, objetivos generales y particulares, justificación, hipótesis y diseño de la metodóloga de investigación para este trabajo es la metodología holística y principalmente como esto se puede aplicar a un tema de interés personal, académico y profesional.       Es importante destacar la historia del producto alimenticio representa para la población en el Departamento del Huila y en especial para el municipio de Altamira como primer productor , además hacer un uso de la información recolectada para comprender la relación de este producto en temas relacionados con su cultura y su economía, ya que la producción de este alimento es aún a través de un conocimiento que ha venido siendo trasmitido de generación en generación guardando así métodos tradicionales y  para mantener su sabor tradicional como también el producto logro llegar a ser la principal fuente de ingresos del reconocido Municipio de  Altamira - Huila
Medina Ramirez Christian Ariel, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo

FACTORES GENERADORES DEL VALLE DE LA MUERTE


FACTORES GENERADORES DEL VALLE DE LA MUERTE

Madrigal Equihua Paola Ines, Instituto Tecnológico Superior de Los Reyes. Medina Ramirez Christian Ariel, Instituto Tecnológico Superior de Irapuato. Rolon Chávez Jafeth Valente, Instituto Tecnológico Superior de Los Reyes. Zepeda García Jesús Andany, Instituto Tecnológico Superior de Los Reyes. Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo



PLANTEAMIENTO DEL PROBLEMA

Dentro del marco de la innovación y el emprendimiento académico, el concepto denominado "valle de la muerte" continúa siendo un obstáculo crucial para la exitosa transición de proyectos desde su concepción inicial hasta su viabilidad económica, según investigadores (Björklund et al., 2020). Esta dificultad es especialmente relevante en instituciones de enseñanza superior como el Tecnológico Nacional de México, donde la generación y aplicación de conocimiento son metas esenciales. Es importante destacar que, en la actualidad el término "valle de la muerte" no se utiliza mucho en los Tecnológicos Nacionales de México. No existen investigaciones específicas sobre esta expresión debido a la falta de información proporcionada por las instituciones tecnológicas. En el contexto de las instituciones de educación superior mexicana, se ha resaltado la relevancia de los entornos de emprendimiento universitario para impulsar la innovación (Guerrero et al., 2019). No obstante, subsiste una brecha importante en la comprensión sobre cómo funcionan estos ecosistemas, en particular los mecanismos de financiamiento que operan en ellos, en cuanto a su influencia en la supervivencia y el éxito de los proyectos durante la denominada etapa del "valle de la muerte" en el Tecnológico Nacional de México. La financiación ha sido identificada como un elemento clave en la habilidad de los proyectos para superar este desafío crítico. No obstante, la verdadera repercusión de este factor ya sea positiva o negativa, aún no se ha esclarecido adecuadamente en el ámbito específico del Tecnológico Nacional de México. Esta entidad, como parte esencial del sistema educativo superior de México, muestra rasgos singulares que necesitan ser examinados minuciosamente para comprender cómo la financiación impacta en el éxito de los proyectos innovadores. Este estudio tiene como objetivo responder a las siguientes interrogantes de investigación: ¿De qué forma la financiación impacta en la capacidad de los proyectos del Tecnológico Nacional de México para superar el desafío del "valle de la muerte? La investigación de estas cuestiones es fundamental para desarrollar una comprensión más profunda de los mecanismos que facilitan o impiden el éxito de los proyectos innovadores en el contexto de la educación superior mexicana. Los resultados de este estudio podrían proporcionar información valiosa para la formulación de políticas y estrategias más efectivas de apoyo a la innovación y el emprendimiento en el Tecnológico Nacional de México y otras instituciones similares. Haciendo mención del Tecnológico Nacional de México Campus los Reyes, se destaca que el aspecto predominante en el valle de la muerte es la financiación, debido a la falta de recursos asignados para proyectos universitarios en el Tecnológico, lo cual necesita ser planificado con antelación para obtener la aprobación de los directivos.



METODOLOGÍA

Caracterizado por su enfoque exploratorio y descriptivo, se dedica a comprender y describir la relación entre la financiación, la innovación y su influencia en los proyectos de investigación del Tecnológico Nacional de México. Esto se enfoca principalmente en el desafío del "valle de la muerte" en el ámbito del emprendimiento académico. El objetivo de esta investigación es abordar un problema complejo y poco explorado, con el propósito de generar conocimiento que ayude a comprender los factores que afectan el éxito de los proyectos innovadores en la educación superior mexicana. A través de este enfoque, se busca responder preguntas específicas sobre cómo la financiación afecta la capacidad de los proyectos del Tecnológico Nacional de México para hacer frente al desafío del "valle de la muerte". Este enfoque facilita la exploración de un territorio poco estudiado y fomenta nuevas perspectivas que pueden enriquecer el ámbito del emprendimiento académico y la innovación tecnológica. Al detallar y analizar estas particularidades, se busca ofrecer una visión integral de la situación actual y de las posibles implicaciones para el diseño de políticas y estrategias de respaldo a la innovación en instituciones educativas semejantes.


CONCLUSIONES

El problema conocido como "valle de la muerte" supone un obstáculo importante para la innovación y el emprendimiento en el Tecnológico Nacional de México y, por ende, en la educación superior del país. Estudios han demostrado que la falta de financiamiento adecuado, la poca coordinación entre los actores del ecosistema de innovación y la escasa ayuda gubernamental son factores críticos que dificultan la transición de los proyectos desde la fase de investigación y desarrollo hacia su viabilidad comercial. Una forma de superar estos retos es mediante la adopción de un enfoque integral que incluya el fortalecimiento de los mecanismos de financiamiento, la promoción de una mayor colaboración entre universidades, centros de investigación, empresas y entidades financieras, así como la implementación de políticas públicas más efectivas que apoyen a los emprendedores en las fases clave de desarrollo de sus proyectos. La creación de un ecosistema sólido que respalde la creatividad y el espíritu emprendedor resulta fundamental para asegurar que las ideas innovadoras puedan prosperar y convertirse en ventajas tangibles para la sociedad.
Medina Romero Osneider David, Universidad de la Guajira
Asesor: Mg. Cristhian Camilo Amariles López, Universidad Libre

ANÁLISIS COMPARATIVO ENTRE EL CONCRETO ASFÁLTICO TRADICIONAL MDC-19 Y EL CONCRETO DE EPS DILUIDO CON D-LIMONENO COMO MATERIAL AGLOMERANTE


ANÁLISIS COMPARATIVO ENTRE EL CONCRETO ASFÁLTICO TRADICIONAL MDC-19 Y EL CONCRETO DE EPS DILUIDO CON D-LIMONENO COMO MATERIAL AGLOMERANTE

Medina Romero Osneider David, Universidad de la Guajira. Romero Coronado Steven Esteban, Universidad de la Guajira. Asesor: Mg. Cristhian Camilo Amariles López, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

La construcción tiene un impacto significativo en el medio ambiente, lo que ha llevado a buscar alternativas más sostenibles. Aunque el poliestireno expandido (EPS), utilizado en envases y como aislante térmico, es muy contaminante debido a su falta de biodegradabilidad, se están investigando métodos para reutilizarlo en morteros y concretos. En el ámbito de la construcción de carreteras, el concreto asfáltico ha sido ampliamente utilizado debido a su resistencia, durabilidad, estabilidad y facilidad de aplicación. Sin embargo, se ha intentado reemplazar este concreto tradicional mediante tecnologías innovadoras más eficientes y sostenibles. Por lo tanto, se está comparando y analizando los resultados entre las mezclas de concreto asfáltico tradicional (MCD-19) y el concreto de EPS diluido en D-Limoneno.



METODOLOGÍA

Se contempló un proceso distribuido en diferentes etapas como el control de calidad de los materiales granulares, además de la fabricación de 30 briquetas Marshall de concreto modificado con variaciones en la proporción de EPS reciclado con valores entre el 4% y 9% y la realización de pruebas tanto destructivas como no destructivas para evaluar las propiedades físicas y mecánicas mediante estadística inferencial, todos los ensayos se realizaron en la Universidad Libre Seccional Pereira. 1. Granulometría de los agregados              El procedimiento consistió en verter el agregado en porciones en la torre de tamices y luego colocarlos en la tamizadora mecánica. Finalmente, se separó el material retenido en cada tamiz. 2. Ensayo: Máquina de los Ángeles   En primer lugar, se seleccionó una muestra de agregado grueso que comprendía en 2500 g de retenido en 3/8 y la misma cantidad de ¼, para completar 5000 g. Luego, se añadió el agregado al tambor, seguido de 11 esferas de acero, se cerró el tambor y se inició la rotación hasta completar 500 revoluciones. Posteriormente, el material desgastado se separó utilizando el tamiz No. 12, la muestra retenida en dicho tamiz se lavó y se colocó en el horno hasta alcanzar masa constante. Después de transcurrido ese tiempo, se registró la masa de la muestra y se calculó el porcentaje de pérdida. 3. Ensayo: Micro-Deval   El ensayo consistió en la selección de una porción del agregado grueso, compuesta por 1500 g, Posteriormente, se colocó la muestra en el recipiente de Micro-Deval, seguido se agregó 2 litros de agua y se dejó en remojo durante 1 hora. Pasado este tiempo, se añadieron 4825 g de esferas metálicas al recipiente, se colocó la tapa y se procedió a rotar la máquina con el material a una velocidad de 100 rpm (revoluciones por minuto) durante 2 horas. Transcurrido ese tiempo, se extrajeron las esferas metálicas, se lavó el agregado y se colocó en el horno hasta alcanzar masa constante. Por último, se registró la masa del material y se calculó el porcentaje de pérdida. 4. Fabricación de muestras: Diseño Marshall Se mezcló el agregado fino con una cantidad específica de D-limoneno para humedecerlo. Luego, se incorporó una cierta cantidad de EPS al proceso de mezclado, durante la mezcla, se añadió gradualmente el EPS y el D-limoneno simultáneamente para lograr una disolución adecuada, tambien se realizaron intervenciones manuales para asegurar la homogeneidad de la mezcla. posterior a eso, se incorporo el agregado grueso, después de obtener una mezcla homogénea que incluía tanto el agregado fino como el grueso, se vertió en moldes, utilizando una máquina compactadora, se aplicaron 75 golpes en cada cara de la muestra dentro del molde, finalmente, se extrajo la briqueta del molde con una prensa hidráulica. Este proceso se repitió para las 30 muestras, ajustando los porcentajes ascendentes de EPS (4%, 4.5%, 5%, 5.36%, 5.5%, 6%, 7%, 8% y 9%). 5. Ensayos no destructivos Tras extraer las muestras de los moldes, se tomaron las dimensiones de la muestra, altura y diámetro. También se registró la masa inicial de las muestras. Posteriormente, se dejó la muestra al aire libre durante 1 día, luego se introdujeron en el horno durante 3 días registrando la masa día a día, para el control del curado que comprende a la evaporación del D-limoneno. Después del curado de las muestras, se procedió a realizar el ensayo de velocidad de pulso ultrasónico (VPU). En este ensayo, se colocaron sensores en cada cara de la muestra. Luego de completar este ensayo, se sumergieron las 30 muestras en agua durante un período de 24 horas. Después de la inmersión, se registró la masa de la muestra sumergida en el agua, la masa en estado de saturación y superficialmente seca (SSS), con los datos obtenidos, se calculó la gravedad específica y la absorción. 6. Ensayo destructivo Ese ensayo consistió en sumergir las briquetas a baño maría a una temperatura de 60°C durante 30 minutos. Posteriormente, se procedió a ensayar una a una las muestras en la máquina Marshall para determinar la estabilidad y flujo. 


CONCLUSIONES

En los resultados obtenidos, se registran valores que superan lo que establece la normativa del instituto nacional de vías en comparación con el concreto asfaltico tradicional. Se registraron estabilidades que superan casi tres veces la estabilidad que indica la norma INVIAS en su artículo 450-22, más específicamente en la tabla 450-9, para mezclas de alto modulo. En cuanto al flujo, la mayoría está por encima del valor mínimo exigido, pero no quiere decir que no cumpla, esto debido a que los valores de estabilidad fueron altos, por ende, se mantiene y hasta algunas sobrepasan la relación estabilidad - flujo que exige la normativa. Teniendo en cuenta la relación estabilidad - flujo, el 76,92% de las muestras ensayadas superan el NT1 y el 61,53% de las muestras superan el NT2 y NT3.
Medina Serrano Danilo Alfonso, Corporación Universitaria de Ciencias Empresariales, Educación y Salud
Asesor: Mg. Victoria Eugenia Rivas Ramirez, Fundación Academia de Dibujo Profesional

ANALISIS DE ACCESIBILIDAD EN MUSEOS DE COLOMBIA DESDE LA APLICACION DE LOS PRINCIPIOS DEL DISEñO UNIVERSAL; CASO MUSEO DE LA CASA DE LA CULTURA, TENERIFE-MAGDALENA.


ANALISIS DE ACCESIBILIDAD EN MUSEOS DE COLOMBIA DESDE LA APLICACION DE LOS PRINCIPIOS DEL DISEñO UNIVERSAL; CASO MUSEO DE LA CASA DE LA CULTURA, TENERIFE-MAGDALENA.

Medina Serrano Danilo Alfonso, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Asesor: Mg. Victoria Eugenia Rivas Ramirez, Fundación Academia de Dibujo Profesional



PLANTEAMIENTO DEL PROBLEMA

La accesibilidad para personas en condición de discapacidad es un problema que se presenta en diferentes partes del mundo y se convierte un asunto critico especialmente en lugares de interés cultural. Los museos son instituciones en las que se atesoran documentos históricos y objetos sobre los procesos evolutivos de la humanidad, a través de sus colecciones artísticas se puede conocer la historia de la localidad, la nación y el mundo. De igual forma, estos establecimientos generan actividades educativas que pueden llevarse a cabo tanto en sus salas como en espacios exteriores, acercando los conocimientos a los estudiantes. El rol cultural y educativo de los museos es cada vez más relevante y para esto se ha implementado un gran ingenio y esfuerzo de los expertos, para contar con un espacio cultural inclusivo. El Diseño Universal es un concepto que busca crear entornos utilizables por todas las personas sin necesidad de adaptación o diseño especializado dentro del contexto de los museos, lo cual implica asegurar que todas las áreas sean accesibles para toda aquella persona que presenta dificultad física, sensorial o cognitiva, entre otras. De esta forma, los museos deben asegurar que todos sus programas sean más accesibles y fomenten la participación de un personal más amplio posible en consonancia con su verdadera misión. Un museo accesible contribuye a la inclusión e integración de personas con discapacidad o con algún tipo de limitación, adaptando sus espacios y contenidos, mejorando su equipamiento y servicios, permitiendo el derecho a visitarlo en igualdad de condiciones, para que todos sus visitantes se acerquen a la cultura sin inconvenientes ni dificultades. Usualmente, debido a falta de recursos, algunos de estos espacios culturales, no son aptos en materia de accesibilidad; este es el caso del museo casa de la Cultura de Tenerife (Magdalena) convirtiéndose en una barrera para aquellas personas que tengan problemas físicos.



METODOLOGÍA

En el presente estudio se aplicaron dos instrumentos de análisis de criterios de accesibilidad para evaluar el museo de la Casa de la Cultura de Tenerife (Magdalena). Se buscó determinar la viabilidad en cada área o zona del museo y se analizaron aquellos principios que forman la estabilidad y profesionalidad de un área en específica, para esto se obtuvieron 16 graficas que expresaron los resultados obtenidos de cada criterio analizado. Para empezar el análisis, se tomó en cuenta desde el primer instrumento, el Edificio, lo que arrojo un 8 % de accesibilidad, el cual no cumple. En el segundo aspecto de Localización se obtuvo un 25%, el cual no cumple con lo establecido. Se encontró que algunas áreas en específico constan de señalizaciones exteriores, tienen buena visibilidad y permiten identificar claramente el museo. Sin embargo, no tienen planteados mapas que faciliten ubicarse en cada espacio. En el tercer aspecto de las Exposiciones se obtuvo un valor muy alto, demostró una ligera puntuación por encima de las fases con un 62% de viabilidad al igual que el empleo que tuvo un 50 %. Esto define que se tuvo en cuenta una buena planificación en casi todas las áreas o salas de exposición. El cuarto aspecto arrojo un 10% en la Comunicación. Se identificó que no cumple en algunos requisitos, como tener presente un panel gráfico, materiales divulgativos y pagina web. En el caso del quinto aspecto, los resultados arrojaron 16% otro valor muy bajo en el área de la Seguridad; por lo tanto, no cumple ya que las salidas no son tan accesibles para aquellas personas con movilidad reducida, puesto que el museo no consta de asesores o rampas que faciliten rápidamente una salida en caso de emergencia. En el sexto (Consultoría), séptimo (Formación), noveno (Evaluación) y decimo aspecto (Gestión) se dio el mayor impacto negativo con un puntaje de 0%, lo que significa que no cumple con ningún requisito.  Resultado de este primer instrumento de análisis, se puede evidenciar problemas para el museo con un bajo porcentaje total de accesibilidad del 17,88%. En el segundo instrumento de accesibilidad, se evaluaron los siete principios del Diseño Universal y las tecnologías 4.0. Se tomó una encuesta que planteaba una secuencia de números. Si el resultado determinaba 1 o 2 no cumplía en los requisitos y si el resultado era del 3 a 4, cumplen con algunas necesidades o cumplían el 100%. Obteniendo los resultados, Se identificaron varios puntos por debajo de 2, lo que significa no cumplimiento, en este caso, el más crítico en las tecnologías 4.0, Big Data y uso de Inteligencia Artificial; en cuanto a la aplicación de los principios del diseño universal, Uso equitativo e Información perceptible obtuvieron el puntaje más bajo de 1. Sin embargo, se obtuvo un puntaje de 3 en Flexibilidad de uso y Bajo esfuerzo físico; la aplicación del principio de Uso Simple e Intuitivo, con un puntaje de 4 sobresalió en cada criterio.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos teóricos encaminados al Diseño universal y la Accesibilidad en los museos. Para poner en práctica esto, se aplicaron dos instrumentos de evaluación para determinar la viabilidad del espacio museístico de la casa de la Cultura de Tenerife (Magdalena). A través de un análisis profundo de los datos disponibles, este estudio buscó comprender la esencia del museo, observando cuáles son esas fortalezas que se incluyen en el crecimiento formal mediante la accesibilidad. Teniendo en cuenta los resultados que nos indicó la primera gráfica, solo un 17,88% de accesibilidad, un porcentaje bajo lo que representa una problemática a las personas con discapacidad, debido a la falta de información y de recursos; además, el museo no cuenta con áreas accesibles. Desafortunadamente, al ser un trabajo extenso realizado no se pueden mostrar en detalle los datos obtenidos. Por lo tanto, es un compromiso que debe ser planteado lo más ante posible para fortalecer cada necesidad y mejorar la experiencia de los visitantes con movilidad reducida en el museo Casa de la Cultura de Tenerife (Magdalena).
Medina Tello Dulce Maria, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Esp. Angelica Maria Blanco Correa, Institución Universitaria de Envigado

CONDICIONES DE TRABAJO EN SALAS DE BELLEZA Y SPA DE UÑAS DEL MUNICIPIO DE ENVIGADO, ANTIOQUIA- COLOMBIA (2024)


CONDICIONES DE TRABAJO EN SALAS DE BELLEZA Y SPA DE UÑAS DEL MUNICIPIO DE ENVIGADO, ANTIOQUIA- COLOMBIA (2024)

Cuevas Ayala Bibiana Guadalupe, Instituto Tecnológico de Jiquilpan. González Hernández Erick Axel, Instituto Tecnológico de Morelia. Guijosa Hernández Brenda Estefany, Instituto Tecnológico Superior de Ciudad Hidalgo. Martínez Martínez Cecilia Lizbeth, Instituto Tecnológico Superior de Ciudad Hidalgo. Medina Tello Dulce Maria, Instituto Tecnológico Superior de Ciudad Hidalgo. Medina Tello Regina Vianeey, Instituto Tecnológico Superior de Ciudad Hidalgo. Pérez Delgado Rosario Nallely, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Esp. Angelica Maria Blanco Correa, Institución Universitaria de Envigado



PLANTEAMIENTO DEL PROBLEMA

En las salas de belleza y spa de uñas, los colaboradores se exponen a múltiples factores de riesgo que pueden afectar su salud y bienestar. Estos riesgos incluyen exposición a sustancias químicas, radiaciones no ionizantes, ruido, iluminación inadecuada, condiciones de confort térmico deficientes y factores ergonómicos debido a posturas forzadas y movimientos repetitivos. La falta de medidas preventivas específicas y el desconocimiento sobre los riesgos agravan la situación, aumentando la probabilidad de accidentes de trabajo y enfermedades laborales. Los colaboradores de las peluquerías y spa de uñas en Envigado están expuestos a riesgos ocupacionales y ergonómicos que pueden impactar negativamente su salud, y en la mayoría de los casos, no se implementan acciones preventivas adecuadas.



METODOLOGÍA

Diseño del Estudio El estudio se diseñará como una investigación descriptiva y transversal, evaluando los riesgos de higiene ocupacional y ergonómicos en los trabajadores de salas de belleza y spa de uñas en Envigado. Población y Muestra Población: Trabajadores de salas de belleza y spa de uñas en el municipio de Envigado. Muestra: Se seleccionará una muestra representativa de trabajadores de diferentes salas de belleza y spa de uñas en Envigado, utilizando un muestreo aleatorio estratificado. Instrumentos de Recolección de Datos Encuestas y Cuestionarios: Para caracterizar el perfil sociodemográfico y las condiciones de salud y trabajo de los trabajadores. Mediciones Ambientales: Para evaluar niveles de ruido, iluminación, radiación no ionizante y confort térmico en los lugares de trabajo. Análisis de Sustancias Químicas: Para identificar y medir la concentración de sustancias químicas presentes en el ambiente laboral. Evaluaciones Ergonómicas: Para identificar y analizar posturas forzadas y movimientos repetitivos. Procedimiento Recolección de Datos: Aplicación de encuestas y cuestionarios a los trabajadores. Realización de mediciones ambientales y análisis de sustancias químicas en las salas de belleza y spa de uñas. Evaluaciones ergonómicas en los puestos de trabajo. Análisis de Datos: Análisis descriptivo de los datos sociodemográficos, de salud y condiciones de trabajo. Análisis cuantitativo de los niveles de exposición a riesgos higiénicos y ergonómicos. Relación entre los riesgos evaluados y los efectos en la salud reportados por los trabajadores Elaboración de Recomendaciones: Basadas en los resultados obtenidos, se emitirán recomendaciones para mejorar las condiciones de trabajo y reducir la exposición a los riesgos identificados.


CONCLUSIONES

Perfil Sociodemográfico y Condiciones de Salud: Caracterización detallada del perfil sociodemográfico de los trabajadores y sus condiciones de salud, identificando posibles patrones o tendencias relacionadas con la exposición a riesgos. Evaluación de Riesgos: Identificación de los niveles de exposición a ruido, iluminación, radiación no ionizante, confort térmico y sustancias químicas en las salas de belleza y spa de uñas. Evaluación de los riesgos ergonómicos relacionados con posturas forzadas y movimientos repetitivos. Relación entre Riesgos y Salud: Análisis de la relación entre los riesgos ocupacionales y los efectos en la salud reportados por los trabajadores, proporcionando evidencia sobre el impacto de estos riesgos en su bienestar.
Medina Tello Regina Vianeey, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Esp. Angelica Maria Blanco Correa, Institución Universitaria de Envigado

CONDICIONES DE TRABAJO EN SALAS DE BELLEZA Y SPA DE UÑAS DEL MUNICIPIO DE ENVIGADO, ANTIOQUIA- COLOMBIA (2024)


CONDICIONES DE TRABAJO EN SALAS DE BELLEZA Y SPA DE UÑAS DEL MUNICIPIO DE ENVIGADO, ANTIOQUIA- COLOMBIA (2024)

Cuevas Ayala Bibiana Guadalupe, Instituto Tecnológico de Jiquilpan. González Hernández Erick Axel, Instituto Tecnológico de Morelia. Guijosa Hernández Brenda Estefany, Instituto Tecnológico Superior de Ciudad Hidalgo. Martínez Martínez Cecilia Lizbeth, Instituto Tecnológico Superior de Ciudad Hidalgo. Medina Tello Dulce Maria, Instituto Tecnológico Superior de Ciudad Hidalgo. Medina Tello Regina Vianeey, Instituto Tecnológico Superior de Ciudad Hidalgo. Pérez Delgado Rosario Nallely, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Esp. Angelica Maria Blanco Correa, Institución Universitaria de Envigado



PLANTEAMIENTO DEL PROBLEMA

En las salas de belleza y spa de uñas, los colaboradores se exponen a múltiples factores de riesgo que pueden afectar su salud y bienestar. Estos riesgos incluyen exposición a sustancias químicas, radiaciones no ionizantes, ruido, iluminación inadecuada, condiciones de confort térmico deficientes y factores ergonómicos debido a posturas forzadas y movimientos repetitivos. La falta de medidas preventivas específicas y el desconocimiento sobre los riesgos agravan la situación, aumentando la probabilidad de accidentes de trabajo y enfermedades laborales. Los colaboradores de las peluquerías y spa de uñas en Envigado están expuestos a riesgos ocupacionales y ergonómicos que pueden impactar negativamente su salud, y en la mayoría de los casos, no se implementan acciones preventivas adecuadas.



METODOLOGÍA

Diseño del Estudio El estudio se diseñará como una investigación descriptiva y transversal, evaluando los riesgos de higiene ocupacional y ergonómicos en los trabajadores de salas de belleza y spa de uñas en Envigado. Población y Muestra Población: Trabajadores de salas de belleza y spa de uñas en el municipio de Envigado. Muestra: Se seleccionará una muestra representativa de trabajadores de diferentes salas de belleza y spa de uñas en Envigado, utilizando un muestreo aleatorio estratificado. Instrumentos de Recolección de Datos Encuestas y Cuestionarios: Para caracterizar el perfil sociodemográfico y las condiciones de salud y trabajo de los trabajadores. Mediciones Ambientales: Para evaluar niveles de ruido, iluminación, radiación no ionizante y confort térmico en los lugares de trabajo. Análisis de Sustancias Químicas: Para identificar y medir la concentración de sustancias químicas presentes en el ambiente laboral. Evaluaciones Ergonómicas: Para identificar y analizar posturas forzadas y movimientos repetitivos. Procedimiento Recolección de Datos: Aplicación de encuestas y cuestionarios a los trabajadores. Realización de mediciones ambientales y análisis de sustancias químicas en las salas de belleza y spa de uñas. Evaluaciones ergonómicas en los puestos de trabajo. Análisis de Datos: Análisis descriptivo de los datos sociodemográficos, de salud y condiciones de trabajo. Análisis cuantitativo de los niveles de exposición a riesgos higiénicos y ergonómicos. Relación entre los riesgos evaluados y los efectos en la salud reportados por los trabajadores Elaboración de Recomendaciones: Basadas en los resultados obtenidos, se emitirán recomendaciones para mejorar las condiciones de trabajo y reducir la exposición a los riesgos identificados.


CONCLUSIONES

Perfil Sociodemográfico y Condiciones de Salud: Caracterización detallada del perfil sociodemográfico de los trabajadores y sus condiciones de salud, identificando posibles patrones o tendencias relacionadas con la exposición a riesgos. Evaluación de Riesgos: Identificación de los niveles de exposición a ruido, iluminación, radiación no ionizante, confort térmico y sustancias químicas en las salas de belleza y spa de uñas. Evaluación de los riesgos ergonómicos relacionados con posturas forzadas y movimientos repetitivos. Relación entre Riesgos y Salud: Análisis de la relación entre los riesgos ocupacionales y los efectos en la salud reportados por los trabajadores, proporcionando evidencia sobre el impacto de estos riesgos en su bienestar.
Mejia Berrio Adrian Jesus, Universidad de Pamplona
Asesor: Post-doc Jose Agustín Vallejo Borda, Universidad de Investigación y Desarrollo

SATISFACCIóN DE NECESIDADES BáSICAS Y SU IMPACTO EN EL DESARROLLO SOCIAL Y ECONóMICO EN CIUDADES PEQUEñAS.


SATISFACCIóN DE NECESIDADES BáSICAS Y SU IMPACTO EN EL DESARROLLO SOCIAL Y ECONóMICO EN CIUDADES PEQUEñAS.

Mejia Berrio Adrian Jesus, Universidad de Pamplona. Asesor: Post-doc Jose Agustín Vallejo Borda, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

Se busca investigar cómo la satisfacción de las necesidades humanas, desde las más básicas hasta las de autorrealización, se relaciona con el desarrollo urbano sostenible y la calidad de vida en ciudades pequeñas. A través de revisión de literatura y síntesis de información, esta investigación tiene como objetivo proporcionar un marco teórico y práctico para la planificación urbana centrada en las necesidades humanas, contribuyendo así a la creación de ciudades más habitables, resilientes y satisfactorias para sus residentes.



METODOLOGÍA

Investigación preliminar sobre diferentes aspectos de las ciudades desde una perspectiva de motivación humana. Familiarización con bases de datos y herramientas en la busqueda, recopilación y selección de literatura relevante referente a la temática a trabajar. Revisión de literatura y clasificación de fuentes. Análisis y síntesis de la información recopilada. Redacción de un borrador a partir del análisis y sintesis de la literatura. Revisión y edición del borrador. Finalización y entrega del documento.


CONCLUSIONES

Las políticas de desarrollo urbano que consideran la jerarquía completa de necesidades tienden a crear comunidades más resilientes, sostenibles y satisfactorias para sus habitantes. Movimientos como Slow City demuestran el potencial de enfoques holísticos que atienden no solo las necesidades básicas, sino también las de pertenencia, estima y autorrealización, fomentando un desarrollo urbano más equilibrado y centrado en el ser humano. Este enfoque centrado en las necesidades humanas puede conducir a una distribución más equitativa de recursos y oportunidades en las ciudades, contribuyendo a una mayor cohesión social y participación cívica.
Mejia Zavaleta Eduardo, Universidad Veracruzana
Asesor: Dra. Alexandra Cerón Vivas, Universidad Pontificia Bolivariana

ADSORCIóN DE FóSFORO EMPLEANDO LODOS ALUMBRADOS


ADSORCIóN DE FóSFORO EMPLEANDO LODOS ALUMBRADOS

Mejia Zavaleta Eduardo, Universidad Veracruzana. Portilla Linares Naomi Anaid, Universidad Veracruzana. Zevallos de la Flor Dennis Angel, Universidad Nacional José María Arguedas. Asesor: Dra. Alexandra Cerón Vivas, Universidad Pontificia Bolivariana



PLANTEAMIENTO DEL PROBLEMA

El fósforo (P) es un nutriente crucial, frecuentemente limitante, para el desarrollo de organismos en la mayoría de los ecosistemas y también es un componente vital para diversas industrias. Sin embargo, con el aumento de la población global y la intensificación de la industrialización, se liberan cantidades excesivas de nitrógeno (N) y fosforo (P), lo que resulta en una serie de problemas ambientales, incluyendo la eutrofización y el agotamiento del oxígeno, que tienen un impacto significativo en el equilibrio ecológico e incluso en la salud pública. En la investigación actual, se está estudiando la eliminación de fósforo de las aguas residuales, ya que se considera que cuando el nivel de nitrógeno supera los 0,2 mg/L y el de fósforo supera los 0,02 mg/L, el agua se convierte eutrófica. 



METODOLOGÍA

Para el desarrollo de la metodología fue necesario visitar la Planta de Tratamiento de Lodos, que recientemente fue incorporada a la Planta de Tratamiento de Agua Potable Bosconia (PTAP-B), para el tratamiento de los lodos generados por su operación. La primera actividad dentro del laboratorio consistió en reducir la cantidad de agua presente en el lodo, debido a lo complejo que era manipularlo, para lo cual se sometió por 2 hrs al horno a 110 °C. Una vez que el lodo se enfrió hasta llegar a temperatura ambiente, se realizaron esferas de dicho lodo con un peso aproximado de 1.2 grs cada una, además, que, debido a la naturaleza de las pruebas a realizar, fue necesario elaborar una gran cantidad de dichas esferas. El siguiente proceso fue llevar a cabo el secado de las anteriores, con lo cual, la primera parte fue sometida a la mufla a 400 °C por 10 minutos, para posteriormente elevar la temperatura a 600 °C por 5 minutos. Por otro lado, para la segunda mitad, solamente se dejaron secar al aire libre por 48 hrs. Fue necesario realizar una solución de fosfato monobásico de potasio con una concentración de 50 mg/L, de la cual se depositaron 200 ml en un balón 1000 ml, el cual más tarde fue aforado con agua destilada, para obtener una concentración de 10mg/l. Cabe mencionar, que dicho proceso fue repetido con un segundo balón de 1000 ml, para posteriormente ser neutralizados en el rango de pH de 6.5-7.0. Se realizaron dos distintas pruebas entre la solución de fósforo y el material de ambos tipos, la primera bajo el nombre de cinética adsorción, consistió en verter 100 ml de los balones neutralizados en un matraz Erlenmeyer de 100 ml y agregar 3 esferas de lodo (aproximadamente de 0.6 grs cada una). Este proceso fue replicado en 9 matraces más, con el objetivo de hacer 5 muestras por duplicado, las cuales variarían con 30 minutos, una hora, dos horas, cuatro horas y ocho horas de agitación en un shaker a 300 rpm. Mientras que la segunda prueba se realizó bajo el nombre de isoterma de adsorción, la cual consistió en 5 matraces Erlenmeyer de 100 ml por duplicado, con concentraciones en mg/L de 1, 5, 10, 15 y 20, terminando el aforo con agua destilada. A diferencia de la anterior, en esta no se varió el tiempo de agitación, sino la concentración de fósforo en la solución. Los 10 matraces pertenecientes a la prueba fueron sometidos a agitación continua por 48 hrs, lo cual implicó reprogramaciones constantes del shaker. Una vez que cada uno de los matraces de cada prueba cumplían su tiempo, estos eran sacados del agitador, retirando las esferas de lodo y almacenadas en el refrigerador para su próximo análisis en el cromatógrafo. Para lograr identificar al compuesto en cada una de las concentraciones en el rango de lectura del cromatógrafo, fueron necesarias realizar disoluciones por 4 y 8 veces, con lo cual fueron analizadas las muestras.  


CONCLUSIONES

A pesar de que las pruebas arrojaron algunos valores que no concuerdan con la curva de adsorción, de manera general se observó una retención de fósforo por parte de las esferas, obteniendo mejores resultados con el material secado a la mufla, por lo que con ambas pruebas se logra identificar el potencial al usar lodos alumbrados como material adsorbente de fósforo. Próximamente se gestionará una serie de análisis a las esferas mediante un laboratorio externo a la universidad, con lo cual quedan pendientes más resultados de dicho trabajo, además que nuestro trabajo cumple la función de conocer si es posible el objetivo, por lo tanto, se continuará estudiando en el futuro.
Melchor López Miguel Angel, Universidad Tecnológica de Tecamachalco
Asesor: Dr. Hugo Gaspar Hernández Palma, Corporación Universitaria Latinoamericana

REVISION DOCUMENTAL EN EL USO DE ENERGIA RENOVABLES PARAR SERVICIOS DE SALUD EN EQUIPOS MEDICOS ESPECIALIZADOS


REVISION DOCUMENTAL EN EL USO DE ENERGIA RENOVABLES PARAR SERVICIOS DE SALUD EN EQUIPOS MEDICOS ESPECIALIZADOS

Aguilar Juárez Leonardo, Universidad Tecnológica de Tecamachalco. Melchor López Miguel Angel, Universidad Tecnológica de Tecamachalco. Asesor: Dr. Hugo Gaspar Hernández Palma, Corporación Universitaria Latinoamericana



PLANTEAMIENTO DEL PROBLEMA

Es crucial abordar la problemática de la dependencia del consumo energético generado dentro de hospitales provocando una mayor dependencia de las energías fósiles para el uso de equipos médicos que llegan a ser utilizados dentro de los hospitales provocando una demanda de energía excesiva a redes eléctricas. Al ser esta su única fuente energía para poder seguir su función provocando no voltear a ver o no recurrir a otras fuentes de energías que existen actualmente, siendo una de ellas la energía solar fotovoltaica una fuente alternativa de energía limpia, confiable e inagotable ya que proviene de la fuente de luz más grande que existe la luz solar. Siendo una fuente funcionan cumpliendo con suministrar la energía para la operación de dichos equipos mitigando el consumo de la energía fósil dentro del hospital y a su vez contribuyendo con el medio ambiente. Al ser una energía nueva y que se está consolidando dentro del ámbito hospitalario la energía solar no cuenta con la confianza o respaldo de los hospitales siendo las clínicas rurales las que usan y fomentan su implementación de las energía renovables para su operación por lo que dentro de hospitales por lo que no se sienten seguros de apostar por nuevas alternativas de suministrar energía a sus equipos de trabajo solo subsistiendo con plantas de emergencia y de energía fósil para sus labores y actividades dentro del mismo. Por ende, al no tener conocimiento de este y por el poco énfasis en que este hace en la implementación a los hospitales estos no terminan de confiar en su uso de operación para equipos. No es tomada en cuenta ya que requiere de una inversión inicial alta, esta inversión inicial es recuperada en un cierto periodo de tiempo y es más factible y rentable a la energía eléctrica que comúnmente es utilizada en los hospitales. Son complejos con un alto consumo energético debido a su operación ininterrumpida a lo largo de todos los días del año. Además, la constante demanda de energía, el uso de equipamiento médico especializado, contribuyen a que su consumo de energía sea considerablemente superior al de otros tipos de edificaciones dentro del sector terciario. Buscando la implementación de la energía solar en el sector hospitalario centrándonos en los equipos especializados disminuyendo la carga que estos demandan en el consumo energético.



METODOLOGÍA

Para el desarrollo de este proyecto de investigación, se utilizó información confiable y real acerca del estado de la implementación de paneles solares fotovoltaicos en el sector salud, así como los consumos de energía eléctrica y costos asociados al funcionamiento en prestar los servicios de salud. De tal modo, se plantea que esta revisión documental pueda dar información con fundamentos verídicos. En la elaboración de esta revisión documental se realizó una tabla  donde se hizo una exhaustiva búsqueda de artículos relacionados a energía solar fotovoltaica y su impacto dentro de hospitales. Con el propósito de realizar esta búsqueda es analizar y proporcionar información sobre el uso de la energía solar. Haciendo una búsqueda en diferentes bases de datos donde se adquieren artículos y revistas con relación al tema en cuestión haciendo así la búsqueda sea más rápida y la información sea sustentada. Al iniciar con esta revisión documental se busca proporcionar información  al sector hospitalario que cuente con los equipos médicos especializado que estos les genere un consumo excesivo por la alta demanda de estos equipos al ser utilizados, también es dar a conocer al sector salud una forma de utilizar la misma naturaleza ya que es un recurso inagotable y podemos utilizarla a nuestro favor en nuestro día a día, reduciendo costos de energía eléctrica convencional y del mismo modo   aprovechar la energía solar fotovoltaica.


CONCLUSIONES

En esta revisión documental investigamos la importancia de la implementación de paneles solares, dentro de hospitales que trabajan con equipos médicos de alto consumo de energía y su demanda es grande provocando una mayor contaminación al medio ambiente y lo que esto provoca. Al realizar esta investigación se busca que los hospitales y centros de salud puedan contemplar como una opción viable el uso de energía renovable como lo  es la fotovoltaica logrando así reducir la carga que estos generan y poder minimizar el costo que esta demanda energética, de esta manera cuidar el medio ambiente y por su parte un ahorro económico dentro de los mismos hospitales.
Melchor Magaña Maria Guadalupe, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Mtro. Marcos Hernández Varilla, Universidad Tecnológica de Huejotzingo

BASES DEL SISTEMA HACCP PARA LA INDUSTRIA DE BEBIDAS ALCOHóLICAS-MEZCAL


BASES DEL SISTEMA HACCP PARA LA INDUSTRIA DE BEBIDAS ALCOHóLICAS-MEZCAL

Melchor Magaña Maria Guadalupe, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Mtro. Marcos Hernández Varilla, Universidad Tecnológica de Huejotzingo



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, la producción artesanal de mezcal en Villa Madero ha experimentado un notable crecimiento. A pesar de este avance, surge una preocupación latente en torno a la inocuidad y calidad de este apreciado producto. La falta de un control riguroso en los procesos de elaboración de la bebida ha suscitado inquietudes sobre la excelencia del mezcal producido en la región. Aunque existen normativas establecidas, lamentablemente son desconocidas para la gran mayoría de los productores mezcaleros locales. Con el propósito de abordar esta problemática, el objetivo principal de la presente investigación radica en la aplicación teórica de un plan HACCP que abarque integralmente toda la línea de producción del mezcal. Este enfoque permitirá llevar a cabo una exhaustiva evaluación del perfil microbiológico y químico de los mezcales artesanales manufacturados en Villa Madero, con el fin de identificar posibles contaminantes presentes y sus respectivas fuentes. 



METODOLOGÍA

Se analizaron los 7 principios del HACCP descritos en la norma chilena NCh2861-2011 así como los  pasos que se deben seguir  para la aplicación correcta del sistema HACCP descritos en dicha norma.  Dichos pasos se llevaron a cabo de la siguiente manera: Formación de un equipo HACCP  Se formó un equipo multidisciplinario con personas expertas en la producción del mezcal, especialistas en su área de conocimiento  y capacitadas en la aplicación de un sistema HACCP. Descripción del producto  Se comenzó por describir la materia prima a utilizar, que en este caso fue el agave y el agua, dando así especificaciones físicas, químicas  microbiológicas y organolépticas, esto con la intención de conocer las propiedades de la materia prima con la cual se realiza el producto final. Posterior a esto se describió el producto final incluyendo ingredientes, propiedades fisicoquímicas y microbiológicas, método de producción, método de envasado, vida útil, recomendaciones de manejo, material de empaque, entre otras características.  Diagrama de flujo del proceso  Se elaboró un diagrama de flujo de los pasos principales para elaborar el mezcal, los cuales son: Recepción de materia prima, acondicionamiento del agave, cocción, molienda, fermentación, destilación, envasado y por último almacenamiento.  Realización del análisis de peligros Para este paso se analizaron todos los peligros potenciales físicos, químicos y biológicos en cada una de las etapas del proceso del mezcal. Determinación de los puntos críticos de control Después de realizar el análisis de peligros se procedió a determinar los puntos críticos de control tomando en cuenta en qué etapas del proceso existe mayor peligro para la inocuidad del producto final. Los procesos donde se detectaron los PCC en la elaboración del mezcal son: en la fermentación, destilación y almacenamiento.  Establecimiento de limites criticos  Una vez que se identificaron los puntos críticos de control en el proceso del mezcal, se procedió a establecer límites críticos para cada PCC, se tomaron en cuenta factores como: la temperatura, humedad, procedimientos de limpieza y desinfección, tiempo máximo para cada proceso, luz y ventilación.   Implementación de un sistema de monitoreo de control de los PCC Para asegurar que los límites críticos establecidos se cumplan en cada etapa correspondiente se hace la implementación de un sistema de monitoreo de control de los PCC. Se hizo la propuesta de un plan detallado para el monitoreo  y control constante de las etapas donde se identifican los PCC.     Establecimiento de acciones correctivas  El establecimiento de acciones correctivas es un paso fundamental para garantizar la seguridad del producto y la eficacia del sistema.  Para este plan HACCP se hizo la propuesta de las siguientes acciones correctivas:  1. Desinfección inmediata 2. Ajuste de procesos 3. Retiro de producto no conforme 4. Capacitación del personal Mantenimiento de registros y documentación  El mantenimiento de registros y documentación en un sistema HACCP para la producción de mezcal es crucial para garantizar la trazabilidad, calidad e inocuidad del producto. Se establece que se debe de tener una documentación detallada de los siguientes puntos:   1. Registros detallados en cada etapa del proceso: Se deben mantener registros precisos de cada etapa del proceso de producción, desde la recepción del agave hasta el embotellado del mezcal. Estos registros incluyen datos como temperaturas, tiempos de fermentación, resultados de análisis microbiológicos, entre otros.  2. Documentación de procedimientos: Es fundamental contar con documentación clara y actualizada que describa los procedimientos operativos estándar (POES) para cada punto crítico de control.  3. Análisis y evaluación: Los registros deben ser analizados y evaluados periódicamente para identificar tendencias, desviaciones o áreas de mejora en el sistema HACCP.   Verificación del sistema HACCP Este paso consiste en revisar y confirmar que se están cumpliendo los procedimientos establecidos, identificar posibles desviaciones y garantizar la eficacia de las medidas de control. La verificación ayuda a mantener la inocuidad del producto, prevenir riesgos para la salud pública y asegurar la calidad del producto final.  


CONCLUSIONES

Durante la estancia del verano delfín se logró adquirir conocimientos básicos para la correcta  implementación de un plan de Análisis de Peligros y Puntos Críticos de control (HACCP), debido a que el presente proyecto se realizó únicamente de forma teórica no se tuvo la oportunidad de llevar a cabo todos lo pasos del plan HACCP  de la mejor manera, sin embargo se elaboró una exhaustiva investigación de cada etapa a desarrollar permitiendo adquirir los conocimientos y resultados deseados durante toda la investigación.
Melchor Mariscal Andres Daniel, Universidad Tecnológica Paso del Norte
Asesor: Lic. Arisbeth Álvarez Marín, Tecnológico de Estudios Superiores de Villa Guerrero

SISTEMA WEB PARA LA CREACIóN Y ASIGNACIóN DE HORARIOS.


SISTEMA WEB PARA LA CREACIóN Y ASIGNACIóN DE HORARIOS.

Aquino Cruz Josue, Universidad Tecnológica Paso del Norte. Corona Núñez Carlos Enrique, Universidad Mexiquense del Bicentenario. Hernandez Guillen Zury Saday, Universidad Tecnológica Paso del Norte. Melchor Mariscal Andres Daniel, Universidad Tecnológica Paso del Norte. Asesor: Lic. Arisbeth Álvarez Marín, Tecnológico de Estudios Superiores de Villa Guerrero



PLANTEAMIENTO DEL PROBLEMA

El proyecto de investigación "Sistema Web de Creación y Asignación de Horarios para la División de Ingeniería en Sistemas del Tecnológico de Estudios Superiores de Villa Guerrero" tiene como finalidad desarrollar una plataforma digital que mejore la planificación y asignación de horarios académicos dentro de la división. Este sistema está diseñado para optimizar la gestión de horarios, facilitando la coordinación entre profesores, estudiantes y la asignación de recursos disponibles. Objetivos del Proyecto Automatización de la Creación de Horarios: Desarrollar un sistema que genere automáticamente horarios académicos eficientes, adaptados a las necesidades específicas de la División de Ingeniería en Sistemas, considerando restricciones como disponibilidad de docentes, asignaturas y aulas. Optimización de Recursos Académicos: Mejorar el uso de espacios y recursos, evitando conflictos y solapamientos en la programación de clases y actividades. Interfaz Intuitiva y Accesible: Diseñar una interfaz de usuario sencilla y fácil de usar que permita a docentes y estudiantes consultar y gestionar sus horarios de manera eficiente. Mejora de la Comunicación y Coordinación: Implementar un sistema de notificaciones para informar a todos los usuarios sobre cambios en los horarios y actividades, mejorando la coordinación interna.



METODOLOGÍA

Metodología El proyecto sigue una metodología ágil que se desarrolla en varias fases: Análisis de Requisitos: Se realizan entrevistas y encuestas con docentes, estudiantes y administradores de la División de Ingeniería en Sistemas para identificar las necesidades y desafíos actuales en la planificación de horarios. Diseño del Sistema: Se diseña la arquitectura del sistema y se crean prototipos de interfaz utilizando tecnologías web modernas, asegurando que el sistema sea escalable y fácil de usar. Desarrollo e Implementación: Se lleva a cabo la programación del sistema utilizando herramientas como HTML5, CSS3, JavaScript, y bases de datos como MySQL, siguiendo prácticas de integración continua para garantizar la calidad del software. Pruebas y Validación: Se realizan pruebas exhaustivas con usuarios finales, incluidas pruebas de usabilidad y funcionalidad, para asegurar que el sistema cumpla con los requisitos y expectativas. Despliegue y Capacitación: Se despliega el sistema en el entorno académico y se ofrece capacitación a los usuarios para asegurar que puedan utilizarlo de manera efectiva. Evaluación y Mejora Continua: Se monitorea el desempeño del sistema y se recopila feedback de los usuarios para implementar mejoras continuas y adaptar el sistema a las necesidades cambiantes de la división.


CONCLUSIONES

Resultados Esperados La División de Ingeniería en Sistemas del Tecnológico de Estudios Superiores de Villa Guerrero dispondrá de una herramienta eficiente para la gestión de horarios, mejorando la organización y uso de recursos académicos. El sistema contribuirá a aumentar la satisfacción de estudiantes y profesores al facilitar la consulta y administración de horarios, así como a optimizar los procesos administrativos relacionados con la programación de actividades académicas.
Melena Rangel Arturo, Instituto Tecnológico de Morelia
Asesor: Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)

ESTUDIO TERMODINáMICO DEL ACERO INOXIDABLE AISI 304 EMPLEANDO METODOLOGíA DE CáLCULO DE DIAGRAMAS DE FASE CALPHAD.


ESTUDIO TERMODINáMICO DEL ACERO INOXIDABLE AISI 304 EMPLEANDO METODOLOGíA DE CáLCULO DE DIAGRAMAS DE FASE CALPHAD.

Melena Rangel Arturo, Instituto Tecnológico de Morelia. Asesor: Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El acero inoxidable AISI 304 es un material de amplio uso en la industria, conocido por su durabilidad y resistencia a la corrosión. Para maximizar su rendimiento en distintas aplicaciones, es esencial entender cómo varían su estructura y propiedades bajo diversas condiciones de temperatura y composición. El análisis termodinámico del AISI 304 resulta fundamental para prever cómo se comportará el acero en diferentes entornos y durante diversos procesos de fabricación. La metodología CALPHAD (Calculation of Phase Diagrams) ofrece una herramienta avanzada que permite calcular y predecir las fases presentes en una aleación en función de la temperatura y la composición. Aunque esta metodología tiene un gran potencial, su aplicación al acero inoxidable AISI 304 enfrenta retos importantes debido a la complejidad del sistema. El acero inoxidable AISI 304 es una aleación compuesta por varios elementos, como hierro, cromo y níquel, cuyas interacciones son complejas. Las fases presentes en el acero, tales como austenita y ferrita, así como sus proporciones, cambian con la temperatura y la composición. Esta complejidad dificulta la predicción precisa del comportamiento del acero bajo distintas condiciones operativas. Además, para utilizar CALPHAD de manera efectiva, se requiere contar con modelos termodinámicos precisos que describan el comportamiento de cada fase del acero inoxidable. Obtener datos exactos y validar estos modelos frente a experimentos reales puede ser un proceso complicado, y los errores en los modelos pueden llevar a predicciones incorrectas sobre el comportamiento del material.  



METODOLOGÍA

El método CALPHAD se fundamenta en derivar las funciones termodinámicas de un sistema a partir de todos los datos experimentales disponibles, donde las funciones termodinámicas se representan como polinomios en función de la composición química y la temperatura.  El software Thermo-Calc tiene dos componentes principales: la aplicación en sí y el conjunto de datos termodinámicos internamente consistentes que utiliza. Para un conjunto dado de condiciones, el computador determina el cambio en la energía libre para cada combinación posible de fases y composiciones de fase. En esta fase, se definirá claramente el sistema de estudio, identificando los componentes principales del acero inoxidable AISI 304, que incluyen hierro, cromo, níquel y posibles impurezas. Se establecerán los parámetros iniciales para el estudio, tales como el rango de temperaturas y composiciones a considerar. Además, se determinará si se incluirán elementos adicionales para analizar su impacto en el comportamiento del acero. Se calculó  los diagramas de fase binarios para el acero inoxidable AISI 304 en función de combinaciones de dos componentes. Esto permitirá analizar las interacciones entre pares de elementos principales (por ejemplo, Fe-Cr, Fe-Ni, y Cr-Ni) y cómo afectan a la estabilidad de las fases. Estos cálculos proporcionarán una visión general de las transiciones de fase y la formación de nuevas fases en el sistema binario. Se procedió  a calcular los diagramas de fase ternarios, que involucran tres componentes del sistema. Esto permitirá una evaluación más completa de la estabilidad de las fases y las transiciones en sistemas con tres componentes, como Fe-Cr-Ni. Los diagramas de fase ternarios proporcionarán una comprensión más detallada de cómo los componentes interactúan entre sí y cómo influyen en la estructura del acero inoxidable. Se realizaron  cálculos de equilibrio en un solo punto para diferentes condiciones específicas de temperatura y composición. Estos cálculos permitirán determinar las fases presentes en el acero inoxidable AISI 304 bajo condiciones específicas y evaluar las propiedades termodinámicas asociadas. Los resultados de estos cálculos ayudarán a validar los modelos termodinámicos desarrollados y a confirmar su precisión en condiciones reales.


CONCLUSIONES

Durante la estancia de verano se logró adquirir una comprensión exhaustiva y aplicada del análisis termodinámico avanzado del acero inoxidable AISI 304. La aplicación de CALPHAD ha permitido desarrollar y ajustar modelos termodinámicos detallados que describen con precisión el comportamiento de las fases en función de variables clave como la temperatura y la composición del material. Durante esta estancia, se llevaron a cabo estudios exhaustivos en sistemas binarios y ternarios, representativos de las composiciones del acero AISI 304. Estos estudios pusieron de manifiesto efectos significativos de la temperatura sobre el ordenamiento y la estabilidad de las fases dentro del sistema. El análisis de los diagramas de fase binarios y ternarios ofreció una visión clara de cómo las interacciones entre componentes, como hierro, cromo y níquel, influyen en la formación y el equilibrio de las fases bajo diversas condiciones térmicas. Además, se desarrollaron habilidades en la identificación de fases de acuerdo con sus nomenclaturas específicas, lo cual es esencial para la interpretación precisa de los resultados y la aplicación efectiva de los modelos termodinámicos. Los cálculos de equilibrio en un solo punto proporcionaron una evaluación detallada de las fases presentes en el acero inoxidable AISI 304, en función de la temperatura para los valores de mil y trecientos  grados centígrados, se observó que a 1000’C se identificó que la única fase estable FCC_A1 con una constitución de estructura desordenada donde el cromo, el hierro y el níquel entran de forma sustitucional en las subredes definidas, por su parte el estudio del acero a 300’C encontramos fases estables la BCC#1 que tiene una especie de fracción de volumen de 15.8% y es rica en cromo, también se identificó otra fase BCC#2 con una fracción de volumen de 75.3%, la cual es rica en hierro, adicionalmente se observó que es estable una fase FCC con una pequeña fracción de 8.8%, la cual tiene contribuciones moderadas o similares de níquel y de hierro.
Melendez Bustamante Luis Fernando, Instituto Politécnico Nacional
Asesor: Dr. Edgar Gonzalo Cossio Franco, Universidad del Valle de Atemajac

DESARROLLO DE SOFTWARE PARA LA VISUALIZACIóN DE BIOMARCADORES COMO APOYO A ENTREVISTAS CLíNICAS REALIZADAS A JóVENES CON TENDENCIAS SUICIDAS


DESARROLLO DE SOFTWARE PARA LA VISUALIZACIóN DE BIOMARCADORES COMO APOYO A ENTREVISTAS CLíNICAS REALIZADAS A JóVENES CON TENDENCIAS SUICIDAS

Betancourt Soto Roberto, Universidad Autónoma de Sinaloa. Duran de la Rosa Ailed Citlalli, Instituto Politécnico Nacional. Martinez Hernandez Jorge, Instituto Tecnológico Superior de Ciudad Hidalgo. Melendez Bustamante Luis Fernando, Instituto Politécnico Nacional. Ramírez Estrada Julio César, Universidad de Guadalajara. Tovar Morales Tania Carolina, Instituto Politécnico Nacional. Asesor: Dr. Edgar Gonzalo Cossio Franco, Universidad del Valle de Atemajac



PLANTEAMIENTO DEL PROBLEMA

La depresión y el suicidio son problemas graves de salud mental que afectan a un número creciente de jóvenes en todo el mundo, según datos de la OMS.  El manejo y tratamiento de la depresión y la prevención del suicidio requieren un enfoque multifacético, que incluya la monitorización y análisis de indicadores biométricos y comportamentales. Sin embargo, existe una falta de herramientas integradas que permitan a los profesionales de la salud mental correlacionar datos biométricos con respuestas emocionales y psicológicas en tiempo real. En respuesta a esta necesidad, nuestro proyecto tiene como objetivo desarrollar un software que interprete los datos de wearables y los relacione con audios de entrevistas a estudiantes con problemas de depresión que han intentado suicidarse. El software generará una base de datos que permitirá a los usuarios observar los cambios en las respuestas biométricas ante preguntas que puedan causar incomodidad. Este análisis proporcionará una visión integral de las interacciones entre las respuestas fisiológicas y emocionales, facilitando la identificación de patrones de riesgo y posibles intervenciones. Durante el periodo de investigación, estudiaremos las respuestas biométricas, tales como la acelerometría, giroscopio, actividad electrodermal (EDA), temperatura, frecuencia cardíaca (BVP) y picos sistólicos, correlacionándolas con las respuestas emocionales extraídas de los audios de las entrevistas. Esto permitirá un análisis predictivo de los trastornos, las formas de actuar de las personas y los cambios físicos del cuerpo, proporcionando una herramienta valiosa para la prevención y el tratamiento de la depresión y el comportamiento suicida en estudiantes.



METODOLOGÍA

Para el desarrollo de nuestro proyecto, seguimos una metodología estructurada basada en la investigación científica, inteligencia artificial aplicada a tendencias suicidas y principios de ingeniería de software. A continuación, se detallan los pasos seguidos: Recolección de Información: Se realizó una revisión exhaustiva de artículos científicos y bases de datos relevantes sobre metodologías de investigación, el método científico, tendencias suicidas y el uso de IA en este contexto. Se recopilaron datos sobre el diseño y desarrollo de software utilizando wearables, así como los aspectos biométricos que estos dispositivos pueden registrar. Diseño de Requerimientos Funcionales: Con base en la información recolectada, se definieron los requerimientos funcionales del software. Se elaboraron distintos tipos de diagramas para la representación de estos requerimientos: de estados, de secuencia, de clases, de casos de uso, de componentes, de nodos, de comunicación y de flujo. Documentación: Se prepararon documentos siguiendo los estándares IEEE 1016 y 830, que incluyen especificaciones de diseño y requisitos del software. Búsqueda y Selección de Herramientas y Librerías: Se investigaron y seleccionaron aplicaciones y librerías que facilitaran la creación de repositorios de código y la conversión de archivos. Para el manejo de datos biométricos, se optó por utilizar librerías de Python que permitan convertir archivos .avro (formato de los wearables) a .csv. Para la transcripción de entrevistas, se seleccionaron herramientas que conviertan archivos de audio .m4a a texto (.txt). Recolección de Datos: Con la colaboración de estudiantes de psicología de la Universidad del Valle de Atemajac (UNIVA), se realizaron entrevistas a estudiantes con problemas de depresión que han intentado suicidarse. Los datos biométricos se obtuvieron mediante el uso de wearables que registran cambios físicos como acelerometría, giroscopio, actividad electrodermal (EDA), temperatura, frecuencia cardíaca (BVP) y picos sistólicos. Desarrollo del Software: Se desarrollaron códigos y scripts en Python para la conversión de los datos recolectados y la creación de un sistema de correlación. Se diseñaron y programaron las estructuras de datos necesarias para almacenar y procesar la información biométrica y las transcripciones de las entrevistas. Se generaron archivos JSON y otros formatos de datos necesarios para el funcionamiento del software. Implementación y Validación: Se implementó el software de correlación que relaciona las respuestas biométricas con las transcripciones de las entrevistas. Se están desarrollando modelos de IA para la predicción del riesgo de suicidio basado en los datos obtenidos, utilizando técnicas avanzadas de análisis predictivo y machine learning. Próximos Pasos: Continuar con el desarrollo del software de predicción utilizando IA. Validar y mejorar los modelos predictivos con más datos y pruebas. Integrar el sistema completo y realizar pruebas exhaustivas para asegurar su precisión y efectividad en la identificación de patrones y riesgos asociados con tendencias suicidas. Con estas investigaciones y desarrollo se dió lugar a los inicios de los artículos para poder plasmar el análisis de este proyecto para futuros estudiantes e investigadores.


CONCLUSIONES

Durante la estancia de verano se logró el estudio y la interpretación en la logística y el desarrollo del software indicado, de factores que se relacionan a respuestas físicas y mentales con algún estímulo externo como son preguntas y/o personas en una entrevista, y de patrones sociales en estudiantes respecto a la forma de actuar ante la depresión, el estrés y la ansiedad con la finalidad de deducir signos de suicidio. Hasta este momento sólo se pueden mostrar las correlaciones físicas en el software de las entrevistas, aún faltan las predicciones respecto a estas pruebas.
Melendez Gonzalez Juan David, Instituto Tecnológico Superior de Guanajuato
Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato

LABORATORIO INTELIGENTE PARA REGULACIóN DE CONFORT TéRMICO DE HUMANO Y DE DISPOSITIVOS USANDO TéCNICAS DE INTELIGENTE ARTIFICIAL


LABORATORIO INTELIGENTE PARA REGULACIóN DE CONFORT TéRMICO DE HUMANO Y DE DISPOSITIVOS USANDO TéCNICAS DE INTELIGENTE ARTIFICIAL

Couttolenc Martínez Felipe, Instituto Tecnológico Superior de Guanajuato. Hanon Orozco Faruich Abdel, Universidad Nacional Autónoma de Nicaragua, Managua. Melendez Gonzalez Juan David, Instituto Tecnológico Superior de Guanajuato. Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Automatizar un laboratorio de computo para el confort térmico del personal y los alumnos que ingresaron en el, usando herramientas de programación y electrónica en el  desarrollo del proyecto para así garantizar el regulamiento de la temperatura dentro del laboratorio no solo dispositivos de computo sino que también de los alumnos.



METODOLOGÍA

En este proyecto se realizo una investigación, en la cual, recolectamos datos relacionados con proyectos sobre ambientes inteligentes; en los que se registran, almacenan y visualizan valores de temperatura. Realizamos una simulación para ver como funciona el circuito antes de construirlo físicamente, la pagina de WOKWI nos brindó los materiales necesarios para realizar las pruebas simuladas del sistema. Después de analizar los datos simulados, decidimos comenzar la construcción del sistema. Para ello, se emplearon un sensor de temperatura para recopilar información  sobre el ambiente del área. y un microcontrolador que transmita la información recibida de manera inalámbrica. Una vez construido el circuito nos dedicamos a la programación que se utilizará en el microcontrolador, para este usamos el programa Arduino IDE.


CONCLUSIONES

Durante la estancía se lograron obtener y reforzar conocimientos investigativos y técnicos, siempre con el objetivo de poner en practica las técnicas de redacción y lógica de programación, así como la construcción de circuitos electrónicos y programación de los mismos. El conocimiento adquirido fue poder llevar acabo de manera practica la epistemología que tenemos en base a los estudios hasta la actualidad, usando dispositivos y programas para la realización del proyecto, al igual que los que adquirimos en las investigaciones efectuadas de otros proyectos con temas similares al ambiente inteligente y confort térmico. Dejándonos distintos aprendizajes con relación a la carrera de mecatrónica, siendo la utilización del dispositivo ESP32 con sus distintos funcionamientos y capacidades, al igual que la aplicación Arduino IDE para la realización de nuestro código. Sin embargo la mayor enseñanza que nos dejo esta estancia es que; es importante colaborar con distintas carreras para poder lograr los objetivos de practicas, proyectos o investigaciones futuras, resaltando la importancia del trabajo en equipo de manera multidisciplinaría.
Meléndez Paez Luis Rosendo, Universidad Politécnica de Atlautla
Asesor: Mg. Andrés Polo Roa, Fundación Universitaria Agraria de Colombia

LOGíSTICA APLICADA A LA PRODUCCIóN DE HIDRóGENO COMO FUENTE DE ENERGíA NO CONVENCIONAL PARA PAíSES EMERGENTES: CASO MéXICO-COLOMBIA


LOGíSTICA APLICADA A LA PRODUCCIóN DE HIDRóGENO COMO FUENTE DE ENERGíA NO CONVENCIONAL PARA PAíSES EMERGENTES: CASO MéXICO-COLOMBIA

Meléndez Paez Luis Rosendo, Universidad Politécnica de Atlautla. Sanchez Bautista Vanesa, Universidad Politécnica de Atlautla. Asesor: Mg. Andrés Polo Roa, Fundación Universitaria Agraria de Colombia



PLANTEAMIENTO DEL PROBLEMA

Se espera que para 2050 la población llegue a 10 mil millones de personas, es por ello que el impacto ambiental será mayor y las emisiones contaminantes tanto en vehículos como en fábricas aumentará considerablemente.



METODOLOGÍA

Búsqueda sistemática de artículos de investigación que hablen sobre producción, transporte, logística y cadena de suministro de hidrógeno como fuente de energía no convencional.


CONCLUSIONES

México y Colombia en su esfuerzo por transitar una mejor economía mas sostenible, están adaptando el hidrógeno como una solución clave para reducir las emisiones de gases. Ambos países muestran un compromiso significativo con la sostenibilidad ambiental, reflejado en el desarrollo de proyectos de hidrógeno verde y la implementación de tecnologías de captura de carbono para producir hidrógeno azul. Este enfoque comparte la voluntad de explorar colaboradores internacionales y destacan la importancia de las estrategias de hidrógeno en sus planes de desarrollo energético.
Melendez Salinas Kevin Daniel, Instituto Tecnológico de Matamoros
Asesor: Dra. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla

BIOPOLIMEROS "ELABORACIóN DE UN HIDROGEL A BASE DE CMC ADICIONADO CON ACEITE DE ROMERO DE RAPIDA ABSORCIóN CON FINES DE USO TERAPEUTICO EN LA CAPA TRANSDERMICA".


BIOPOLIMEROS "ELABORACIóN DE UN HIDROGEL A BASE DE CMC ADICIONADO CON ACEITE DE ROMERO DE RAPIDA ABSORCIóN CON FINES DE USO TERAPEUTICO EN LA CAPA TRANSDERMICA".

Melendez Salinas Kevin Daniel, Instituto Tecnológico de Matamoros. Quiroz Trelles Karen Alejandra, Universidad de Guadalajara. Rodríguez Cuevas Karely Estefanía, Instituto Tecnológico de Colima. Asesor: Dra. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En México, las lesiones musculares y contusiones representan un problema de salud significativo, afectando a una amplia gama de personas, desde deportistas hasta trabajadores manuales y personas de la tercera edad. Estas lesiones resultan en dolor, inflamación y disminución de la movilidad, impactando negativamente la calidad de vida de los afectados y generando costos económicos tanto directos como indirectos debido a tratamientos médicos y pérdida de productividad. México es un país rico en biodiversidad y conocimientos tradicionales sobre el uso de plantas medicinales. Entre estas, el romero (Rosmarinus officinalis) se destaca por sus propiedades antiinflamatorias, analgésicas y relajantes. A pesar de esto, la mayoría de los productos naturales basados en plantas medicinales creados en México no han logrado una aplicación comercial significativa ni han sido desarrollados de manera que maximicen su efectividad terapéutica. Frente a esta problemática, se plantea la necesidad de desarrollar nuevas soluciones terapéuticas que sean eficaces, accesibles y que puedan ser comercializadas para aprovechar los beneficios de los productos naturales mexicanos. En este contexto, la creación de un biopolímero en forma de hidrogel con aceite de romero encapsulado presenta una oportunidad innovadora. Este hidrogel tiene el potencial de liberar de manera controlada los compuestos activos del romero, proporcionando un tratamiento eficaz para golpes y heridas musculares.



METODOLOGÍA

Para la obtención del hidrogel en el "Experimento Control", se hidrató 2 g de carboximetilcelulosa en 30 ml de agua destilada. Se calentaron 70 ml de agua destilada a 80°C en una placa de calentamiento. Una vez alcanzada la temperatura, se añadió la carboximetilcelulosa hidratada al agua caliente y se agitó a 150 rpm con un caframo, sin retirar la mezcla de la placa. Cuando la mezcla se homogeneizó, se retiró de la placa y se reservó. Simultáneamente, se calentaron 80 ml de agua destilada a 80°C en la placa de calentamiento. Se disolvieron 12 g de fécula de papa en 30 ml de agua y 5 g de glicerina en 9 ml de agua. Cuando el agua alcanzó los 80°C, se añadió la fécula de papa disuelta y se agitó a 150 rpm durante 5 minutos, hasta que la fécula se transparentó, sin retirar de la placa. Posteriormente, se añadió la glicerina diluida. Después de 5 minutos, se incorporó la carboximetilcelulosa previamente preparada y se agitó durante 10 minutos o hasta que la mezcla se homogenizó bien. Finalmente, se diluyó 1 g de tetraborato de sodio en 30 ml de agua destilada y se añadió 1 ml de hidróxido de sodio, calentando para asegurar la disolución completa. Esta solución se mezcló con la mezcla de hidrogel, se apagó la placa de calentamiento y se dejó agitar durante 10 minutos. Se llevaron a cabo cuatro experimentos adicionales para ajustar la consistencia del hidrogel. En el Experimento #1, se siguieron los mismos pasos hasta el paso 10, pero se usaron 28 ml de agua para disolver el bórax en lugar de 30 ml y se añadieron 2 ml de lignina a una concentración de 0.04 g/ml. En el Experimento #2, se replicó el procedimiento del #1, pero se añadieron 4 ml de lignina en lugar de 2 ml. En el Experimento #3, también se siguió el procedimiento previo, pero se incorporaron 6 ml de lignina. Finalmente, en el Experimento #4, se evitó el uso del bórax para observar el comportamiento viscoso sin él. Para la obtención de la emulsión, se prepararon dos soluciones. En la Solución 1, se calentaron 40 ml de agua a 80°C y se hidrató 0.75 g de alginato de sodio en 20 ml de agua. Una vez alcanzada la temperatura, se añadió el alginato hidratado al agua caliente y se agitó hasta obtener una mezcla homogénea. En la Solución 2, se añadieron 4 g de aceite de romero y 2.5 g de emulsificante a 40 ml de agua. Esta mezcla se agitó durante 20 minutos hasta lograr una emulsión homogénea. Después de elaborar ambas soluciones, se mezclaron durante 20 minutos a una velocidad óptima para evitar la ruptura de la emulsión. Para la encapsulación, se utilizó una solución de carbonato de calcio en un vaso de precipitados con agitación magnética. La emulsión de aceite de romero se goteó utilizando una jeringa. En la medición de la viscosidad, se empleó un viscosímetro digital con aguja LV-04 para los hidrogeles viscosos y LV-02 para el Experimento 4 y el control, a 50 rpm. En cuanto a la medición del tamaño de las partículas de las cápsulas, se utilizó un microscopio digital de 100x. Para analizar las muestras, se cuarteó la primera muestra 4 veces, obteniendo 64 submuestras y se analizó el 25% de estas. La segunda muestra se cuarteó 2 veces, resultando en 8 submuestras, y se analizó el 50% para obtener una mayor precisión en el análisis.


CONCLUSIONES

En esta investigación, se realizaron cinco experimentos con hidrogeles variando la cantidad de lignina. Se observó que a mayor contenido de lignina, los hidrogeles se volvían más viscosos y oscuros. El hidrogel óptimo, con 4 ml de lignina, mostró una viscosidad de 3690 cp y una densidad de 1.00628 gr/ml, cumpliendo en gran medida con los intervalos terapéuticos deseados de 4000-5000 cp y 0.9-1.2 gr/ml. Para el encapsulado de oleato de romero, se realizaron varias pruebas con diferentes cantidades de alginato de sodio. Se encontró que 0.75 gr de alginato de sodio producía encapsulados con una capa lo suficientemente gruesa para mantenerse íntegros y lo suficientemente delgada para disolverse al frotarse en la piel. Sin embargo, al mezclar el hidrogel con los encapsulados y dejar la mezcla a temperatura ambiente, los encapsulados se disolvieron en el gel. Esto indica la necesidad de buscar un método de encapsulación más estable y aditivos que prevengan el deterioro de la mezcla a temperatura ambiente. En conclusión, aunque se identificaron las proporciones óptimas de lignina y alginato de sodio, se requiere mejorar la estabilidad del encapsulado y la formulación del gel para asegurar su eficacia y durabilidad en condiciones normales de uso.
Mendez Arredondo Roxana Guadadlupe, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

LA PRODUCTIVIDAD EN EMPRESAS DEL SUR DE SINALOA, ENFOQUE DE EQUIDAD SOCIAL.


LA PRODUCTIVIDAD EN EMPRESAS DEL SUR DE SINALOA, ENFOQUE DE EQUIDAD SOCIAL.

Jara Peraza Maria Fernanda, Universidad Politécnica de Sinaloa. Mendez Arredondo Roxana Guadadlupe, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Las micro y pequeñas empresas (mypes) en el sur de Sinaloa representan el 98.3% del total de unidades económicas, generando el 55% de los empleos y el 39% del PIB nacional. Sin embargo, enfrentan desafíos significativos, como la falta de desarrollo de habilidades gerenciales y directivas, las cuales son cruciales para mejorar el clima organizacional y, por ende, la productividad y competitividad de estas empresas. En este proyecto de investigación el enfoque está orientado a identificar elementos de equidad social debido a que influyen en el clima organizacional y desarrollo de la satisfacción, así como el desempeño de los empleados, desde el paradigma de los empleadores.  



METODOLOGÍA

Para nuestro estudio científico se utiliza la metodología de investigación cuantitativa de tipo campo la cual consiste en la recolección de datos directamente de la realidad donde ocurren los hechos, sin manipular o controlar variable alguna, con una extensión del estudio de investigación de campo con medios de instrumentos impresos, el nivel de la investigación descriptiva donde se busca el diagnosticar la relación de los hechos. El instrumento se aplicó a mypes de la comunidad de Mazatlán y Rosario, Sinaloa, con un rango de 1 a 50 empleados en empresa, con un número de 480 encuestas válidas que fueron contestadas por propietarios, directores o gerentes, utilizando un instrumento tipo encuesta impresa. Como primera etapa del verano de investigación se define el título del proyecto siendo La productividad  en empresas del Sur de Sinaloa, con enfoque en la equidad social, así también, se inicia con la búsqueda de información basada en fuentes auditadas sobre el tema del proyecto, posteriormente se realiza un análisis teórico de lo encontrado para proceder a el método de análisis de datos que se obtuvo del instrumento  tipo encuesta con 17 reactivos de la categorización El trabajo decente desde la perspectiva directiva, de los cuales se seleccionan dos reactivos para el estudio: Aquí se dan las mismas oportunidades de crecimiento para hombres y mujeres y Aquí se les paga igual a hombres y mujeres, ambas con posibles respuestas con la siguiente escala (5) Muy de acuerdo, (4) De acuerdo, (3) En desacuerdo, (2) Muy en desacuerdo, (1) No sé.    


CONCLUSIONES

De los resultados del análisis gráfico y estadístico descriptivo se argumenta que las empresas mypes ubicadas en la región de Mazatlán y el Rosario Sinaloa desde una perspectiva del personal en campo directivo con relación a que si la empresa da las mismas oportunidades de crecimiento para hombres y mujeres del total encuestado un 57 % está muy de acuerdo, mientras que un 38 % está de acuerdo, se observa en la descripción gráfica un 5 % de las mypes muestra que no identifican del todo que la empresa da las mismas oportunidades de crecimiento para hombres y mujeres. Seguidamente en el ámbito donde la empresa paga igual a hombres y mujeres, se identifica que el 61% de las mypes están muy de acuerdo, mientras que un 35 % está de acuerdo, se observa en la descripción gráfica un 4 % de las mypes muestra que no identifican del todo que la empresa paga igual a hombres y mujeres.  Con la información generada por el análisis descriptivo en empresas mypes del sur de Sinaloa y la investigación en fuentes auditadas sobre el tema, se puede argumentar que las mypes de la región de Mazatlán y el Rosario Sinaloa mantienen una gestión con un enfoque de equidad social de acuerdo con el resultado del análisis desde la perspectiva directiva donde un gran porcentaje está de acuerdo en que da las mismas oportunidades de crecimiento para hombres y mujeres, así también el mismo salario, aun así se detecta un porcentaje minoritario de mypes con área de oportunidad, con ello la importancia de investigar y analizar el nivel de productividad en empresas desde un enfoque de equidad social, el cual contribuye al objetivo 8 de la ODS2030 al promover el crecimiento económico inclusivo y sostenible, el empleo y el trabajo decente para todos.  
Méndez Hernández Daniela, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dra. Isabel Cristina Zapata Vahos, Universidad Católica de Oriente

CARACTERIZACIóN DEL ALMIDóN DE ARRACACHA (ARRACACIA XANTHORRHIZA) PARA LA APLICACIóN EN ALIMENTOS COMPLEMENTARIOS DIRIGIDOS A NIñOS CON DESNUTRICIóN.


CARACTERIZACIóN DEL ALMIDóN DE ARRACACHA (ARRACACIA XANTHORRHIZA) PARA LA APLICACIóN EN ALIMENTOS COMPLEMENTARIOS DIRIGIDOS A NIñOS CON DESNUTRICIóN.

Méndez Hernández Daniela, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dra. Isabel Cristina Zapata Vahos, Universidad Católica de Oriente



PLANTEAMIENTO DEL PROBLEMA

Durante los últimos años la población colombiana ha padecido un aumento en la inseguridad alimentaria, ante esta problemática existe la necesidad latente de implementar estrategias para reducir los porcentajes de población afectada ante esta situación, en la cual se encuentran principalmente: niños de 0 a 5 años los cuales conforman más de medio millón de afectados (Mahtani, 2022). La principal causa de la inseguridad alimentaria está asociada a la desigualdad económica, la falta de recursos conduce a privarse de una alimentación saludable, lo cual desencadena problemas como la desnutrición y desarrollo cognitivo.  La desnutrición temprana disminuye la capacidad de aprendizaje, el rendimiento escolar, la productividad económica en la vida adulta y las capacidades para cuidar de las nuevas generaciones, y atrapa a las personas en un círculo que perpetúa la desnutrición, la pobreza y el atraso en el desarrollo. El niño que sufre desnutrición crónica presenta un retraso en el crecimiento (no alcanza la talla recomendada para su edad) y sus capacidades cognitivas e intelectuales se ven afectadas, lo que tiene consecuencias irreversibles para el resto de su vida (Silva, 2016).  Es por ello el motivo de realizar una bebida lactea agregando el almidon de arracacha, asi mismo el realizar una comparacion con almidon de papa y maiz para analizar si hay diferencias significativas entre ellas y observar si el almidon de arracacha brinda mejores resultados para ser conciderado como un alimento funcional. 



METODOLOGÍA

Materiales y metodos  Metodologia  Como se menciono anteriormente se necesita analizar si el almidon de arracacha brinda mejor estabilidad comparado con otros tipos de almidones utilizados dentro de la industria alimentaria principalmente el de maiz. Para ello se realizaron 6 muestras dos de cada tipo de almidon y con diferente formulacion lactea en polvo y liquida. Las formulaciones se realizaron de la siguiente manera.  Leche en polvo  1.- Para realizar las diferentes muestras se realizo el pesado de ingredientes 2.- Mezclar los ingredientes secos usando en cada muestra diferente tipo de almidon (arracacha, papa, maiz), adicionar la esencia de vainilla, agregar 170ml de agua y colocar a fuego bajo hasta que se alcance la temperatura de pasteurizacion, alrededor de 70ºC. 3.- Al alcanzar la temperatura necesaria, vaciar en frasco y dejar enfriar.  Leche liquida  1.- Para realizar las diferentes muestras se realizo el pesado de ingredientes 2.- Mezclar los ingredientes secos usando en cada muestra diferente tipo de almidon (arracacha, papa, maiz), adicionar la vainilla, agregar 195ml de leche liquida y colocar a fuego bajo hasta que se alcance la temperatura de pasteurizacion, alrededor de 70ºC. 3.- Al alcanzar la temperatura necesaria, vaciar en frasco y dejar enfriar.  Por otro lado en cuanto al diseño del producto, posterior a obtener las muestras a temperatura ambiente se realizaron pruebas fisicoquimicas tales como potencial de hidrogeno, solidos solubles totales, acidez, textura. Posterior a obtener la bebida se reaizo un ensayo en secado por asperción (spray dry) en el cual se coloca la muestra de la leche y el equipo se calienta alrededor de 90ºC y comienza a realizar la asperción para posteriormente obtener la bebida en polvo. 


CONCLUSIONES

Con los resultados obtenidos se llego a la conclusión de que el almidon de arracacha brinda una mayor cantidad de fibra que los otros almidones lo cual ayuda a tener una buena digestion, en cuanto el azúcar se obtuvo un total de 10gr por 100ml, esto debido a que la leche liquida contiene alrededor de 4,8gr por 100ml, la leche en polvo 4,4gr y tomando en cuenta que se adicionarón8gr de azúcar y por otro lado la cantidad de glucosa que hay en el almidon de arracacha al realizar la hidrolisis del almidon conlleva a que haya esta cantidad de azucares en la bebida. Haciendo un analisis entre la leche liquida y en polvo, se llego a la conclusion de que la leche liquida es mas viable debido a que tiene una textura mas fluida, su nivel de azúcar es menor que los demas y tiene un sabor mas agradable.  En cuanto a los resultados obtenidos en el spray dry, se obtuvo muy poca cantidad y por lo tanto no es viable realizar este proceso.  En cuanto a mi experiencia dentro de la investigacion ha sido muy gratificante, fue mi segundo verano de investigacion esto debido a que me intereso el proyecto y es por ello que decidi venir a continuarlo. Ademas de que pude obtener nuevos conocimientos como fue el realizar antioxidantes en tomate y lechuga, realizar un cultivo hidroponico de lechuga, realizar la cosecha de aji, asi como su analisis fisicoquimico, aprender sobre como optimizar procesos con ayuda de la tecnologia para progamar mediciones como es el pH, conductividad electrica, temperatura, color, nitritos. Me llevo demasiados conocimientos, los cuales espero poder aplicar en el ambito laboral de mi carrera. 
Méndez Jiménez José Antonio, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dra. Alejandra Garcia Garcia, Centro de Investigación en Materiales Avanzados (CONACYT)

HETEROESTRUCTURAS GO@ZNO PARA GENERACIóN DE áNODO PARA BATERíAS DE ZAB


HETEROESTRUCTURAS GO@ZNO PARA GENERACIóN DE áNODO PARA BATERíAS DE ZAB

Méndez Jiménez José Antonio, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dra. Alejandra Garcia Garcia, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las ZAB han demostrado ser de las baterías con mejor rendimiento energético además de ser poco contaminantes, sin embargo, es difícil conservar su rendimiento ya que presentan una contaminación entre el ánodo y cátodo al momento de la transferencia de energía. El uso de una película polimérica que incorpore heteroestructuras de GO@ZnO   puede ser factible para la estabilización del ánodo. 



METODOLOGÍA

Síntesis de heteroestructuras GO@ZnO  Solución 1: Pesar 1g Nitrato de Zinc Agregar 1 ml/GO (1ml/200 microlitros) Agregar 30 ml de agua Solución 2: 25 ml de agua fría 1.3 g Borohidruro de Sodio Gotear la solución 2 dentro de la solución 1 durante 20 minutos a 6 revoluciones y dejar 20 minútos más. Dejar en reposo hasta que el borohidruro de sodio deje de reaccionar.  Síntesis ZnO hidrotermal ruta Urea Pesar: 1.317 g acetato de Zn 2.882 g de Urea  .1838 de Citrato Tribásico de Potasio Agregar los reactivos en 50 ml de agua destilada dentro del reactor y dejar 16 Hrs a 120 en el Horno Síntesis de ZnO hidrotermal Ruta NaOH Pesar: 1.317 g acetato de Zn 0.5 g de NaOH .1838 de Citrato Tribásico de Potasio Agregar los reactivos en 50 ml de agua destilada dentro del reactor y dejar 16 Hrs a 120 en el Horno


CONCLUSIONES

Las películas poliméricas hechas a partir de precursores naturales y de baja toxicidad, como el almidón y el carboximetilcelulosa (CMC), representan una matriz excelente para heteroestructuras debido a su flexibilidad, insolubilidad y facilidad de incorporación de heteroestructuras. Estas películas permiten la creación de prototipos de ánodos con potencial aplicación en baterías zinc-aire. La composición del ánodo esta constituida por ZnO recubierto con grafeno mediante síntesis hidrotermal y coprecipitación, nombradas en delante como heteroestructuras. La película polimérica se fabricó utilizando almidón como base. La presencia de las heteroestructuras se analizó mediante espectroscopia Raman y difracción de rayos X (DRX). La estructura se observó utilizando microscopía electrónica, y el comportamiento térmico de las heteroestructuras y las películas se evaluó mediante análisis termogravimétrico (TGA) hasta 900°C. Estos análisis permiten conocer las condiciones de aplicación, la incorporación de la heteroestructura a la película y su viabilidad como ánodo en baterías zinc-aire. Se espera que, una vez finalizada la vida útil de las ZABs debido a la composición biodegradable del ánodo, se puedan recuperar las nanopartículas usadas para reutilizarlas en nuevas aplicaciones.
Mendez Lomeli Valeria Irais, Universidad de Guadalajara
Asesor: Mg. Claudio Alberto Moreno Arias, Fundación Universidad de América

CARACTERIZACIÓN DE ACEITE DE PIRÓLISIS DE RESIDUOS PLÁSTICOS DE UN SOLO USO (POLIPROPILENO)


CARACTERIZACIÓN DE ACEITE DE PIRÓLISIS DE RESIDUOS PLÁSTICOS DE UN SOLO USO (POLIPROPILENO)

Mendez Lomeli Valeria Irais, Universidad de Guadalajara. Villa Cortes Jacqueline, Universidad de Sonora. Villa Cortes Maritza, Universidad de Sonora. Asesor: Mg. Claudio Alberto Moreno Arias, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

  El problema que ocasionan los plásticos de un solo uso ha trascendido de manera preocupante, con consecuencias catastróficas para el medio ambiente y la salud pública. Estos materiales son desechados rápidamente tras su uso y permanecen en el medio ambiente durante tiempos prolongados contaminando los diversos ecosistemas. En respuesta a esto, existe un interés progresivo en convertir estos residuos plásticos en una fuente de combustible viable. Debido a este problema, la pirólisis se ha convertido en una tecnología prometedora para convertir plásticos de un solo uso en combustibles útiles, en nuestro caso el uso de polipropileno.



METODOLOGÍA

1. ​Obtención y preparación de la materia prima Para este proyecto de investigación se utilizó polipropileno (PP), esto debido a su composición química y características. El uso de polipropileno en la pirólisis es beneficioso porque permite recuperar valor de residuos plásticos para la transformación a combustibles. Estos materiales fueron obtenidos de los desechos de negocios locales los cuales fueron recolectados para posteriormente ser desinfectados y separados para llevarlos a un molino y así obtener el material triturado para facilitar una descomposición más uniforme. 2. Conversión mediante pirólisis en combustibles: La materia prima previamente triturada se alimenta al pirolizador. Este reactor está diseñado para soportar temperaturas extremadamente altas y mantener un ambiente libre de oxígeno para evitar la combustión. La degradación térmica del plástico produce una mezcla de productos gaseosos, líquidos y sólidos. Los gases y vapores producidos se condensan en una fracción líquida que contiene el aceite negro El vapor obtenido en el proceso de pirólisis es dirigido al sistema de condensación. Aquí se enfrían y se condensan en diversos productos líquidos. El black oil es uno de los principales componentes de estos líquidos. El black oil puede requerir un post-procesamiento adicional para mejorar su calidad y propiedades. Esto puede incluir la eliminación de impurezas, el ajuste de su viscosidad y la separación de otros subproductos líquidos. 3. Destilación del black oil Después de este proceso de pirólisis, el black oil recolectado es destilado, este proceso busca separar los componentes de esta mezcla compleja para obtener productos útiles como combustibles líquidos o materias primas para otros procesos. En este proceso el aceite de pirólisis se somete a una destilación fraccionada para separar los hidrocarburos en diferentes fracciones, similares a las que se obtienen del petróleo crudo, después se procede a la selección de fracciones donde se seleccionan las fracciones que tienen propiedades similares al diésel convencional. 4. Mezcla con diesel convencional Las fracciones seleccionadas del aceite de pirólisis se mezclan con diésel convencional en proporciones específicas, que varían según las propiedades deseadas del combustible final. Estas en proporciones: plástico 5%, llantas al 10%, black oil 10% y black oil al 100%, todo esto para reducir contaminantes. 5. Pruebas con motores Se observó el rendimiento del motor por medio del voltaje y la corriente suministrados por un voltímetro y la pinza amperimétrica al igual que la eficiencia de los aceites obtenidos en su respectivo porcentaje de concentración.


CONCLUSIONES

Con este proyecto se logró conocer una solución viable y prometedora para la gestión de residuos plásticos y una opción para la creación de combustibles mediante el proceso de pirólisis. Esto tomando en cuenta la conciencia pública para un cambio transformador hacia una economía circular y sostenible. De igual forma se obtuvieron conocimientos sobre el proceso a los que se someten los petróleos y como los solemos aprovechar así como nuevas técnicas y prácticas del proceso de pirólisis.
Mendiola Mendoza Alan Mauricio, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Lilia Marcela Zaldumbide Carrillo, Instituto Tecnológico Superior de Guanajuato

INVESTIGACIóN, DISEñO Y CONSTRUCCIóN DE ROBOT PARA RESOLVER LABERINTOS


INVESTIGACIóN, DISEñO Y CONSTRUCCIóN DE ROBOT PARA RESOLVER LABERINTOS

Mendiola Mendoza Alan Mauricio, Instituto Tecnológico Superior de Guanajuato. Ortega Gómez Rodrigo Yael, Instituto Tecnológico Superior de Guanajuato. Ramirez Chávez Ari Emmanuel, Instituto Tecnológico Superior de Guanajuato. Rangel Cruz Citlally Monserrat, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Lilia Marcela Zaldumbide Carrillo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Un robot resolutor de laberintos es un proyecto interesante que combina inteligencia artificial, robótica y algoritmos de resolución de problemas. Título: Investigación, diseño y construcción de robot para resolver laberintos Objetivo: Diseñar y construir un robot capaz de navegar y resolver laberintos de manera autónoma utilizando algoritmos de búsqueda y sensores para detectar paredes y esquinas.



METODOLOGÍA

Requisitos: - Robot móvil con capacidad de movimiento en dos dimensiones (adelante, atrás, izquierda, derecha) - Sensores de detección de paredes y esquinas (infrarrojos, ultrasonidos, etc.) - Algoritmo de resolución de laberintos (Wall Follower, Depth-First Search, Breadth-First Search, etc.) - Programación del robot utilizando un lenguaje de programación adecuado (C++, Python, etc.) Funcionamiento básico: 1. El robot se coloca en la entrada del laberinto. 2. Utiliza sus sensores para detectar las paredes y esquinas del laberinto. 3. Se aplica el algoritmo de resolución de laberintos para determinar la ruta óptima hacia la salida. 4. Se desplaza según la ruta calculada, utilizando sus sensores para corregir su trayectoria si es necesario. 5. El robot llega a la salida del laberinto. Algoritmos de resolución de laberintos: - Wall Follower: el robot sigue la pared del laberinto hasta encontrar la salida. - Depth-First Search: el robot explora el laberinto de manera profunda, retrocediendo cuando llega a un callejón sin salida. - Breadth-First Search: el robot explora el laberinto de manera amplia, examinando todas las posibles rutas antes de elegir la siguiente dirección.


CONCLUSIONES

Consideraciones adicionales: - La complejidad del laberinto puede afectar la eficiencia del algoritmo de resolución. *Conclusión:* El desarrollo de un robot resolutor de laberintos será un proyecto prometedor que demostrará la capacidad de la inteligencia artificial y la robótica para resolver problemas complejos de navegación y búsqueda. El robot diseñado en este proyecto es capaz de navegar y resolver laberintos de manera autónoma, utilizando algoritmos de búsqueda y sensores para detectar paredes y esquinas. Los resultados esperados  demuestran que el robot será capaz de resolver laberintos de diferentes tamaños y complejidades. *Futuras mejoras:* - Implementar algoritmos de resolución más avanzados, como el algoritmo A* o el algoritmo de Dijkstra. - Mejorar la precisión de los sensores y la velocidad del robot. - Desarrollar un sistema de aprendizaje automático para que el robot pueda aprender de sus errores y mejorar su rendimiento con el tiempo.
Mendoza Alvarez Patricia Carolina, Universidad de Guadalajara
Asesor: Prfnal. Julian Arango Toro, Institución Universitaria Salazar y Herrera

IMPLEMENTACIóN DE ARREGLO DE ANTENAS TIPO PATCH PARA EL DIAGNóSTICO DEL CáNCER DE MAMA


IMPLEMENTACIóN DE ARREGLO DE ANTENAS TIPO PATCH PARA EL DIAGNóSTICO DEL CáNCER DE MAMA

Martinez Ortega Miriam Andrea, Universidad de Guadalajara. Mendoza Alvarez Patricia Carolina, Universidad de Guadalajara. Asesor: Prfnal. Julian Arango Toro, Institución Universitaria Salazar y Herrera



PLANTEAMIENTO DEL PROBLEMA

El cancer de mama es uno de los cánceres más agresivos que se presenta no únicamente en las personas de sexo femenino, sino en cualquier individuo. Actualmente la tasa de mortalidad del cáncer de mama ha ido en decrecimiento, por la concientización de la exploración, sin embargo, la detección tardía es la principal causa del agravio del cáncer. Por lo cual en esta investigación el objetivo principal es encontrar un método nuevo para la detección temprana del mismo, el uso de antenas MIMO en materiales textiles, ayuda a que se detecte la deformación del seno con mas facilidad.  



METODOLOGÍA

La metodología PHVA fue la empleada en esta investigación, la cual trata de cuatro etapas P Planear, H Hacer, V Verificar, A aplicar. La primera etapa la cual es planear, consta de plantear el trabajo al que se quiere llegar, incluyendo los resultados que se desean obtener, el hacer consta de simular el trabajo en este caso la antena con los estipulados en la primera etapa, posteriormente se simula con ayuda del CST dicha antena de tal forma que obtengamos los resultados deseado en el software, en apoyo del software flatcam se crean las plantillas de la antena para con ayuda del software candle el proyecto se lleve a recortar en el material planeado con ayuda de un CNC.  


CONCLUSIONES

Podemos concluir que las antenas MIMO permiten una mayor precisión y resolución en las imágenes obtenidas, lo que facilita la identificación de tumores en etapas tempranas. Ya que la entena hecha con materiales textiles nos permite adaptarlas a la ropa y medir datos en un lapso de tiempo determinado, capturarlos y detectar si la antena sufrió algún tipo de deformación lo cual nos da a conocer que el seno sufrió una deformación lo que puede significar que se están creando masas de células malignas o benignas dentro de alguna parte del seno, lo que lleva al individuo a poderse realizar una examinación mas profunda para saber si las células están creando masas malignas o benignas.  
Mendoza Castañeda Monserrat, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dr. Hugo Gaspar Hernández Palma, Corporación Universitaria Latinoamericana

DOCUMENTACIóN CIENTíFICA DEL IMPACTO AMBIENTAL DE LAS ENERGíAS SOLARES FOTOVOLTAICAS DENTRO DE LOS HOSPITALES


DOCUMENTACIóN CIENTíFICA DEL IMPACTO AMBIENTAL DE LAS ENERGíAS SOLARES FOTOVOLTAICAS DENTRO DE LOS HOSPITALES

Fernández Lopez Jacinto José Luis, Universidad Tecnológica de Tecamachalco. Mendoza Castañeda Monserrat, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dr. Hugo Gaspar Hernández Palma, Corporación Universitaria Latinoamericana



PLANTEAMIENTO DEL PROBLEMA

Las energías renovables del tipo solar fotovoltaico en la actualidad han tenido un mayor impacto en distintos sectores, su introducción al mercado energético ha contribuido al medio ambiente. Es una fuente constante de energía y genera como resultado energía eléctrica, que representa para los hospitales un bien de consumo que debe mantener ciertos estándares de calidad que afecta de forma directa o indirecta al equipamiento médico que se esté empleando. Se espera que en Latinoamérica y áreas del Caribe la introducción de la energía eléctrica sea mayor a partir del año 2050 (García Tamayo, J. G., & Herrera Fernández, F. B., 2023), planteado proyectos como una matriz de energía fotovoltaica (FV), proponiendo marcos regulatorios capaces de ofrecer incentivos que proporcionen una reducción del precio de la electricidad. Dentro de las estrategias novedosas que se han empleado para mejorar el uso de la energía FV están el uso de Python mediante un algoritmo llamado K-means usando generalmente para procesar datos de aprendizaje que analiza los datos de consumo eléctrico como las medidas de los medidores o de los registros de factura. Como una forma de poder obtener una máxima potencia eléctrica en mejores condiciones económicas posibles. El problema es la alta demanda energética por parte del sector Salud (Hospitales), se pretende analizar el impacto ambiental que genera la energía convencional en comparación con sistemas Fotovoltaicos.



METODOLOGÍA

La investigación documental de tipo científica se realizó mediante la búsqueda de 25 artículos relacionados al tema de investigación impacto ambiental de las energías solares fotovoltaicas dentro de los hospitales, en su mayoría los trabajos de apoyo se recopilaron de bases de datos como: Dialnet, SciELO, Google Scholar, habiendo trabajos de tesis, artículos, capítulos de libros especializados, etc. resultando los más apropiados para esta documentación Los filtros aplicados para la búsqueda de información consistieron en el planteamiento de una lista de palabras clave: Eficiencia energética, Energía Fotovoltaica, Sistemas de Evaluación, Impacto Ambiental, ISO 50001, Hospitales, utilizándolas como base de búsqueda de los documentos y descartar los que menos coincidencias tuvieran, las bases de datos empleadas permiten modificar los rangos de búsqueda determinando el idioma, el rango de años de la búsqueda, los pises, y las áreas donde pueden aplicar los filtros, entre otros más.   Los temas que más destacan fueron los sistemas energéticos, los sistemas fotovoltaicos y su previa implementación en las instalaciones eléctricas de los hospitales para optimizar la vida útil de los equipos médicos y su impacto ambiental con respecto a las energías convencionales. En los documentos se exponen metodologías variadas que proporcionan información de los sistemas fotovoltaicos y su aplicación en algunos hospitales. Una vez hecha la investigación correspondiente se vaciaron datos calve de estos documentos y bases de datos dentro de una matriz en Excel, dentro de los apartados más relevantes a destacar que contiene son el título del trabajo, el año, la bibliografía, el resumen, conclusiones propias, base de datos de procedencia y palabras clave de los documentos, entre otros.  


CONCLUSIONES

A lo largo de esta estancia de investigación se desarrolló una documentación científica relacionada a energías renovables más específicamente en las energías solares fotovoltaicas, dentro de esta investigación se pudo observar cómo es que las energías solares fotovoltaicas han tenido una enorme influencia en la innovación y adopción de las energías renovables en la industria energética para sectores de salud como los son los hospitales de forma que el ahorro energético sea un factor clave, el económico a largo plazo, e incentivar a la reducción de las emisiones de dióxido de carbono entre otros gases a la atmosfera. En el análisis bibliográfico se identificaron áreas de oportunidad para poder realizar trabajos futuros siguiendo la misma línea de investigación anexando aún más innovaciones ofreciendo un trabajo más fundamentado a futuro.
Mendoza Coronado Ana Cristina, Instituto Tecnológico de Piedras Negras
Asesor: M.C. Margarita Elizabeth Gómez Mayorga, Instituto Politécnico Nacional

COMPARATIVA DE TARJETAS DE DESARROLLO CON FPGA Y CPLD


COMPARATIVA DE TARJETAS DE DESARROLLO CON FPGA Y CPLD

Mendoza Coronado Ana Cristina, Instituto Tecnológico de Piedras Negras. Asesor: M.C. Margarita Elizabeth Gómez Mayorga, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Existen muchos tipos de tarjetas con sus respectivas familias, con FPGA y con CPLD, respectivamente, con mayor o menor número de características, por lo que resulta útil comparar para conocer los proyectos que se realizan con ellas, los costos en que se ofertan, quienes las desarrollan y donde se distribuyen. Hay quienes desarrollan e implementan las suyas propias, además proporcionan recomendaciones basadas en diferentes escenarios de uso, como proyectos educativos, prototipado rápido y aplicaciones industriales, por lo que resulta complicado seleccionar si no se está familiarizado con ellas. Una comparativa puede ayudar a un desarrollador principiante a seleccionar alguna, se hizo una búsqueda de diferentes fabricantes y de un total 213, se delimitó a mostrar una tabla de 3 FPGA´s y 3 CPLD´s. Con todo lo anterior es más claro saber lo que existe, cómo buscarlo y elegir lo que más convenga para proyectos futuros.



METODOLOGÍA

Se realizó una investigación cualitativa en la que se recopiló información técnica de fuentes confiables como la documentación del fabricante, artículos técnicos, y páginas de vendedores, resultado de ello es un análisis e identificación de características básicas para obtener así ventajas y desventajas. El análisis se realiza evaluando las tarjetas de desarrollo con base en los parámetros definidos por los fabricantes. Se identifican diferencias y similitudes. Se destacan las fortalezas y debilidades y se clasifica en diferentes categorías según su rendimiento. Además, se incluyen estudios de caso para analizar proyectos específicos que han utilizado tarjetas de desarrollo con FPGA y CPLD, proporcionando información práctica sobre los objetivos, desafíos, soluciones implementadas y resultados de cada proyecto. Esta información se utiliza para evaluar cómo las características de las tarjetas afectaron el desarrollo y los resultados del proyecto.


CONCLUSIONES

Las tarjetas de desarrollo con FPGA y CPLD son fundamentales en el diseño y desarrollo de proyectos y aplicaciones de distintas áreas. Ambas ofrecen soluciones, pero presentan diferencias significativas en cuanto a costos, tamaños, marcas, facilidad para adquirir, ventajas y desventajas. Dado el amplio rango de opciones disponibles, seleccionar la tarjeta de desarrollo adecuada para un proyecto específico puede ser desafiante pero resulta de gran ayuda. La cantidad de entradas/ salidas, CLB, macroceldas, LUTs son las especificaciones que ayudan al desarrollador a elegir una tarjeta, seguido de las demás características, selectores, leds, conectores, alimentación, memoria, reloj, interfaces, costo, lugar para adquirirlas, que puede elevarse por envío y aduana. Las características y beneficios para el cliente son: costo optimizado, baja potencia, oscilador interno, encendido y reinicios rápidos, capacidades de E/S, paquetes verdes ("bajo contenido de halógenos") y cargador flash paralelo, entre otras. Las tarjetas de desarrollo con FPGA´S ofrecen un amplio enfoque para obtener una aplicación específica, pero poseen altos costos. Por otro lado, las CPLD consumen menos energía, su costo es más bajo y se operan igual que las primeras. Finalmente, se compila toda la información y análisis en un informe detallado. El informe se organiza en secciones claras y lógicas, incluyendo una introducción, metodología, análisis comparativo y conclusiones. Se presentan datos en tablas comparativas y gráficos para facilitar la comprensión, y se proporcionan recomendaciones basadas en los diferentes escenarios de uso y las necesidades específicas de los desarrolladores. Este informe asegura una evaluación completa y bien estructurada de las tarjetas de desarrollo con FPGA y CPLD, proporcionando una guía útil y práctica para los desarrolladores y tomadores de decisiones.
Mendoza Garcia Miguel Angel, Universidad de Guadalajara
Asesor: Ing. Alejandro Amaro Flores, Instituto Tecnológico de Morelia

SISTEMA WEB HíBRIDO PARA GESTIóN DE ENCUESTAS INSTITUCIONALES EN EL INSTITUTO TECNOLóGICO DE MORELIA: CUMPLIMIENTO DE NOM151-SCFI-2016 E ISO/IEC 25010:2011


SISTEMA WEB HíBRIDO PARA GESTIóN DE ENCUESTAS INSTITUCIONALES EN EL INSTITUTO TECNOLóGICO DE MORELIA: CUMPLIMIENTO DE NOM151-SCFI-2016 E ISO/IEC 25010:2011

Coronado Cabrera Bryan Axl, Universidad de Guadalajara. Diaz Angel, Universidad de Guadalajara. Martinez Hernandez Jesus Eduardo, Universidad de Guadalajara. Medina Guerrero Manuel Fernando, Universidad de Guadalajara. Mendoza Garcia Miguel Angel, Universidad de Guadalajara. Quintero Garcia Oliver Israel, Universidad de Guadalajara. Asesor: Ing. Alejandro Amaro Flores, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En el Tecnológico Nacional de México Campus Morelia, la gestión de encuestas dirigidas a los miembros de la institución presenta varios desafíos significativos. Actualmente, las encuestas no están homologadas ni integradas, lo que genera fragmentación y falta de consistencia en la recolección de datos. Algunas encuestas se administran a través del sistema escolar vigente, mientras que otras utilizan plataformas comerciales como Microsoft y Google. Esta diversidad de plataformas dificulta la centralización y el acceso a los resultados para todos los involucrados en los procesos de toma de decisiones. Además, muchas de estas encuestas no se han actualizado en más de una década, aunque las necesidades y circunstancias de la institución evolucionaron mucho en ese tiempo. Esta falta de actualización limita la relevancia y efectividad de las encuestas para abordar las necesidades actuales de estudiantes, docentes y administrativos. En consecuencia, la institución carece de un sistema unificado y moderno que permita una gestión eficiente y un análisis integral de los datos recolectados, afectando la capacidad para tomar decisiones informadas y mejorar continuamente la calidad educativa.



METODOLOGÍA

1. Análisis de Requerimientos Identificación de los requisitos funcionales y no funcionales. Estudio de la base de datos existente para integración con la tabla de usuarios. Determinación de roles y permisos necesarios para el acceso al sistema. 2. Diseño del Sistema · Arquitectura del Sistema: o MVC-Componentes. o Framework Laravel con Livewire. o Base de datos relacional PostgreSQL para la gestión de áreas, roles, permisos, usuarios y encuestas.   · Diseño de la Base de Datos: o Tablas para almacenar encuestas, preguntas, respuestas y resultados. o Integración con la tabla de usuarios existente. Interfaces de Usuario: Formularios para la creación y administración de encuestas. Interfaces para la participación de encuestas por parte de estudiantes, docentes y administrativos. Panel de administración para jefes de área con acceso a resultados y generación de reportes. 3. Desarrollo del Sistema: Desarrollo de formularios dinámicos para la creación de encuestas. Implementación de mecanismos de autenticación y autorización basados en roles. Interfaces amigables para la participación de encuestas. Lógica de negocio para la asignación de encuestas a roles específicos. Generación de reportes en PDF utilizando bibliotecas como DomPDF o jsPDF (JavaScript). 4. Pruebas: Pruebas Unitarias: Verificación de la funcionalidad individual de los componentes del sistema. Pruebas de Integración: Aseguramiento de la correcta interacción entre los componentes del sistema. Pruebas de Usuario: Evaluación de la usabilidad y efectividad del sistema mediante pruebas con usuarios finales. 5. Implementación y Despliegue: Despliegue del sistema en un entorno de producción. Capacitación a los usuarios (jefes de área) para la administración de encuestas y análisis de resultados. 6. Mantenimiento y Actualización: Monitoreo continuo del sistema para identificar y corregir errores. Actualización del sistema con nuevas funcionalidades según las necesidades de los usuarios. Resultados Esperados Sistema web funcional y seguro para la gestión de encuestas en la institución. Mejora en la eficiencia de recolección y análisis de datos. Facilidad para la evaluación individual de docentes y administrativos. Generación de reportes detallados en PDF para la toma de decisiones.


CONCLUSIONES

La implementación de este sistema web proporcionará una herramienta eficiente y robusta para la creación y gestión de encuestas dentro de la institución educativa. Facilitará la recolección de datos, mejorará la toma de decisiones y permitirá una evaluación más detallada de los docentes y administrativos, contribuyendo al desarrollo continuo de la calidad educativa.
Mendoza Gonzalez Manuel Alejandro, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Ivan Salgado Transito, Centro de Investigaciones en Óptica (CONACYT)

ANáLISIS TECNOECONOMICO DE UN SISTEMA FOTOVOLTAICO DE 500 KW EN TRES REGIONES DE MéXICO


ANáLISIS TECNOECONOMICO DE UN SISTEMA FOTOVOLTAICO DE 500 KW EN TRES REGIONES DE MéXICO

Mendoza Gonzalez Manuel Alejandro, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Ivan Salgado Transito, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La creciente demanda de energía y la necesidad de mitigar el cambio climático han impulsado a muchos países, incluido México, a explorar y adoptar fuentes de energía renovable, la energía solar fotovoltaica se presenta como una alternativa viable y sostenible, aprovechando el abundante recurso solar del país, las plantas fotovoltaicas de 500 kW, aunque consideradas de tamaño medio, representan una oportunidad importante para la generación distribuida, permitiendo a las comunidades y empresas acceder a energía limpia y reducir su dependencia de fuentes fósiles, estos proyectos no solo contribuyen a la sostenibilidad ambiental, sino que también tienen el potencial de impulsar el desarrollo económico local a través de la creación de empleos y la reducción de costos energéticos. La implementación de plantas fotovoltaicas de esta escala enfrenta varios desafíos en México. Factores como la variabilidad en la disponibilidad de recursos solares, la complejidad del marco regulatorio y las fluctuaciones en los precios de la electricidad son elementos que deben ser considerados para garantizar la viabilidad económica de estos proyectos, el uso de herramientas de simulación como el System Advisor Model (SAM), este software, desarrollado por el National Renewable Energy Laboratory (NREL) de los Estados Unidos, es ampliamente utilizado en la industria para modelar la generación de energía y realizar análisis financieros detallados, permitiendo a los desarrolladores evaluar el rendimiento y los aspectos económicos de las plantas solares en diferentes regiones del país, la investigación se centra en analizar la viabilidad tecnoeconómica de una planta fotovoltaica de 500 kW en tres regiones de proporcionando un marco de referencia para la toma de decisiones informadas en el desarrollo de proyectos de energía renovable.



METODOLOGÍA

En esta investigación se realizó un análisis tecnoeconómico de una planta fotovoltaica de 500 kW con el propósito de evaluar la viabilidad de estos proyectos en tres regiones de México, Baja California Sur, Puebla y Yucatán, utilizando el software System Advisor Model (SAM). Se consideraron parámetros importantes para la elección del lugar, como el recurso solar, potencial fotovoltaico, zonificación, temperatura y precios de comercialización de energía, para escoger la mejor tecnología a emplear en la planta solar se realizó un análisis basándose en el mercado mexicano actual, mientras que, con SAM, se calculó la generación eléctrica y las pérdidas del sistema para cada planta. Además, se realizó un análisis financiero usando la tarifa GDMTH como acuerdo de venta (PPA) de la Comisión Federal de Electricidad (CFE), calculando valores de distribución de energía (TOD) y evaluando las ganancias del proyecto a 25 años mediante indicadores como el Costo Nivelado de Energía (LCOE), la Tasa Interna de Retorno (IRR) y el Valor Actual Neto (NPV), los resultados muestran variaciones importantes en la producción y viabilidad económica entre las distintas regiones. Finalmente, utilizando el modelo detallado de almacenamiento en SAM, se implementó un banco de baterías de iones de litio con capacidades de 2h y 4h para evaluar los beneficios de esta tecnología en México.


CONCLUSIONES

El análisis del modelo no financiero de SAM en tres regiones distintas de México ha permitido evaluar la capacidad de generación eléctrica de las plantas fotovoltaicas, proporcionando información sobre la cantidad de energía que cada planta puede generar, además, detalla el rendimiento específico de cada instalación, comparando las diferentes condiciones climáticas y recursos solares en estas regiones, se evidencia cómo influyen en la eficiencia y producción de energía de las plantas fotovoltaicas. Para el análisis financiero también se elaboró un horario tarifario anual para las tres regiones del sistema eléctrico nacional (SEN) en donde se realiza el análisis, entre las que se encuentra las zonas Oriental Central, Baja California Sur y Peninsular, con el objetivo de calcular los valores de Tarifa de Distribución de Energía (TOD), permitiendo identificar los horarios óptimos para la distribución de energía, teniendo en cuenta el acuerdo de venta de energía (PPA), en base a la tarifa GDMTH de la Comisión Federal de Electricidad (CFE). Se realizó un análisis tecnoeconómico respecto a la viabilidad de una planta fotovoltaica de 500kW interconectada, haciendo una comparación entre las tres regiones considerando indicadores clave como el LCOE, la tasa de retorno de inversión (IRR) y el valor neto presente (NPV). Los resultados fueron más favorables para una planta ubicada en Baja California Sur, debido a los altos precios en los que se comercializa la energía eléctrica, aunado a un excelente recurso solar, mientras que en las regiones de Puebla y Yucatán se obtuvieron cifras muy similares. Por último, se evaluó la implementación de bancos de baterías de 2h y 4h de capacidad, los resultados mostraron un mejor beneficio económico con los bancos de 2h, la implementación de esta tecnología resulto desfavorable debido a los altos costos y la corta vida útil de la tecnología de baterías de iones de litio. En comparación, las plantas fotovoltaicas sin sistema de almacenamiento resultaron ser más viables, esto resalta que, aunque la incorporación de almacenamiento puede mejorar la gestión de energía, los costos y la vida útil de las baterías siguen siendo factores limitantes.
Mendoza Pérez Esther Valeria, Instituto Politécnico Nacional
Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso

DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE


DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE

Cardona Arango Laura Camila, Universidad del Quindío. Mendoza Pérez Esther Valeria, Instituto Politécnico Nacional. Pinzón Giraldo Gabriela, Universidad del Quindío. Romero Alcantara Regina, Instituto Politécnico Nacional. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

La rápida urbanización y el aumento poblacional en México han intensificado el uso de recursos naturales y la producción de residuos, agravando los problemas ambientales. San Felipe del Progreso, con características rurales y semiurbanas, enfrenta desafíos específicos en sostenibilidad. Las casas tradicionales en la región dependen de energías no renovables y carecen de sistemas eficaces para la gestión del agua y los residuos, contribuyendo a emisiones de CO₂ y contaminación ambiental. La sobreexplotación de acuíferos y la gestión inadecuada de residuos sólidos son problemas críticos. La construcción de viviendas ecológicas autosustentables en San Felipe del Progreso puede abordar estos problemas a través de soluciones sostenibles. La adopción de energías renovables, como paneles solares, y sistemas de riego para huertos, así como el diseño bioclimático y el uso de materiales sostenibles, mejoran la eficiencia energética y reducen la dependencia de fuentes de energía no renovables. La recolección de agua de lluvia y la reutilización de aguas grises optimizan el uso del agua, mientras que los sistemas de compostaje y reciclaje disminuyen la generación de residuos.  Este enfoque no solo mejora la calidad de vida en la región, sino que también puede servir como modelo replicable para otras comunidades en México, alineándose con los objetivos de desarrollo sostenible de la Agenda 2030 de la ONU.



METODOLOGÍA

Para desarrollar una casa ecológica autosustentable en San Felipe del Progreso en siete semanas, se siguió una metodología estructurada con herramientas tecnológicas y visitas académicas. El docente investigador proporcionó un cronograma detallado de tareas y objetivos semanales, y se utilizó la plataforma Classroom para gestionar recursos y facilitar la comunicación. Se brindaron asesorías diarias y se proporcionó literatura adicional para enriquecer el aprendizaje. Se realizaron tres visitas académicas clave: a una casa ecológica en San Juan Coajomulco, a la ecoaldea "Los Carrizos" en San Miguel de Allende, y al Instituto Mexicano de la Tecnología del Agua en Jiutepec. Para recopilar datos climáticos, gráficos y planos, se usaron diversas plataformas como Weather Spark, Climate Consultant, AutoCAD, inventor de Autodesk y PvSyst. En las que se hicieron estudios y simulaciones que aseguraban el correcto diseño y permitieron analizar diversos procesos para mejorarlos y anticipar soluciones enfocadas a la optimización de los mismos. Se encuestó a los estudiantes del Tecnológico de Estudios Superiores de San Felipe del Progreso para obtener información sobre las necesidades de la comunidad. Con estos datos, se diseñó y construyó la casa, optimizando la orientación para maximizar la luz solar y la eficiencia energética, e implementando un sistema de climatización pasiva. Se realizaron evaluaciones periódicas y se ajustó el diseño según la retroalimentación del asesor. Las condiciones climáticas y otros factores ambientales fueron esenciales para adaptar la vivienda al entorno local. Las encuestas a la comunidad proporcionaron datos valiosos que guiaron el diseño para responder efectivamente a las necesidades locales.


CONCLUSIONES

La casa en San Felipe del Progreso fue diseñada para maximizar la captación de luz solar y mejorar la eficiencia energética, considerando la trayectoria del sol a lo largo del año. Se implementó un sistema de climatización pasiva con aislamiento adecuado, ventilación cruzada y materiales térmicamente eficientes, reduciendo la necesidad de calefacción y refrigeración artificiales. Se integraron diversas estrategias de diseño pasivo, como la optimización de la orientación y el uso de materiales de construcción eficientes. Se realizó un levantamiento exhaustivo de cargas eléctricas y servicios necesarios para dimensionar adecuadamente los sistemas energéticos y de recursos. Se diseñó e implementó un sistema de generación de energía renovable basado en paneles solares, permitiendo la autosuficiencia energética y la interconexión con la red de la Comisión Federal de Electricidad (CFE). También se instaló un sistema de iluminación eficiente con tecnología LED y un solario e invernadero para la producción de alimentos y confort térmico. Se seleccionaron materiales de construcción ecológicos para un excelente aislamiento térmico y acústico. Los baños secos reducen el consumo de agua y facilitan el reciclaje de nutrientes. Un calentador solar suministra agua caliente, mejorando la autosuficiencia energética. Se construyeron cisternas subterráneas para la recolección y almacenamiento de agua de lluvia, y se implementó un sistema completo de recolección y tratamiento de aguas pluviales para diversos usos, mejorando la sostenibilidad hídrica. El sistema de tratamiento de aguas grises diseñado permite su reutilización en el riego de áreas verdes y otros usos no potables, contribuyendo a la eficiencia y sostenibilidad del agua. De esta manera buscamos trasformar la forma en la que las viviendas son edificadas. Promover el conocimiento y hacerlo accesible a todo aquel involucrado. Las viviendas sustentables representan una solución integral a las nuevas necesidades consecuentes de la crisis climática. Nuestro proyecto proporciona las bases teóricas para la aplicación práctica en diseño y construcción de una casa ecológica autosustentable, con estas es posible cambiar los criterios utilizados actualmente en la toma de decisiones de edificaciones; este proyecto representa una propuesta ambiciosa para un futuro sostenible, sustentable y accesible, fácilmente replicable en todo el mundo.
Mendoza Ramon Angelica, Instituto Tecnológico de Nuevo Laredo
Asesor: Dr. Elias Alberto Bedoya Marrugo, Fundación Universitaria Tecnológico Comfenalco

INCIDENCIA DE LA LUMBALGIA OCUPACIONAL EN TRABAJADORES DE UN SECTOR INDUSTRIAL DE CARTAGENA, COLOMBIA.


INCIDENCIA DE LA LUMBALGIA OCUPACIONAL EN TRABAJADORES DE UN SECTOR INDUSTRIAL DE CARTAGENA, COLOMBIA.

Mendoza Ramon Angelica, Instituto Tecnológico de Nuevo Laredo. Asesor: Dr. Elias Alberto Bedoya Marrugo, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

La espalda es la parte del cuerpo que va desde el cuello hasta los glúteos y está formada por la columna vertebral y los músculos de la espalda. Su función principal es proteger la columna vertebral, mantener la postura del cuerpo y la cabeza, y permitir movimientos precisos de los brazos y las piernas. Siendo esta parte fundamental de nuestro cuerpo que nos permite realizar una variedad de actividades cotidianas (Vélez, 2023). Cuando se trata de las vértebras, la complejidad aumenta, ya que forman una parte crucial de nuestra anatomía, compuesta por hasta 24 piezas óseas en un adulto (33 durante la etapa fetal y la niñez, antes de la fusión del sacro y el cóccix). Para facilitar su estudio, se divide la columna vertebral en cinco regiones (o cuatro si se cuenta el sacro y el cóccix como uno solo): la región cervical, que abarca desde la primera vértebra en la base del cráneo hasta la séptima; la región torácica, con doce vértebras, cada una emparejada con un par de costillas; la región lumbar, que contiene cinco vértebras grandes; y finalmente, el sacro y el cóccix (García, 2020-2021). La lumbalgia suele ser causada por problemas mecánicos y lesiones en los tejidos blandos. Estas lesiones pueden incluir daños en los discos intervertebrales, compresión de las raíces nerviosas y movimientos incorrectos de las articulaciones de la columna vertebral. (Peloza, 2017).



METODOLOGÍA

Este estudio se realizó utilizando un enfoque no experimental cuantitativo de corte transversal, lo que significa que se observó y midió las variables tal como existen en su contexto natural sin manipularlas. Este método es apropiado cuando intervenir en las variables no es práctico o ético, y permite una evaluación objetiva y precisa a través de datos numéricos y análisis estadísticos. Mediante el estudio realizado a los 70 trabajadores del sector industrial de una empresa, se determinó que la edad de las personas estudiadas es de 46.3 años, con una variabilidad moderada reflejada en una desviación estándar de 8.20 años (lo que indica cuanto varían las edades respecto a la media). Las edades oscilan entre 24.9 y 61.1 años. La mediana, que también es 46.3 años, indica que la mitad de las personas tienen menos de esa edad y la otra mitad tiene más, sugiriendo una distribución bastante simétrica.  El peso promedio es de 76.5 kg, con una variabilidad moderada reflejada en una desviación estándar de 13.0 kg, por lo cual esta medida nos indica la variación de los pesos respecto a la medida, por ende, los pesos oscilan entre 52.0 kg y 105 kg. La mediana es 77.0 kg, lo que significa que la mitad de las personas pesan menos de 77.0 kg y la otra mitad pesa más, indicando una distribución bastante equilibrada. la estatura promedio de las 70 personas es de 1.68 metros, con una variabilidad baja (desviación estándar de 0.0840 metros). Las estaturas oscilan entre 1.52 metros y 1.85 metros, con una mediana de 1.67 metros, lo que indica que la mitad del grupo mide menos de 1.67 metros y la otra mitad mide más. El IMC nos dice que el 27.1 tiene una variabilidad moderada, lo que quiere decir que su desviación estándar es de 3.74. Los valores del IMC oscilan entre 19.6 y 34,9, con una mediana de 27.2, lo que indica que la mitad del grupo tiene un IMC inferior a 27.2 y la otra mitad tienen IMC superior.


CONCLUSIONES

Se estableció que los casos de lumbalgia en la población de objeto de estudio en el periodo 2023 fueron del 28.57%, lo que indica una incidencia significativa entre los trabajadores del sector industrial analizados. Este dato refleja la prevalencia de problemas lumbares en el ámbito laboral y resalta la necesidad de implementar medidas preventivas y de tratamiento adecuadas para mejorar la salud y el bienestar de los empleados.
Mendoza Remigio Luis Eduardo, Universidad Rosario Castellanos
Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios

ESTADO DEL ARTE DE PROCESOS INDUSTRIALES EN LA AGROINDUSTRIA BASADOS EN PLC


ESTADO DEL ARTE DE PROCESOS INDUSTRIALES EN LA AGROINDUSTRIA BASADOS EN PLC

Gómez Juárez Ignacio, Instituto Politécnico Nacional. Mendoza Remigio Luis Eduardo, Universidad Rosario Castellanos. Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

La producción de aguacate es una industria agrícola de creciente importancia económica a nivel mundial. Sin embargo, los métodos tradicionales utilizados en los plantíos de aguacate a menudo resultan en ineficiencias operativas y sostenibilidad limitada. Los Controladores Lógicos Programables (PLC) han demostrado ser una tecnología prometedora para la automatización y optimización de procesos industriales, ofreciendo un control preciso y eficiente en diversas aplicaciones agrícolas. Actualmente, la implementación de PLC en la producción de aguacate no está plenamente documentada ni explorada, lo que genera una brecha significativa en el conocimiento y aplicación de esta tecnología en el sector. Las operaciones de riego, gestión de nutrientes, monitoreo de plagas y enfermedades, y la optimización de la cosecha son áreas clave que podrían beneficiarse de la adopción de PLC. Es crucial realizar un estado del arte que clarifique el contexto actual y ejemplifique la implementación de los PLC en los plantíos de aguacate, identificando tanto los beneficios como los desafíos asociados. Al abordar esta necesidad, se pretende responder a la siguiente pregunta ¿De qué manera impactaría el uso de los PLC en la implementación de plantíos de aguacate? Se pretende tener una idea clara a partir de la investigación exhaustiva de bases de datos y documentación relacionada a los PLC aplicados en los cultivos de aguacate, se espera conocer los aumentos aproximados en la cantidad de frutos recogidos, tiempos de recuperación de inversión y reducción de mano de obra.



METODOLOGÍA

Se opto por seguir la metodología de análisis de citas la cual se centra en el análisis de las citas bibliográficas entre los estudios relevantes para identificar conexiones, influencias y evolución de las ideas en el campo de estudio. (Moed, 2005) Esta metodología fue seleccionada debido a su capacidad para mapear de manera precisa cómo se han desarrollado las investigaciones y aplicaciones de los PLC en la producción agrícola a lo largo del tiempo. Definición del Alcance: Se establecieron los objetivos y límites del estudio, concentrándose en las aplicaciones relevantes de PLC en la producción agrícola. Búsqueda de Información: Se llevó a cabo una búsqueda exhaustiva en diversas bases de datos académicas, revistas especializadas y artículos científicos. Se utilizaron palabras clave pertinentes al tema y se aplicaron criterios estrictos de selección para asegurar que solo se incluyeran documentos de alta relevancia y calidad. Esta búsqueda incluyó fuentes como IEEE Xplore, ScienceDirect, y Google Scholar. Criterios de Selección: Para la selección de la literatura, se definieron criterios específicos que incluían la relevancia temática (aplicaciones de PLC en la agricultura), la calidad científica (publicaciones revisadas por pares) y la actualidad de los estudios (priorizando investigaciones recientes). Este riguroso proceso de selección garantizó la inclusión de las investigaciones más relevantes y valiosas para el análisis. Análisis de la Información: La información recopilada fue analizada y categorizada según diversos aspectos, tales como aplicaciones tecnológicas de los PLC en la agricultura, los beneficios y desafíos asociados con su uso, comparaciones con otras tecnologías de automatización y estudios de caso específicos que demostraran su aplicación práctica. Este análisis permitió una comprensión profunda y estructurada del tema. Elaboración del Estado del Arte: Con base en el análisis de la información, se desarrolló un documento del estado del arte que incluye la evolución histórica del uso de los PLC en la agroindustria, aplicaciones actuales, comparaciones con otras tecnologías emergentes, estudios de caso representativos y conclusiones generales. Este documento sirve como una referencia comprensiva y bien documentada sobre el tema. Validación de Resultados: Los resultados fueron validados mediante revisión. Redacción y Presentación del Informe: Finalmente, se redactó el informe del estado del arte que fue revisado y editado para asegurar la coherencia y claridad del contenido. Esta metodología asegura que el estudio sea exhaustivo, bien fundamentado y relevante para el avance de la aplicación de los PLC en la producción agrícola.


CONCLUSIONES

La automatización industrial mediante PLC está ampliamente adoptada en la agroindustria a nivel global, evidenciando su importancia y crecimiento continuo en diferentes países. Los casos estudiados muestran consistentemente mejoras en la eficiencia, eficacia y rentabilidad de los procesos agrícolas gracias a la automatización, destacando su capacidad para optimizar el uso de recursos naturales y económicos. La integración de PLC con redes de conexión industrial es una práctica común, subrayando la sinergia efectiva entre estas tecnologías para mejorar la gestión y control en entornos agrícolas. Existe una tendencia clara hacia sistemas de riego automatizados que utilizan tecnologías avanzadas como sensores para medir la humedad del suelo y condiciones climáticas, así como sistemas predictivos para mejorar la eficacia del riego y reducir el consumo de agua. Se observa un creciente interés en el desarrollo de modelos predictivos y tecnologías de bajo impacto ambiental, como bio-insecticidas y bio-fertilizantes, para optimizar la producción agrícola y minimizar el uso de productos químicos. El análisis cronológico muestra picos significativos en la investigación en 2014 y 2022, reflejando momentos clave de avance y adopción tecnológica en la agroindustria, con una creciente influencia de tecnologías emergentes como la inteligencia artificial y biotecnologías.
Mendoza Rodríguez Angel Gabriel, Universidad de Guadalajara
Asesor: Mtro. Erasmo José Aguilar Arriola, Universidad Nacional de Ingeniería

CONCRETO ALTERNATIVO CON SUSTITUCIÓN DE AGREGADO FINO POR VIDRIO RECICLADO


CONCRETO ALTERNATIVO CON SUSTITUCIÓN DE AGREGADO FINO POR VIDRIO RECICLADO

Mendoza Rodríguez Angel Gabriel, Universidad de Guadalajara. Olvera Sarabia Diego Fernando, Universidad de Guadalajara. Asesor: Mtro. Erasmo José Aguilar Arriola, Universidad Nacional de Ingeniería



PLANTEAMIENTO DEL PROBLEMA

En los últimos años se ha avanzado en diferentes partes del mundo en el desarrollo de nuevos concretos que tengan un valor de sostenibilidad y reciclaje en su proceso o producto final. En la actualidad ya se manejan términos como Concretos alternativos o ecológicos, que se pueden definir como una variante del concreto tradicional, diseñada para minimizar su impacto ambiental sin comprometer su rendimiento. Se fabrica utilizando materiales reciclados o subproductos industriales, como cenizas volantes, escoria de alto horno, y vidrio molido, entre otros. Estos materiales, que de otra manera terminarían en vertederos, contribuyen a la resistencia y durabilidad del concreto, mientras reducen la necesidad de cemento Portland, uno de los mayores contribuyentes a las emisiones de CO2 en la producción de concreto.En los últimos años se ha avanzado en diferentes partes del mundo en el desarrollo de nuevos concretos que tengan un valor de sostenibilidad y reciclaje en su proceso o producto final. En la actualidad ya se manejan términos como Concretos alternativos o ecológicos, que se pueden definir como una variante del concreto tradicional, diseñada para minimizar su impacto ambiental sin comprometer su rendimiento. Se fabrica utilizando materiales reciclados o subproductos industriales, como cenizas volantes, escoria de alto horno, y vidrio molido, entre otros. Estos materiales, que de otra manera terminarían en vertederos, contribuyen a la resistencia y durabilidad del concreto, mientras reducen la necesidad de cemento Portland, uno de los mayores contribuyentes a las emisiones de CO2 en la producción de concreto. Se considera un tema de tanta relevancia entre los Objetivos de Desarrollo Sostenible-ODS, específicamente dentro del Objetivo 12 Garantizar modalidades de consumo y producción sostenibles. Este objetivo busca garantizar modalidades de consumo y producción sostenibles, cruciales para sostener los medios de vida actuales y futuros. Con el crecimiento poblacional proyectado a 9800 millones para 2050, podrían necesitarse casi tres planetas para satisfacer los recursos naturales necesarios. Para lograr este objetivo, destacan: gestionar de manera sostenible y eficiente los recursos naturales en 2030; para 2020, asegurar la gestión ecológica de productos químicos y desechos, reduciendo significativamente su liberación al medio ambiente para minimizar impactos negativos en la salud y el ecosistema; y para 2030, reducir considerablemente la generación de desechos mediante prevención, reducción, reciclaje y reutilización.



METODOLOGÍA

Para este estudio experimentar, se trabajó con un agregado reciclado que en este caso fue el vidrio (oscuro y claro), para lo cual se elaboraron cilindros de concreto aplicando dos propuestas de mezcla nueva. Se elaboraron 6 cilindros con vidrio oscuro y 4 con vidrio claro, utilizando moldes con tamaños de 15 x 20 cm (ASTM C31, Práctica estándar para la fabricación y el curado de muestras de hormigón para ensayos en el campo).   Posteriormente a la construcción y curado, se realizaron los ensayos de acuerdo a normativa, considerando dos momentos, a los 14 días y a los 28 días (ASTM C39, Método de ensayo estándar para la resistencia a la compresión de muestras cilíndricas de hormigón).  El vidrio fue triturado y luego cribados. Ambos tipos de vidrio se obtuvieron de botellas de bebidas de consumo frecuente por parte de la población. Se destaca que estos materiales frecuentemente terminan como desperdicios en las calles o botaderos, sin aprovechar los valores de reciclaje que estos tienen.  Se empleó cemento hidráulico Portland gris de uso general (GU) marca CEMEX en concordancia con la norma NTON 12 006-11(NTON, 2011)y ASTM C1157(ASTM, 2003a).   Los equipos e instrumentos manejados durante el procedimiento:  Cabezales/cilindros de acero con neopreno  Aceite (para lubricar cabezales de acero)  Tamices #4 y #8 (entre 4 y 2.3 mm)  Prensa hidráulica para compresión POWER TEAM Model A, capacidad de 10.000 PSI  Cono de Abrams o revenimiento    Se utilizó una proporción de Agua-Cemento (a/c)0.7. La dosificación fue de1:2:1 (cemento: árido fino: árido grueso), para la cual, se realizaron dos mezclas con diferentes dosificaciones: para el primer tipo, se sustituyó en un 15% de la arena tradicional por vidrio claro; la segunda, se sustituyó en un 20% de la arena tradicional por vidrio oscuro. Las mezclas aprobadas fueron sometidas a la prueba de revenimiento usando el cono de Abrams, en condiciones de laboratorio, a temperatura de 34°C.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos sobre el diseño de mezclas de concreto, su resistencia a la compresión. En este caso con 2 variables (vidrio oscuro y claro). Los resultados obtenidos fueron óptimos, llegando a ser mejor de lo que esperábamos ya que el diseño de mezcla base era para una resistencia de 300 kg/cm2.
Mendoza Rosas Luis Francisco, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Omar Jehovani López Orozco, Instituto Tecnológico Superior de Apatzingán

ORQUESTACIóN DE DATOS PARA LA ESTIMACIóN DE RIESGO DE INUNDACIóN Y DE TRáFICO DE CIUDADES.


ORQUESTACIóN DE DATOS PARA LA ESTIMACIóN DE RIESGO DE INUNDACIóN Y DE TRáFICO DE CIUDADES.

Comino Ibarra Adilene Estefanía, Instituto Tecnológico Superior de Apatzingán. Mendoza Rosas Luis Francisco, Instituto Tecnológico Superior de Apatzingán. Molontzin Ruiz Maria Guadalupe, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Omar Jehovani López Orozco, Instituto Tecnológico Superior de Apatzingán



PLANTEAMIENTO DEL PROBLEMA

Las inundaciones en la Ciudad de México se han convertido en un problema recurrente que afecta tanto a la infraestructura urbana como a la calidad de vida de sus habitantes. La falta de un sistema de monitoreo y prevención efectivo agrava esta situación, resultando en daños materiales significativos y pérdidas económicas.  Con el cambio climático, la frecuencia e intensidad de estos eventos meteorológicos extremos están en aumento, lo que subraya la necesidad de desarrollar herramientas geoespaciales que ayuden a prever y mitigar los riesgos asociados.



METODOLOGÍA

El proyecto se enfocó en la recolección, limpieza y análisis de datos geoespaciales para la generación de mapas de riesgos de inundación en la Ciudad de México. Los datos fueron obtenidos de fuentes como las bases de datos públicas del gobierno de la Ciudad de México. Recolección de Datos: Se recopilaron datos históricos de precipitación utilizando datos del INEGI al igual que información de los sistemas captadores de agua de lluvia. Se utilizaron datos de infraestructura urbana, como la red de drenaje y las zonas habitacionales vulnerables. Limpieza de Datos: Los datos recolectados fueron depurados para eliminar valores atípicos y corregir errores de registro. Se integraron diferentes formatos de datos geoespaciales para asegurar su compatibilidad y coherencia. Se implementaron técnicas de interpolación para llenar vacíos en los datos de precipitación y nivel de agua. Análisis Geoespacial: Se emplearon Sistemas de Información Geográfica (SIG) para la visualización y análisis de los datos limpios. Generación de Mapas de Riesgo: Utilizando los resultados del análisis geoespacial, se crearon mapas de riesgo de inundación que destacan las áreas más vulnerables. Se implementaron estos mapas en una plataforma web interactiva que permite a los usuarios explorar los riesgos de inundación en tiempo real y planificar medidas de mitigación.


CONCLUSIONES

Durante el proyecto se adquirieron conocimientos avanzados en el manejo de datos geoespaciales y en el uso de herramientas SIG para la creación de mapas de riesgo. A pesar de que aún se encuentran en proceso algunos análisis detallados, los resultados preliminares indican una identificación precisa de las áreas de mayor riesgo de inundación en la Ciudad de México. Se espera que, con la implementación completa del sistema, las autoridades y la población puedan contar con una herramienta valiosa para la prevención y respuesta ante eventos de inundación, reduciendo así los daños y mejorando la resiliencia de la ciudad frente a desastres naturales.
Mendoza Salas Luis Damian, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dra. Mireya Astrid Jaime Arias, Corporación Universitaria Minuto de Dios

ANáLISIS DE ESTUDIOS SOBRE POLíTICAS DE CIENCIA ABIERTA EN LATINOAMéRICA.


ANáLISIS DE ESTUDIOS SOBRE POLíTICAS DE CIENCIA ABIERTA EN LATINOAMéRICA.

Marquez Garcia Diego Israel, Universidad de Guadalajara. Mendoza Salas Luis Damian, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dra. Mireya Astrid Jaime Arias, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

Introducción Introduccion La ciencia abierta promueve el acceso libre y transparente a la investigación científica. En Latinoamérica, las políticas para apoyar esta modalidad de ciencia varían considerablemente y pueden tanto fomentar como limitar su desarrollo. El análisis busca evaluar estas políticas y su impacto en la región. Objetivo El objetivo principal es realizar un análisis comparativo de las políticas existentes en Latinoamérica para la promoción de la ciencia abierta, a partir de estudios relevantes encontrados en diferentes bases de datos.



METODOLOGÍA

Se realizó un análisis de literatura basado en artículos científicos relevantes sobre políticas de ciencia abierta. Se utilizaron tres principales bases de datos: OpenAlex, Scielo y Redalyc. El diagrama de metodología ilustra el proceso de selección y análisis de los artículos pertinentes.


CONCLUSIONES

Estos son los siguientes artículos encontrados que sí son relevantes y hablen de política de ciencia abierta en cada uno de los buscadores: Buscadores:        Relevantes            No Relevantes OpenAlex           2 Artículos.              2 Artículos Scielo                 3 Artículos.              2 Artículos Redalyc             6 Artículos.               5 Artículos Los artículos se clasificaron en los temas que a continuación se presentan. Ciencia Abierta 1. Titulo: Investigadores junior españoles y su implicación en la ciencia abierta. Hallazgo: Los resultados más globales de los datos obtenidos tanto de las entrevistas como de la encuesta se han publicado en diversos trabajos entre los que cabría señalar (Nicholas et al., 2017, 2019a, 2020a, 2020b). En este artículo se presentan resultados relacionados con el interés que en los investigadores noveles españoles han despertado las prácticas de una ciencia abierta y transparente y la colaboración y difusión de su trabajo a todos los stakeholders y a la sociedad. https://doi.org/10.6018/analesdoc.470671 2. Título: Avanzando hacia la ciencia abierta: primeros pasos. Hallazgo: Al permitir a los revisores conocer la identidad de los autores, se fomento la comunicación y el intercambio de ideas, lo que puede mejorar la calidad del trabajo final; los revisores pueden tener en cuenta los comentarios y discusiones generados en torno al preprint, lo que enriquece el proceso de revisión formal.   https://doi.org/10.62580/ipsc.2023.8.10 3. Título: Ciencia abierta como una nueva forma de hacer investigación Hallazgo:  Los resultados obtenidos por las diversas  investigaciones realizadas a lo largo de la última década permiten inferir que existen diversas barreras que impiden el acceso libre a   la información obtenida por los investigadores y que se derivan de  aspectos más bien de tipo colectivo. Entre ellas, destacan las lógicas institucionales que incluyen prohibiciones para la difusión  de resultados de investigación, las reglamentaciones nacionales, y   en algunos casos, internacionales, respecto a la propiedad  intelectual del conocimiento generado, así como la estabilidad y reputación de las plataformas digitales donde se concentran los  datos obtenidos.   http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S20 s ● Título: Contribución del Instituto Brasileño de Información en Ciencia y Tecnología a la promoción del acceso abierto y la ciencia abierta: Análisis de sus infraestructuras Hallazgo: https://doi.org/10.14483/23448350.20924 ● Título: Ciencia abierta en la Policía Nacional de Colombia Hallazgo: Esta práctica puede llevar a los jóvenes colombianos 07-21712023000100008&lang=e   El estudio histórico realizado destaca 14 acciones, proyectos e infraestructuras creados y coordinados por el Ibict. En primer plano, estos se   presentan desde la emergencia del Manifiesto de acceso abierto (Ibict, 2005).  Resultados: pag 53a 63. a que, en el futuro, se conviertan en el relevo generacional, por ejemplo, de  personalidades como Bill Gates o Steve Jobs, entre otros, todo porque en   investigación e innovación siempre hay caminos abiertos que pueden transitarse con ingenio.   https://www.redalyc.org/articulo.oa?id=517775572001 (Ciencia Abierta) Recursos Educativos Abiertos 1. Título: Recursos educativos abiertos y políticas institucionales en universidades públicas mexicanas: estudio de caso. Hallazgo: Se obtuvo un total de 25 contribuciones que integraron el corpus de análisis. Con base en el estudio exploratorio de las 35 universidades públicas estatales que registró la Secretaría de Educación Pública (SEP) se obtuvieron los siguientes hallazgos: dichas universidades carecen de políticas institucionales que les permita integrar los REA a los programas institucionales de desarrollo educativo que se han implementado en cada una de ellas. http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S2007- 74672021000100125&lang=es
Meneses Sanchez Silvia, Universidad Politécnica de Tecámac
Asesor: Mtro. Gerardo Badillo Estrada, Universidad Politécnica de Tecámac

IMPLEMENTACIóN DE LEAN MANUFACTURING EN LA EMPRESA FAW ELAM


IMPLEMENTACIóN DE LEAN MANUFACTURING EN LA EMPRESA FAW ELAM

Garcia Paulin Bryan Guadalupe, Instituto Tecnológico de Matamoros. Meneses Sanchez Silvia, Universidad Politécnica de Tecámac. Mindiola Cordero María Clara, Universidad de la Guajira. Onofre Guarneros Alexis Manuel, Instituto Tecnológico de Gustavo A. Madero II. Asesor: Mtro. Gerardo Badillo Estrada, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

FAW ELAM es una empresa automotriz establecida, aunque ha mantenido una posición sólida en el mercado, enfrenta desafios relacionados con variabilidad en la calidad, elevado tiempo ciclo y desperdicio de recursos. Debido al incremento de venta correspondiente a los camiones de carga pesada y la construcción de líneas de ensamble, se requiere realizar un análisis de las líneas de producción y almacén para posteriormente implementar y llevar a cabo las metodologías del proceso el cual están sustentadas en las normas oficiales mexicanas.



METODOLOGÍA

Para realizar el análisis, se dividieron las 20 metodologías con el fin de implementar en 4 semanas, tomando así, 5 metodologías cada semana del proyecto y enfocándonos en su estudio dentro de la fabrica. 1. 5´s:organización y limpieza Value stream mapping Gestión visual/Andon Análisis de cuello de botella KPIs: indicadores de clave de desempeño 2. Flujo Progresivo Estandarización de Trabajo Just in Time Takt Time Hoshi kari / los 8 desperdicios 3. SMED (Cambio Rápido de Herramienta) Poka-Yoke Jidoka PDCA (Plan-Do-Check-Act) TPM: Mantenimiento productivo total 4. Heijunka Kaizen Kanban Gemba Administración de calidad total    


CONCLUSIONES

Tras la aplicación de Lean Manufacturing en FAW ELAM, se han obtenido los siguientes resultados: Se implementó la identificación de limitaciones, señalizaciones visuales claras en el área de trabajo, la organización del almacén se mejoró significativamente, se instauraron prácticas de limpieza regular y sistemática (5S). Se realizó una clasificación y disposición eficiente de los materiales, herramientas y equipos y finalmente se llevaran a cabo programas de formación continua para el personal. En conjunto, estos resultados han contribuido a un aumento de la productividad, una reducción de los desperdicios y una mayor satisfacción del cliente. La empresa ha logrado optimizar sus procesos, mejorar la calidad del trabajo y establecer una base sólida para el crecimiento futuro. La implementación de Lean Manufacturing en la industria automotriz resulta en mejoras sustanciales en términos de eficiencia operativa y competitividad. Empresas como FAW ELAM, al adoptar esta filosofía, logra reducir tiempos de ciclo, optimizar espacio y maquinarias, así como eliminar actividades que no agregan valor. Esto se traduce en una reducción notable en costos, tiempos de entrega, inventario, y número de defectos, mientras se mejora la calidad del producto y se aumenta la flexibilidad y utilización del personal.
Meneses Vélez José Aldo, Instituto Tecnológico de Puebla
Asesor: Dr. German Cuaya Simbro, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo

SISTEMA DE RECOMENDACIóN DE USO DE SUELO UTILIZANDO UN DISPOSITIVO PARA LA AGRICULTURA DE PRECISIóN Y DEEPLEARNING.


SISTEMA DE RECOMENDACIóN DE USO DE SUELO UTILIZANDO UN DISPOSITIVO PARA LA AGRICULTURA DE PRECISIóN Y DEEPLEARNING.

Meneses Vélez José Aldo, Instituto Tecnológico de Puebla. Asesor: Dr. German Cuaya Simbro, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Conocer el estado de salud del suelo enfrenta varios problemas. La variabilidad espacial y temporal del suelo, la falta de datos históricos y en tiempo real, y los costos de análisis son barreras significativas. Además, muchos agricultores carecen de capacitación y acceso a tecnologías necesarias para monitorear y analizar el suelo. La contaminación y la degradación del suelo complican aún más su evaluación. La falta de normativas claras y el apoyo gubernamental insuficiente también limitan los esfuerzos para mejorar la salud del suelo. Abordar estos problemas requiere tecnología avanzada, capacitación, acceso a datos y apoyo regulatorio y financiero. Las herramientas tecnológicas como sensores, actuadores e inteligencia artificial (IA) pueden transformar la gestión de la salud del suelo. Los sensores permiten el monitoreo en tiempo real de la humedad, temperatura, pH y nutrientes del suelo, proporcionando datos precisos y continuos. Esta información ayuda a detectar la variabilidad del suelo y crear mapas detallados de sus características. Los actuadores pueden automatizar sistemas de riego y fertilización basados en los datos de los sensores, aplicando insumos de manera precisa solo en las áreas que lo necesitan, optimizando recursos y minimizando el impacto ambiental. La inteligencia artificial analiza grandes volúmenes de datos recogidos por los sensores, identificando patrones y tendencias invisibles a simple vista. Algoritmos de machine learning pueden predecir las necesidades del suelo y ofrecer recomendaciones personalizadas, mejorando la toma de decisiones agrícolas. Esto no solo aumenta la productividad y rentabilidad, sino que también promueve prácticas sostenibles y reduce el impacto ambiental, haciendo la agricultura más eficiente y ecológica.



METODOLOGÍA

1. Documentación sobre diseño y desarrollo de modelos deep learning 1.1 Para desarrollar un sistema de recomendación de uso de suelo basado en deep learning, se sumergió en su estudio con el asesoramiento del Dr. German Cuaya Simbro. Revisó literatura académica y recursos en línea sobre deep learning, incluyendo redes neuronales artificiales y técnicas de entrenamiento. 1.2 Se leyeron libros y tomarón cursos en línea sobre machine learning y deep learning para comprender mejor las arquitecturas de redes neuronales, como CNN y RNN, cruciales para analizar datos agrícolas. Se estudiarón casos de uso y aplicaciones prácticas en la agricultura, identificando las mejores prácticas. Participó en cursos y conferencias sobre IA aplicada a la agricultura, aprendiendo de expertos y discutiendo las últimas tendencias. 1.3 Se trabajó en proyectos de código abierto y experimentó con plataformas como TensorFlow, construyendo y entrenando modelos con datos relevantes. Esto ayudó a entender los desafíos del preprocesamiento de datos, selección de hiperparámetros y validación de modelos. 1.4 Finalmente, se documentó sobre la integración de estos modelos en sistemas en tiempo real, explorando cómo los datos de sensores de suelo pueden ser analizados para generar recomendaciones precisas. 2. Diseño y desarrollo del circuito para obtención de datos del suelo 2.1 Se investigarón componentes y principios básicos de electrónica. Se leyerón libros y artículos técnicos sobre diseño de circuitos y estudió diagramas prácticos. Se enfocó en sensores específicos para agricultura, como NPK, pH, humedad y temperatura, entendiendo sus requisitos y protocolos de comunicación. 2.2 Se utilizó software de diseño de PCB para crear esquemas y diseños de circuitos, minimizando el ruido y mejorando la precisión. Al igual se realizó pruebas prácticas conectando sensores a una placa de pruebas y utilizando el ESP32 para leer los datos, escribiendo y adaptando código en C++ y Python. 3. Diseño y desarrollo de un modelo deep learning para evaluación del estado del suelo 3.1 Para evaluar el suelo,se investigó aplicaciones de deep learning en la agricultura. Mismo que se recolectó y preprocesó datos de muestras de suelo, aplicando técnicas de normalización y limpieza para asegurar la calidad del conjunto de datos. Estto se experimentó con diferentes arquitecturas y técnicas de optimización, ajustando hiperparámetros y utilizando validación cruzada para mejorar la precisión del modelo. 4. Pruebas del circuito y del modelo 4.1 Se Probó el circuito y el modelo de deep learning. Así com se conectó los sensores al ESP32 y realizó ajustes para estabilizar el circuito. Recopilado  datos de diferentes tipos de tierra y los utilizó para entrenar y validar el modelo. La precisión y robustez del modelo mejoraron significativamente tras varios ajustes, demostrando que la combinación de sensores avanzados y algoritmos de deep learning puede evaluar eficazmente el estado del suelo en la agricultura de precisión.


CONCLUSIONES

Con el desarrollo de este proyecto pude poner en práctica los conocimientos que he adquirido en mi formación como Ingeniería electrónica al igual que los conocimientos transmitidos por mi asesor el Dr. German Cuaya Simbro. En las pruebas iniciales hubo algunos retos con los sensores a utilizar ya que por el costo no eran tan accesibles o no tan fáciles de encontrar. Sin embargo, se pueden mejorar varios aspectos: escalar el sistema para áreas más grandes, optimizar la calibración de sensores, refinar el modelo de deep learning, desarrollar una interfaz de usuario más accesible, integrar con otras tecnologías agrícolas, realizar pruebas en entornos reales, y reducir costos para hacer la tecnología más accesible y sostenible.
Mercado Alvarez Samuel Alexis, Universidad Simón Bolivar
Asesor: Dr. Juan José Rodríguez Peña, Instituto Politécnico Nacional

SISTEMA DE GESTIóN DIGITAL DEL LABORATORIO DE SISTEMAS AUTóNOMOS LIGERO


SISTEMA DE GESTIóN DIGITAL DEL LABORATORIO DE SISTEMAS AUTóNOMOS LIGERO

Mercado Alvarez Samuel Alexis, Universidad Simón Bolivar. Asesor: Dr. Juan José Rodríguez Peña, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El Laboratorio de Sistemas Autónomos Ligeros enfrenta dificultades significativas debido a la falta de un sistema de gestión digital centralizado. Actualmente, la gestión de actividades y recursos se realiza de manera manual o a través de sistemas dispares, lo que provoca duplicación de datos, pérdida de información, y errores humanos. Esta situación no solo consume tiempo y aumenta la probabilidad de errores, sino que también impide un seguimiento eficiente de los proyectos. La gestión ineficiente de recursos es otro desafío crítico. La ausencia de una plataforma centralizada complica el control de la disponibilidad y uso de equipos, materiales y personal, lo que resulta en retrasos y costos adicionales. Además, la falta de coordinación y colaboración entre los miembros del laboratorio se ve agravada por la carencia de un sistema común para compartir información y planificar actividades.



METODOLOGÍA

El Laboratorio de Sistemas Autónomos Ligeros es un espacio de investigación y desarrollo dedicado a la creación, prueba y perfeccionamiento de sistemas autónomos. Equipado con maquinaria avanzada como cortadoras láser, impresoras 3D, bombas de vacío, generadores de corriente, microcomputadoras, devanadoras, rebajadoras y vehículos aéreos no tripulados, este laboratorio se encuentra en el CICATA del Instituto Politécnico Nacional, en la ciudad de Querétaro. El laboratorio enfrenta dificultades significativas debido a la falta de un sistema de gestión digital centralizado. Actualmente, la gestión de actividades y recursos se realiza de manera manual o a través de sistemas dispares, lo que provoca duplicación de datos, pérdida de información y errores humanos. Esta situación no solo consume tiempo y aumenta la probabilidad de errores, sino que también impide un seguimiento eficiente de los proyectos. La gestión ineficiente de recursos es otro desafío crítico. La ausencia de una plataforma centralizada complica el control de la disponibilidad y uso de equipos, materiales y personal, lo que resulta en retrasos y costos adicionales. Además, la falta de coordinación y colaboración entre los miembros del laboratorio se ve agravada por la carencia de un sistema común para compartir información y planificar actividades. Para abordar estos problemas, se desarrolló el "Sistema de Gestión Digital del Laboratorio de Sistemas Autónomos Ligeros" en un periodo de aproximadamente seis semanas, utilizando Microsoft Power Apps para la creación de la aplicación móvil, SQL para la gestión de la base de datos y Power Automate para la automatización de flujos de trabajo. Este proceso metodológico siguió un enfoque estructurado y sistemático para asegurar la eficiencia y efectividad en cada fase del proyecto, abarcando desde la definición inicial de los requisitos hasta la implementación y capacitación de los usuarios finales.


CONCLUSIONES

Durante el desarrollo del "Sistema de Gestión Digital del Laboratorio de Sistemas Autónomos Ligeros" se lograron identificar y abordar las principales dificultades que enfrenta el laboratorio, específicamente la falta de un sistema de gestión centralizado. La implementación de esta solución digital ha permitido reducir significativamente la duplicación de datos, la pérdida de información y los errores humanos, mejorando la eficiencia y efectividad en la gestión de actividades y recursos. La creación de la aplicación móvil mediante Microsoft Power Apps, junto con el uso de SQL para la gestión de la base de datos y Power Automate para la automatización de flujos de trabajo, ha proporcionado una plataforma centralizada que facilita el control de la disponibilidad y uso de equipos, materiales y personal. Esto ha resultado en una mejor coordinación y colaboración entre los miembros del laboratorio, reduciendo retrasos y costos adicionales asociados con la gestión ineficiente de recursos.
Mercado González Miguel Angel, Universidad de Guadalajara
Asesor: Dr. Carlos Alberto Ligarda Samanez , Universidad Nacional José María Arguedas

EVALUACIóN DE MICROCáPSULAS DE PROPóLEO OBTENIDAS POR COACERVACIóN COMPLEJA Y SECADO POR ASPERSIóN.


EVALUACIóN DE MICROCáPSULAS DE PROPóLEO OBTENIDAS POR COACERVACIóN COMPLEJA Y SECADO POR ASPERSIóN.

Márquez Delgado Ximena Joen, Universidad de Guadalajara. Mercado González Miguel Angel, Universidad de Guadalajara. Asesor: Dr. Carlos Alberto Ligarda Samanez , Universidad Nacional José María Arguedas



PLANTEAMIENTO DEL PROBLEMA

El trabajo realizado tiene como propósito estudiar las características de los encapsulados de propóleo obtenidas por las técnicas de coacervación compleja y secado por aspersión, Se pretende demostrar que se logran conservar las cualidades del producto en un periodo de tiempo.  Se diseño un estudio factorial de tipo 2 a la 2, donde se pretende evaluar cómo afectan dos factores a las características físicas y químicas de un encapsulado. Los factores son el concentrado de encapsulante y la temperatura de encapsulado, ambos son cuestiones fundamentales a definir a la hora de realizar el procedimiento de coarcdrvacion compleja y secado por aspersión.



METODOLOGÍA

Coacervación compleja y encapsulado. Para la coacervacion compleja se trabajan con diferentes materiales de pared, los cuales se agregan en relación 1:1 (mucílago:gelatina). Se comparan dos concentraciones de material de pared (combinación) 4% y 5%. Se miden 100 ml de agua destilada, se agrega 4 y 5 gramos del material de pared combinado, se homogeniza con agitación a una temperatura de 40 ºC, se agrega 1 gr del extracto de propóleo, se agrega ácido cítrico para obtener un pH de 4.5 + 0.2. El coacervado formado se encapsula por aspersión en el equipo MiniSprayDryer, empleando dos temperaturas de encapsulado, 120 y 140 ºC. Caracterización Para la caracterización del encapsulado obtenido se realizaron las siguientes determinaciones de la manera que se describe. Densidad aparente Se calculó colocando una cantidad conocida de muestra en una probeta graduada de 10 mL, luego se golpeó varias veces sobre una superficie plana, registrándose la masa en gramos y el volumen para el cálculo de la densidad aparente. Fenoles totales.  Se tomó 1g de muestra y 20 mL de metanol al 80% para preparar los extractos metanólicos, dejándose en maceración por 24 horas a temperatura ambiente y protegidos de la luz. Para la cuantificación de compuestos fenólicos totales, se empleó la metodología de Folin-Ciocalteu, utilizando acido gálico para la curva de calibración. Se tomó 0.9 mL del extracto metanólico y se le añadió 2.4 mL de agua ultrapura (considerando 3.7 como factor de dilución), asimismo se le adicionó 0.15 mL de Na2CO3 al 20% y 0.3 mL del reactivo FolinCiocalteau al 0.25N. Luego de 15 minutos se realizó la lectura de las absorbancias a una longitud de onda de 755 nm en un espectrofotómetro UV (CR-5, Konica Minolta, Tokio, Japón). Flavonoides totales. Se empleó una solución etanólica de quercetina como patrón para la elaboración de la curva de calibración. Para la extracción de los flavonoides se utilizó 0.5 g de muestra y 20 mL de metanol al 80%, manteniéndose a temperatura ambiente y protegidos de la luz por 24 horas. Para la cuantificación de los flavonoides se tomaron 90 µL de extracto, 100 µL de AlCl3 y 4.81 mL de metanol al 80%. Las mediciones se llevaron a cabo a una longitud de onda de 425 nm utilizando un espectrofotómetro UV (CR-5, Konica Minolta, Tokyo, Japan) DPPH: La capacidad antioxidante se determinó el ensayo DPPH, los extractos metanólicos fueron preparados con 0.5 g de muestra y 20 mL de metanol al 80%, manteniéndose a temperatura ambiente por 24 horas. Se empleo Trolox (ácido 6-hidroxi-2,5,7,8-tetrametilcroman-2-carboxílico) para la curva de calibración. Se utilizó el radical libre de DPPH (2,2-difenil-1-picrilhidrazilo), preparándose una solución diluida con absorbancia de 1.1 ± 0.02 a una longitud de onda de 515nm. Se tomaron 150 µL del extracto de muestra y se mezclaron con 2850 µL de la solución diluida de DPPH, dejándolos reaccionar en tubos de ensayo protegidos de la luz durante 15 minutos a temperatura ambiente. Al mismo tiempo, se preparó un blanco con 150 µL de metanol. Las lecturas se registraron a 515 nm y los resultados se expresaron en µmol ET/g de muestra seca. Humedad. Se determinó según la metodología de la AOAC 950.10. Se pesaron 2 g de muestra en lunas de reloj y se colocaron dentro de una estufa de convección forzada FED 115 (BINDER, Tuttlingen, Alemania) a una temperatura controlada de 105°C, hasta alcanzar un peso constante. Se anotaron los valores de masa inicial y final de cada muestra para los cálculos necesario Solubilidad. 0.2gramos de muestra se colocaron en un tubo Falcón al cual se le agregó 100 ml de agua destilada. Tras 2horas de baño a 80 º se centrifugó la muestra y el sobrenadante se llevó a sequedad a 120ºC durante 24 horas. Se determinó el peso seco y se calculó el porcentaje taje de solubilidad. Análisis estadístico Para el análisis estadístico de los resultados se empleó el software Statgraphics. Se describió un modelo de 2 a la 2, en este se establecen dos variables con dos niveles cada una de ellas. 


CONCLUSIONES

Los resultados obtenidos demuestran la presencia de compuestos fenolicos y su capacidad antioxidante, lo cual nos indica que el uso de este procedimiento para encapsulacion, es funcional mantener viable estos compuestos y que conservan su capacidad. Los resultados también indican una diferencia en cuanto a la capacidad antioxidante dependiente de las condiciones que se utilicen para la encapsulacion y el porcentaje de encapsulante. La implementación de este encapsulado permite dispensar compuestos activos u otras moléculas que por su carcteristicas químicas requieran cuidarse de la acondicione externas, Se ha demostrado que conservando estos compuestos dentro del encapsulado se logran preservar moléculas con capacidad antioxidante. El estudio ha permitido evaluar distintas características, químicas y físicas del encapsulado obtenido por coacervscion compleja y secado por aspersión, así mismo se han comparado distintas condiciones de operación del encapsulador y diferentes concentraciones de encapsulante.
Mercado Gutierrez Emanuel, Universidad de Guadalajara
Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

IMPLEMENTACIóN EN FPGA DE LA SINCRONIZACIóN DE OSCILADORES CAóTICOS CON EL MéTODO DE PéCORA-CARROL


IMPLEMENTACIóN EN FPGA DE LA SINCRONIZACIóN DE OSCILADORES CAóTICOS CON EL MéTODO DE PéCORA-CARROL

Mercado Gutierrez Emanuel, Universidad de Guadalajara. Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La sincronización de sistemas caóticos es una tarea de gran interés en el campo de la teoría del caos y sus aplicaciones prácticas, especialmente en sistemas de comunicación segura. Los sistemas caóticos, debido a su comportamiento determinista pero impredecible, ofrecen una gran ventaja para encriptar y transmitir información. El método de Pécora-Carrol es uno de los enfoques más utilizados para lograr la sincronización de sistemas caóticos, permitiendo que un sistema maestro guíe el comportamiento de un sistema esclavo. El objetivo principal de este trabajo es implementar la sincronización de un par de sistemas caóticos utilizando el método de Pécora-Carrol en una FPGA (Field Programmable Gate Array). Los sistemas caóticos se basarán en los atractores de Lorenz, que son bien conocidos por su comportamiento caótico. Las ecuaciones diferenciales que describen estos atractores se discretizarán usando el método de Forward Euler y se implementarán en Verilog para su síntesis en FPGA. Finalmente, se diseñará un sistema de transmisión de información utilizando la configuración maestro-esclavo de los sistemas caóticos sincronizados.



METODOLOGÍA

Se analizó y observo de manera teórica que es y como funcionan los osciladores caóticos así como los parámetros que afectan su funcionamiento, una vez analizada esta información se hizo énfasis en el oscilador de Lorenz del cual se trabajaron sus ecuaciones y se discretizaron utilizando el método de Forward Euler, se profundizo sobre que son  las FGPA  (Field Programmable Gate Array). Como funcionan y cuales son algunas de sus aplicaciones, para poder hacer uso de las FPGA es necesario programarlas haciendo uso de un lenguaje de descripción de hardware   en este caso el lenguaje utilizado fue VERILOG se dio un repaso breve sobre que es VERILOG cuál es su sintaxis y el cómo crear módulos básicos.  En el software de Matlab se hizo la simulación del comportamiento del oscilador caótico de Lorenz realizando un script el cual fuera capaz de simular y graficar el comportamiento del oscilador mediante las ecuaciones de Lorenz discretizadas con ayuda del método Forward Euler una vez realizada la simulación y comprobado el correcto funcionamiento del oscilador. Se dibuja el diagrama a bloques del funcionamiento del oscilador caótico de Lorenz basándose en las ecuaciones utilizadas en el software de Matlab en donde cada bloque representa una operación del sistema. Terminado el diagrama se comienza con la descripción del sistema caótico en VERILOG donde se crearan varios módulos cada uno cumpliendo con el funcionamiento de cada uno de los bloques representados en el diagrama ya que se realizaron todos los módulos se crea un TOP module en el cual se interconectan todos los bloques para poder sintetizar el oscilador, se crea un test bench en el cual se compruebe su funcionamiento para después cargar el programa a la FPGA y observar el oscilador en un osciloscopio para poder observar el oscilador en el osciloscopio es necesario hacer uso de un DAC para convertir todos los valores digitales en una señal analógica que pueda interpretar el osciloscopio. Descripción del sistema esclavo, el sistema esclavo a diferencia del sistema maestro en el caso del oscilador de Lorenz es que en lugar de ser un sistema de 3 ecuaciones solo tiene 2 ecuaciones las cuales dependen de una ecuación del sistema maestro las 2 ecuaciones del sistema esclavo al depender del sistema maestro se ven obligas a comportarse de manera idéntica al sistema maestro a esto se le conoce como sincronización con el método de  Pécora-Carrol. El diagrama a bloques del sistema maestro esclavo se puede obtener de las ecuaciones utilizadas para simular el sistema en Matlab teniendo el diagrama a bloques se hace la descripción en VERILOG. Para el sistema de transmisión y recepción de información se necesita hacer uso de memorias en las cuales se guardará la información a transmitir y la información recibida, se describe en VERILOG una memoria ROM en la cual se almacenará la información a transmitir y una memoria RAM en la cual se almacenará la información recibida en este caso se hizo uso de una imagen a escala a de grises con las dimensiones de 256 X 256 pixeles. la información saliente de la ROM pasa por una XOR con el sistema caótico maestro provocando el encriptado, para recuperar la información se tiene que hacer una operación XOR entre la información encriptada y el sistema esclavo dando como resultado la información recuperada.


CONCLUSIONES

La sincronización de sistemas caóticos utilizando el método de Pécora-Carrol en una FPGA resultó ser factible. La flexibilidad y capacidad de procesamiento paralelo de las FPGAs permiten manejar la complejidad de los sistemas caóticos y su sincronización de manera eficiente. Así como discretización de las ecuaciones del oscilador de Lorenz mediante el método de Forward Euler demostró ser efectiva. La precisión y estabilidad del método fueron suficientes para mantener el comportamiento caótico deseado y asegurar la correcta sincronización entre el sistema maestro y esclavo. Esta implementación del sistema esclavo basado en dos ecuaciones dependientes del sistema maestro demostró la efectividad del método de Pécora-Carrol. La correcta sincronización fue validada tanto en simulaciones en MATLAB como en pruebas prácticas en la FPGA. Este trabajo abre nuevas oportunidades para futuras investigaciones y desarrollos en el campo de la comunicación caótica y otros sistemas dinámicos complejos. Las técnicas y metodologías desarrolladas en este trabajo pueden ser aplicadas y extendidas a otras áreas que requieran procesamiento en paralelo y alta flexibilidad de configuración.
Mercado Marín Diego Armando, Instituto Tecnológico Superior de Uruapan
Asesor: Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo

EVALUACIÓN DE MUROS DIVISORIOS-ECOLÓGICOS CONSTRUIDOS CON BOTELLAS PET Y DISTINTOS TIPOS DE RELLENO


EVALUACIÓN DE MUROS DIVISORIOS-ECOLÓGICOS CONSTRUIDOS CON BOTELLAS PET Y DISTINTOS TIPOS DE RELLENO

Arenas Alzate Coat Sebastian, Institución Universitaria Colegio Mayor de Antioquia. Herrera Valerio Kevin Guillermo, Instituto Tecnológico Superior de Uruapan. Mercado Marín Diego Armando, Instituto Tecnológico Superior de Uruapan. Asesor: Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

La acumulación de desechos plásticos en los océanos tiene efectos devastadores para el medio ambiente y la salud humana, contaminando la cadena alimentaria y acumulando toxinas. La producción masiva de botellas de plástico, que culmina en 8 millones de toneladas de plásticos en los océanos anualmente, amenaza la vida marina y la sostenibilidad de los ecosistemas acuáticos. Ante este problema, es urgente utilizar materiales sostenibles en la construcción. El Polietileno Tereftalato (PET), utilizado en botellas plásticas, ofrece ventajas significativas cuando se reutiliza en la construcción. Las botellas de PET pueden reducir residuos plásticos y proporcionar propiedades estructurales y de aislamiento térmico beneficiosas. No obstante, se necesita abordar la falta de normativas y estudios estructurales para garantizar la seguridad y durabilidad de estas construcciones. La reutilización de botellas de PET en muros divisorios es una solución prometedora. La efectividad de estos muros depende del material de relleno utilizado. Este estudio es crucial para adoptar prácticas de construcción más sostenibles y aprovechar las propiedades del PET reciclado. Identificar el material de relleno adecuado mejorará la durabilidad y resistencia de los muros, haciendo esta técnica más viable y atractiva para diversos proyectos constructivos. Es necesario un estudio detallado para evaluar el comportamiento estructural de estos muros con distintos tipos de relleno, buscando la solución más efectiva y sostenible.



METODOLOGÍA

Etapa 1: Elección y caracterización de materiales 1.1 Material para la estructura Botella de PET (Polietileno Tereftalato)El PET es un tipo de plástico muy común usado en botellas de agua, refrescos, envases de alimentos y fibras para ropa. Malla electrosoldada 6x6 10 10Esta rejilla metálica se usa mucho en construcción e infraestructura. Los alambres están unidos mediante soldadura eléctrica, lo que la hace muy resistente y duradera. 1.2 Materiales de relleno AireEl aire es una mezcla de gases que constituye la atmósfera terrestre y es fundamental para la vida en nuestro planeta. Arena finaLa arena fina es un material granular compuesto por partículas de minerales y rocas de pequeño tamaño, con granos que varían entre 0.075 mm y 0.425 mm. Para garantizar su calidad se realizará el ensayo de granulometría según la norma N-CMT-1.01, además de medir la humedad inicial de la muestra. Materiales orgánicos (acícula y aserrín)Se utilizará un molino triturador de PET para garantizar la finura del material orgánico, que incluye acícula de pino y aserrín de madera, para usarlos como relleno de las botellas de PET. 1.3 Material de revestimiento ArcillaLa arcilla es un tipo de suelo o roca sedimentaria compuesto principalmente por minerales finamente divididos, como silicatos de aluminio hidratados, con partículas menores a 0.002 mm. Se realizarán dos ensayos: el primero para medir la plasticidad según la norma M-MMP-1-07, y un ensayo casero para conocer la textura de la arcilla (limo, muy limoso, arenoso, arcilla arenosa). El material se zarandeará por un tamiz número 4°, asegurando que esté seco para dicho procedimiento. Etapa 2: Diseño y ejecución de los tres prototipos Se construirán tres tipos de muros aligerados con botellas de PET, donde la única variable es el material de relleno: aire, arena fina y material orgánico (acícula y aserrín). Cada prototipo tendrá un metro cuadrado, enmarcado con una estructura de madera y un espesor entre 8 y 10 centímetros, sumando el espesor de las botellas de PET y el revestimiento de arcilla. Las botellas (de 500 ml a 1000 ml) se dispondrán de manera que la boca de una quede en contacto con el fondo de la siguiente. En ambos costados se utilizará malla electrosoldada para el confinamiento de las botellas, logrando un emparedado de malla/botellas/malla, finalmente revestido con arcilla. Proceso constructivo resumido para un prototipo Recolección y adecuación de materiales de relleno. Construcción de marco en madera de 1m². Montaje y atado de malla en uno de los costados del marco. Relleno de botellas y colocación dentro de la estructura. Confinamiento con segunda malla formando el emparedado (malla/botellas/malla). Revestimiento con arcilla con un espesor de 1,5 cm aproximadamente. Etapa 3: Medición final de tiempos de ejecución y ligereza Se calculará el peso promedio de 5 botellas de PET de 600 ml para cada tipo de relleno. Finalmente, se medirán las dimensiones finales, incluyendo el revestimiento, para obtener la densidad de cada prototipo. Además, se evaluará el tiempo de ejecución de cada prototipo, manteniendo constantes los tiempos de todos los pasos excepto el paso 1 (recolección y adecuación del relleno) y el paso 4 (relleno de botellas y colocación). Etapa 4: Comparación de tres prototipos según los parámetros medidos Se desarrollará un cuadro comparativo con los valores promedio de pesos de botellas para cada tipo de relleno, densidad de cada prototipo y sus respectivos tiempos de ejecución.


CONCLUSIONES

En esta estancia de verano Delfín, desarrollamos una investigación sobre una alternativa ecológica y funcional a los métodos de construcción convencionales en muros divisorios, contribuyendo a la reducción de desechos plásticos. La investigación demostró que los muros de botellas de PET rellenas de aire y materiales orgánicos (acícula de pino y aserrín) son efectivos, siendo ligeros y fáciles de ejecutar. En contraste, los muros rellenos de arena resultaron ser muy pesados y poco prácticos. Por lo tanto, los materiales de aire y orgánicos se destacan como las mejores opciones por su ligereza y facilidad de construcción.
Mercado Perez Rubén Alejandro, Fundación Universitaria Tecnológico Comfenalco
Asesor: Dra. Nadia Teresa Adaile Benítez, Universidad Tecnológica de Nayarit

DESARROLLO DE RECURSOS DIGITALES PARA LA DIVULGACIóN DE TRABAJOS INVESTIGATIVOS.


DESARROLLO DE RECURSOS DIGITALES PARA LA DIVULGACIóN DE TRABAJOS INVESTIGATIVOS.

Mercado Perez Rubén Alejandro, Fundación Universitaria Tecnológico Comfenalco. Asesor: Dra. Nadia Teresa Adaile Benítez, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, vivimos en una sociedad con un ritmo de vida cotidiana demasiado apresurado, donde se quiere todo de manera inmediata. En este siglo digital, las nuevas generaciones prefieren el contenido rápido y conciso, desde videos hasta audios. Forbes Colombia (2023) señala que uno de los factores clave detrás de este fenómeno es la aceleración del ritmo de vida en la sociedad actual, ya que la generación "faster" busca maximizar su tiempo, obteniendo información de manera más rápida y eficiente. Todo esto afecta la manera en la que consumimos información, que cambia con el tiempo y las nuevas tendencias o fenómenos, desplazando libros y documentos científicos como medios de información. Estudios indican que, con el tiempo, el uso de pantallas ha despertado mayor interés en las personas receptoras que los libros o documentos extensos como los blogs. Según Adlatina (s. f.), los videos en vivo de plataformas como Facebook o Instagram están ganando popularidad. De hecho, el 80% de los consumidores prefiere este formato a leer un blog. Esto demuestra que, con el tiempo, la manera tradicional de consumir información va quedando obsoleta. Por ende, se busca una forma de que la información de documentos y trabajos investigativos pueda llegar a todo el público y se adapte a las nuevas tendencias en crecimiento, evitando su obsolescencia y promoviendo su evolución hacia los nuevos fenómenos de divulgación de información. Por esta razón, durante el periodo del verano de la investigación DELFIN, se espera elaborar archivos multimedia que adapten la información de trabajos investigativos y se acoplen a los nuevos fenómenos de esta era digital, para poder llegar al mayor número de personas posible.



METODOLOGÍA

Primeramente, se consultaron los parámetros con los cuales se iba a trabajar con respecto al objetivo trazado. Luego, se adoptó una metodología no experimental transaccional exploratoria con el fin de crear archivos multimedia y analizar la respuesta de una muestra aún no definida, en un campo aún no tan explorado como la divulgación de trabajos investigativos y documentos científicos por vía virtual y archivos multimedia. Luego, se analizó la propuesta original y se planteó cómo se iba a desarrollar, buscando un formato que no se aleje del enfoque serio de los trabajos pero que a su vez fuera llamativo para un nuevo público. Se llegó a la conclusión de utilizar videos estilo "shorts" de YouTube, con un tono algo humorístico pero formal. Esto se decidió por la facilidad de transmitir la información de manera breve y concisa, aprovechando el fenómeno de las generaciones de consumo rápido. Además, se buscó crear una marca representativa de estos videos para que los internautas pudieran conectar rápidamente esta marca con el contenido del video. Para esto, se usaron como referencia las mascotas de grandes cadenas de empresas ya establecidas, como KFC, los cereales de la marca Kellogg y BIMBO, entre otros. Se concluyó que una mascota de estilo animal sería representativa debido a su familiaridad y aspecto amistoso para los internautas. La mascota fue creada utilizando la aplicación Ibis Paint X y una tableta digitalizadora Xp-Pen Deco Mini 7. Para la edición y renderizado de los videos se utilizó Sony Vegas versión 17 con su respectiva licencia. Se plantearon las ideas de los videos y se guionizó todo utilizando un bloc de notas. Posteriormente, se elaboraron storyboards usando plantillas de CANVA. La recolección de las imágenes de fondo y de archivos usados para el dinamismo de los videos provino principalmente de Freespick, con imágenes de uso libre o imágenes importadas. El acompañamiento de audio se tomó de archivos multimedia sin copyright de YouTube. Las voces usadas en la elaboración de estos videos se grabaron mayormente con unos audífonos Trust GXT 310, con la colaboración de personas cercanas y del propio investigador. Finalmente, se espera subir todos estos videos elaborados a la página web del grupo de investigación T.E.D.E.S https://tedes.org/ y analizar las reacciones del público objetivo, además de implementar una interfaz más dinámica o proactiva para la visualización de estos videos como una forma alternativa de obtener información.


CONCLUSIONES

Durante la estancia del Verano Delfín, se lograron desarrollar los videos según los lineamientos requeridos, sin enfrentar muchos problemas. Este proyecto fue solicitado por el grupo de investigación de la Universidad Tecnológica de Nayarit, y me permitió poner a prueba y adquirir conocimientos sobre la divulgación y administración de información en las redes sociales. El objetivo fue cumplir con las características necesarias para que el contenido llegara a todo tipo de público, siendo fácil de digerir y llamativo tanto para nuevas audiencias como para investigadores experimentados. Todo esto se realizó con el fin de dejar un trabajo que en futuras investigaciones pueda ser analizado y ajustado en base a las respuestas de una muestra establecida.
Merced Reyes Alejandro Camilo, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Carlos Arturo Hernández Gracidas, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE ALGORITMOS BASADOS EN APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE CONSUMO ENERGéTICO.


DESARROLLO DE ALGORITMOS BASADOS EN APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE CONSUMO ENERGéTICO.

Catalan Corona Alexis Adrian, Instituto Politécnico Nacional. Lázaro Dzib Armando, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Merced Reyes Alejandro Camilo, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Carlos Arturo Hernández Gracidas, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La energía eléctrica se ha convertido en uno de los recursos más fundamentales y básicos en todas las actividades que satisfacen las necesidades humanas. Independientemente de los factores que afectan el consumo a lo largo del tiempo, como el clima, la densidad poblacional y la posición geográfica, este puede variar según la temporada del año. Esto conlleva a un estudio minucioso de su comportamiento para establecer criterios que permitan aproximar la predicción del consumo a los valores reales. Los comportamientos de consumo de energía eléctrica pueden ser variados para diversos conjuntos de datos con los que se pretende evaluar. Durante el verano de investigación, se estudia el comportamiento del consumo eléctrico empleando diversos modelos que cumplen la función de realizar pronósticos durante un lapso de tiempo, logrando una aproximación a los datos reales de los registros.



METODOLOGÍA

Para llevar a cabo el estudio del consumo energético, se emplea un conjunto de datos que contiene información sobre la fecha y la hora, así como el consumo de energía eléctrica en megawatts (MW), de los siguientes estados: Illinois, Indiana, Kentucky, Maryland, Michigan, New Jersey, North Carolina, Ohio, Pennsylvania, Tennessee, Virginia, West Virginia y el Distrito de Columbia de Estados Unidos. Estos datos fueron registrados durante un periodo aproximado de entre 7 y 10 años para cada respectivo estado. La experimentación se desarrolla en el entorno de trabajo de Jupyter Notebook, empleando el lenguaje de programación Python. A través de este entorno, se comienza con la división de datos en entrenamiento y prueba, lo que hace posible trabajar con dos modelos distintos: el Modelo Autorregresivo de Media Móvil (ARIMA, por sus siglas en inglés) y Redes Neuronales Recurrentes (RNN) que estiman los valores del consumo de energía en un periodo determinado. Una vez realizado el proceso anterior, se entrenan los modelos utilizando parámetros ajustados previamente mediante una serie de pruebas, para predecir con los datos los valores estimados, empleando el rango de tiempo que contemplan los datos de prueba y evaluar la precisión con la que los modelos pueden explicar el comportamiento del consumo energético, a través de las siguientes métricas: el error cuadrático medio y el coeficiente de determinación.


CONCLUSIONES

Durante la estancia de investigación se logró la adquisición de disciplinas y conocimientos requeridos para el desarrollo del proyecto, aplicables en diversas ramas del área informática cuando se trabaja con datos. Los resultados obtenidos de ambos modelos muestran una eficacia para pronosticar el consumo energético en un periodo de tiempo determinado, por lo que el hecho de trabajar con estos modelos puede contribuir a futuras investigaciones.
Mérida Siles Francisco, Tecnológico de Estudios Superiores de Villa Guerrero
Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana

INTEGRACIóN DE SCRATCH EN LA EDUCACIóN PRIMARIA ESTRATEGIAS Y PRáCTICAS PEDAGóGICAS PARA EL DESARROLLO DEL PENSAMIENTO COMPUTACIONAL Y MATEMáTICO


INTEGRACIóN DE SCRATCH EN LA EDUCACIóN PRIMARIA ESTRATEGIAS Y PRáCTICAS PEDAGóGICAS PARA EL DESARROLLO DEL PENSAMIENTO COMPUTACIONAL Y MATEMáTICO

Mérida Siles Francisco, Tecnológico de Estudios Superiores de Villa Guerrero. Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana



PLANTEAMIENTO DEL PROBLEMA

Aunque Scratch tiene un gran potencial educativo, su implementación en el currículo escolar no es uniforme y muchas escuelas no aprovechan completamente sus beneficios. Existe una necesidad crítica de desarrollar e implementar prácticas pedagógicas efectivas que integren Scratch en la educación primaria para maximizar su impacto en el desarrollo del pensamiento analítico, reflexivo y matemático



METODOLOGÍA

La enseñanza de la programación a niños es una tarea esencial en la era digital. Con el avance de la tecnología, es fundamental equipar a los estudiantes con habilidades que les permitan no solo usar herramientas digitales, sino también entender y crear con ellas. Scratch, una herramienta de programación visual, ha demostrado ser una plataforma eficaz y atractiva para este propósito. Es por eso por lo que para diseñar prácticas para la enseñanza de programación en niños cabría retomar la visión de Mitchel Resnick. Es un profesor involucrado en diferentes conferencias sobre la educación y la tecnología también es uno de los miembros que desarrolló y participo en la creación del programa de scratch. Resnick nos habla sobre cómo los jóvenes deben aprender a pensar y actuar de manera creativa. En su trabajo analiza el diseño de scratch y de igual manera invita al uso las cuatro p para su desarrollo y aprendizaje (Resnick, 2014). Estos pilares destacan la importancia de trabajar en proyectos significativos, la colaboración entre pares, el entusiasmo por los proyectos personales y la experimentación lúdica. •    Proyectos: Los estudiantes aprenden mejor cuando trabajan en proyectos significativos, generando nuevas ideas y refinando prototipos. •    Pares: El aprendizaje se enriquece como una actividad social, donde se comparten ideas y se colabora en proyectos. •    Pasión: Los estudiantes trabajan más duro y persisten frente a los desafíos cuando se sienten apasionados por sus proyectos. •    Juego: El aprendizaje implica experimentación lúdica, probando cosas nuevas e iterando continuamente. Este planteamiento es fundamental no sólo para entender el cómo está construido scratch sino cómo nos permite extrapolarlo y plantear una estructura para poder desarrollar prácticas de programación dirigida a niños. En primer lugar, como esto se plantea para ser introducido en los planes de estudio se tienen que empezar con: 1.    Talleres de introducción.  En estos talleres se pretende introducir en los conceptos básicos y en el entorno de scratch no sólo a los estudiantes sino también a los docentes para que estos puedan entender los alcances y limitaciones que tienen la herramienta para posteriormente llevarlos a crear sus prácticas. 2.     Proyectos por campos formativos. Siguiendo con el enfoque de Resnick los proyectos deben ser creados para la adquisición de nuevos conocimientos, así como también para el desarrollo de nuevas ideas, que los estudiantes exploren su propio entendimiento de los temas y que estos estén de acuerdo con los contextos y necesidades de estos. 3.    Desarrollo lúdico. Como hemos podido ver a través de los diferentes estudios presentados en el que se ha usado scratch para la enseñanza y didáctica se remarca lo importante de usar esta herramienta de manera lúdica. Si bien en un principio esto puede ser la creación de juegos o un reenfoque del punto anterior en realidad es el espacio o el momento en el que los estudiantes pueden expresar su creatividad, así como compartir sus experiencias con otros y de esta manera retroalimentarse más allá de la figura del docente. 4.     Evaluación y retroalimentación. Implementar scratch en sesiones nos permite realizar una red de alimentación a los estudiantes y de esta manera percibir como los estudiantes van compartiendo sus proyectos o van encontrando dificultades para poder solucionarlas.


CONCLUSIONES

El uso de Scratch en la educación primaria presenta una oportunidad significativa para desarrollar habilidades esenciales en programación y pensamiento computacional en los estudiantes. A través de la plataforma Scratch, los estudiantes pueden aprender conceptos de programación de manera intuitiva y lúdica, lo que mejora su pensamiento lógico, matemático, analítico y reflexivo. Sin embargo, la implementación de Scratch en el currículo escolar no es uniforme, lo que subraya la necesidad de desarrollar prácticas pedagógicas efectivas. El estudio y diseño de prácticas educativas específicas, como el "Juego de Saltar", demuestran que Scratch es una herramienta altamente personalizable y accesible para los niños, permitiendo una gran flexibilidad en la enseñanza. Los conceptos de coordenadas en un plano cartesiano, variables y elementos de control pueden ser introducidos de manera efectiva mediante proyectos significativos y lúdicos, fomentando tanto la creatividad como el aprendizaje práctico. Los estudios revisados destacan la eficacia de Scratch en la enseñanza de matemáticas y programación, mostrando mejoras significativas en el rendimiento de los estudiantes y en el desarrollo de habilidades de pensamiento crítico y creativo. Scratch no solo es útil en el ámbito de las matemáticas, sino también en otras áreas formativas, como la narración de historias y el pensamiento científico, demostrando su versatilidad. Para maximizar el impacto de Scratch, es fundamental proporcionar capacitación adecuada a los docentes, desarrollar recursos didácticos completos e integrar Scratch de manera efectiva en el currículo escolar. Implementar prácticas basadas en los principios de proyectos, colaboración entre pares, pasión y juego, como propone Mitchel Resnick, puede facilitar un aprendizaje más profundo y significativo. En conclusión, Scratch es una herramienta poderosa y versátil que, cuando se integra adecuadamente en la educación primaria, puede transformar la manera en que los estudiantes aprenden programación y desarrollan habilidades críticas para su futuro académico y profesional.
Michel Martínez Judith, Universidad de Guadalajara
Asesor: Mtra. Atri Dutta, Wichita State University

SPACECRAFT TRAJECTORY ANALYSIS USING (H,E) ELEMENTS


SPACECRAFT TRAJECTORY ANALYSIS USING (H,E) ELEMENTS

Michel Martínez Judith, Universidad de Guadalajara. Asesor: Mtra. Atri Dutta, Wichita State University



PLANTEAMIENTO DEL PROBLEMA

La teledetección por satélite es importante para el seguimiento de los recursos naturales y los peligros ambientales. Para que los satélites puedan recopilar datos de forma adecuada, deben permanecer en una órbita diseñada específicamente. Existen distintos modelos que se han utilizado para describir la dinámica de traslación de una nave espacial, ya sea en órbita o durante la transferencia, por ejemplo, coordenadas cartesianas y elementos orbitales. Determinar la trayectoria de transferencia de ciertos tipos de naves espaciales puede ser un proceso desafiante. Por ejemplo, calcular la trayectoria de naves espaciales que utilizan propulsión solar-eléctrica puede ser complicado, ya que implica resolver un problema de programación no lineal, que requiere una buena comprensión de la dinámica, el control y la optimización [1]. El objetivo principal de este proyecto es utilizar un modelo matemático desarrollado recientemente, denominado elementos (h,e), que resulta útil para analizar trayectorias de diferentes satélites, especialmente de los que utilizan propulsión solar-eléctrica. El objetivo principal es desarrollar un programa en Python para resolver un problema de valor inicial que nos permita calcular la trayectoria para diferentes escenarios de misiones espaciales, incluidas las misiones de teledetección. Los objetivos específicos son: • Comprender la diferencia entre utilizar coordenadas cartesianas y elementos (h,e) para representar la trayectoria de una nave espacial. • Comparar el tiempo que tardan Python y Matlab en resolver el problema de valor inicial.



METODOLOGÍA

El programa desarrollado proporciona una solución a un problema de propagación de trayectorias que integra un conjunto de ecuaciones diferenciales. La ventaja de implementar este modelo es que no requiere que el usuario proporcione ninguna estimación inicial para resolver un problema de optimización no lineal asociado con la minimización de un objetivo de la misión espacial [1]. Para resolver el problema de valor inicial, el primer paso que debemos seguir es obtener las condiciones iniciales y el tiempo de integración para el escenario de misión elegido. Luego, tenemos que resolver ecuaciones diferenciales ordinarias utilizando Python (solucionador odeint) o Matlab (solucionador ode45). Para este paso, primero tenemos que resolver las ecuaciones de movimiento para ver cómo el vector de posición, el vector de velocidad y la masa de la nave espacial cambian con el tiempo. Después de eso, representamos estas ecuaciones utilizando elementos (h,e); estos se utilizan para describir los estados de la nave espacial en órbita, h representa el vector de momento angular específico y e representa el vector de excentricidad. La dinámica traslacional está dada por la siguiente ecuación: x'=f(x)+G(x)u [2], que necesita ser resuelta. A continuación, graficamos las soluciones para las ecuaciones de movimiento y para los elementos (h,e). Al final, para determinar qué implementación es más rápida, se calculó el tiempo de proceso para ambos lenguajes en una laptop personal, Python tarda alrededor de 0.3 segundos en completar la tarea, mientras que Matlab tarda alrededor de 0.9 segundos. Aunque puede parecer una diferencia pequeña, un solucionador de optimización de trayectorias puede resolver cientos de estos problemas, lo que genera una mejora general sustancial. Utilizando el programa de Python, comparamos los gráficos entre las coordenadas cartesianas y los elementos (h,e), los primeros varían rápidamente y los segundos están regularizados. Todo este proceso se realizó para la órbita del satélite AQUA y para una trayectoria de elevación de órbita para una nave espacial que utiliza propulsión solar-eléctrica para impulsarse a lo largo del vector de velocidad. La trayectoria del satélite AQUA también se calculó utilizando un software de la NASA llamado General Mission Analysis Tool (GMAT), que también utiliza condiciones iniciales y un tiempo de integración específico para determinar una trayectoria específica. Los datos que obtuvimos de la simulación de GMAT se exportaron y se convirtieron en elementos (h,e), estos se compararon con los que obtuvimos del integrador de Python. El trabajo futuro implicaría utilizar un solucionador para un problema de condiciones de frontera de dos puntos que nos permita minimizar los objetivos de la misión relevantes, como el tiempo de transferencia o el consumo de combustible.


CONCLUSIONES

Las simulaciones numéricas que se realizaron para el proyecto muestran que la implementación en Python funciona tres veces más rápido que la implementación en Matlab. También muestran que los resultados que obtenemos utilizando los elementos (h,e) están regularizados y son más fáciles de optimizar que los de las coordenadas cartesianas. También descubrimos que los resultados con el integrador de GMAT muestran cierta variación, ya que este software considera otras fuerzas que afectan a la nave espacial. La principal ventaja de implementar este modelo en Python es que puede tener una aplicación futura en tiempo real. Uno de los aspectos más importantes de este proyecto es que analizar estas trayectorias tiene un impacto positivo en el medio ambiente porque puede mejorar la recopilación de datos satelitales para monitorear peligros y, además, la propulsión solar-eléctrica evita el uso de combustibles tóxicos. REFERENCIAS Suwat, S; Dutta, A. Fast and Robust Computation of Low-Thrust Orbit-Raising Trajectories. Journal of guidance, control, and dynamics 2018, 41 (9), 1888-1905. https://doi.org/10.2514/1.g003319. Chadalavada, P.; Farabi, T.; Dutta, A. Sequential Low-Thrust Orbit-Raising of All-Electric Satellites. Aerospace 2020, 7 (6), 74. https://doi.org/10.3390/aerospace7060074.
Miguel Benjamin Israel, Universidad Politécnica de Atlacomulco
Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías

ANáLISIS DE LIMITACIONES Y ERRORES DE LA CONEXIóN DE PLC LOGO! CON AWS CLOUD


ANáLISIS DE LIMITACIONES Y ERRORES DE LA CONEXIóN DE PLC LOGO! CON AWS CLOUD

Miguel Benjamin Israel, Universidad Politécnica de Atlacomulco. Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías



PLANTEAMIENTO DEL PROBLEMA

Este proyecto explora la integración de un PLC LOGO! de Siemens con Amazon Web Services (AWS) para monitorear remotamente las sombras de dispositivos mediante una interfaz web proporcionada por AWS. La motivación principal radica en la creciente necesidad de automatización industrial y la gestión remota de procesos a través de tecnologías en la nube. Analizar el estado del arte y trabajos relacionados. Identificar y documentar errores de conectividad entre el PLC y AWS. Proponer soluciones para mitigar estos errores y mejorar la configuración del sistema. Evaluar y mejorar las políticas de seguridad para proteger la comunicación y los datos.



METODOLOGÍA

Se desarrolló una metodología que incluye: Requerimientos Materiales y Herramientas: Especificación de los dispositivos y software necesarios. Diseño e Implementación: Creación de diagramas de integración, configuración de cuentas en AWS, y establecimiento de la conexión entre el PLC y AWS. Pruebas y Análisis: Realización de pruebas para identificar errores de conexión y evaluar la seguridad de los datos.


CONCLUSIONES

Errores y Excepciones: El proyecto identifica y aborda varios problemas comunes: Alta latencia de la red: Causada por congestión o distancia geográfica, mitigada mediante optimización de la red y actualización de hardware. Interferencia: Provocada por dispositivos electrónicos cercanos, solucionada mediante cambios en el canal de Wi-Fi o uso de cables Ethernet. Modelo del router: Algunos routers pueden no ser compatibles, recomendando la actualización del firmware o el cambio a modelos más avanzados. Diferente tipo de cable Ethernet: Uso de cables de categorías inferiores que aumentan la latencia, solucionado con cables de categoría superior. Falla de conexión remota: Problemas de configuración y autenticación, resueltos revisando configuraciones y asegurando credenciales correctas. No baja por DHCP, necesita IP estática: Problemas con el servidor DHCP del router, resuelto configurando una IP estática para el PLC. Resultados: El análisis de errores y la implementación de soluciones llevaron a mejoras significativas en la estabilidad y seguridad de la conexión entre el PLC y AWS. Se lograron conexiones más eficientes y se documentaron estrategias para mitigar futuros problemas de conectividad. Conclusiones: El proyecto demuestra que la integración de PLCs con plataformas en la nube como AWS es viable y puede mejorar significativamente la eficiencia operativa y el control remoto de procesos industriales. A pesar de las limitaciones inherentes y los desafíos técnicos, las soluciones propuestas proporcionan una base sólida para futuras expansiones y aplicaciones industriales más amplias. Agradecimientos: Agradezco a la Universidad Politécnica de Atlacomulco por la educación y el entorno propicio, al Programa Delfín por la oportunidad de investigación, al Dr. Homero Toral Cruz por su guía y dedicación, y a mi familia por su apoyo incondicional.
Millan Diaz Gerardo Alexis, Tecnológico de Estudios Superiores de Villa Guerrero
Asesor: Dr. Horacio Gómez Rodríguez, Universidad de Guadalajara

IMPLEMENTACIóN DE PROGRAMACIóN PARALELA EN CLúSTERES DE RASPBERRY PI


IMPLEMENTACIóN DE PROGRAMACIóN PARALELA EN CLúSTERES DE RASPBERRY PI

Millan Diaz Gerardo Alexis, Tecnológico de Estudios Superiores de Villa Guerrero. Asesor: Dr. Horacio Gómez Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El vertiginoso crecimiento en la generación y procesamiento de datos ha impulsado la demanda de soluciones computacionales más eficientes y escalables. La programación paralela se erige como una respuesta prometedora a esta necesidad, al permitir la distribución de tareas computacionales en múltiples procesadores, acelerando así los tiempos de ejecución. Sin embargo, la implementación de soluciones paralelas plantea desafíos como la optimización del código, la gestión de la comunicación entre procesadores y la eficiencia energética. En este contexto, este trabajo de investigación se centra en abordar los siguientes problemas específicos: Desarrollar una solución de bajo costo y eficiente: La construcción de un clúster de Raspberry Pi ofrece una alternativa económica para experimentar con la programación paralela, pero es necesario evaluar su rendimiento y limitaciones en comparación con soluciones comerciales. Optimizar el consumo energético: El creciente interés en la sostenibilidad y la reducción de la huella de carbono exige explorar soluciones computacionales energéticamente eficientes. Es fundamental determinar el consumo energético del clúster y buscar estrategias para minimizarlo sin comprometer el rendimiento. Evaluar la escalabilidad: Es necesario evaluar hasta qué punto el clúster puede escalar su capacidad de procesamiento al agregar más nodos, y cómo afecta esto al rendimiento y al consumo energético. Facilitar la implementación de aplicaciones paralelas: Se busca proporcionar una guía práctica para desarrolladores que deseen explorar la programación paralela utilizando un clúster de Raspberry Pi, incluyendo la selección de herramientas y la optimización del código.



METODOLOGÍA

La metodología empleada en esta investigación se basa en un enfoque experimental y sistemático. Los siguientes pasos se llevaron a cabo: Diseño del clúster: Se diseñó un clúster de Raspberry Pi con una arquitectura maestro-esclavo, seleccionando el hardware y software adecuados para garantizar un rendimiento óptimo y una fácil gestión. Configuración del entorno: Se configuró el sistema operativo, las redes y las herramientas de desarrollo necesarias para ejecutar aplicaciones paralelas en el clúster. Desarrollo de aplicaciones de prueba: Se desarrollaron una serie de aplicaciones paralelas representativas, como la multiplicación de matrices, la clasificación de datos y la simulación de sistemas físicos, utilizando los lenguajes C y Python y la librería MPI. Evaluación del rendimiento: Se midieron los tiempos de ejecución, la utilización de la CPU y la memoria, y el consumo energético de las aplicaciones paralelas en el clúster, variando el número de nodos y el tamaño de los datos de entrada. Análisis de resultados: Se analizaron los datos obtenidos para evaluar el rendimiento del clúster, identificar cuellos de botella y proponer mejoras. Optimización energética: Se exploraron diferentes técnicas para reducir el consumo energético del clúster, como la gestión dinámica de la frecuencia de la CPU.


CONCLUSIONES

Los resultados obtenidos en esta investigación demuestran que un clúster de Raspberry Pi puede ser una plataforma viable y de bajo costo para la ejecución de aplicaciones paralelas. Sin embargo, se identificaron los siguientes aspectos clave: Rendimiento: El clúster de Raspberry Pi ofrece un buen rendimiento para aplicaciones que se benefician de la paralelización, especialmente en tareas con alta demanda de cómputo. Sin embargo, el rendimiento está limitado por las especificaciones del hardware y la eficiencia de la implementación. Escalabilidad: El clúster puede escalar su capacidad de procesamiento al agregar más nodos, pero es necesario considerar los costos de comunicación y sincronización entre los nodos. Consumo energético: El consumo energético del clúster es relativamente bajo en comparación con servidores comerciales, pero aún existen oportunidades para optimizarlo mediante técnicas de gestión de energía y la selección de componentes de bajo consumo. Facilidad de uso: La configuración y gestión del clúster pueden resultar complejas para usuarios sin experiencia en sistemas distribuidos. En conclusión, la programación paralela en un clúster de Raspberry Pi ofrece una solución atractiva para pequeñas y medianas empresas o instituciones académicas que buscan una plataforma de bajo costo para experimentar con la computación de alto rendimiento. Sin embargo, es fundamental considerar las limitaciones del hardware y optimizar cuidadosamente las aplicaciones para maximizar el rendimiento y la eficiencia energética.
Mindiola Cordero María Clara, Universidad de la Guajira
Asesor: Mtro. Gerardo Badillo Estrada, Universidad Politécnica de Tecámac

IMPLEMENTACIóN DE LEAN MANUFACTURING EN LA EMPRESA FAW ELAM


IMPLEMENTACIóN DE LEAN MANUFACTURING EN LA EMPRESA FAW ELAM

Garcia Paulin Bryan Guadalupe, Instituto Tecnológico de Matamoros. Meneses Sanchez Silvia, Universidad Politécnica de Tecámac. Mindiola Cordero María Clara, Universidad de la Guajira. Onofre Guarneros Alexis Manuel, Instituto Tecnológico de Gustavo A. Madero II. Asesor: Mtro. Gerardo Badillo Estrada, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

FAW ELAM es una empresa automotriz establecida, aunque ha mantenido una posición sólida en el mercado, enfrenta desafios relacionados con variabilidad en la calidad, elevado tiempo ciclo y desperdicio de recursos. Debido al incremento de venta correspondiente a los camiones de carga pesada y la construcción de líneas de ensamble, se requiere realizar un análisis de las líneas de producción y almacén para posteriormente implementar y llevar a cabo las metodologías del proceso el cual están sustentadas en las normas oficiales mexicanas.



METODOLOGÍA

Para realizar el análisis, se dividieron las 20 metodologías con el fin de implementar en 4 semanas, tomando así, 5 metodologías cada semana del proyecto y enfocándonos en su estudio dentro de la fabrica. 1. 5´s:organización y limpieza Value stream mapping Gestión visual/Andon Análisis de cuello de botella KPIs: indicadores de clave de desempeño 2. Flujo Progresivo Estandarización de Trabajo Just in Time Takt Time Hoshi kari / los 8 desperdicios 3. SMED (Cambio Rápido de Herramienta) Poka-Yoke Jidoka PDCA (Plan-Do-Check-Act) TPM: Mantenimiento productivo total 4. Heijunka Kaizen Kanban Gemba Administración de calidad total    


CONCLUSIONES

Tras la aplicación de Lean Manufacturing en FAW ELAM, se han obtenido los siguientes resultados: Se implementó la identificación de limitaciones, señalizaciones visuales claras en el área de trabajo, la organización del almacén se mejoró significativamente, se instauraron prácticas de limpieza regular y sistemática (5S). Se realizó una clasificación y disposición eficiente de los materiales, herramientas y equipos y finalmente se llevaran a cabo programas de formación continua para el personal. En conjunto, estos resultados han contribuido a un aumento de la productividad, una reducción de los desperdicios y una mayor satisfacción del cliente. La empresa ha logrado optimizar sus procesos, mejorar la calidad del trabajo y establecer una base sólida para el crecimiento futuro. La implementación de Lean Manufacturing en la industria automotriz resulta en mejoras sustanciales en términos de eficiencia operativa y competitividad. Empresas como FAW ELAM, al adoptar esta filosofía, logra reducir tiempos de ciclo, optimizar espacio y maquinarias, así como eliminar actividades que no agregan valor. Esto se traduce en una reducción notable en costos, tiempos de entrega, inventario, y número de defectos, mientras se mejora la calidad del producto y se aumenta la flexibilidad y utilización del personal.
Miramontes Escobar Julian Enrique, Universidad Tecnológica de Nayarit
Asesor: Mtro. Paulo César Gómez Sánchez, Universidad de Guadalajara

INTELIGENCIA ARTIFICIAL APLICADA A LA EDUCACIóN SUPERIOR


INTELIGENCIA ARTIFICIAL APLICADA A LA EDUCACIóN SUPERIOR

Miramontes Escobar Julian Enrique, Universidad Tecnológica de Nayarit. Zazueta Morales Kevin David, Universidad Tecnológica de Nayarit. Asesor: Mtro. Paulo César Gómez Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Alrededor del 39% de las escuelas piensan en utilizar herramientas de IA pero aún no han diseñado planes concretos para realizarlo. La implementación de la inteligencia artificial en la educación superior enfrenta distintos obstáculos que pueden truncar su adopción de manera eficiente y equitativa. El primero de ellos es la desigualdad en el acceso a la tecnología ya que no todos los estudiantes tienen acceso a dispositivos adecuado y a una conexión a internet confiable. Esto puede acentuar las desigualdades preexistentes en el sistema educativo y crear brechas digitales significativas. Otro aspecto importante es la privacidad y la seguridad de los datos ya que las herramientas de IA recopilan y analizan grandes cantidades de datos personales e inclusive institucionales de los estudiantes lo que puede llevar a riesgos de mal uso o brechas de seguridad si no se gestionan de una manera adecuada. El tercer obstáculo y uno de los más críticos es la dependencia a estas tecnologías, esta puede ser contraproducente y limitar la capacidad de los estudiantes para desarrollar habilidades fundamentales lo que puede afectar gravemente el proceso educativo.



METODOLOGÍA

Para el seguimiento de esta línea de investigación fue necesario consultar diferentes fuentes bibliográficas y artículos que se enfocaran sobre la utilidad de las tecnologías de IA en la educación, tras una revisión previa se descartó aquella información que no era muy relevante y se le dio enfoque a algunos ejemplos donde estas herramientas han sido implementadas de manera exitosa en diferentes países, principalmente con el uso de plataformas adaptativas. A partir de aquí se extrajeron ventajas y puntos positivos que puede suponer implementar la IA en la educación superior y se pudieron definir una serie de buenas prácticas para implementarla de manera efectiva y segura.


CONCLUSIONES

Como resultado de la investigación se encontró que la implementación de la IA en la educación superior presenta ventajas significativas para revolucionar los métodos de aprendizaje existentes pero a la par también presenta desafíos igualmente importantes. La mayores áreas de aplicación de tecnologías de IA resultaron ser en primera instancia las plataformas adaptativas las cuales utilizan algoritmos para analizar el rendimiento del estudiante y personalizar la experiencia educativa, proporcionando materiales y recursos que se adapten a su ritmo y estilo de aprendizaje; algunos ejemplos de éxito son Liulishou en china la cual es una plataforma para aprender inglés o Dialogflow la cual se utiliza en la Universidad de Oriente en México para acompañar a los estudiantes. En segunda, se encontró que otra de las herramientas de IA más utilizadas es la IA generativa la cual permite la generación de contenido como textos, imágenes, videos, código fuente, entre muchas otras cosas, estas herramientas sin duda son muy útiles en infinidad de áreas, sin embargo, puede que no siempre de las respuestas correctas por lo que su uso se recomienda más como herramienta de apoyo que como una fuente confiable de información. Entre las ventajas se encuentran la personalización del aprendizaje, la optimización de la enseñanza y la automatización de tareas administrativas, lo que permite a los educadores enfocarse en actividades pedagógicas más significativas. Además, la capacidad de la IA para analizar grandes volúmenes de datos facilita la toma de decisiones informadas y mejora la retención de contenidos. Para aprovechar al máximo las ventajas de la IA, se deben implementar buenas prácticas y estrategias. Estas incluyen formación y capacitación continua para que los profesores y el personal administrativo puedan interpretar y utilizar los datos generados por la IA de manera efectiva. Es esencial establecer políticas de ética y uso responsable para evitar la dependencia excesiva de la tecnología y proteger la privacidad y seguridad de los datos. Además, es crucial realizar evaluaciones continuas del impacto de las herramientas de IA en el rendimiento académico para ajustar y mejorar las estrategias de enseñanza. La integración gradual y estratégica de la IA también es importante para garantizar una transición suave y la aceptación por parte de estudiantes y profesores. Finalmente, promover la alfabetización en IA entre los estudiantes y el personal educativo puede ayudar a reducir las brechas digitales y mejorar la enseñanza, asegurando un uso responsable y efectivo de estas herramientas​.
Moguel Santiago Raúl, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Guillermo Toriz González, Universidad de Guadalajara

PREPARACIóN DE HIDROGELES A PARTIR DE FRUCTANOS DE AGAVE GUADALAJARANA Y AGAVE TEQUILANA WEBER VAR. AZUL POR DIFERENTES MéTODOS DE ENTRECRUZAMIENTO


PREPARACIóN DE HIDROGELES A PARTIR DE FRUCTANOS DE AGAVE GUADALAJARANA Y AGAVE TEQUILANA WEBER VAR. AZUL POR DIFERENTES MéTODOS DE ENTRECRUZAMIENTO

Moguel Santiago Raúl, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Guillermo Toriz González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La industria del tequila en México, especialmente en el estado de Jalisco representa una parte simbólica de la economía del país. Su expansión industrial ha experimentado un crecimiento continuo, aunque enfrenta dos desafíos significativos: el manejo de las vinazas, que son las aguas residuales generadas durante la destilación del tequila, y el manejo del bagazo de agave, que resulta de la extracción de azúcares fermentables de las cabezas del agave. Actualmente se estima que en México la producción anual es de 350 millones de litros de tequila, cuyo proceso utiliza más de un millón de toneladas de agave y en el mismo periodo genera unas 400 mil toneladas de bagazo y 300 mil toneladas de hojas de la planta.El aprovechamiento de los residuos generados ha sido objeto de importancia y preocupación en los últimos años. Si bien el bagazo se usa ampliamente en la industria de textiles e incluso de construcción , al realizar un análisis químico podemos encontrar celulosas , hemicelulosas, lignina , azúcares reductores entre otros, mismos que han sido aprovechados por el departamento de Madera, Celulosa y Papel ,CUCEI para la elaboración de diferentes biomateriales. Sin embargo, la industria tequilera ha sufrido de períodos de abundancia y escasez de producción de agave. Actualmente los productores de agave se enfrentan a un excedente de miles de toneladas de agave que tendrán que ser destruidas. Por lo tanto se requiere diversificar los usos del agave para evitar esta pérdida cíclica que sufren los agaveros. Los carbohidratos del jugo de agave son polisacáridos de fructosa que son fermentados a tequila; sin embargo, estos polisacáridos tienen propiedades únicas que los hacen viables para encapsular substancias para enviarlas al colon humano. Por otra parte, los métodos convencionales de liberación de medicamentos a menudo proporcionan un control insuficiente sobre los niveles terapéuticos óptimos requeridos para los tratamientos. Estas deficiencias pueden llevar a que el medicamento, que en teoría podría ser efectivo para tratar una enfermedad, no se administre en la dosis, el momento o el lugar adecuados, comprometiendo así su eficacia. No obstante, los avances recientes en hidrogeles con capacidades de liberación controlada ofrecen nuevas oportunidades para aplicar un control más preciso en la administración de medicamentos.Combinando las dos problemáticas se hizo uso de polisacáridos extraídos del jugo de dos Agave guadalajarana y Agave tequilana Weber azul para la elaboración de hidrogeles con fines biomédicos.



METODOLOGÍA

Se utilizaron muestras de fructanas de Agave guadalajarana y Agave tequilana Weber var. azul, proporcionadas por el Departamento de Madera, Celulosa y Papel del CUCEI. Para la elaboración de hidrogeles se emplearon dos métodos de entrecruzamiento: con 1,4-butanodiol diglicidil éter y con dianhidrido piromelítico (PMDA). En cada método, se alternó el tipo de fructano utilizado: Agave guadalajarana de alto peso molecular (>3000 Daltons) o de peso medio-bajo (<3000 Daltons), y fructano de Agave tequilana Weber azul, también de alto peso molecular (>3000 Daltons) o de peso medio-bajo (<3000 Daltons). Método con 1,4-butanodiol diglicidil éter: Se pesaron 200 mg de fructano (variando entre las muestras mencionadas) y se colocaron en un tubo de ensayo. Se añadió 1 ml de agua HPLC y la mezcla se agitó en un vortex durante 3 minutos. Posteriormente, se sometió a sonicación durante 5 minutos. Luego, se añadieron 25 mg de KOH a la solución de fructano, se agitó nuevamente en el vortex y se sonificó durante 10 minutos. A continuación, se incorporaron 100 μl de 1,4-butanodiol diglicidil éter (BDGE), se mezcló en el vortex y se colocó en el sonicador a una temperatura constante durante 3 horas. Método con dianhidrido piromelítico (PMDA): Este proceso se realizó en una atmósfera inerte utilizando nitrógeno como sistema de purga. Se pesaron 200 mg de fructano y, utilizando una cánula, se añadió 1 ml de dimetilformamida (DMF). La mezcla se sometió a sonicación durante 20 minutos. Luego, se pesaron 40 mg de NaH y se añadieron a el fructano previamente diluido con la ayuda de una cánula. La mezcla se agitó en el vortex y se sometió a sonicación durante 15 minutos. Posteriormente, se añadió 0.5 ml de dimetilformamida (DMF) a la solución. En otro tubo de ensayo, se pesaron 140 mg de PMDA. La solución que contenía el fructano se extrajo y se transfirió al tubo con PMDA para por último colocarlo en el vortex durante 5 minutos y en el sonicador durante 15 minutos. El siguiente paso era hinchar los hidrogeles previamente elaborados , para ello se depositaban en un recipiente lleno de agua , misma que se cambiaba 3 veces durante tres horas.Después del tercer lavado se dejaron en agua de 2-3 días. El siguiente paso fue la caracterización fisicoquímica de hidrogeles por medio de reología utilizando un reómetro. Además de realizar una cinética de hinchamiento donde se pesaron los hidrogeles después de 0,1,3,6 y 24 horas posteriores al lavado para medir el crecimiento de los mismos.


CONCLUSIONES

La aplicación de la química orgánica fue clave para este verano donde se tuvo la oportunidad de llevar la teoría a la práctica proponiendo un desafío pero a su vez mucho conocimiento. Durante mi estancia tambien aprendi acerca de los procesos que se llevan a cabo a farmacéutico y técnicas de laboratorio que desconocía. El tiempo del programa fue corto y la investigación extensa por lo que no se lograron realizar las pruebas necesarias al hidrogel para identificar y tener un control del tamaño del poro u otros elementos determinantes para cargar los hidrogeles con algún medicamento activo.Por lo que aún no tenemos los resultados finales. Se espera realizar una comparación no solo entre el tipo de agave sino también entre los tamaños de partícula empleados y la técnica que posea mayor espacio para cargar moléculas más grandes sin comprometer la estructura del gel.
Mojica Pineda Ivan Yahir, Instituto Tecnológico de Ciudad Altamirano
Asesor: M.C. Leonel González Vidales, Instituto Tecnológico de Ciudad Altamirano

INTERFAZ GRáFICA PARA EL SISTEMA DE ANáLISIS DE DATOS DE INSECTOS POLINIZADORES EN JARDINES URBANOS


INTERFAZ GRáFICA PARA EL SISTEMA DE ANáLISIS DE DATOS DE INSECTOS POLINIZADORES EN JARDINES URBANOS

Mojica Pineda Ivan Yahir, Instituto Tecnológico de Ciudad Altamirano. Asesor: M.C. Leonel González Vidales, Instituto Tecnológico de Ciudad Altamirano



PLANTEAMIENTO DEL PROBLEMA

En el contexto de la investigación científica y la conservación medioambiental, el estudio de los insectos polinizadores en entornos urbanos ha cobrado una creciente importancia debido a su papel fundamental en la reproducción de plantas y en la biodiversidad urbana. El Sistema de Análisis de Datos de Insectos Polinizadores en Jardines Urbanos ha sido desarrollado con el objetivo de recopilar y analizar información relevante sobre las interacciones de estos insectos en entornos urbanos, proporcionando datos valiosos para la investigación y la toma de decisiones en materia de conservación. Sin embargo, a pesar de la capacidad del sistema automatizado para generar conjuntos de datos robustos, su complejidad tecnológica limita su accesibilidad para una audiencia más amplia de investigadores, ecologistas y otros profesionales interesados. Por lo tanto, se hace necesaria la creación de una interfaz de usuario amigable que permita a estos usuarios acceder y analizar los datos de manera sencilla y efectiva, abstrayendo la complejidad del sistema subyacente.



METODOLOGÍA

En un primer momento, se definió la problemática a resolver y se propuso crear la solución usando una metodología de desarrollo en espiral. Después, se propuso un plan de trabajo para 7 semanas, compuesta por dos iteraciones. En la primera iteración se realizó una investigación acerca de los usuarios potenciales del proyecto por medio de una encuesta y por comunicación personal y se definieron los requisitos iniciales del proyecto. Se acordó el diseño de una base de datos relacional conforme a los requerimientos de almacenamiento y procesamiento de datos del proyecto y se dio un énfasis especial en la parte gráfica y de visualización. Después se continuó con el diseño de la solución, donde se realizaron propuestas para la interfaz gráfica haciendo uso de bosquejos de baja calidad, posteriormente se hizo un análisis de los componentes utilizados, se refinaron y se creó prototipo de la interfaz. También, se realizó un diseño inicial de la base de datos relacional usando el modelo entidad-relación teniendo en cuenta los principios de diseño de un almacén de datos. Al comenzar la fase de codificación, se realizó la elección de tecnologías. Al ser una aplicación de software en tres capas, se realizó una selección de tecnologías para cada una: MySQL para la base de datos, PHP y el framework Laravel para la capa de aplicación, y JavaScript y las bibliotecas React y MUI para la capa de presentación. Durante la primera iteración se codificó el sector de acceso público de la aplicación haciendo uso de una metodología basada en pruebas, escribiendo casos de prueba para cada escenario importante y entonces codificando lo necesario para pasar las pruebas. Durante la segunda iteración se siguió el mismo proceso, refinando los requerimientos tomados en la primera iteración bajo la retroalimentación del asesor.  Se agregaron requerimientos de visualización, cambios en la interfaz gráfica y también en los requerimientos del modelo de datos del sistema. Se realizaron los diseños gráficos correspondientes y se agregaron al prototipo, y se modificaron los diagramas existentes del modelo de datos. Después se continuó con la codificación de los requerimientos bajo la metodología a base de pruebas.


CONCLUSIONES

Durante la estancia se logró obtener conocimientos en el campo de diseño, simulación y prototipado, y se aplicaron al desarrollo de un sistema de información. Se revisaron diferentes modelos de desarrollo, técnicas de elicitación de requerimientos, análisis y modelado del sistema, y tecnologías web, y con base en ello se comenzó el desarrollo de una interfaz gráfica para el Sistema de Análisis de Datos de Insectos Polinizadores en Jardines Urbanos. El sistema consta de las capas de presentación, aplicación y datos, y durante la estancia se trabajaron en su mayoría la capa de presentación, que corresponde a la interfaz gráfica web, y de datos, que corresponde a la base de datos. La codificación del sistema tiene base en una metodología basada en pruebas y se priorizó la liberación de funcionalidades mínimas, dejando campo abierto a mejoras posteriores en la seguridad del sistema.
Molina Flores Esthefania Vanessa, Universidad Tecnológica de Zinacantepec
Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla

SíNTESIS DE MATERIALES


SíNTESIS DE MATERIALES

Molina Flores Esthefania Vanessa, Universidad Tecnológica de Zinacantepec. Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En los últimos años se han marcado por el creciente ritmo de la evolución de la tecnología. Los dispositivos que utilizamos si bien mejorar, esto hace un continuo cambio para un nuestros dispositivos no queden obsoletos rápidamente. Desechamos a diario toneladas de nuestros electrónicos, de hecho la PNUMA ( Programa para el Medio Ambiente de las Naciones Unidas) calculo en que se generan en todo el mundo cerca de 50 millones de toneladas de aparatos electrónicos que son desechados anualmente. En la basura electrónica, encontramos una variedad de materiales y plásticos valiosos, alrededor de 60 elementos pueden hallarse en esta. La mayoría son recuperables técnicamente, sin embargo, existen límites establecidos por el mercado. Los dispositivos están fabricados por placas de circuito impreso (PCB), en los cuales se utilizan los elementos y plásticos mencionados. Es conocido que estos materiales son tóxicos o se degradan en sustancias toxicas, en muchas ocasiones al depositarse en vertederos crean un problema ambiental. Dirigidos a esta cuestión se han implementado investigaciones por la fabricación de productos electrónicos utilizando sustratos biodegradables como PCB y la respuesta podría encontrarse en el papel. La electrónica basada en papel “papertronica” se puede llegar a considerar una alternativa rentable para diversas aplicaciones. Además, el papel también se ha utilizado como dieléctrico para fabricar dispositivos semiconductores, el principal problema del uso de papel es su conocida capilaridad, ya que los materiales líquidos utilizados para fabricar los dispositivos tienden a penetrar en los poros del papel y el resultado de conectividad afectados. Una opción rentable puede ser SOG (Spin-On Glass) sus ventajas incluyen una baja densidad de defectos en las películas depositadas, un bajo costo de proceso y es excelente para aplicaciones de planarización, relleno de huecos y aislador de superficie de múltiples recubrimientos. SOG es un aislante entre niveles que se suministra de forma liquida.



METODOLOGÍA

Se utilizaron tres sustratos de papel diferentes; papel bond, papel filtro y papel fotográfico, en una medida de 11in por 1in, se realizó una limpieza con soplete para la precaución de los sustratos y se llevó a cabo una deposición por evaporación térmica de plata (Ag) en una cámara de vacío de 10^-5 a 10^-9 Torr, llegando a un máximo de 10 a 12 A y un PV 65 a 85 SI, se realizaron mediciones de resistencia en una estación de agujas conectada a un multímetro a 200 Ω. Para hallar una comparación entre las mediciones de resistividad del elemento depositado y la aportación de SOG se llevó a cabo una deposición por vaccum spin coater (VCT-100) de las soluciones utilizadas spin-on glass 21F y spin-on glass LSF47, haciendo un recubrimiento por centrifugado 200^10 RPM, seguido de esto se realizó nuevamente una deposición por evaporación térmica de plata (Ag) en una cámara de vacío de 10^-5 a 10^-9 Torr, llegando a un máximo de 10 a 12 A y un PV 65 a 85 SI, se realizaron mediciones de resistencia en una estación de agujas conectada a un multímetro a 200 Ω. Teniendo un total de 9 muestras. Por último las mediciones también se tomaron colocando los sustratos en radios de 7.5mm, 10mm, 12.5mm, 15mm y 17.5mm.


CONCLUSIONES

Los mejores resultados son en papel fotográfico, pero este cuenta con un revestimiento de coalin, tiza, caseína o en ocasiones dispersión plásticas lo cual brinda las habilidades de ser más flexible, estable y/o suave que el papel tradicional. Así, se encuentra el papel filtro en la mayor lectura obtenida esto podría ser explicado por la alta capilaridad que este tiene, así como el algodón que lo compone siendo este en un mayor porcentaje, lo cual afecta a la conductividad del material depositado en este caso el elemento plata (Ag). Resultados de la medición del papel filtro expuesto a diferentes radios con la deposición térmica de plata (Ag). En general se puede observar que las mediciones leídas son mayormente uniformes a comparación de las mediciones en papel bond, obteniendo un promedio general de 8.7 Ω. En la medición del papel fotográfico colocado a diferentes radios con la deposición térmica de plata (Ag). Los resultados se puede afirmar generalmente que las mediciones son uniformes, no superando entre la lectura menor ya mayor 1Ω de diferencia, como se había mencionado esto puede ser explicado por los adherentes los cuales le atribuyen al papel fotográfico. La lectura menor fue en el radio de 7.5mm siendo de 7.7Ω, con el promedio en este radio de 10.8 Ω, con un huevo en las 16 lecturas. En las siguientes mediciones de papel bond con deposición spin coater de la solución de spin-on glass LSF47, que se coloco a los diferentes radios. La lectura menor obtenida fue de 4.4 Ω en el radio de 7.5mm, el promedio de estas mediciones fue de 5.2 Ω Se realizaron las lecturas de resistividad en el papel fotográfico sin colocarlo en ningún radio, es decir plano, en un total de 16 lecturas a lo largo del sustrato en estas la mayor lectura fue de 5.8 Ω y la menor de 3.2 Ω, obteniendo un promedio de 4.2 Ω.
Molina Martinez Lady Laura, Corporación Universitaria Rafael Núñez
Asesor: Mg. Johann Barragan Gómez, Universidad Autónoma de Bucaramanga

ANáLISIS DE SEñALES DE ELECTROENCEFALOGRAFíA (EEG) CON FINES DE CONTROL DE DISPOSITIVOS EXTERNOS USANDO EL PARADIGMA DE IMAGINACIóN MOTORA


ANáLISIS DE SEñALES DE ELECTROENCEFALOGRAFíA (EEG) CON FINES DE CONTROL DE DISPOSITIVOS EXTERNOS USANDO EL PARADIGMA DE IMAGINACIóN MOTORA

Martinez Barboza Patricia Jacqueline, Instituto Tecnológico de Reynosa. Molina Martinez Lady Laura, Corporación Universitaria Rafael Núñez. Sustersick Covarrubias Edson, Universidad de Guadalajara. Asesor: Mg. Johann Barragan Gómez, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

Actualmente, se estima que 2,400 millones de personas en el mundo podrían beneficiarse significativamente de la rehabilitación, según la OMS (2024). Este número resalta la necesidad urgente de enfoques efectivos y accesibles para la rehabilitación, que es crucial para mejorar la calidad de vida y es esencial para la cobertura sanitaria universal. Garantizar el acceso a la rehabilitación es clave para alcanzar el Objetivo de Desarrollo Sostenible 3 de las Naciones Unidas, que promueve el bienestar para todos a todas las edades. Un desafío significativo es la falta de personal especializado en rehabilitación y la desigual disponibilidad de recursos y equipos. En este contexto, el uso de dispositivos externos controlados por señales EEG y código Python permite la supervisión y seguimiento de múltiples pacientes de manera eficiente. Los dispositivos pueden proporcionar ejercicios de rehabilitación a distancia y el análisis de datos en tiempo real para adaptar las sesiones a las necesidades individuales. Este proyecto se enfoca en analizar datos de señales EEG para integrar la tecnología EEG en la rehabilitación mediante interfaces cerebro-computador (BCI) y el paradigma de la imaginación motora. Esto permite un monitoreo preciso de la actividad cerebral, crucial para ajustar programas de rehabilitación basados en la respuesta neurológica del paciente, optimizando la eficacia del tratamiento y reduciendo la carga sobre el personal médico.



METODOLOGÍA

Ajuste de Interfaz OpenVibe: Escalado entre -100 y 100 microvoltios con BCI Enobio. Inclusión de marcadores de fases del experimento: adquisición y validación online. Retroalimentación de desempeño en validación online: Indicación de acierto o fallo, almacenamiento y despliegue del puntaje final. Librerías para Análisis de Señales EEG en Python: Análisis en el dominio del tiempo y frecuencia. Gráficos de violín. Filtrado y extracción de características: Patrones espaciales comunes (CSP) (FBCSP). Clasificación: Análisis Discriminante Lineal (LDA). Análisis de dominio de la frecuencia (Potencia espectral). Captura de Señales EEG: Se utilizó un dispositivo BCI Enobio para registrar la actividad cerebral mediante electrodos en el cuero cabelludo. La captura de datos se realizó en un entorno controlado con el software OpenViBE. Debido a la distancia, los datos no fueron adquiridos en tiempo real. Filtrado y Análisis de Señal EEG: El filtrado es crucial para eliminar ruido y artefactos. Se aplicó un banco de filtros pasa banda para dividir la señal en bandas de frecuencia relevantes para la imaginación motora. Se creó un código en Python para convertir las señales a un formato adecuado para el análisis y clasificar los datos con LDA. Implementación Preprocesamiento de las Señales: Filtrado y normalización para eliminar ruido. Eliminación de artefactos y valores atípicos. Segmentación en ventanas de tiempo. Extracción de características relevantes. Entrenamiento y Evaluación del Modelo LDA: Se dividieron los datos en conjuntos de entrenamiento y prueba. Entrenamiento del modelo LDA con los datos preprocesados. Evaluación del modelo mediante precisión y matriz de confusión. Código Python Utilizado: El script en Python realiza las siguientes acciones: Carga y muestra los datos. Convierte los datos a valores numéricos. Aplica un filtro de paso de banda a los datos EEG. Extrae características de cada segmento de datos. Divide los datos en conjuntos de entrenamiento y prueba. Entrena y evalúa un modelo LDA. Imprime la precisión y la matriz de confusión. Visualiza la matriz de confusión.  


CONCLUSIONES

El filtrado de señales EEG mediante un banco de filtros pasa banda fue esencial para eliminar ruido y artefactos no deseados, mejorando la calidad de las señales y facilitando la extracción de características. Un proceso de filtrado robusto garantiza que las señales EEG retenidas sean representativas de la actividad cerebral real, crucial para el análisis posterior. El uso de LDA en el análisis de señales EEG asociadas a la imaginación motora es una metodología efectiva para el desarrollo de tecnologías BCI. Su adecuada aplicación permite la discriminación precisa de estados mentales, facilitando avances en neurotecnología y rehabilitación. Este estudio subraya la importancia de un filtrado adecuado y la robustez de LDA para asegurar la precisión y fiabilidad de los datos EEG en el contexto de rehabilitación.
Molina Sales Miguel Angel, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Juan Manuel Ramírez Arredondo, Instituto Politécnico Nacional

ANáLISIS Y APLICACIóN DE REDES NEURONALES: DESDE EL PERCEPTRóN HASTA LAS REDES NEURONALES PROFUNDAS


ANáLISIS Y APLICACIóN DE REDES NEURONALES: DESDE EL PERCEPTRóN HASTA LAS REDES NEURONALES PROFUNDAS

Molina Sales Miguel Angel, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Juan Manuel Ramírez Arredondo, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El avance de la inteligencia artificial ha subrayado la necesidad de comprender y aplicar redes neuronales para resolver problemas complejos en áreas como la visión por computadora, procesamiento de lenguaje natural y predicción de series temporales. Las redes neuronales, inspiradas en el cerebro humano, son herramientas poderosas pero su diseño y entrenamiento presentan desafíos significativos. La falta de comprensión integral sobre los diferentes tipos de redes neuronales, desde el perceptrón hasta las redes profundas, dificulta su implementación efectiva. Además, los algoritmos de aprendizaje como la retropropagación y los de optimización como Adam y RMSprop son esenciales pero complejos. Este proyecto se centró en estudiar y aplicar estos conceptos, proporcionando una base sólida y aplicaciones prácticas para facilitar la comprensión y el uso de estas tecnologías en problemas reales.



METODOLOGÍA

El proyecto se desarrolló durante una estancia de verano de 7 semanas, estructurándose en fases semanales con objetivos específicos y actividades prácticas. Semana 1: Introducción a las Redes Neuronales y el Perceptrón Objetivos: Adquirir conocimientos fundamentales sobre redes neuronales y el perceptrón simple. Actividades: Lectura sobre la historia y fundamentos de redes neuronales, implementación de un perceptrón simple en Python, ejercicios de clasificación binaria. Evaluación: Cuestionario sobre conceptos básicos y funcionamiento del perceptrón. Semana 2: Perceptrón Multicapa (MLP) Objetivos: Comprender la arquitectura y entrenamiento del MLP y el algoritmo de retropropagación. Actividades: Estudio de la estructura del MLP, implementación en Python, ejercicios de clasificación multicategoría. Evaluación: Cuestionario sobre la teoría del MLP y retropropagación. Semana 3: Redes Neuronales Convolucionales (CNN) Objetivos: Comprender la arquitectura y funcionamiento de las CNN y su aplicación en procesamiento de imágenes. Actividades: Estudio de la estructura de las CNN, implementación en Python, ejercicios de clasificación de imágenes. Evaluación: Cuestionario sobre componentes y funcionamiento de las CNN. Semana 4: Redes Neuronales Recurrentes (RNN) y LSTM Objetivos: Comprender la estructura y aplicación de las RNN y LSTM. Actividades: Estudio de la arquitectura de las RNN y LSTM, implementación en Python, ejercicios de predicción de series temporales. Evaluación: Cuestionario sobre RNN y LSTM. Semana 5: Algoritmo de Retropropagación Objetivos: Comprender a fondo el algoritmo de retropropagación. Actividades: Estudio detallado de la teoría detrás del algoritmo de retropropagación, implementación en Python, ejercicios de ajuste de pesos y entrenamiento de redes neuronales. Evaluación: Cuestionario sobre la teoría y aplicación del algoritmo de retropropagación. Semana 6: Algoritmos de Optimización Objetivos: Estudiar diferentes algoritmos de optimización. Actividades: Estudio de algoritmos de optimización, implementación en Python, ejercicios comparativos. Evaluación: Cuestionario sobre algoritmos de optimización. Semana 7: Ejemplos de Aplicación y Proyecto Final Objetivos: Aplicar los conocimientos adquiridos y desarrollar un proyecto final. Actividades: Revisión de casos de estudio, implementación de ejemplos prácticos, desarrollo y presentación del proyecto final. Evaluación: Presentación del proyecto final ante un panel de evaluadores.


CONCLUSIONES

Este proyecto permitió una comprensión profunda y detallada de los diferentes tipos de redes neuronales y sus aplicaciones. El estudio del perceptrón simple y multicapa proporcionó una base sólida en técnicas de aprendizaje supervisado. Las CNN demostraron ser efectivas en reconocimiento de patrones en imágenes, mientras que las RNN y LSTM destacaron en el manejo de datos secuenciales y predicción de series temporales. El algoritmo de retropropagación se estableció como crucial para el ajuste de pesos durante el entrenamiento de redes neuronales, y los algoritmos de optimización como Adam y RMSprop mejoraron significativamente la velocidad y precisión del entrenamiento. El proyecto final integró todos los conceptos y técnicas, demostrando la versatilidad y efectividad de las redes neuronales en resolver problemas complejos. Este proyecto no solo fortaleció las bases teóricas y prácticas en redes neuronales, sino que también abrió nuevas posibilidades para futuras investigaciones y aplicaciones en inteligencia artificial, destacando la importancia de una formación integral en este campo.
Molontzin Ruiz Maria Guadalupe, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Omar Jehovani López Orozco, Instituto Tecnológico Superior de Apatzingán

ORQUESTACIóN DE DATOS PARA LA ESTIMACIóN DE RIESGO DE INUNDACIóN Y DE TRáFICO DE CIUDADES.


ORQUESTACIóN DE DATOS PARA LA ESTIMACIóN DE RIESGO DE INUNDACIóN Y DE TRáFICO DE CIUDADES.

Comino Ibarra Adilene Estefanía, Instituto Tecnológico Superior de Apatzingán. Mendoza Rosas Luis Francisco, Instituto Tecnológico Superior de Apatzingán. Molontzin Ruiz Maria Guadalupe, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Omar Jehovani López Orozco, Instituto Tecnológico Superior de Apatzingán



PLANTEAMIENTO DEL PROBLEMA

Las inundaciones en la Ciudad de México se han convertido en un problema recurrente que afecta tanto a la infraestructura urbana como a la calidad de vida de sus habitantes. La falta de un sistema de monitoreo y prevención efectivo agrava esta situación, resultando en daños materiales significativos y pérdidas económicas.  Con el cambio climático, la frecuencia e intensidad de estos eventos meteorológicos extremos están en aumento, lo que subraya la necesidad de desarrollar herramientas geoespaciales que ayuden a prever y mitigar los riesgos asociados.



METODOLOGÍA

El proyecto se enfocó en la recolección, limpieza y análisis de datos geoespaciales para la generación de mapas de riesgos de inundación en la Ciudad de México. Los datos fueron obtenidos de fuentes como las bases de datos públicas del gobierno de la Ciudad de México. Recolección de Datos: Se recopilaron datos históricos de precipitación utilizando datos del INEGI al igual que información de los sistemas captadores de agua de lluvia. Se utilizaron datos de infraestructura urbana, como la red de drenaje y las zonas habitacionales vulnerables. Limpieza de Datos: Los datos recolectados fueron depurados para eliminar valores atípicos y corregir errores de registro. Se integraron diferentes formatos de datos geoespaciales para asegurar su compatibilidad y coherencia. Se implementaron técnicas de interpolación para llenar vacíos en los datos de precipitación y nivel de agua. Análisis Geoespacial: Se emplearon Sistemas de Información Geográfica (SIG) para la visualización y análisis de los datos limpios. Generación de Mapas de Riesgo: Utilizando los resultados del análisis geoespacial, se crearon mapas de riesgo de inundación que destacan las áreas más vulnerables. Se implementaron estos mapas en una plataforma web interactiva que permite a los usuarios explorar los riesgos de inundación en tiempo real y planificar medidas de mitigación.


CONCLUSIONES

Durante el proyecto se adquirieron conocimientos avanzados en el manejo de datos geoespaciales y en el uso de herramientas SIG para la creación de mapas de riesgo. A pesar de que aún se encuentran en proceso algunos análisis detallados, los resultados preliminares indican una identificación precisa de las áreas de mayor riesgo de inundación en la Ciudad de México. Se espera que, con la implementación completa del sistema, las autoridades y la población puedan contar con una herramienta valiosa para la prevención y respuesta ante eventos de inundación, reduciendo así los daños y mejorando la resiliencia de la ciudad frente a desastres naturales.
Mondragón Hernández Octavio, Instituto Tecnológico de Tepic
Asesor: Dra. Adriana Hernández Sánchez, Benemérita Universidad Autónoma de Puebla

ARQUITECTURA COMO REFERENTE DE DIVERSIDAD Y RESIGNIFICACIóN DEL ESPACIO A TRAVéS DE LA ELABORACIóN DE MAQUETAS HABTICáS Y TALLERES DE ADOBE EN CONTEXTOS PATRIMONIALES


ARQUITECTURA COMO REFERENTE DE DIVERSIDAD Y RESIGNIFICACIóN DEL ESPACIO A TRAVéS DE LA ELABORACIóN DE MAQUETAS HABTICáS Y TALLERES DE ADOBE EN CONTEXTOS PATRIMONIALES

Echeverría Blanco Geny Alejandra, Universidad Autónoma de Yucatán. Espinoza Valdez Daniela Fernanda Karina, Instituto Tecnológico de Tepic. Mondragón Hernández Octavio, Instituto Tecnológico de Tepic. Pioquinto Martha Adan, Universidad Autónoma de Guerrero. Asesor: Dra. Adriana Hernández Sánchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Durante la estancia comprendida del 17 de junio hasta el 2 de agosto, en el marco del XXIX Verano de la Investigación Científica y Tecnológica del Pacífico, se llevó a cabo la estancia de investigación del Verano Delfín en la Facultad de Arquitectura de la Benemérita Universidad Autónoma de Puebla (BUAP). El objetivo principal del programa fue fortalecer las capacidades investigativas de los estudiantes participantes, al tiempo que se daba continuidad a investigaciones previamente iniciadas. Para ello, los estudiantes se sumergieron en dos líneas de investigación clave relacionadas con el patrimonio arquitectónico y cultural de la ciudad de Puebla: "Accesibilidad, inclusión social y proyectos educativos en el espacio público y el patrimonio" y "Accesibilidad al patrimonio para débiles visuales y ciegos en el centro histórico de Puebla IV". Este trabajo se llevó a cabo bajo la experta guía del Dr. Christian Enrique de la Torre Sánchez y la Dra. Adriana Hernández Sánchez, quienes han liderado estas investigaciones en años anteriores y poseen una amplia trayectoria en estudios relacionados con el patrimonio cultural de Puebla. El grupo de participantes estuvo conformado por estudiantes de las carreras de arquitectura y ciencias de la educación, provenientes de diversas instituciones tanto de México como de Colombia. Esta diversidad académica y cultural dio lugar a un equipo multidisciplinario y eficiente, capaz de abordar de manera integral los desafíos planteados en las investigaciones.



METODOLOGÍA

Se implementó una metodología estructurada que combinó el estudio teórico con la investigación de campo, la colaboración interdisciplinaria y la participación comunitaria. Enfoque y Diseño de la Investigación: La metodología adoptó un enfoque cualitativo con un diseño de investigación-acción, que permitió a los estudiantes no solo analizar y comprender las problemáticas relacionadas con la conservación del patrimonio, sino también intervenir de manera práctica a través de talleres y propuestas de diseño. Procedimientos y Actividades: El programa fue organizado en una serie de actividades distribuidas a lo largo de las siete semanas, siguiendo un esquema flexible que permitió ajustes según las necesidades y contratiempos que surgieron. A continuación, se detalla el desarrollo semanal: Semana 1: Los estudiantes fueron introducidos a las temáticas de investigación y al contexto histórico de Puebla mediante recorridos guiados por el Centro Histórico y visitas a instituciones clave como el Laboratorio de Arqueología Urbana de la BUAP y el Archivo Histórico Municipal. Semana 2: Se presentaron los proyectos de investigación de los profesores anfitriones, se realizaron recorridos por los barrios de La Luz y Xanenetla para identificar actores relevantes, y se invitó a los vecinos a participar en talleres comunitarios. Además, se exploraron proyectos de investigación sobre la arquitectura tradicional en la región. Semana 3: Se elaboraron los planes de trabajo para los talleres de vivienda con niños en los barrios de Xanenetla y La Luz. También se realizó un levantamiento arquitectónico y diagnóstico de daños en un comedor comunitario de la parroquia de Analco, como parte de una solicitud de la comunidad local. Semana 4: Se llevaron a cabo entrevistas con la Asociación Leyers Puebla sobre la creación de maquetas táctiles y se continuó la búsqueda de información en archivos históricos. Además, se organizaron y ejecutaron talleres de adobe en el barrio de Analco, enfocados en la recuperación de saberes tradicionales. Semana 5: El equipo trabajó en colaboración con la Asociación Leyers Puebla en proyectos de maquetas táctiles y participó en un diseño repentino de mobiliario urbano para el Parque Jerusalem, en colaboración con estudiantes de arquitectura de la BUAP. Semana 6: Se realizaron sesiones de trabajo para la presentación de resultados preliminares tanto a la Asociación Leyers como a la comunidad académica de la BUAP. Se continuó con el levantamiento de deterioros en el comedor comunitario de Analco. Semana 7: Se revisaron los reportes finales y se concluyó el programa con un convivio. Análisis de Datos y Resultados: Los datos recolectados a lo largo de la estancia fueron analizados utilizando un enfoque cualitativo. Las observaciones de campo, fueron sistematizadas para identificar patrones y temas recurrentes relacionados con la accesibilidad, la inclusión social y la preservación del patrimonio. Estos hallazgos fueron presentados y discutidos en sesiones de trabajo, donde se generaron propuestas concretas para la mejora y preservación de los espacios estudiados.


CONCLUSIONES

La estancia permitió a los participantes enfrentar importantes desafíos y contribuir efectivamente a la preservación del patrimonio de Puebla. Un logro destacado fue la creación de maquetas hápticas para mejorar la accesibilidad del patrimonio para personas con discapacidad visual, que demostraron la capacidad de los estudiantes para aplicar conocimientos teóricos y ofrecieron soluciones innovadoras con un impacto duradero. Las pruebas confirmaron la eficacia de estas maquetas en hacer el patrimonio más inclusivo. Asimismo, la realización de talleres infantiles y actividades educativas en los barrios fundacionales de Puebla promovió la socialización del patrimonio y la recuperación de saberes tradicionales, ofreciendo a los estudiantes una valiosa experiencia práctica en investigación y conservación. La metodología combinó investigación teórica y práctica con colaboración interdisciplinaria, permitiendo a los estudiantes desarrollar competencias avanzadas. La flexibilidad y adaptación del equipo fueron clave para superar desafíos y cumplir con los objetivos del programa. En resumen, el programa avanzó significativamente en la preservación del patrimonio y brindó a los estudiantes un aprendizaje valioso, evidenciando el éxito y la importancia de continuar con iniciativas similares.
Mondragón Ibarra Estefanía, Universidad de Guadalajara
Asesor: Dr. Juan Jose Carrascal Sanchez, Fundación Universitaria Tecnológico Comfenalco

EXTRACCIóN DE QUITOSANO A PARTIR DE ESCAMAS DE PESCADO PARA LA ADSORCIóN DE METALES EN AGUA


EXTRACCIóN DE QUITOSANO A PARTIR DE ESCAMAS DE PESCADO PARA LA ADSORCIóN DE METALES EN AGUA

Mondragón Ibarra Estefanía, Universidad de Guadalajara. Reyes Huerta Leonardo, Benemérita Universidad Autónoma de Puebla. Rocha Ceja Genaro Eduardo, Instituto Tecnológico de Jiquilpan. Asesor: Dr. Juan Jose Carrascal Sanchez, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua es una preocupación creciente a nivel mundial. Las principales causas de la contaminación del agua por metales son las actividades industriales, portuarias, agrícolas, turísticas y por el tráfico marítimo. Estos metales pueden acumularse en el medio ambiente llegando a afectar tanto a la flora y fauna acúatica y terrestre como a la salud humana cuando se ingieren a través del agua contaminada, por esa razón es importante lograr la correcta remoción de estos.



METODOLOGÍA

Extracción de quitosano: Acondicionamiento de escamas: Se recolectaron escamas del mercado local "Bazurto" en Cartagena de Indias, se limpiaron exhaustivamente con agua destilada, se secaron y se trituraron. Desmineralización: Se preparó una mezcla de una solución de HCl 1M en una relación de 1:20 (g de escamas:ml de solución) con las escamas. Se agitó constantemente por 24 horas a una temperatura de 30°C Desacetilación: Se llevó a un pH básico con NaOH y se calentó hasta 80 °C por 2 horas con agitación constante. Neutralización: Se llevó a pH neutro con agua destilada y un poco de solución de HCl. Centrifugación: Se realizaron diversos lavados y centrifugaciones para separar el sólido. Secado y molienda: El sólido se llevó al horno por 24 horas a una temperatura de 45 °C y se molió para obtener el polvo de quitosano. ​Análisis de metales: Preparación de muestras: Se prepararon muestras base de una concentración conocida de hierro y cobre, y se diluyeron en otras 4 y 3 concentraciones más, respectivamente. Lectura de absorbancia: Se utilizó un espectrofotómetro UV-Visible para leer la absorbancia de las muestras por luz visible. Gráfica: Se relacionó la concentración con la absorbancia leída para obtener las curvas de calibración. Aplicación en filtro: Una vez montado el filtro con el quitosano se hizo una muestra de concentración conocida por el mismo y se leyó la absorbancia de la muestra a la salida del filtro para conocer su concentración y poder determinar su capacidad de adsorción.


CONCLUSIONES

Se logró la extracción de quitosano por medio de escamas de pescado de manera satisfactoria, recolectando la cantidad adecuada para desarrollar las pruebas posteriores. Sin embargo, se notó que el rendimiento de conversión no es muy alto. Para la evaluación de la capacidad de adsorción del quitosano extraído y del diseño del filtro todavía es necesario seguir realizando pruebas, modificando variables del proceso, mejorando la precisión en la medición y proponiendo nuevas ideas. En conclusión, es necesario seguir desarrollando el proyecto para poder definir la efectividad de lo propuesto, asimismo, se debe avanzar a pensar sobre su aplicación en situaciones reales a grandes niveles.
Mondragon Palma Bruno Gael, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dra. Natiely Hernández Sebastián, Centro de Investigaciones en Óptica (CONACYT)

FABRICACIÓN Y CARACTERIZACIÓN DE UN ARREGLO DE MICROELECTRODOS FLEXIBLES PARA LA ESTIMULACIÓN ELÉCTRICA DE LA CÓRNEA HUMANA


FABRICACIÓN Y CARACTERIZACIÓN DE UN ARREGLO DE MICROELECTRODOS FLEXIBLES PARA LA ESTIMULACIÓN ELÉCTRICA DE LA CÓRNEA HUMANA

Chávez Martínez Marlen, Instituto Tecnológico Superior Purépecha. Hernández Romero Laisa Monselin, Instituto Tecnológico Superior Purépecha. Lamadrid Avila Fernando, Universidad de Guadalajara. Mondragon Palma Bruno Gael, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dra. Natiely Hernández Sebastián, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La estimulación eléctrica (EE) en los ojos se ha estudiado como un novedoso proceso terapéutico que mejora la percepción visual en pacientes con enfermedades degenerativas de la retina. Es un procedimiento no invasivo en el que se aplica una corriente eléctrica de baja intensidad sobre la superficie de la córnea para activar la retina y las estructuras posteriores y, por lo tanto, ejercer efectos terapéuticos en los pacientes. Bajo esta premisa, en el presente proyecto de investigación se fabricó y caracterizó un arreglo de microelectrodos flexible para la EE selectiva y variable de la córnea humana.



METODOLOGÍA

  1. Consulta bibliográfica. Realizamos la revisión bibliográfica de diversos artículos científicos, así como reportes de investigación, tesis y artículos varios de internet para familiarizarnos con temas relacionados al proyecto. 2. Capacitación del uso del laboratorio y técnicas de fabricación. Durante la estancia de investigación asistimos como oyentes a la materia Tecnología de películas delgadas impartida en el Centro de Investigaciones en Óptica, A.C., con la finalidad de capacitarnos en las diferentes técnicas de fabricación de microelectrónica y conocer los aspectos esenciales del Laboratorio Nacional Conahcyt en Microtecnología y BioMEMS (LaNMiB). 3. Fabricación del arreglo de microelectrodos flexibles. Las etapas de fabricación del arreglo de microelectrodos flexibles son las siguientes: 3.1 Limpieza química húmeda El proceso de limpieza química húmeda permite eliminar la contaminación orgánica de la superficie de los substratos. Los pasos para realizarla consisten en: (i) limpieza ultrasónica en acetona y alcohol para eliminar residuos por contaminación orgánica, (ii) enjuague exhaustivo en agua desionizada, (iii) decapado de oxido nativo en buffer de HF. 3.2 Depósito de poliimida Realizamos el depósito de poliimida (PI) por la técnica de spin coating haciendo tres depósitos consecutivos: un depósito de PI2610 para mejorar la adherencia del substrato y dos depósitos de PI2611 para aportar mayor espesor final al substrato. 3.3 Desgaste de la poliimida Debido a que las películas de PI se caracterizan por tener una superficie lisa libre de defectos, entre cada depósito hicimos un proceso de desgaste en plasma de oxígeno con la finalidad de incrementar el área de adherencia de la superficie de la PI. 3.4 Depósito de Al/Ti El material estructural de los microelectrodos es una bicapa metálica compuesta de aluminio/Titanio (Al/Ti).  Ambos materiales fueron depositados por la técnica de sputtering. El primer depósito que fue de Al con un espesor de 150 nm y enseguida, el depósito de Ti con un espesor de 50 nm. 3.5 Fotolitografía, primer nivel La fotolitografía es el proceso por el cual se transfieren patrones de manera fiel a un material. En el primer nivel de mascarilla nos permitió definir los pads, las pistas y el arreglo de microelectrodos en la bicapa metálica. 3.6 Grabado del metal (Al/Ti) El proceso de grabado de la bicapa metálica de Al /Ti se hizo con la solución Ti-Etch. Para efectuar el proceso de grabado, sumergimos la muestra en la solución durante 35 segundos; luego en agua DI y el secado fue con aire comprimido. 3.8 Depósito de poliimida 2610 de protección Debido a que el prototipo estará en contacto con medio biológico, las estructuras metálicas se recubren con una película delgada de poliimida con propiedades biocompatibles y flexibles, así como alta resistencia química. 3.9 Depósito de Al Depositamos una película de Al de 80 nm de espesor por la técnica de sputtering como material de recubrimiento para el proceso de grabado de la PI 2610. 3.10 Fotolitografía, segundo nivel La fotolitografía del segundo nivel de mascarilla permite definir las ventanas en la parte superior de los pads y microelectrodos, así como, el corno del dispositivo. El proceso realizado se detalla en el apartado 3.5. 3.11 Grabado de Aluminio El proceso de grabado del Al se hizo con la solución comercial Al-Etch. Para el proceso de grabado sumergimos la muestra en solución a 45°C durante 60 segundos. 3.12 Grabado de Poliimida Para crear el contacto eléctrico entre los microelectrodos y el medio biológico, la última capa de PI-2610 se graba de manera selectiva en plasma de oxígeno. 3.13 Forma del dispositivo Si bien, la forma del dispositivo se define en la fotolitografía del segundo nivel de mascarillas, en este proceso se realiza el corte del substrato flexible de PI con un cúter, cuidando de no aplicar demasiada fuerza durante los cortes. 3.14 Decapado de aluminio Se realizó un decapado de aluminio de protección al igual usando el mismo método que en el grabado de aluminio. 3.15 Desprendimiento del dispositivo Finalmente, sumergimos la muestra en agua DI y con pequeños movimientos en los bordes del dispositivo logramos su desprendimiento. El prototipo se libera del soporte mecánico por los pads, luego por las pistas y finalmente por los petalos. 3.16 Caracterización del prototipo El prototipo fabricado se caracterizó a nivel laboratorio para evaluar su comportamiento eléctrico basándose en las curvas I-V de cada pad microelectrodo.


CONCLUSIONES

1. Durante este proyecto elaboramos en total cuatro dispositivos funcionales, de estos, tres se enviarán a la universal Iberoamérica de la ciudad de México para su evaluación in-vivo. El cuarto dispositivo se utilizará para realizar pruebas de conectividad eléctrica con un conector comercial. 2. Los dispositivos obtenidos son mecánicamente flexibles, biocompatibles, de bajo costo, cuentan con excelente integridad estructural y son espacialmente selectivos, características que representa un avance significativo hacia el objetivo de la EE selectiva de la córnea humana. Por lo anterior, se puede concluir que cumplimos los objetivos principales de este proyecto, ya que no solo se fabricó y caracterizo el arreglo de microelectrodos, también, tuvimos la oportunidad de desarrollar una propuesta de diseño para la siguiente etapa del prototipo.
Mongeote Tlachy Daniel, Universidad Veracruzana
Asesor: Mtro. oscar Cortés sanchez, Instituto Tecnológico Superior de Ciudad Serdán

MóDULO DEL ADMINISTRADOR DE LA APLICACIóN MóVIL DEL SISTEMA DE GEOINTELIGENCIA Y SEGUIMIENTO ACADéMICO


MóDULO DEL ADMINISTRADOR DE LA APLICACIóN MóVIL DEL SISTEMA DE GEOINTELIGENCIA Y SEGUIMIENTO ACADéMICO

Mongeote Tlachy Daniel, Universidad Veracruzana. Asesor: Mtro. oscar Cortés sanchez, Instituto Tecnológico Superior de Ciudad Serdán



PLANTEAMIENTO DEL PROBLEMA

En el Instituto Tecnológico Superior de Ciudad Serdán (ITSCS), una institución educativa de renombre ubicada en Puebla, México, se ha identificado una necesidad crucial de modernizar y mejorar el sistema de control de acceso a las instalaciones.  El sistema actual de control de acceso en el ITSCS se basa en registros manuales, lo cual presenta varias ineficiencias significativas. Estas incluyen la gestión ineficiente del tiempo, problemas de seguridad y la posibilidad de errores humanos en el registro de asistencia. Además, el sistema manual dificulta la recopilación y análisis de datos precisos sobre la entrada y salida de estudiantes y personal, lo que puede afectar la toma de decisiones y la planificación administrativa. Para abordar estas deficiencias, se propone el desarrollo de un sistema automatizado enfocado en una aplicación móvil que utilice códigos QR para registrar la entrada y salida de estudiantes y personal. Este nuevo sistema tiene como objetivo optimizar los procesos de control y registro de asistencia, proporcionando una solución más eficiente y segura. Además, se propone que dicha aplicación móvil permita a los usuarios académicos realizar un seguimiento detallado de la asistencia de sus estudiantes en función de la clase específica que estén cursando. Asimismo, la aplicación ofrecerá la capacidad de consultar las calificaciones desglosadas por tema para cada una de las materias que los estudiantes están cursando durante el semestre activo, facilitando así una gestión más eficiente y un seguimiento más preciso del rendimiento académico.



METODOLOGÍA

Durante el diseño y desarrollo de la solución de software propuesta para esta problemática, se utilizaron las siguientes herramientas de software: XAMPP Control Panel Version 3.3.0: Para la gestión y administración del servidor. phpMyAdmin: Para la administración de bases de datos a través de una interfaz web. Visual Studio Code: Como entorno de desarrollo integrado (IDE) principal. Postman: Para realizar pruebas de API y asegurar la correcta comunicación entre los componentes del sistema. Android Studio: Para el desarrollo y prueba de la aplicación móvil. Figma: Para el diseño y prototipado de las interfaces de usuario. Estas herramientas permitieron una gestión eficiente del desarrollo y aseguraron la funcionalidad integral del sistema. Adicionalmente, se realizaron las siguientes actividades: Corrección y Ajuste del Script de Base de Datos Se llevaron a cabo importantes mejoras en el script de control de acceso del sistema. Las correcciones abordaron múltiples aspectos, incluyendo la resolución de errores relacionados con datos incoherentes, con énfasis en la validación de tipos de datos. Además, se implementó un manejo adecuado para casos de información vacía o nula y se corrigieron errores gramaticales y de sintaxis en el código. Un aspecto crucial fue la revisión y ajuste de las referencias a tablas mediante llaves foráneas, asegurando su correcta definición y vinculación. Se llevó a cabo la inserción de datos en cada una de las tablas, asegurando la coherencia con los tipos de datos especificados. En lugar de utilizar espacios en blanco (" "), se empleó el valor NULL cuando no había datos disponibles, para mantener la integridad de la base de datos. Importación del Script a XAMPP El script ajustado se importó en XAMPP utilizando la interfaz de phpMyAdmin para crear y gestionar la base de datos del sistema de control de acceso. Esta herramienta facilitó la importación y permitió la administración eficiente de la base de datos. Creación de Procedimientos Almacenados CRUD Se crearon procedimientos almacenados para las operaciones CRUD (Crear, Leer, Actualizar y Eliminar) en cada una de las tablas de la base de datos. Estos procedimientos facilitaron la gestión de datos y aseguraron que las operaciones se realizaran de manera consistente y eficiente. Cada uno de estos procedimientos fue sometido a pruebas exhaustivas para verificar su correcto funcionamiento. Estas pruebas incluyeron la inserción, consulta, actualización y eliminación de datos en las tablas, asegurando que todas las operaciones se ejecutaran sin errores y conforme a los requisitos establecidos. Desarrollo de la Aplicación Móvil Se desarrolló un módulo de administrador para la aplicación móvil del Sistema de Geointeligencia y Seguimiento Académico, enfocado en registrar entradas y salidas mediante códigos QR. La aplicación móvil genera un código QR único para cada usuario, que se utiliza para registrar su ingreso y egreso a las instalaciones, así como para la asistencia en clases y consulta de calificaciones. Migración a la Última Versión de Android: La aplicación "Mi Tec" fue migrada a la última versión de Android, asegurando compatibilidad con las nuevas características del sistema operativo y mejorando su rendimiento y seguridad.


CONCLUSIONES

Al momento de la elaboración de este resumen, se han logrado los siguientes resultados: Se ha establecido una base de datos coherente y funcional, que respalda el sistema de control de acceso. La aplicación móvil permite un registro eficiente y automatizado de la entrada y salida de los usuarios mediante códigos QR, mejorando significativamente la gestión del tiempo y la seguridad en las instalaciones del instituto. Se espera que este sistema proporcione datos precisos sobre la asistencia y el movimiento dentro del campus, facilitando la administración académica y operativa. Esta investigación demuestra el impacto positivo de la integración de tecnologías modernas, como los códigos QR y las bases de datos robustas, en la mejora de procesos administrativos y de seguridad en instituciones educativas.
Monroy Granados José Emmanuel, Instituto Politécnico Nacional
Asesor: Dr. Daniel Hernandez Balbuena, Universidad Autónoma de Baja California

ALGORITMO DE NAVEGACIóN PARA ROBOTS EN LA AGRICULTURA


ALGORITMO DE NAVEGACIóN PARA ROBOTS EN LA AGRICULTURA

Monroy Granados José Emmanuel, Instituto Politécnico Nacional. Asesor: Dr. Daniel Hernandez Balbuena, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

          Se considera un robot con aplicación en la agricultura que utiliza imágenes en formato RGB obtenidas con una cámara, para navegar en un campo de cultivo donde se ha sembrado maíz. El robot debe identificar las plantas de maíz y generar referencias de navegación que le permitan moverse a través de ellas sin dañarlas.  Se considera que la cámara está instalada en la parte frontal del robot con un ángulo conocido con respecto al suelo. El objetivo es desarrollar un algoritmo basado en procesamiento digital de imágenes que permita segmentar la imagen y diferenciar entre la planta y el suelo, a fin de establecer referencias de navegación para el robot que eviten que el robot dañe la planta cuando se mueva por el cultivo.



METODOLOGÍA

Se realizó una revisión de la literatura especializada para identificar los índices de verdor.  Se desarrolló un programa de cómputo para calcular los índices de verdor en imágenes de cultivo de maíz y en una imagen de referencia del espectro de color, con el fin de identificar cuál de los índices de verdor era el más adecuado para el problema abordado.  Se desarrolló un programa para obtener una máscara digital mediante la umbralización del índice de verdor.  Considerando la perspectiva de las imágenes del campo de cultivo se determinaron criterios para segmentar la imagen en zonas cercanas y zonas alejadas del robot a fin de establecer la prioridad entre ellas.  Se determinaron criterios para dividir las zonas cercanas y lejanas en franjas, para analizar más detalladamente la imagen.  Se desarrolló un programa para el cálculo de la intensidad del índice de verdor por franja de 27 x 1920 píxeles. Se establecieron criterios para convertir las intensidades de índices de verdor afectadas por la máscara binaria obtenida, en pulsos rectangulares mediante umbralización. Esto se realizó por franja.  Se desarrolló un programa para la umbralización de las intensidades de índices de verdor afectadas por máscaras binarias y para su conversión en pulsos rectangulares.  Se investigó en la literatura especializada el concepto de uniformidad en una imagen. Se establecieron criterios para aplicarlas a las imágenes utilizadas en el presente trabajo.  Se desarrolló un programa de cómputo para el cálculo de la uniformidad de la franja de la imagen bajo estudio, ajustando los parámetros correspondientes al contraste presente en la imagen. Se realizó un análisis del efecto de utilizar la uniformidad en el proceso. Determinando que este parámetro daba beneficios aceptables.  Establecieron criterios para determinar las posiciones de los centros de los pulsos y para medir sus anchos.  Se realizó un programa de cómputo para determinar las posiciones de los centros de los pulsos y para medir sus anchos.  Se realizó un programa para extender el análisis de la intensidad del índice de verdor por franja para toda la imagen.  Se estudió el concepto de entropía de Shannon y su aplicabilidad en el procesamiento de imágenes.  Se terminaron criterios para aplicar la entropía de Shannon en el problema de diferenciar entre la planta de maíz y la presencia de hierbas o pastos entre el cultivo.  Se realizó un programa de cómputo para calcular la entropía de Shannon a fin de establecer diferencias entre la textura de la planta de maíz y la textura del pasto o hierbas.  Del análisis de las simulaciones realizadas con el anterior programa mencionado se determinó que los resultados con el parámetro de uniformidad eran mejores que los obtenidos con la entropía de Shannon. Por lo que se continuó trabajando con el parámetro de uniformidad.  Se establecieron criterios para determinar la posición en y de los puntos de referencia de navegación para el robot.  Se desarrolló un programa de cómputo para calcular dichos puntos.  Se desarrolló un algoritmo general para analizar imágenes completas con base en el criterio de segmentación por franjas, que permite localizar los puntos de referencia de navegación en fotografías de campos de cultivo de maíz.  Se realizó un comparativo entre los resultados obtenidos utilizando el parámetro de uniformidad y sin el parámetro de uniformidad. Determinando que los mejores resultados se obtienen utilizando este parámetro. 


CONCLUSIONES

Se presentan los resultados de aplicar un algoritmo basado en el cálculo del índice de verdor en imágenes RGB obtenidas por la cámara usada para la navegación de un robot a través de un campo agrícola sembrado con maíz. Dicho algoritmo utiliza el parámetro de uniformidad con el fin de distinguir entre las plantas de maíz y posibles hierbas o pasto. La comparación de dicho del parámetro de uniformidad y la entropía de Shannon directa a la imagen y a sus variaciones en la dirección X mostró un mejor resultado con la primera opción. Los resultados muestran que usando dicho parámetro de uniformidad mejora el resultado de establecer puntos de referencia de navegación para el robot en el campo sembrado de maíz que al no utilizarlo. Los puntos de referencia obtenidos pueden ser usados por medio de un proceso de agrupación de puntos por distancia euclidiana y ajuste por regresión lineal para generar líneas de referencia de navegación para el robot.
Monroy Salazar Giselle Aline, Instituto Politécnico Nacional
Asesor: Dra. Jose Areli Carrera Román, Universidad Tecnológica de Tecamachalco

ESTRATEGIA DE IMPLEMENTACIóN DE HERRAMIENTA DE IA: CASO DE ESTUDIO CON JóVENES UNIVERSITARIOS


ESTRATEGIA DE IMPLEMENTACIóN DE HERRAMIENTA DE IA: CASO DE ESTUDIO CON JóVENES UNIVERSITARIOS

Monroy Salazar Giselle Aline, Instituto Politécnico Nacional. Sanchez Rodriguez Daniela, Universidad Autónoma de Nayarit. Asesor: Dra. Jose Areli Carrera Román, Universidad Tecnológica de Tecamachalco



PLANTEAMIENTO DEL PROBLEMA

El surgimiento y la rápida evolución de las Inteligencias Artificiales (IA) han desencadenado un debate profundo sobre su aplicación en el campo educativo. La integración de estas tecnologías en las aulas plantea interrogantes sobre su efectividad y la manera óptima de implementarlas para maximizar sus beneficios. Con el avance constante de la IA, es imperativo explorar métodos que permitan aprovechar al máximo estas herramientas en entornos educativos, con un énfasis particular en la mejora del aprendizaje autónomo y la investigación estudiantil. La IA tiene el potencial de transformar radicalmente la educación superior, proporcionando a los estudiantes nuevas formas de acceder a la información, interactuar con el conocimiento y desarrollar habilidades críticas. Sin embargo, para lograr un impacto significativo, es crucial identificar y superar las barreras que pueden surgir en su implementación. Entre estos desafíos se encuentran: Aceptación y Adaptación: La aceptación por parte de los estudiantes y docentes, así como su adaptación a estas nuevas herramientas. Integración Curricular: La adecuada integración de la IA en los planes de estudio existentes. Capacitación y Competencia: La necesidad de capacitación para que tanto docentes como estudiantes puedan utilizar estas tecnologías de manera efectiva. En este contexto, el objetivo principal del proyecto es implementar el uso de ChatGPT como una herramienta de apoyo para el fortalecimiento del proceso de aprendizaje en temas específicos. Enfocándose en los estudiantes de Ingeniería en Mantenimiento Industrial de la UTTECAM, proporcionando un caso de estudio concreto sobre los beneficios y desafíos de la integración de la IA en la educación superior. Este estudio busca desarrollar una estrategia clara y efectiva para la implementación de herramientas de IA en la educación superior. Evaluará tanto sus beneficios potenciales como los posibles obstáculos, proporcionando un marco de referencia para futuras aplicaciones en otros programas educativos. A través de esta investigación, se espera fomentar un entorno de aprendizaje más dinámico, interactivo y personalizado, maximizando así el aprovechamiento de las tecnologías de IA en el ámbito educativo.



METODOLOGÍA

Para llevar a cabo este estudio, se seleccionó una muestra de 45 estudiantes de la carrera de Ingeniería en Mantenimiento Industrial de la UTTECAM, con el propósito de implementar el uso correcto de la Inteligencia Artificial para mejorar el proceso de aprendizaje y el rendimiento académico. El estudio se dividió en tres fases, cada una de las cuales hizo contribuciones significativas. La metodología empleada se basa en la investigación-acción-desarrollo, que se fundamenta en la necesidad de realizar investigaciones vinculadas estrechamente con las necesidades prácticas del sistema educativo, con el objetivo de lograr transformaciones inmediatas en la realidad educativa (Ortiz, M., y Borjas, 2008). Primera Fase: Examen Diagnóstico Se llevó a cabo un examen diagnóstico con el objetivo de evaluar las habilidades de comprensión de los estudiantes. Segunda Fase: Introducción a ChatGPT Se presentó de manera generalizada la herramienta ChatGPT a los estudiantes, realizando búsquedas a travésde ChatGPT con la participación activa de los estudiantes, comparando los resultados obtenidos con los de sus búsquedas habituales. Tercera Fase: Entrenamiento y Seguimiento Se realizó un seguimiento a los estudiantes para mejorar el uso de ChatGPT. Se les explicó qué es un prompt y se les brindó una fórmula de seis componentes para crearlo, con el objetivo de mejorar la calidad de sus preguntas.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos teóricos sobre Inteligencia Artificial (IA) y su aplicación correcta para mejorar el proceso de aprendizaje. El avance de la tecnología está ocurriendo a pasos agigantados, y muchas de las herramientas que proporciona nos ayudan a realizar tareas cotidianas con mayor facilidad, en menos tiempo y con menos esfuerzo. Este estudio, centrado en la implementación de ChatGPT en los estudiantes de Ingeniería en Mantenimiento Industrial de la UTTECAM, ha demostrado cómo la IA puede integrarse eficazmente en el entorno educativo para maximizar sus beneficios. A través de las tres fases del estudio, se ha evidenciado que ChatGPT puede ofrecer una serie de ventajas significativas: Personalización del Aprendizaje: Adaptando el contenido y los métodos de enseñanza a las necesidades individuales de cada estudiante. Asistencia en la Resolución de Problemas: Proveyendo ayuda en la resolución de problemas complejos y en la comprensión de conceptos difíciles. Apoyo en la Investigación Académica: Facilitando la realización de investigaciones académicas proporcionando acceso rápido y relevante a la información. La aceptación y adaptación por parte de los estudiantes, la adecuada integración en sus rutinas académicas y la capacitación necesaria para utilizar estas tecnologías de manera efectiva fueron identificadas como desafíos clave. Sin embargo, estos obstáculos pueden superarse con una planificación cuidadosa y una estrategia bien definida. En conclusión, se demostró que el uso correcto de una herramienta como ChatGPT puede revolucionar completamente la forma en que los estudiantes aprenden. La integración de ChatGPT en los entornos educativos no solo optimiza el proceso de aprendizaje, sino que también fomenta una cultura de autoaprendizaje y curiosidad intelectual. Esto prepara a los estudiantes para enfrentar los desafíos del futuro con confianza y competencia, maximizando así el aprovechamiento de las tecnologías de IA en el ámbito educativo y promoviendo un entorno de aprendizaje más dinámico, interactivo y personalizado.
Monroy Zalapa Andrea Xiomara, Instituto Tecnológico de Querétaro
Asesor: Dr. José Luis Monroy Morales, Instituto Tecnológico de Morelia

DISEñO Y SIMULACIóN DE UN CONTROLADOR DE CARGA Y DESCARGA EN BATERíAS DE LITIO


DISEñO Y SIMULACIóN DE UN CONTROLADOR DE CARGA Y DESCARGA EN BATERíAS DE LITIO

Monroy Zalapa Andrea Xiomara, Instituto Tecnológico de Querétaro. Asesor: Dr. José Luis Monroy Morales, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

Las baterías de litio, en particular las de iones de litio (Li-ion), han emergido como una solución clave en el almacenamiento de energía para sistemas de generación renovable. Este tipo de baterías son usadas con mayor frecuencia debido a su alta densidad de energía, su prologando tiempo de vida útil y su alta eficiencia energética. Las baterías de litio desempeñan un papel fundamental en la integración y optimización de las energías renovables intermitentes como la solar y la eólica. El almacenamiento de energía ayuda a superar uno de los mayores desafíos de las energías renovables: la variabilidad en la producción de energía. Al proporcionar una solución de almacenamiento efectiva, las baterías de litio facilitan la transición hacia un sistema energético más sostenible y menos dependiente de los combustibles fósiles. Entender y optimizar los procesos de carga y descarga es crucial para maximizar el rendimiento y la durabilidad de las baterías de litio. Además, el continuo avance en materiales y tecnología promete mejorar aún más la capacidad, seguridad y sostenibilidad de estas baterías, posicionándolas como un componente principal en la transición hacia energías más limpias y eficientes. El proceso de control de carga y descarga de una batería es de vital importancia para un sistema de almacenamiento y suministro eléctrico, ya que debe cumplir  con los requerimientos de una carga eléctrica y el sistema eléctrico de potencia. Para ello es fundamental tener un controlador de carga y descarga rápido y preciso, el cual, en gran parte dependerá del algoritmo de compartimiento de carga del sistema. La simulación de un controlador de carga nos permite comprobar el funcionamiento adecuado entre los cálculos realizados en el diseño y el comportamiento aproximado a un sistema real. Con esto se puede interpretar de mejor manera los resultado esperados en la implementación de un sistema de almacenamiento de energía. En este proyecto se diseña y simula un controlador de carga y descarga de una batería de Litio, se desarrollaron las ecuaciones y diagramas de control correspondientes y se presentaron los resultados en gráficas de los parámetros eléctricos más significativos en el sistema.



METODOLOGÍA

Se comenzó con el estudio básico de los principios de funcionamiento de las baterías de litio y los controladores de carga/descarga. Lo anterior se realizó con la revisión bilbiográfica que contenía conceptos fundamentales de las baterías de iones Litio. En esta revisión bibliográfica también se investigó sobre diferentes técnicas de control, las cuales fueron abordadas desde un punto de vista de bloques de control donde se aplicaban controladores proporcionales-integrales (PI) de forma básica. Estos bloques de control fueron simulados en MATLAB/Simulink. Posteriormente se diseñó el sistema completo a simular, el cual está formado por una fuente de CD, la cual representa una fuente de energía renovable. Esta fuente de CD está conectada directamente a u convertidor de CD-CD, al cual se le conoce como Buck-Boost. Este convertidor nos permite tanto aumentar con disminuir los niveles de voltaje de CD. Entre el convertidor Buck-Boost y la batería de Litio se conectó una impedancia de acoplamiento RL, la cual es fundamental para interconectar las dos fuentes de CD, es decir, el voltaje de salida del convertidor Buck-Boost y la batería. Una vez que se tuvo el diseño, se procedió a aprender a simular sistemas eléctricos y eléctrónicos en MATLAB/Simulink.  Una vez comprendido el funcionamiento del programa, se investigaron y estudiaron diversas técnicas de control. A partir de esta investigación, se seleccionó la técnica más adecuada para diseñar un modelo del controlador de carga/descarga, especificando los parámetros y condiciones de operación. Asimismo, se definieron las ecuaciones y algoritmos que regirán el funcionamiento del controlador. Este controlador está formado por dos bloques de control anidado, el controlador interno de corriente y el controlador externo de voltaje. Ambos lazos de control se implementaron en el sistema y se comenzó a realizar pruebas. Al realizar las pruebas, se detectaron áreas de mejora en el controlador y se ajustaron parámetros para mejorar la eficiencia y la estabilidad. Después se simuló el sistema con su respectivo controlador. Se propusieron casos de estudios para diferentes condiciones de carga/descarga, lo cual nos permitió obtener los resulados de los parámetros más importantes a considerar, como son, el voltaje de salida del convertidor Buck-Boost, la corriente de carga/descarga de la batería, el voltaje de la batería y el estado de carga de la batería. Finalmente, se realizo un reporte de las actividades desarrolladas durante la estancia.


CONCLUSIONES

La implementación del control de carga y descarga basado en las técnicas seleccionadas ha mostrado una mejora significativa en la eficiencia y la vida útil de la batería. La selección y ajuste de parámetros específicos, como las condiciones de carga y descarga, permitieron una operación más segura y eficiente. La simulación ayudó a identificar los valores óptimos para estos parámetros, garantizando un rendimiento óptimo del sistema. Además, se demostró la capacidad del controlador para mantener la estabilidad del sistema bajo diversas condiciones de operación, lo cual es crucial para aplicaciones prácticas dónde la fiabilidad y la consistencia son esenciales.  Los resultados obtenidos en las simulaciones desempeñan un papel crucial en la construcción de prototipos físicos al permitir la evaluación y optimización de diseños antes de la implementación física. Al predecir el comportamiento y el rendimiento de un prototipo bajo diversas condiciones, las simulaciones identifican y corrigen posibles problemas de manera anticipada. Esto no solo minimiza la necesidad de materiales y recursos, sino que también acorta el tiempo de desarrollo, haciendo el proceso más eficiente y económicamente viable.
Montalvo Maldonado Hugo Armando, Universidad de Guadalajara
Asesor: Dra. Alma Yolanda Alanis García, Universidad de Guadalajara

PROTOTIPO DIDáCTICO CEREBRAL


PROTOTIPO DIDáCTICO CEREBRAL

Ayon Rosales Dafne Gissell, Universidad de Guadalajara. Bautista Islas Joshua, Instituto Politécnico Nacional. Montalvo Maldonado Hugo Armando, Universidad de Guadalajara. Morales Sánchez Emanuel Alejandro, Universidad de Guadalajara. Asesor: Dra. Alma Yolanda Alanis García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Comprender el funcionamiento y las áreas del cerebro es fundamental no solo para la educación en neurociencia, sino también para la investigación en inteligencia artificial y el desarrollo de redes neuronales artificiales. Este proyecto se centra en la creación de un modelo interactivo del cerebro humano, con el objetivo de que los usuarios puedan conocer todas las partes fundamentales del cerebro, incluyendo su ubicación anatómica y sus funciones específicas. Consideramos que este modelo será una herramienta educativa valiosa para estudiantes, investigadores y el público en general, facilitando la divulgación científica de manera accesible y atractiva.



METODOLOGÍA

Se realizó una investigación exhaustiva sobre la anatomía y fisiología cerebral, enfocada en las diferentes partes y áreas específicas del cerebro que realizan tareas determinadas. Estas áreas, conocidas como lóbulos, incluyen: Lóbulo Frontal: Control del movimiento, personalidad, concentración, planificación, resolución de problemas, significado de las palabras, reacciones emocionales, habla y olfato. Lóbulo Parietal: Tacto y presión, gusto, y conciencia corporal. Lóbulo Temporal: Recepción y procesamiento de los sonidos, reconocimiento de rostros, emociones y memoria a largo plazo. Lóbulo Occipital: Vista. Cerebelo: Control motor, equilibrio y coordinación. Lóbulo Límbico: Control de emociones como felicidad, tristeza y amor. Con esta información, buscamos modelos para imprimir en 3D nuestro modelo didáctico. Se imprimió un modelo detallado del cerebro, asegurando una representación precisa de las estructuras anatómicas y sus interconexiones. Después del trabajo de diseño e impresión 3D, se dividieron los lóbulos y las áreas de cada una de las funciones del cerebro. Se desarrolló una aplicación móvil conectada a una Raspberry Pi, que permite la selección de regiones cerebrales específicas. Al seleccionar una región, la aplicación muestra un video explicativo sobre su funcionamiento, y el modelo didáctico se ilumina mediante LEDs en el área correspondiente, mostrando así al usuario la ubicación anatómica. Este desarrollo de interactividad asegura una experiencia de aprendizaje inmersiva y dinámica. Realizamos diferentes pruebas para evaluar la facilidad de uso, la comprensión del contenido y la efectividad de las tecnologías interactivas implementadas. Basados en la retroalimentación, realizamos ajustes y mejoras para optimizar la experiencia de usuario y la precisión del contenido.


CONCLUSIONES

El proyecto "Prototipo Didáctico Cerebral" ha logrado desarrollar una herramienta educativa innovadora que combina el modelado 3D, la interactividad mediante tecnologías avanzadas y la accesibilidad inclusiva. Las pruebas demostraron que el prototipo es fácil de usar y efectivo en la transmisión del conocimiento. Este proyecto tiene el potencial de transformar la enseñanza y el aprendizaje de la neurociencia.
Montes Aguilar Miguel Ángel, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte

METODOLOGíA DE SUPERFICIE DE RESPUESTA DUAL CON VARIABLES DE RUIDO CUALITATIVAS PARA LA OPTIMIZACIóN DE PROCESOS


METODOLOGíA DE SUPERFICIE DE RESPUESTA DUAL CON VARIABLES DE RUIDO CUALITATIVAS PARA LA OPTIMIZACIóN DE PROCESOS

Montes Aguilar Miguel Ángel, Instituto Tecnológico de Ciudad Juárez. Ramirez Juarez Adiel, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte



PLANTEAMIENTO DEL PROBLEMA

Introducción La metodología de Superficie de Respuesta es un conjunto de técnicas utilizadas en el estudio de la relación entre una o más respuestas y un conjunto de factores o variables independientes y donde el objetivo es optimizar las respuestas y por consecuencia en la optimización de algún proceso. Dicha metodología se realiza mediante una experimentación secuencial, esto es, la aproximación a la región de interés, se realiza de forma interactiva utilizando diseños cada vez más complejos que dependen de la información que se obtiene en cada etapa. Objetivo del estudio Analizar la implementación de la Metodología de Superficie de Respuesta Dual con variables de ruido cualitativas para la optimización de procesos. Justificación La metodología de superficie de respuesta se emplea para optimizar un proceso en el que las variables que intervienen no están relacionadas a partir de un modelo matemático exacto, sino que es necesario construir un modelo empírico para aproximar su comportamiento. La principal utilidad de esta metodología es la optimización de la variable de interés. En la actualidad es fundamental el encontrar respuestas a variables que nos pueden afectar en algún proceso.



METODOLOGÍA

Metodología La metodología de superficie de respuesta usualmente se aplica junto con experimentos factoriales. El enfoque usual es utilizar el diseño de experimentos para determinar que variables están influenciando la respuesta de interés. Una vez que dichas variables son identificadas, se obtiene una estimación aproximada de la superficie de respuesta por medio de modelos factoriales especiales. Esta superficie de respuesta se usa como guía para variar gradualmente los factores controlables que afectan a la respuesta de manera tal que se mejore el valor de la respuesta. Una vez que el cambio de los factores controlables no origine una mejora predecible en la variable de la respuesta, se puede aplicar un método de experimentación más sofisticado para encontrar la superficie de respuesta operativa final del proceso de interés. Desarrollo Análisis de la metodología aplicada: investigar conceptos y ejemplos de la metodología aplicada. Desarrollo de ejemplos de MSR: elaborar ejemplos mediante el uso de la app minitab para encontrar las respuestas. Implementación en un caso real: Ejecutar lo aprendido durante la investigación para la solución al ejercicio planteado. Evaluar resultados: validar los resultados obtenidos y análisis de las áreas de oportunidad.


CONCLUSIONES

Conclusiones Resultados de análisis: La aproximación a la región del óptimo es un proceso secuencial que inicia con el ajuste de un modelo lineal y que posteriormente requiere el ajuste de un modelo cuadrático. El procedimiento de aproximación sigue la trayectoria del ascenso más pronunciado, el cual está indicado por la dirección del vector gradiente. El modelo de segundo orden ajustado es un diseño central compuesto (DCC) propuesto por Box y Wilson son viables para los ejercicios realizados. La verificación de los supuestos del modelo implica el análisis de los residuales como variables aleatorias normales e independientes con media cero y varianza constante. Aplicación de metodología (MSR) En cuanto al método aplicado en el caso experimental nos permite encontrar cual es la combinación apropiada en cuanto en el ejemplo de un buen helicóptero es aquel que permanece más tiempo en el aire, así que la variable de respuesta sería el tiempo de vuelo, que se mide desde el momento en que el helicóptero se suelta desde una altura de 2 metros hasta el momento en que toca el suelo. Si no definimos las condiciones de prueba, es posible que los helicópteros de la muestra se suelten desde diferentes alturas, en cuyo caso los resultados de nuestro DOE no serían válidos.
Montes Villarreal Liliana Guadalupe, Instituto Tecnológico de Tepic
Asesor: M.C. Roberto Antonio Martínez Thompson, Universidad Politécnica de Sinaloa

CARRO DE BúSQUEDA LIGHTNINGDRIVE


CARRO DE BúSQUEDA LIGHTNINGDRIVE

Lizarraga Acosta José Yair, Universidad Politécnica de Sinaloa. Montes Villarreal Liliana Guadalupe, Instituto Tecnológico de Tepic. Ozuna Diaz Ruanet Alejandro, Universidad Politécnica de Sinaloa. Ubaldo Sanchez Juan Carlos, Universidad Politécnica de Sinaloa. Asesor: M.C. Roberto Antonio Martínez Thompson, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En caso de desastres naturales la búsqueda y comunicación con las personas atrapadas puedes ser muy difícil,peligrosa y tardada



METODOLOGÍA

Se creará un carrito a control remoto para realizar la búsqueda más rápida y de forma más segura


CONCLUSIONES

Crear un carrito que facilite el buscar a las personas atrapadas en un desastre natural
Montiel Martinez Dafne Denisse, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor: Ing. Emmanuel Ramírez Romero, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo

USO DE MACHINE LEARNING EN LA INTEGRACIóN DE MICRO CONTROLADORES


USO DE MACHINE LEARNING EN LA INTEGRACIóN DE MICRO CONTROLADORES

Gutierrez Pacheco Karla Itzel, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Montiel Martinez Dafne Denisse, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Ing. Emmanuel Ramírez Romero, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial (IA) busca crear sistemas que realicen tareas que normalmente requieren inteligencia humana. El "Machine Learning" (aprendizaje automático) es una subcategoría de la IA que desarrolla algoritmos para que las computadoras aprendan de la experiencia y mejoren sin ser programadas explícitamente para cada tarea. El aprendizaje automático puede ser supervisado, no supervisado o por refuerzo, dependiendo de cómo se utilicen los datos para entrenar los modelos. En resumen, la IA es el campo general que emula la inteligencia humana, y el aprendizaje automático es una técnica específica dentro de la IA para mejorar el rendimiento a partir de datos.



METODOLOGÍA

Etapa de entrenamiento,en esta parte se enviaran los datos de arduino a python y obtener sus graficas para la normalizacion de datos. Despues la validacion de datos para crear metricas de exactitud y de regresion, para crear las predicciones, utilizando arduino keras y poder exportar la red neuronal de python a arduino. En el reconocimiento de patrones y clasificaccion binaria para la generacion de datos , entrenamiento y para la umplementacion en arduino.


CONCLUSIONES

La etapa de entrenamiento de un modelo con datos de Arduino incluye la recolección y envío de datos a Python para su normalización y graficación. Luego, se entrena una red neuronal con Keras, evaluando su rendimiento con métricas de exactitud y regresión. El modelo entrenado se convierte a un formato compatible con Arduino, como TensorFlow Lite, y se implementa en Arduino para realizar reconocimiento de patrones y clasificación binaria en tiempo real. Este proceso permite aprender de los datos y hacer predicciones precisas en un entorno de hardware limitado.
Montiel Torres Sergio Amaury, Universidad Tecnológica de La Selva
Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva

SKOP KAP: UNA APLICACIÓN MÓVIL PARA LA COMUNICACIÓN CON PERSONAS CON DISCAPACIDAD AUDITIVA


SKOP KAP: UNA APLICACIÓN MÓVIL PARA LA COMUNICACIÓN CON PERSONAS CON DISCAPACIDAD AUDITIVA

García Gonzalez Andy, Universidad Tecnológica de La Selva. Guillén Trujillo Pedro Emmanuel, Universidad Tecnológica de La Selva. Jimenez Hernandez Jose Miguel, Universidad Tecnológica de La Selva. Montiel Torres Sergio Amaury, Universidad Tecnológica de La Selva. Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva



PLANTEAMIENTO DEL PROBLEMA

Actualmente, aproximadamente 430 millones de personas (5% de la población mundial) sufren de algún tipo de pérdida auditiva, 432 millones de adultos y 34 millones de niños requieren rehabilitación. La OMS prevé que para el 2050 esa cifra superará los 700 millones de personas, es decir, una de cada diez personas en el mundo sufrirá está discapacidad (OMS, 2023; Organización de las Naciones Unidas [ONU], 2021). En América Latina, cerca de 217 millones de personas cuentan con pérdida auditiva (21.5% de la población), por lo que, atender esta discapacidad, representa un gasto anual de 262 millones para la región.  La OPS prevé que para el 2050 aumente a 322 millones de personas con dicha discapacidad. (Organización Panamericana de la Salud [OPS], s.f.).    En México, más de 1.35 millones de personas presentan una discapacidad auditiva; más de 550 mil son personas mayores de 60 años, más de 400 mil tienen entre 30 y 59 años, más de 133 mil tienen entre 15 y 29 años, y más de 139 mil son niños menores de 15 años.  Esta discapacidad, el 44.4% lo adquirió por la edad avanzada que presenta, el 15.4% lo tiene de nacimiento, el 24.3% lo adquirió a causa de alguna enfermedad, el 7.3% a causa de un accidente y el 8% por otras causas (Instituto Nacional de Estadística y Geografía [INEGI], 2020a, INEGI, 2020b).  Comunicarse con personas que presentan ésta discapacidad sin tener el conocimiento de un lenguaje de señas es muy complicado, ya que nuestra sociedad está basada a través del lenguaje oral, por lo que, se excluye de cierto modo a las personas que sufren esta discapacidad. En México, existe el Lenguaje de Señas Mexicana que es utilizado por personas sordas para poder comunicarse, ésta tiene su propia sintaxis, gramática y léxico (Consejo Nacional para el Desarrollo y la Inclusión de las Personas con Discapacidad [CONADIS], 2016). En la actualidad, existen pocas herramientas tecnológicas creadas con el objetivo de ayudar a la comunicación con personas que tienen esta discapacidad, debido a la falta de interés en esta sección de la sociedad.    Desarrollar una aplicación móvil que traduzca del lenguaje oral al lenguaje de señas, mediante la implementación de inteligencia artificial, para la comunicación entre cualquier persona y una con discapacidad auditiva.  



METODOLOGÍA

Para el desarrollo de la aplicación "SK'OP K'AP", se ha optado por utilizar la metodología ágil Scrum. Esta elección se basa en la necesidad de adaptarse rápidamente a los cambios y la importancia de mantener una colaboración continua entre los miembros del equipo de desarrollo. Scrum es particularmente adecuado para proyectos de software como el nuestro, donde la interacción constante con los usuarios finales es crucial para desarrollar una solución efectiva y centrada en sus necesidades.   La elección de Scrum como marco de trabajo está fundamentada en su flexibilidad y estructura iterativa. Según Pérez, O.A. (2011)., Scrum facilita la adaptación a las necesidades cambiantes del proyecto mediante la división del trabajo en sprints (iteraciones cortas), que permiten una revisión constante y ajustes según los resultados obtenidos y el feedback de los usuarios. Esta metodología también fomenta la auto organización y la responsabilidad dentro del equipo, aspectos clave para el éxito en el desarrollo de software.   El proyecto se dividirá en sprints, cada uno con una duración de dos semanas; Sprint 1: Desarrollo del protocolo de investigación del proyecto Sprint 2: Definir la metodología para el desarrollo de la aplicación Sprint 3: Diseño y modelado 3D y programación de manos Sprint 4: Diseño y desarrollo de la interfaz de usuario de la app Móvil Sprint 5: Aprendizaje Automatizado.  


CONCLUSIONES

Durante el desarrollo de la aplicación, se logró crear una app móvil con avatares 3D que representan el lenguaje de señas mediante animaciones. Además, se integró una inteligencia artificial entrenada para traducir entre el lenguaje de señas y el lenguaje hablado de manera bidireccional. Los resultados obtenidos en este corto periodo de desarrollo fueron muy positivos, estableciendo una base sólida para futuros avances. El próximo paso será perfeccionar cada aspecto de la app, mejorando la interacción entre sus componentes y optimizando la inteligencia artificial para brindar traducciones más precisas. De esta manera, se espera ofrecer una solución de alta calidad que ayude a superar las barreras de comunicación que enfrentan las personas con discapacidad auditiva.
Montoya Henao Guadalupe, Institución Universitaria Colegio Mayor de Antioquia
Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla

MODELADO, NAVEGACIóN E INTERACCIóN DE ARQUITECTURAS EN EL METAVERSO CON GAFAS VR Y RECONSTRUCCIóN DIGITAL FOTOGRAMéTRICA DE OBJETOS Y FACHADAS ARQUITECTóNICAS USANDO DRONES.


MODELADO, NAVEGACIóN E INTERACCIóN DE ARQUITECTURAS EN EL METAVERSO CON GAFAS VR Y RECONSTRUCCIóN DIGITAL FOTOGRAMéTRICA DE OBJETOS Y FACHADAS ARQUITECTóNICAS USANDO DRONES.

Montoya Henao Guadalupe, Institución Universitaria Colegio Mayor de Antioquia. Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El uso de herramientas digitales en la arquitectura es cada vez más evidente y necesario para estar a la vanguardia del campo. Generar espacios y conocimientos a través del mundo digital se convierte en un camino seguro y estable para establecer relaciones directas entre el producto y su creador. Comprender esto es crucial para formar profesionales más conscientes y adaptables a los avances futuros. Considerar la tecnología como una aliada ayudará a formar una generación de arquitectos con mejores recursos de adaptación y nuevas experiencias, brindando al campo alternativas innovadoras para crear arquitectura de calidad. Estar cerca de los avances tecnológicos permite al profesional ofrecer propuestas más interesantes y revolucionarias en proyectos arquitectónicos. Los entregables a los clientes facilitarán una mejor comprensión de los productos y solicitudes, fomentando una relación más cercana entre el cliente y el producto.



METODOLOGÍA

Se emplearon varios enfoques para conocer nuevas herramientas digitales para la arquitectura, especialmente en el modelado 3D y la visualización digital, estableciendo dos caminos distintos para interactuar con la arquitectura. El primer ejercicio consistió en utilizar gafas de realidad virtual, un mundo digital novedoso. Era necesario familiarizarse con las gafas, su interfaz y funciones, utilizando las Meta Quest Oculus Pro y Meta Quest 2. Tras entender el uso de las gafas y el metaverso, se seleccionaron tres programas digitales de arquitectura: Arkio, una herramienta de diseño espacial colaborativo para VR; SketchUp, un programa básico para modelado 3D con una interfaz adaptable; y Enscape, un software de renderizado en tiempo real y realidad virtual. El equipo de trabajo se dividió en tres subgrupos, cada uno trabajando con una versión de gafas de realidad virtual Meta Quest y uno de los programas. El objetivo era explorar alternativas de visualización virtual del programa y elementos de modelado 3D. Durante la experimentación, se observó que hay poca información sobre cómo usar los programas y establecer visualizaciones con las gafas de realidad virtual. Por ello, se propone crear un manual para cada programa, con conceptos clave y un paso a paso del uso de las gafas con programas digitales de arquitectura. Este ejercicio se ha llevado a cabo desde las primeras semanas del verano. Otra línea de investigación fue la fotogrametría como herramienta esencial para el modelado 3D de contextos urbanos o complejos objetos arquitectónicos. Se utilizó el programa 3DF Zephyr Free para aprender su interfaz y analizar las herramientas de reciente aparición, desarrollando un pensamiento crítico al usarlas. El procedimiento implicaba tomar unas cincuenta fotos de un objeto pequeño y complejo, siendo rigurosos en la captura, ya que el programa utiliza estas imágenes para crear agrupaciones por color y modelar un objeto tridimensional. Este ejercicio demuestra que la fotogrametría es crucial para el modelado tridimensional, ahorrando tiempo en la modelación de contextos urbanos. Después de los ejercicios individuales, se abordó la fachada de un edificio histórico, utilizando drones para una perspectiva más avanzada. Los drones permiten tomar fotos de difícil acceso, rodeando edificios para capturar detalles complicados. Como en ejercicios previos, es fundamental entender primero el uso de la herramienta y luego cómo aporta al programa digital. El uso de drones facilita la digitalización de obras arquitectónicas complejas, optimizando procesos de modelado tridimensional de forma más rápida y accesible. La compilación de resultados y procesos de los tres ejercicios sirve como prueba del ejercicio y como base para perfeccionar el uso de las herramientas. Los estudiantes pueden practicar y mejorar su técnica, adaptándose al cambio continuo.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos tanto teóricos como prácticos relacionados con diferentes herramientas de uso digital para el mundo de la arquitectura. Es a través de estas nuevas formas de relacionamiento con el mundo digital que la arquitectura puede generar propuestas innovadoras. A partir de los resultados obtenidos, se registraron diferentes ejercicios realizados y se documentaron los pasos a seguir con las distintas herramientas utilizadas. A través de la investigación realizada, se comprendió que no hay muchas investigaciones o productos menos formales que ayuden a los estudiantes y profesionales a conocer estas herramientas vanguardistas. Por esta razón, el resultado obtenido es de suma importancia, ya que puede servir como una guía base para profesionales en arquitectura, ingeniería y diseño. Como apreciación personal, uno de los logros más importantes del verano fue el uso del programa Enscape con las gafas Meta Quest Pro, ya que esta combinación de interfaces y programas me permitirá, como profesional, generar otro tipo de productos y proyectos. Esto facilitará una relación más directa entre mis conocimientos como profesional y las personas a las que serviré en mi labor vocacional, dejando un producto visual de gran peso e importancia para el entendimiento del proyecto arquitectónico, todo gracias al mundo del metaverso y al buen uso de las herramientas digitales. Por último, es de suma importancia desarrollar una relación crítica hacia el uso de cualquier herramienta digital y comprender el constante cambio de las mismas, para la formación de profesionales más adaptables y menos vulnerables en el campo de la arquitectura y el diseño.
Montoya Ortiz Brandon Esaú, Universidad Tecnologica de León
Asesor: Mtra. Didia Carrillo Hernández, Universidad Tecnologica de León

PROGRAMACIóN DE FILTROS CON JAVAAR


PROGRAMACIóN DE FILTROS CON JAVAAR

Montoya Ortiz Brandon Esaú, Universidad Tecnologica de León. Asesor: Mtra. Didia Carrillo Hernández, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

Es crucial tener un entendimiento práctico de los procesos industriales en el campo de la educación técnica e ingeniería. No obstante, el costo y la disponibilidad de los equipos físicos necesarios para prácticas reales pueden ser un obstáculo. Este proyecto presentó la idea de crear un filtro digital que posibilita a los estudiantes interactuar con imágenes en 3D de procesos industriales sin necesidad de ningún otro recurso. Esta herramienta permite examinar y entender los procesos sin requerir dispositivos físicos, ofreciendo una opción práctica y eficiente para la educación técnica.



METODOLOGÍA

Se utilizó una metodología basada en iteraciones y la integración continua de componentes del software con el fin de alcanzar los objetivos establecidos para este proyecto. Se centró principalmente en la implementación y optimización de filtros digitales, así como en objetos 3D.       Se hizo un estudio de los escritos existentes sobre los filtros digitales y cómo se usan en la visualización de imágenes. En este estudio, se investigaron diferentes tipos de filtros y su aplicación en el contexto de visualización industrial.       Se creó una lógica específica para poder añadir objetos tridimensionales a imágenes estáticas. En esta etapa, se realizó una planificación minuciosa sobre el flujo de datos y la interacción entre el filtro y las imágenes en los procesos industriales.   Con el fin de evaluar la factibilidad del filtro, se comenzó añadiendo objetos tridimensionales simples.   Se realizaron pruebas minuciosas para detectar y solucionar fallos en la primera versión del filtro. Así, se aseguró que la lógica del filtro funcionara sin contratiempos y lograra una proyección precisa de los objetos 3D en las imágenes de los procesos industriales.   Se hicieron mejoras en el código para incrementar la eficiencia y el rendimiento del filtro mediante la detección y solución de posibles cuellos de botella. Como resultado, el procesamiento se aceleró. Se modificaron tanto el filtro como la administración de los recursos gráficos.   Para capturar la dinámica de los procesos industriales, se optó por añadir animaciones a los objetos 3D. Se emplearon las técnicas de animación con el propósito de ofrecer una experiencia que resulte más realista y participativa.   Para concluir, se llevó a cabo una evaluación de la implementación del filtro en situaciones prácticas y reales. Se llevaron a cabo las modificaciones pertinentes en los componentes con el fin de cumplir con los requerimientos particulares de los casos de uso identificados.


CONCLUSIONES

El proyecto ha culminado con éxito, logrando desarrollar un filtro digital eficiente que posibilita a los estudiantes la interacción con representaciones 3D de procesos industriales mediante imágenes estáticas. Los resultados muestran que este instrumento no solo hace que el aprendizaje sea más accesible en términos económicos y rentables, sino además incrementa la comprensión de los estudiantes acerca de los procedimientos industriales al proporcionar una experiencia visual e interactiva. La base de nuestro enfoque es la investigación, el diseño iterativo y la creación de filtros que sean resistentes, eficientes y capaces de adaptarse a diversos contextos educativos y técnicos. Accesibilidad Mejorada: Los estudiantes ahora pueden estudiar procesos industriales sin tener que gastar dinero en equipos físicos de alto costo. Eficiencia del Aprendizaje: El filtro es una herramienta eficaz y exitosa para la enseñanza y el aprendizaje de los procesos industriales. Flexibilidad y Adaptabilidad: Es posible adaptar la solución desarrollada para satisfacer diferentes escenarios educativos y variadas necesidades y contextos.
Moo Kumul Maria de los Angeles, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dra. Natalia Ramirez Torres, Universidad Católica de Colombia

INNOVACIóN TECNOLóGICA EN LA VENTA DE TORTILLAS: IMPLEMENTACIóN DE BáSCULAS CONECTADAS A UN SISTEMA EN CANCúN, QUINTANA ROO


INNOVACIóN TECNOLóGICA EN LA VENTA DE TORTILLAS: IMPLEMENTACIóN DE BáSCULAS CONECTADAS A UN SISTEMA EN CANCúN, QUINTANA ROO

Moo Kumul Maria de los Angeles, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dra. Natalia Ramirez Torres, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

En Cancún, Quintana Roo, la venta de tortillas enfrenta desafíos debido a métodos tradicionales de registro manual de ventas, susceptibles a errores humanos que afectan la precisión del control de inventarios y la gestión eficiente. La falta de automatización dificulta el acceso a datos en tiempo real, necesarios para la toma de decisiones estratégicas y la planificación de la producción. Estos problemas disminuyen la eficiencia operativa de las tortillerías y pueden afectar la satisfacción del cliente y la competitividad del negocio. La implementación de básculas conectadas a un sistema digital ofrece una solución innovadora, permitiendo un registro automático y preciso de las ventas, mejorando la trazabilidad y facilitando el control de inventarios en tiempo real. Aunque presenta desafíos como costos iniciales y la necesidad de capacitación, esta tecnología puede optimizar la gestión de recursos y la respuesta a fluctuaciones de demanda. Este estudio analiza cómo las básculas conectadas pueden mejorar la eficiencia en el registro de ventas de tortillas en Cancún, proporcionando una comprensión profunda de su impacto en la eficiencia operativa y la competitividad del mercado.



METODOLOGÍA

Se establecerán los fundamentos teóricos y prácticos de la innovación tecnológica en la venta de tortillas. Se identificarán las ventajas y desafíos de las básculas conectadas a un sistema digital, revisando artículos académicos y otros recursos para construir una base sólida para la investigación. Se creará un catálogo de búsqueda exhaustivo, recopilando fuentes relevantes como estudios de caso y artículos académicos sobre la implementación de tecnologías en la industria alimentaria. Se utilizarán bases de datos académicas y bibliotecas digitales para reunir información esencial sobre las tecnologías disponibles y su aplicabilidad en la industria de la tortilla. Se analizarán los resultados obtenidos, evaluando la viabilidad de las básculas conectadas en tortillerías. Se considerarán los beneficios esperados y los desafíos, comparando la eficiencia operativa antes y después de la implementación en tortillerías seleccionadas de Cancún, utilizando datos cualitativos y cuantitativos. Se elaborará un bosquejo de los resultados, refinando los puntos clave y asegurando que todos los aspectos importantes del análisis estén cubiertos. Este bosquejo servirá para identificar áreas que requieran ajustes antes de la revisión final. Se revisará y finalizará el resumen del estudio, incorporando retroalimentación y realizando ajustes necesarios para garantizar claridad y precisión. Se corregirán errores gramaticales y de formato, y se verificará que todas las fuentes estén citadas según las normas APA 7.


CONCLUSIONES

Con base en la revisión de literatura sobre la "Innovación Tecnológica en la Venta de Tortillas: Implementación de Básculas Conectadas a un Sistema en Cancún, Quintana Roo", se concluye que la adopción de tecnología avanzada en los procesos de venta y gestión de pequeñas y medianas empresas (PYMEs) puede generar beneficios significativos. Entre estos beneficios destacan la mejora en la eficiencia operativa, la precisión en el control de inventarios y la optimización de la experiencia del cliente. La investigación revela que la implementación de una cadena de suministro (SCM) efectiva en tortillerías es crucial para gestionar de manera eficiente los suministros, como maíz y harina, asegurando la calidad y cantidad adecuadas en el momento oportuno. Además, el uso del modelo SCOR para conectar básculas digitales en tortillerías permite evaluar y mejorar procesos en cinco áreas clave: Planificación, Suministro, Fabricación, Entrega y Devolución. La integración de tecnologías avanzadas, como el Internet de las Cosas (IoT), en básculas digitales automatiza la reordenación de insumos, reduciendo errores humanos y mejorando la eficiencia operativa. La utilización de Big Data en la cadena de suministro de tortillerías también es fundamental, ya que permite analizar patrones de consumo y optimizar la producción y el suministro en tiempo real. Estas tecnologías proporcionan datos valiosos que pueden ayudar a los propietarios a responder rápidamente a las fluctuaciones de la demanda y mejorar la toma de decisiones estratégicas. Los hallazgos de esta investigación son particularmente relevantes para el ERP que está desarrollando Easy Code para la cadena de 9 sucursales de tortillerías en Cancún. Los conceptos de SCM, el modelo SCOR, y la integración de tecnologías avanzadas como IoT y Big Data enriquecen significativamente la calidad del software al adaptarse a las necesidades específicas del suministro en las tortillerías. Estos conceptos facilitan un mejor control de inventarios, reducción de errores humanos y una mayor eficiencia operativa, alineándose con los objetivos de modernización y sostenibilidad a largo plazo de las tortillerías. El análisis realizado confirma que la implementación de básculas conectadas a un sistema digital podría ser una estrategia efectiva para mejorar la eficiencia operativa y la precisión en el registro de ventas en las tortillerías de Cancún. La investigación ha logrado cumplir con los objetivos específicos planteados, demostrando que la adopción de estas innovaciones tecnológicas es crucial para la modernización y sostenibilidad de las tortillerías. Al incorporar básculas conectadas, se espera un impacto positivo en la eficiencia operativa y la competitividad en un mercado cada vez más exigente.
Mora García Mauricio, Instituto Tecnológico de La Piedad
Asesor: Dra. Laura Adame Rodriguez, Instituto Tecnológico Superior de Pátzcuaro

INNOVACIÓN EN LA PRODUCCIÓN DE FRUTOS ROJOS (APLICACIóN DE HERRAMIENTAS TECNOLóGICAS SUSTENTABLES)


INNOVACIÓN EN LA PRODUCCIÓN DE FRUTOS ROJOS (APLICACIóN DE HERRAMIENTAS TECNOLóGICAS SUSTENTABLES)

Mora García Mauricio, Instituto Tecnológico de La Piedad. Asesor: Dra. Laura Adame Rodriguez, Instituto Tecnológico Superior de Pátzcuaro



PLANTEAMIENTO DEL PROBLEMA

La producción de berries (fresas, frambuesas, arándanos y moras) enfrenta una problemática significativa debido a la escasez de métodos innovadores de cultivo. A pesar del avance en tecnologías agrícolas, muchos agricultores siguen utilizando técnicas tradicionales que no son lo suficientemente eficientes ni sostenibles para enfrentar los desafíos actuales, como el cambio climático, la escasez de recursos y las exigencias del mercado. Así mismo la escasez de agua es una preocupación creciente en la producción de frutos rojos, ya que estos cultivos requieren una cantidad significativa de agua para su crecimiento y desarrollo. Las regiones donde se cultivan frutos rojos están experimentando sequías más frecuentes e intensas debido al cambio climático, lo que agrava la disponibilidad de recursos hídricos. Esta problemática afecta la productividad, la calidad de los frutos y la sostenibilidad a largo plazo de las explotaciones agrícolas. Habrá que entender que existen tropiezos durante el proceso de siembra y cosecha, hablamos de las condiciones del clima, el suelo, la contaminación o la falta de empleados para la producción, por ello la importancia de reconocer que existen técnicas adecuadas, más acercadas al uso de la tecnología y que cumplen con el fin de generar una cosecha de acuerdo a los estándares de calidad, despreocupando a los productores sobre cualquier otro contratiempo existente y concentrando las acciones en la mejora continua de sus productos, ayudándose de ideas innovadoras.



METODOLOGÍA

Se utilizo un proceso de lectura empírica, con el objetivo de estudiar y comprender diferentes literaturas. Aplicando lo entendido a los procesos para generar un trabajo que redacte las especificaciones mencionadas por nuestro investigador. Que por consiguiente pretendo usar esta información recabada con el fin de conocer más sobre este tema y comprender los procesos de producción de las berries, así mismo fomentar el cuidado del medio ambiente utilizando y motivando al desarrollo de herramientas sostenibles aplicando la era tecnológica actual. 


CONCLUSIONES

La tecnología es un recurso que actualmente no se utiliza como un agregado, es parte directa o indirecta de los procesos agrícolas, dígase desde utilizar base de datos para almacenar información referente a la producción de frutos rojos o a la aplicación de sistemas autónomos de riego, independientemente del tipo de acción, la tecnología sigue un curso continuo, en donde es indispensable contar con el mínimo de comprensión de la misma con el fin de adaptarse a las corrientes de cambio. Si bien la tecnología es un recurso de aprovechamiento no esta por demás decir que al utilizar alguna de estas herramientas el productor se vera envuelto en una situación de inversión, pero el beneficio será directamente más provechoso. La importancia de utilizar algún tipo de herramienta tecnológica para la producción se traduce no solo en la capacidad de realizar tareas de manera eficiente, sino también apoyando a la conservación del ambiente, el uso de estas tecnologías, permite el control de los recursos naturales como el agua, controla el uso de químicos durante el proceso de producción y regula la capacidad de recurrir a pesticidas o al desgaste del suelo, no solo aportan acciones significativas en pro del medio ambiente sino también ayudan a producir frutos de manera responsable y ecológica. Es esencial que los productores y los principales participes en la producción de berries y de cualquier otro fruto de interés, estén bien informados sobre los procesos que el cultivo implica, la importancia de conocer el producto, marcar tendencias de producción, enfatizar en el cuidado del medio ambiente y por sobre todo ser conscientes del valor que tiene las aportaciones a la economía local y nacional. En el futuro, se recomienda seguir investigando y desarrollando tecnologías que puedan hacer la producción de frutos rojos aún más eficiente y respetuosa con el medio ambiente. Además, es vital crear programas de educación continua para mantener a los productores actualizados sobre las últimas innovaciones y mejores prácticas.
Mora Leal Brandon, Instituto Tecnológico Superior de Tacámbaro
Asesor: Mtra. Elizet Ibarra Limas, Instituto Tecnológico Superior de Tacámbaro

ITULO DEL PROYECTO SISTEMA WEB RESPONSIVO PARA LA IDENTIFICACIóN, EVALUACIóN Y PROPUESTAS DE ESTRATEGIAS DE ACUERDO A LOS ESTILOS DE APRENDIZAJE PARA LOS ESTUDIANTES DE NIVEL SUPERIOR


ITULO DEL PROYECTO SISTEMA WEB RESPONSIVO PARA LA IDENTIFICACIóN, EVALUACIóN Y PROPUESTAS DE ESTRATEGIAS DE ACUERDO A LOS ESTILOS DE APRENDIZAJE PARA LOS ESTUDIANTES DE NIVEL SUPERIOR

Barreda Bonilla Teresita de Jesús, Instituto Tecnológico Superior de Tacámbaro. Mora Leal Brandon, Instituto Tecnológico Superior de Tacámbaro. Asesor: Mtra. Elizet Ibarra Limas, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

La educación es uno de los mayores pilares para el desarrollo de la sociedad, es crucial que está se imparta de la mejor manera posible, utilizando todas las herramientas que se encuentren a nuestro alcance, eso por supuesto incluye las innovaciones tecnológicas; más aún si se trata de la educación superior dado el hecho de que es la última fase de transición hacia la etapa laboral, donde se tendrá que explotar todos y cada uno de los conocimientos adquiridos a lo largo de la vida escolar, naturalmente, se debe de tener noción de cuáles son las debilidades y fortalezas de cada estudiante, en base a esto, se propuso enfocar el uso de las tecnologías de la información para implementar el test de VARK a los alumnos de nivel superior, mediante un sistema web responsivo, esto no sólo permitirá reconocer las fortalezas y flaquezas del estudiante dependiendo de su estilo de aprendizaje, sino que a su vez, los docentes tendrán un panorama mucho más amplio acerca de con que tipos de aprendizaje convive dentro del aula, obtendrá estrategias y propuestas que le ofrecerán la oportunidad de mejorar la calidad y eficacia en el proceso de enseñanza-aprendizaje para sus alumnos.



METODOLOGÍA

Para el desarrollo de este proyecto, el verano pasado se levantaron todos los requerimientos correspondientes, para lo cual, con el análisis y el diseño del sistema obtenidos anteriormente, únicamente este verano mediante los resultados obtenidos a docentes de nivel superior y con la ayuda de estudiantes y docentes de pedagogía, desarrollamos propuestas, las cuales fueron implementadas en nuestro sistema, ya que, este es el objetivo del mismo. Después desarrollamos el sistema e hicimos pruebas del mismo. Las interfaces que se desarrollaron fueron las siguientes: Ventana principal: Aquí se muestran las estadísticas globales de la pagina Login: Inicio de sesión con restricciones dependiendo del tipo(rol) de usuario. Recuperación de usuario y contraseña: Corrobora el registro del correo electrónico y envía al mismo usuario y contraseña. Test: Encuesta realizada al alumno para lograr identificar su estilo de aprendizaje y en base a ello proponer estrategias educacionales Información de resultados: En esta pueden consultar el resultado de los test tanto de alumnos como de grupos enteros. Usuarios y grupos: En esta un usuario administrador puede agregar, modificar y eliminar los diferentes tipos de usuarios. Para el desarrollo de este sistema se utilizaron herramientas como HTML, CSS, JavaScript, PHP, mariaDB y XAMPP. Naturalmente, para llevar un control preciso de la construcción y evolución del sistema se desarrolló un informe técnico detallando cada una de las fases estructurales a las que se sometió este proyecto hasta convertirse en el producto que hoy se entrega. Dicha estructura abarco la implementación de diversas metodologías para el desarrollo, las que se utilizaron para la realización de este proyecto fueron la metodología descriptiva, correlacional, cualitativa, investigación transversal, la forma en que se recopilaron los requerimientos (mediante varias encuestas a docentes y alumnos de nivel superior), datos relevantes correspondientes al Instituto Tecnológico Superior de Tacámbaro, reconocimiento de problemáticas a resolver, alcances, limitaciones, conceptos clave, herramientas tecnológicas utilizadas, construcción de diagramas de caso de uso, de interacción (utilizando los diagramas de secuencia) y la documentación periódica de los resultados a las pruebas a las que se sometía el sistema con el propósito de asegurar su funcionamiento óptimo y preciso. Después del desarrollo del mismo se encuestaron a más de 20 alumnos de nivel superior, varios estudiantes de ingeniería, licenciaturas y posgrados, de esta manera se pudo probar el sistema, en el cual se descubrieron tanto ventajas como desventajas o debilidades de este mismo sistema.


CONCLUSIONES

Durante este verano de investigación logramos cumplir metas y adquirir aún más conocimientos y experiencias académicas, como el hecho de manipular más lenguajes y entornos de programación, más allá del que estábamos acostumbrados a utilizar, desarrollar un producto mucho más profesional y estructurado del cual tenemos la certeza de que su implementación será de gran apoyo tanto para docentes como para mejorar el aprovechamiento académico correspondiente a los alumnos de nivel superior, implementando diferentes herramientas tecnológicas conocidas y otras nuevas, el explotar nuestros conocimientos adquiridos hasta este punto de nuestra vida académica y plasmarlos dentro de la construcción de este ambicioso proyecto que nos atrevemos a decir que se ha completado de manera favorable.
Mora Patiño Gabriel, Instituto Tecnológico de Zitácuaro
Asesor: Mtra. Jhacer Kharen Ruíz Garduño, Instituto Tecnológico de Zitácuaro

DISEñO DE UN MODELO INTELIGENTE WEB PARA LA DETECCIóN Y GESTIóN DE INCENDIOS EN LA ZONA MONARCA DE MICHOACáN


DISEñO DE UN MODELO INTELIGENTE WEB PARA LA DETECCIóN Y GESTIóN DE INCENDIOS EN LA ZONA MONARCA DE MICHOACáN

Mora Patiño Gabriel, Instituto Tecnológico de Zitácuaro. Asesor: Mtra. Jhacer Kharen Ruíz Garduño, Instituto Tecnológico de Zitácuaro



PLANTEAMIENTO DEL PROBLEMA

La gestión de incendios forestales y urbanos representa un desafío significativo debido a su creciente frecuencia y severidad. Las herramientas predictivas avanzadas, como las redes neuronales, pueden proporcionar una ventaja en la predicción y manejo de estos eventos. Este proyecto se centra en desarrollar un modelo de red neuronal para predecir la probabilidad, extensión y clasificación de incendios.



METODOLOGÍA

Durante las siete semanas de trabajo, se llevaron a cabo las siguientes actividades:   Semana 1: Comprensión del Problema y Preparación de Datos Se definió el objetivo del modelo de red neuronal, especificando si se enfocarían en predecir la probabilidad, extensión o clasificación de incendios. Se recolectaron y cargaron los datos en un entorno de trabajo utilizando Python y Jupyter Notebook, además de crear una base de datos utilizando PostgreSQL para un mejor manejo y control de los mismos, ya que se encontraban en archivos Excel, finalmente se visualizó una muestra de los datos con `pandas` y se procedió al preprocesamiento, que incluyó la limpieza de datos y su normalización utilizando `MinMaxScaler` o `StandardScaler` de `scikit-learn`.   Semana 2: Análisis Exploratorio de Datos (EDA) Se realizaron análisis descriptivos para entender las características de los datos mediante estadísticas descriptivas y visualizaciones con `seaborn` y `matplotlib` (histogramas y boxplots). También se llevó a cabo el feature engineering, creando nuevas características relevantes y utilizando `OneHotEncoder` para variables categóricas.   Semana 3: División de los Datos y Selección del Modelo Los datos fueron divididos en conjuntos de entrenamiento, validación y prueba utilizando scikit-learn, posteriormente se investigaron y seleccionaron diferentes arquitecturas de redes neuronales, eligiendo la más adecuada para el problema y se esquematizó la arquitectura en un documento, finalmente se configuró el entorno de trabajo instalando las bibliotecas necesarias.   Semana 4: Implementación del Modelo Se implementó la red neuronal en Keras, siguiendo el diseño arquitectónico definido y se inició el entrenamiento del modelo utilizando los datos de entrenamiento.   Semana 5: Evaluación y Ajuste del Modelo Se evaluó el rendimiento inicial del modelo en el conjunto de validación y se identificaron posibles problemas como el sobreajuste mediante la observación de curvas de pérdida y precisión, al final Se ajustaron los hiperparámetros para optimizar el modelo.   Semana 6: Validación y Pruebas Finales Se implementó la validación cruzada para obtener una evaluación más robusta del modelo, por lo que el modelo final fue evaluado en el conjunto de prueba y se realizaron interpretaciones de las métricas obtenidas para extraer conclusiones significativas.   Semana 7: Documentación y Presentación Se creó un Jupyter Notebook detallado que documentó todo el proceso del proyecto, asi como un documento de Word de todo el proceso y resultados, con secciones claras para cada paso realizado, para finalizar se preparó una presentación en PowerPoint que resumió los resultados más importantes y las conclusiones. Finalmente, se revisaron tanto la documentación como la presentación para asegurar su calidad.


CONCLUSIONES

A lo largo del proyecto se adquirieron conocimientos prácticos sobre el desarrollo y evaluación de modelos de redes neuronales para la predicción de incendios. Aunque se completaron con éxito las fases de preprocesamiento, análisis y modelado, el trabajo se encuentra en una fase intermedia de ajuste y validación del modelo. Se esperan mejoras en la precisión predictiva y en la capacidad del modelo para generalizar a nuevos datos. Los resultados preliminares indican un potencial significativo para el modelo en la gestión de incendios, y se anticipa que el ajuste continuo y la evaluación adicional fortalecerán su aplicabilidad práctica.
Mora Peña Luis Alberto, Universidad Autónoma de Nayarit
Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León

SISTEMA GUíA DE SILLA DE RUEDAS PARA UNA PERSONA CON MOVILIDAD NULA EN EXTREMIDADES SUPERIORES E INFERIORES


SISTEMA GUíA DE SILLA DE RUEDAS PARA UNA PERSONA CON MOVILIDAD NULA EN EXTREMIDADES SUPERIORES E INFERIORES

Mora Peña Luis Alberto, Universidad Autónoma de Nayarit. Palacios Palacios Saldaña Brian Arath, Universidad Tecnologica de León. Sierra Martínez Javier, Universidad Autónoma de Nayarit. Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

Justificación Ética y derechos humanos: Implementar un sistema de guía para sillas de ruedas utilizando un hoverboard y controladores de motores es crucial para garantizar el acceso equitativo a oportunidades educativas y sociales para universitarios con discapacidad motriz severa, mejorando su desarrollo personal y bienestar emocional. Perspectiva práctica: Autonomía y seguridad: Permite moverse autónomamente y de manera segura. Integración social: Facilita la asistencia a clases y actividades, reduciendo la necesidad de asistencia constante. Eficiencia e independencia: Mejora la gestión del tiempo y actividades, aumentando la autoestima y confianza. Sensibilización comunitaria: Promueve la inclusión y accesibilidad. Objetivos Objetivo general: Desarrollar un sistema guía autónomo para sillas de ruedas que mejore la movilidad y autonomía de personas con discapacidades motrices, utilizando tecnologías avanzadas de navegación y detección de obstáculos. Objetivos metodológicos: Identificar necesidades de usuarios mediante encuestas y entrevistas. Seleccionar y programar sensores para detección de obstáculos y navegación. Construir un prototipo funcional y realizar pruebas de campo. Evaluar eficiencia y seguridad del sistema. Documentar el proceso y resultados. Colaboración La estadía se realiza con la Universidad Tecnológica de León y la Universidad Autónoma de Nayarit mediante el Programa Delfín, del 17 de junio al 2 de agosto de 2024, con asesoría de Gilberto López Padilla. Marco Teórico UNAM: Desarrolló sillas de ruedas automatizadas. IPN: Creó una silla de ruedas inteligente con navegación autónoma. Tecnológico de Monterrey: Desarrolló una silla de ruedas autónoma con sistemas avanzados de guía y control.



METODOLOGÍA

Metodología Capítulo 1: Investigación y Planeación Se investigó cómo invertir la polaridad de los motores del hoverboard sin usar el giroscopio, sino mediante un controlador con autoaprendizaje. Se decidió usar un joystick adaptado para controlarlo con la boca, programando el sistema con Arduino. Capítulo 2: Adaptación del Hoverboard a una Silla Motorizada Desmontaje del hoverboard, dejando el armazón. Preparación de la silla, perforando la placa para fijar los componentes del hoverboard. Adaptación de motores y llantas a la placa debajo de la silla. Modificación de la estructura central para evitar interferencias. Reconexión de componentes electrónicos. Reemplazo de aceleradores manuales por potenciómetros y programación del Arduino para un joystick. Conexión final y pruebas del prototipo. Capítulo 3: Pruebas y Evaluaciones del Sistema de Control de Motores Utilizando Arduino Conexión y verificación del funcionamiento del Arduino. Pruebas de velocidad y torque. Evaluación de la dirección y control del movimiento. Comprobación de la resistencia estructural. Análisis de la comodidad del asiento. Evaluación de la durabilidad de la batería. Prueba de respuesta del joystick.


CONCLUSIONES

Resultados Capítulo 1: Investigación y Planeación Los motores de hoverboard no eran viables por su alta potencia y torque, lo que resultaba en un control brusco. No se implementó un freno adicional, ya que la velocidad de la silla permite que la velocidad de frenado del motor sea suficiente. Capítulo 2: Instalación y Modificaciones La estructura de soporte se reforzó y los potenciómetros se reemplazaron por un transistor, adaptando el joystick para ser usado con la boca. Capítulo 3: Pruebas y Evaluaciones Arduino: Respuesta rápida y precisa en el control del acelerador y la dirección. Torque y Dirección: Un motor descompensado afectó ligeramente la dirección. Capacidad de Carga: La silla soportó hasta 150 kg sin afectar la velocidad y el movimiento. Batería: Duró hasta 3 horas y media de uso continuo. Joystick: Respuesta fiable en todas las direcciones. Conclusiones Motores y Control: Los motores de hoverboard no son viables por su alta potencia y torque. El módulo de reversa no es necesario. Freno: No se requiere un freno adicional debido a la baja velocidad de operación (máximo 5 km/h). Estructura y Electrónica: Ajustes en la estructura y componentes electrónicos mejoraron la estabilidad y firmeza. El joystick adaptado para ser usado con la boca fue óptimo. Pruebas y Desempeño: La silla puede soportar hasta 150 kg, la batería dura 3 horas y media, y el joystick responde de manera fiable. Se necesitan mejoras en la consistencia del movimiento y ajustes precisos en componentes electrónicos y mecánicos.
Mora Sandoval Juan David, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Adrian Núñez Vieyra, Instituto Tecnológico de Morelia

DETECCIóN FíSICA DE AMENAZAS USANDO REDES DE VIDEOVIGILANCIA VECINALES Y VíDEO ANáLISIS


DETECCIóN FíSICA DE AMENAZAS USANDO REDES DE VIDEOVIGILANCIA VECINALES Y VíDEO ANáLISIS

Baca Cruz Alexis, Instituto Tecnológico Superior de Ciudad Hidalgo. Carrillo Vaca Edgar Brandom, Instituto Tecnológico Superior de Ciudad Hidalgo. Mora Sandoval Juan David, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Adrian Núñez Vieyra, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

Los Sistemas de Videovigilancia, se están convirtiendo en un importante aliado para resolver o esclarecer diferentes problemas de seguridad tales como, accidentes de tránsito, 2 disturbios en la vía pública, destrozos y robos en propiedad privada, etc. Sin embargo, la mayoría de estos sistemas terminan convirtiéndose en gigantescas bases de datos que suelen ser analizadas manualmente después de ocurrido un delito. En diversas empresas, asi como en espacios públicos, son parte esencial la supervisión de la afluencia peatonal y la detección de posibles actos inusuales esto, surge a una necesidad mayor, fuera de los horarios laborales, como lo es en altas horas de la noche. Sin embargo, la falta de sistemas tecnológicos y la fata de sistemas automatizados para dicha supervisión han traído consigo, la falta de recursos suficientes para poder llevar a cabo investigaciones de seguridad. La problemática principal en la detección de amenazas radica en la ausencia de sistemas automatizados que incorporen diversos parámetros estandarizados para la detección, es por ello, que en el verano de la investigación, nos enfocamos en el desarrollo de un sistema basado en visión por computadora que utiliza modelos avanzados de detección y seguimiento para contar personas, registrar actividades y generar estadísticos con ayuda de la inteligencia artificial, ya que este enfoque tiene como objetivo optimizar la seguridad y la gestión de recursos en distintos periodos del día, tanto en horarios laborales como no laborales.



METODOLOGÍA

1. Configuración del Sistema: Hardware: Utilización de cámaras de seguridad compatibles con RTSP. Software: Implementación de un entorno de desarrollo basado en Python, utilizando bibliotecas como OpenCV, NumPy, y el modelo YOLOv8 para detectar personas. Base de Datos: Configuración de una base de datos MySQL para almacenar registros de detección de personas y actividades.   2. Detección y Seguimiento de Personas: Modelado: Implementación del modelo YOLOv8 para la detección de personas en los flujos de video en tiempo real. Seguimiento: Uso del algoritmo SORT para el seguimiento de las personas detectadas, asignando identificadores únicos a cada individuo.   3. Almacenamiento y Gestión de Datos: Registro de Actividades: Almacenamiento de los registros de detección en la base de datos MySQL, incluyendo la identificación de la persona, la actividad y la marca de tiempo. Limpieza de Datos: Funcionalidad para limpiar la tabla de datos de personas cuando sea necesario.   4. Generación de Estadísticas: Cálculo de Promedios: Desarrollo de consultas SQL para calcular la afluencia peatonal promedio en distintos horarios del día y días de la semana tanto laborales como no laborales. Visualización: Creación de una interfaz visual utilizando OpenCV para mostrar las estadísticas generadas.   5. Pruebas y Validación: Pruebas en Entorno Controlado: Implementación y ajuste del sistema en un entorno distinto (Raspberry pi 3, Raspberry pi 4, Raspberry pi 5, jetson Nano, por mencionar algunos entornos) para validar la precisión y eficiencia del sistema. Ajustes y Mejoras: Iteraciones basadas en los resultados de las pruebas para mejorar la detección, seguimiento y generación de estadísticas.


CONCLUSIONES

Al utilizar tecnología avanzada de visión por computadora y algoritmos de seguimiento, la implementación al sistema automatizado de supervisión y control de cámaras, nos permite una mejora significativa en la seguridad y gestión operativa de espacios públicos y privados, ya que el sistema proporciona un monitoreo continuo y preciso de la afluencia peatonal, tanto en horarios laborales como no laborales. Esto gracias a los estadísticos que se generan, ya que nos ofrecen una visión detallada de los patrones de comportamiento, facilitando la toma de decisiones ante esta implementación de seguridad.   EL enfoque no solo se centra en optimizar la eficiencia operativa, sino que fortalece tambien, la seguridad, proporcionando asi, una solución practica para el monitoreo, análisis y control de las actividades peatonales.
Morales Arias Luis Emanuel, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS DE VULNERABILIDAD POR EROSIóN EN PUENTES DEL RíO CHIQUITO EN MORELIA, MICHOACáN.


ANáLISIS DE VULNERABILIDAD POR EROSIóN EN PUENTES DEL RíO CHIQUITO EN MORELIA, MICHOACáN.

Morales Arias Luis Emanuel, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La erosión en los ríos es un problema que puede afectar seriamente la estabilidad y seguridad de los puentes. En el Río Chiquito de Morelia, Michoacán, varios puentes han mostrado signos de vulnerabilidad debido a este fenómeno. Identificar y evaluar estos riesgos es crucial para asegurar la integridad estructural y la seguridad de las personas. Este estudio tiene como objetivo analizar la vulnerabilidad de los puentes del Río Chiquito frente a la erosión, identificar los más propensos a sufrir daños y proponer medidas de mejora.



METODOLOGÍA

Para llevar a cabo este análisis, se utilizarán dos enfoques principales: Inspección Visual y Evaluación de Campo: Se realizará una inspección detallada de los puentes del Río Chiquito para evaluar su estado actual y detectar signos visibles de erosión y desgaste. Esta evaluación incluirá la observación directa y la recopilación de datos en el lugar. Modelos Hidráulicos con HEC-RAS: Se emplearán modelos hidráulicos utilizando el software HEC-RAS para simular el comportamiento del flujo del río y su interacción con las estructuras de los puentes. Esto permitirá identificar las zonas con mayor riesgo de erosión y prever posibles escenarios de fallo estructural.


CONCLUSIONES

La presente investigación permite identificar los puentes más vulnerables a la erosión en el Río Chiquito y proporciona recomendaciones específicas para su mejora y mantenimiento. Estas propuestas contribuirán a prolongar la vida útil de las estructuras y a aumentar la seguridad vial en la región. Además, los resultados de esta investigación se alinean con los Objetivos de Desarrollo Sostenible (ODS) de la Agenda 2030, especialmente con el ODS 9 (Industria, Innovación e Infraestructura) y el ODS 11 (Ciudades y Comunidades Sostenibles), promoviendo infraestructuras resilientes y seguras.
Morales Barrios Ken Andros, Instituto Tecnológico de Iguala
Asesor: Dra. Norma Rodríguez Bucio, Instituto Tecnológico de Iguala

REGADERAS ERGONOMICAS


REGADERAS ERGONOMICAS

Morales Barrios Ken Andros, Instituto Tecnológico de Iguala. Asesor: Dra. Norma Rodríguez Bucio, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

1.1 Contexto General Las regaderas han evolucionado en estética y funcionalidad, pero a menudo descuidan la ergonomía. Esta ciencia adapta productos a las capacidades humanas, mejorando la comodidad y previniendo lesiones. Con el envejecimiento de la población y el aumento de discapacidades, integrar la ergonomía en productos cotidianos, como las regaderas, es crucial para hacerlos más seguros y accesibles. 1.2 Definición de Ergonomía La ergonomía ajusta productos a las capacidades humanas, mejorando el confort y minimizando riesgos. En regaderas, esto implica diseñar productos que faciliten ajustes, mejoren la comodidad y reduzcan el esfuerzo físico innecesario. 1.3 Relevancia del Estudio El envejecimiento de la población demanda productos accesibles. Las regaderas, usadas diariamente, son una oportunidad significativa para aplicar principios ergonómicos, mejorando la calidad de vida y seguridad de los usuarios. Antecedentes del Problema 2.1 Historia del Diseño de Regaderas Las regaderas han evolucionado de simples dispositivos a sistemas complejos, pero muchas siguen priorizando la estética sobre la ergonomía, resultando en productos incómodos y poco seguros. 2.2 Problemas Comunes en Regaderas Tradicionales Dificultad para Ajustar la Altura: La falta de ajustes fáciles crea incomodidad. Riesgo de Lesiones: Las regaderas no ergonómicas pueden causar molestias y caídas. Eficiencia del Agua: Muchas regaderas desperdician agua al no optimizar su uso. 2.3 Importancia de la Ergonomía en Dispositivos Sanitarios La ergonomía mejora la experiencia del usuario al reducir el esfuerzo físico y prevenir lesiones. En regaderas, esto implica productos que aumenten la seguridad y el confort. Planteamiento del Problema 3.1 Definición del Problema El problema central es cómo un diseño ergonómico de regaderas puede mejorar la experiencia de uso, reducir el esfuerzo físico y aumentar la seguridad para todos los usuarios. 3.2 Justificación del Problema Las regaderas no ergonómicas generan incomodidad y riesgo, afectando especialmente a personas mayores y con discapacidades. Mejorar su diseño podría reducir estos riesgos y aumentar la comodidad. 3.3 Preguntas de Investigación ¿Qué problemas enfrentan los usuarios con regaderas tradicionales? ¿Cómo pueden los principios ergonómicos mejorar el diseño de regaderas? ¿Cómo un diseño ergonómico reduce el esfuerzo físico y aumenta la seguridad? Objetivos de la Investigación



METODOLOGÍA

4.1 Objetivo General Evaluar y diseñar regaderas ergonómicas que mejoren la comodidad, seguridad y accesibilidad. 4.2 Objetivos Específicos Identificar problemas comunes en regaderas tradicionales mediante encuestas. Analizar principios ergonómicos aplicables al diseño de regaderas. Desarrollar un diseño de regadera ergonómica basado en estos principios. Evaluar la efectividad del diseño propuesto en comparación con regaderas tradicionales. Diseño del Marco Teórico 5.1 Ergonomía y Diseño de Productos Los principios ergonómicos, como el ajuste al usuario y la mejora de la seguridad, son esenciales en el diseño de regaderas. 5.2 Estudios Previos sobre Dispositivos Sanitarios Ergonómicos Estudios en inodoros y lavabos han demostrado que la ergonomía mejora la experiencia del usuario, ofreciendo una base para aplicar estos principios en el diseño de regaderas. 5.3 Materiales y Tecnologías Sostenibles La selección de materiales reciclables y tecnologías eficientes en el uso del agua es crucial para un diseño ergonómico y sostenible de regaderas. Bosquejo del Método 6.1 Recolección de Datos Se realizarán encuestas y entrevistas con usuarios para identificar problemas en regaderas tradicionales, enfocándose en comodidad, facilidad de uso y riesgos percibidos. 6.2 Análisis de Datos Se analizarán los datos para identificar patrones comunes y necesidades de los usuarios, utilizando herramientas estadísticas para evaluar los resultados. 6.3 Diseño del Prototipo Se desarrollará un prototipo de regadera ergonómica basado en los principios identificados, con iteraciones basadas en la retroalimentación de los usuarios. 6.4 Pruebas de Usuario Se realizarán pruebas con usuarios para evaluar la comodidad, accesibilidad y seguridad del prototipo, ajustando el diseño según los resultados obtenidos. 6.5 Análisis de Resultados Los resultados del prototipo ergonómico se compararán con los de regaderas tradicionales, evaluando la mejora en términos de comodidad, reducción del esfuerzo físico y seguridad. Determinación del Tipo de Estudio 7.1 Tipo de Investigación Este estudio es mixto, combinando métodos cuantitativos y cualitativos para explorar y evaluar la efectividad del diseño ergonómico. 7.2 Métodos Cuantitativos Las encuestas recopilarán datos sobre la satisfacción del usuario y el esfuerzo físico asociado con regaderas tradicionales y ergonómicas. 7.3 Métodos Cualitativos Las entrevistas y observaciones proporcionarán información cualitativa sobre la experiencia del usuario y la efectividad del diseño ergonómico.


CONCLUSIONES

8.1 Resultados Esperados Se espera que un diseño ergonómico de regaderas mejore la experiencia del usuario, reduciendo el esfuerzo físico y aumentando la satisfacción en comparación con las regaderas tradicionales. 8.2 Proyecciones Futuras El éxito de este estudio podría inspirar futuras investigaciones en el diseño ergonómico de otros productos domésticos y su aplicación en entornos públicos y comerciales.
Morales Bertruy David, Instituto Tecnológico Superior de Los Ríos
Asesor: Mg. Nolberto Gutiérrez Posada, Corporación Universitaria Empresarial Alexander von Humboldt

MODELO DE SIMULACIóN EMPRESARIAL PARA LA FORMACIóN EN LA TOMA DE DECISIONES EN LOGíSTICA Y CADENAS DE ABASTECIMIENTO


MODELO DE SIMULACIóN EMPRESARIAL PARA LA FORMACIóN EN LA TOMA DE DECISIONES EN LOGíSTICA Y CADENAS DE ABASTECIMIENTO

Cordova Cruz Iris Adela, Instituto Tecnológico Superior de Los Ríos. González Cervantes Karla Yeray, Instituto Tecnológico de Morelia. Morales Bertruy David, Instituto Tecnológico Superior de Los Ríos. Nahuat Narvaez Gerardo Alberto, Instituto Tecnológico Superior de Los Ríos. Asesor: Mg. Nolberto Gutiérrez Posada, Corporación Universitaria Empresarial Alexander von Humboldt



PLANTEAMIENTO DEL PROBLEMA

En este proyecto se abordaron dos situaciones clave relacionadas con la toma de decisiones en la gestión empresarial. Utilizando los conocimientos teóricos adquiridos en clase, se llevó a cabo una simulación de gestión empresarial para una fábrica de automóviles. El proceso incluyó diversas áreas de trabajo y tiempos de espera en la aduana. A continuación se describe el flujo de trabajo en la simulación:   1. Recepción y Preparación de Pedidos:    - Compradores: Los compradores nacionales e internacionales preparan los pedidos utilizando un formato específico. El apartado deseado debe coincidir exactamente con el pedido.    - Confirmación de Pedido: Una vez recibido el pedido, se completa con la palabra recibido y se envía a la bodega de productos terminados. 2. Gestión de Productos Terminados:    - Verificación en Almacén: Se realiza un pedido al área de almacén de productos terminados, que verifica la disponibilidad de productos para cumplir con el pedido.    - Preparación y Envío: Los pedidos se preparan en contenedores, se confirma el pedido en un formato y se envía tanto a nivel nacional como internacional. 3. Montaje y Revisión:    - Montaje Final: Los carros de montaje final se trasladan a la bodega de productos terminados y se recibe el pedido de la bodega de insumos. Se confirma el recibo y se actualiza el inventario.    - Ensamble: Se realiza el ensamble utilizando todos los materiales disponibles en un sistema de tipo push. En el pre-ensamble, se encargan los componentes existentes para el montaje final y se confirma el pedido de la bodega de insumos. 4. Gestión de Inventario y Pedidos:    - Pedido a Bodega de Insumos: Se efectúa un pedido a la bodega de insumos utilizando otro formato. La bodega recibe los pedidos de los proveedores, realiza inspecciones, y actualiza el inventario.    - Condiciones de Pedido:       - Pedido Internacional: No se pueden solicitar más de 38 piezas. Si no requiere revisión, el pedido tarda 2 etapas en llegar (etapa 1 al 3). Si requiere revisión, el pedido tarda 3 etapas (etapa 1 al 4).      - Pedido Nacional: No se pueden solicitar más de 45 piezas. El pedido tarda 2 etapas en llegar. 5. Manejo de Proveedores:    - Recepción y Clasificación: Los proveedores entregan pedidos, que se inspeccionan y se clasifican en buen o mal estado. El material en buen estado se coloca abajo en el contenedor y el de mala calidad arriba.    - Actualización de Inventario y Envío: Se actualiza el inventario y se envían los pedidos conforme a las solicitudes recibidas. Este enfoque asegura una gestión eficiente de los recursos y tiempos de espera en la aduana México-Colombia, en base una revisión bibliográfica, optimizando el proceso de producción y distribución.



METODOLOGÍA

Basados en el layout de la cadena de abastecimiento, se estableció la condición inicial para cada una de los roles de la simulación. Se establecieron las instrucciones de desarrollo de cada rol para que la simulación se realizara bajo condiciones controladas. Se establecieron los formatos requeridoa para la requisición entre los diferentes roles. Se validó el desarrolloo operativo de la simulación bajo esquemas ofimáticos. Se realizó la comparación de la simulación con conceptos teóricos.


CONCLUSIONES

La simulación empresarial brinda a los estudiantes la capacidad de aplicar sus conocimientos teóricos en un contexto práctico. Esta herramienta fortalece sus competencias en la toma de decisiones, gestión de inventarios y optimización de la cadena de suminstro a traves de la implementación de sistemas push y pull. Asimismo, los estudiantes adquieren habilidades en la gestión financiera y de recursos, el manejo de la logistica internacional y nacinal; por otra parte, promueve el pensamiento crítico, la resolución de porblemas y el trabajo en equipo, ofrecieno una experiencia educativa completa y realista que mejora la eficiencia y reduce los costos de producción. Dentro de los resultados obtenidos se encuntran los siguientes; - Se modificaron de manera exitosa las instrucciones de cada puesto, teniendo como resultado el éxito del simulador. - Se validaron los procesos de cada puesto de trabajo para que haya una continuida. - Se realizaron los modelos graficos de las distintas áreas de trabajo. - Se realizaron modificaciones en los formatos de Excel, en la parte de inventarios, facturas y formulas para crear un flujo entre todas las hojas de cada puesto de trabajo.
Morales Camacho Heydi Arely, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Noé Alba Baena, Universidad Autónoma de Ciudad Juárez

INCREMENTO DEL NIVEL SIGMA MINIMIZANDO EL IMPACTO NEGATIVO DEL ERROR EN EL SISTEMA DE MEDICIóN.


INCREMENTO DEL NIVEL SIGMA MINIMIZANDO EL IMPACTO NEGATIVO DEL ERROR EN EL SISTEMA DE MEDICIóN.

Morales Camacho Heydi Arely, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Noé Alba Baena, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Durante estas 7 semanas de investigación se estudiaron los métodos de ingeniería y los métodos científicos dentro de una investigación, en este caso de una investigación de aspirantes de doctorado. La investigación realizada por M.I.I Omar Celis Gracia está enfocada en realizar una metodología para incrementar el nivel sigma dentro de los procesos, minimizado el impacto negativo del error en el sistema de medición.



METODOLOGÍA

Para llevar a cabo esta investigación se contó con el método científico que, en resumidas palabras este método nos describe la realidad de las cosas, mientras que le de ingeniería busca modificar esa realidad usando pasos, actividades, herramientas y métodos para ser llevada a cabo. Es importante destacar que aun que ambos métodos tengan pasos parecidos, son diferentes. Propósito: Método científico: Busca entender la naturaleza y el universo. Método de ingeniería: Busca diseñar y desarrollar soluciones prácticas. Enfoque: Método científico: Se enfoca en a investigación y la formulación de teorías. Método de ingeniería: Se centra en la aplicación práctica de conocimientos para resolver problemas   Validación: Método científico: Su validación se realiza mediante experimentación y recopilación de resultados. Método de ingeniería: Se valida mediante pruebas y evaluaciones que aseguran la funcionalidad y fiabilidad de la solución. El objetivo de esta investigación es diseñar una metodología basada en SS que permita reducir la brecha entre el nivel sigma corto y largo plazo minimizando el efecto negativo del error en el sistema de medición. Utilizando las hipótesis: Nivel Sigma del Proceso: Hipótesis Unilateral H1: La diferencia del nivel sigma corto y largo plazo es mayor en la forma inicial que después de aplicar la metodología propuesta. Tiempo de Implementación de la Metodología: Hipótesis Unilateral H1: El tiempo de aplicación de la metodología es menor que 250 dias. Six sigma se desarrolla en la empresa Motorola en los años 80’s, introducido originalmente por Mikel Harry. Actualmente es percibida como un enfoque de mejoramiento bien estructurado con fuertes lazos dentro de la estrategia de la organización, un enfoque fuerte con el cliente y resultados financieros. En la actualidad las empresas requieren de procesos que sean capaces de satisfacer al cliente, en calidad, costo y entrega. Aproximadamente el 98.8% de las empresas a nivel mundial han utilizado o implementado mejoras utilizando enfoques como SS y LM. Utilizando el enfoque propuesto en esta investigación, las empresas pueden lograr ahorros hasta cinco veces más de lo que están logrando en la actualidad. Al lograr que la empresa reduzca costos de manufactura y tenga procesos más capaces, esto hace que ante sus clientes se vea bien y les den más negocio, lo que tiene como resultado más empleos para la localidad contribuyendo a mejorar la calidad de vida de la ciudad contribuyendo en la parte social.


CONCLUSIONES

La implementación de metodologías basadas en LSS busca incrementar en promedio un 40% el nivel sigma del proceso, traduciéndose en ahorros que pueden ir hasta los 2.4 millones de dólares anuales. También se busca un impacto positivo de la presente investigación, puesto que al elevar a seis sigmas los procesos de manufactura estos generan menos material no conformante que termina siendo scrap, el cual tiene que desecharse e impacta según el tipo de producto en mayor manera, tirando contaminantes o gases que afectan el entorno y la salud de sus habitantes. Este verano de investigación fue de mucha utilidad ya que me permitió conocer respecto a la teoría de seis sigma que en un futuro aplicare para mi vida laboral, de igual manera el llevar esta investigación con alguien aspirante a doctorado me nutrió de información y de nuevas formas de buscar mejoras o soluciones a problemas del día a día. También gracias al apoyo del Dr. Noé Alba Baena quien estuvo durante estas semanas guiando nuestras investigaciones y corrigiendo aquellos detalles que salían durante nuestra estancia. Me llevo una gran experiencia y nuevos conocimientos tanto para la vida profesional y la vida cotidiana.
Morales Franco Kevin Yael, Universidad de Guadalajara
Asesor: Dra. Aída Gutiérrez Alejandre, Universidad Nacional Autónoma de México

CATALIZADORES DE NíQUEL SOPORTADOS EN ALúMINA PARA LA OBTENCIóN DE DIéSEL VERDE


CATALIZADORES DE NíQUEL SOPORTADOS EN ALúMINA PARA LA OBTENCIóN DE DIéSEL VERDE

Morales Franco Kevin Yael, Universidad de Guadalajara. Asesor: Dra. Aída Gutiérrez Alejandre, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La producción de diésel verde, derivado de aceites vegetales y grasas animales, es una alternativa prometedora a los combustibles fósiles tradicionales por su potencial para reducir emisiones de gases de efecto invernadero y la dependencia de recursos no renovables. Sin embargo, la eficiencia de este proceso de conversión es un desafío crucial que debe abordarse para optimizar la producción y reducir costos. Un aspecto clave en la producción de diésel verde es la hidrodesoxigenación (HDO), que elimina el oxígeno de los aceites y grasas para obtener hidrocarburos similares al diésel convencional. Este proceso, en presencia de hidrógeno, puede seguir tres rutas principales: Hidrodesoxigenación (HDO): El oxígeno se elimina como agua (H₂O), resultando en hidrocarburos saturados y requiriendo tres veces más hidrógeno que las demás rutas. Descarbonilación (DCN): El oxígeno se elimina como monóxido de carbono (CO), produciendo hidrocarburos saturados y generando subproductos de carbono. Descarboxilación (DCX): El oxígeno se elimina como dióxido de carbono (CO₂), también produciendo hidrocarburos saturados sin necesidad de hidrógeno.Las reacciones de desoxigenación requieren catalizadores efectivos para operar a altas temperaturas y presiones, garantizando una conversión eficiente y un producto final de calidad. Por ello, es crucial desarrollar catalizadores más eficientes, especialmente los basados en níquel sobre alúmina, que ofrecen mejor actividad y estabilidad. Optimizar estos catalizadores podría hacer que la producción de diésel verde sea más viable y competitiva frente a los combustibles fósiles.



METODOLOGÍA

Para elaborar el catalizador de níquel sobre alúmina (Ni/Al₂O₃) con una concentración del 5% en peso de níquel, se utilizó nitrato de níquel hexahidratado (Ni(NO₃)₂·6H₂O) como precursor y alúmina comercial Sasol (Al₂O₃) en polvo fino como soporte. El método de preparación fue el de impregnación por volumen de poro. El sólido impregnado se sometió a un proceso de maduración en atmósfera saturada de humedad. Posteriormente, se secó inicialmente a temperatura ambiente en un desecador para eliminar el exceso de agua. Una vez finalizado este proceso, la muestra parcialmente seca se introdujo en una  estufa de convección a 100 °C. Luego, la muestra completamente seca se calcinó en una mufla a 450 °C durante 4 horas, con una rampa de calentamiento de 5 °C/min.  Finalizada la calcinación, se procedió a la activación del catalizador antes de la prueba de actividad catalítica. Para ello, se realizó la técnica analítica de caracterización TPR (reducción a temperatura programada) con el objetivo de conocer la reducibilidad de las especies de níquel en el catalizador y determinar su temperatura de reducción para hacer la activación del material. El procedimiento de activación se llevó a cabo en atmósfera reductora con hidrógeno en un sistema dinámico a 490 °C durante 4 horas.  Adicionalmente, al catalizador fue sometido a una prueba de fisisorción de nitrógeno, a temperatura de nitrógeno líquido (-196 °C) utilizando el método BET para determinar el área específica, y el método BJH para definir el volumen y tamaño de poro. El catalizador se probó en la reacción de hidrodesoxigenación de una mezcla de ácido esteárico y palmítico al 3% en peso disuelto en dodecano. La mezcla de reacción se introdujo en un reactor batch y éste se presurizó con hidrógeno hasta 700 psig para su posterior calentamiento a 320 °C mientras se mantenía una agitación de 1200 rpm, alcanzando una presión de trabajo de 1100 psig. Se tomaron muestras del contenido del reactor a diferente tiempo de reacción: antes de iniciar la reacción (alimentación), al comenzar la reacción (tiempo cero), y a los 10, 20, 30, 40, 50, 60 y 90 minutos posteriores al inicio. Estas muestras se analizaron mediante cromatografía de gases con un detector de ionización de flama (FID) para determinar la composición de los productos generados, que se esperaba fueran alcanos de C14 a C18 en el intervalo del diésel. Además, se utilizaron técnicas adicionales de espectroscopia de infrarrojo con aditamento,  ATR (Reflexión Total Atenuada), para conocer la concentración de los reactivos al finalizar la reacción y así evaluar las conversiones alcanzadas con el uso del catalizador.  


CONCLUSIONES

Para concluir, el catalizador de níquel sobre alúmina mostró un rendimiento prometedor en la hidrodesoxigenación de ácidos grasos, mejorando la producción de diésel verde. La optimización de estos catalizadores puede hacer más viable y competitiva la producción de biocombustibles, ofreciendo una alternativa más sostenible a los combustibles fósiles tradicionales. Las pruebas de fisisorción de nitrógeno realizadas tanto en el soporte de alúmina como en el catalizador mostraron solo una ligera disminución en el volumen de poros, el tamaño de poros y el área superficial tras la impregnación y activación del níquel. Estos resultados indican que la técnica de impregnación utilizada fue efectiva para cargar el níquel sobre la alúmina sin comprometer significativamente sus propiedades texturales y que la accesibilidad de los sitios activos de níquel no se vio considerablemente afectada, lo cuál es crucial para mantener una alta actividad catalítica. Además, con esto se intuye que el soporte de alúmina mantuvo su estructura porosa, asegurando la estabilidad mecánica y térmica del catalizador bajo las condiciones de reacción. Los resultados de la cromatografía de gases indicaron una producción significativa de alcanos en el rango de C14 a C18, evaluando la efectividad del catalizador en condiciones de reacción específicas. Además, el uso de técnicas espectroscópicas como ATR permitió determinar las conversiones de los reactivos y evaluar la eficiencia del catalizador.
Morales Galdamez Camila, Instituto Politécnico Nacional
Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes

SOFTWARE PARA REHABILITACIóN DE PARáLISIS FACIAL CON VISIóN ARTIFICIAL Y EVALUADO MEDIANTE TéCNICAS DE EYE-TRACKING "RELIF".


SOFTWARE PARA REHABILITACIóN DE PARáLISIS FACIAL CON VISIóN ARTIFICIAL Y EVALUADO MEDIANTE TéCNICAS DE EYE-TRACKING "RELIF".

Martinez Gordillo Cristian Santiago, Escuela Colombiana de Ingeniería Julio Garavito. Morales Galdamez Camila, Instituto Politécnico Nacional. Orenday González Lizbeth Aurora, Instituto Politécnico Nacional. Silva Briseño Blanca Fabiola, Instituto Politécnico Nacional. Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Según el (IMSS 2017), en México existen entre 11 y 53 casos por cada 100,000 personas al año que sufren de parálisis facial. Así mismo, la OMS menciona la alta demanda de fisioterapeutas, ya que, hay 1.06 por cada 10 mil habitantes cuando la recomendación es contar con un especialista por cada mil habitantes (Padilla, 2023). Dado lo anterior el desarrollo de esta versión inicial del software, se busca ayudar a pacientes y apoyar a fisioterapeutas, con la pronta recuperación de los pacientes y, de cierta manera, controlar el seguimiento de las terapias asistidas. Haciendo del conocimiento del primero los ejercicios realizados por el segundo y el tiempo necesario para cada uno, dependiendo el tipo de parálisis padeciente.



METODOLOGÍA

MEXUU Para el desarrollo del proyecto se utilizó la metodología MEXUU que está enfocada en los elementos UDL Y TUD, la cual nuestro proyecto integra algunos elementos claves para el diseño universal para el aprendizaje. Este proceso estuvo definido por 4 etapas principales, descritas a continuación. Análisis: Se definen los requisitos de la aplicación a desarrollar, teniendo en cuenta las características físicas del usuario final. Esto es crucial para identificar qué herramientas y tecnologías se van a integrar en la aplicación y los elementos según el diseño universal para el aprendizaje. En esta primera parte se decidió el proyecto a tratar y los roles de cada integrante en el equipo, se plantearon objetivos tanto generales como específicos y las preguntas de investigación y requerimientos funcionales y no funcionales de la aplicación a desarrollar (RELIF). Pre-producción: En esta etapa se desarrolla la aplicación con los requerimientos definidos en la etapa de análisis, de la misma manera se define la representación basada en UDL. En esta etapa se crearon perfiles de usuario, para así poder diseñar la interfaz teniendo en cuenta estos y dirigirla hacia este tipo de personas en particular, para solucionar la problemática de los perfiles de usuario propuestos. Teniendo en cuenta que la investigación se está desarrollando con metodología experimental, en esta parte se desarrollan posibles hipótesis y/o soluciones que se resuelvan por medio del desarrollo de la aplicación , de la misma manera se incluye la visión artificial en el proyecto como parte fundamental en la rehabilitación del paciente al momento de utilizar la aplicación propuesta, esto con el fin de la detección de los ejercicios por la misma aplicación y validar una terapia exitosa, por esta misma razón en esta etapa se revisa la documentación necesaria con el fin de integrar las mejores tecnologías dentro del proyecto . Producción: Se construye la solución planteada con las herramientas estipuladas anteriormente y se agregan los elementos UDL. En esta parte ya se tiene un diseño no funcional de la aplicación, se empieza el desarrollo inicial en el motor de videojuegos unity. Se utiliza esta tecnología para los objetivos que se plantearon al inicio, como la integración del diseño y funcionalidad del programa. Así mismo tiempo en esta etapa influye una nueva metodología nos basamos en la de EVUSINET (Evaluación del uso de interfaces mediante eye-tracking), esta nos ayudó a realizar las pruebas con las tecnologías de eye-tracking por medio del entorno de Tobii pro nano permitiendo crear diseños experimentales, eventos, áreas de interés, para así generar una interfaz más atractiva visualmente cumpliendo con los requerimientos de la aplicación y mayor funcionalidad al utilizar RELIF.  Simultaneamente se produce el modelo de identificador de emociones por medio de la visión artificial, utilizamos tecnologías como lo son: tensor flow, keras, openCv, todo esto en lenguaje python. El modelo fue entrenado con la base de datos públicas de Kaggle(Fer- 2013), se utilizó la neutral y felicidad para la integración de estas en dos ejercicios de la aplicación diseñada. Post- producción: Etapa final centrada en realizar evaluaciones al software para evaluar criterios de usuario. Se cambiaron aspectos en la tercera y última interfaz, siendo evaluada con el eye tracker tobii pro nano creando tablas de uso deseado, para seleccionar áreas de interés en cada interfaz evaluada y poder sacar índices, se creó una tabla de uso real para ser comparada con la de uso esperado, igualmente observar si se cumplieron los objetivos y las preguntas de investigación establecidas en la etapa de análisis.


CONCLUSIONES

Pasadas las sesiones enfocadas a la investigación y recolección de datos sobre la problemática, se emprendió el desarrollo del software, adquiriendo conocimientos sobre diseño de interfaces UI y UX, analizando su usabilidad mediante eye-tracking. Además de lo anterior, se recolectó basto conocimiento sobre interpretaciones de gráficas arrojadas por la tecnología antes mencionada, logrando una base sólida de conocimiento sobre las necesidades de un interfaz respecto a las experiencias de usuario. De igual forma, para la creación del software se utilizó unity, una herramienta que fue de gran ayuda, sin embargo, para su uso también se tuvo que aprender a usarla, para que el software cumpliera con los requisitos propuestos y su funcionamiento fuera efectivo. el software funcionó de manera adecuada. Adicionalmente a esto se adquieren conocimientos en el campo del deep learning, utilizando redes neuronales convolucionales y como se pueden ajustar a distintos proyectos y la utilidad de estas, dichas tecnología fue de vital importancia para el desarrollo de la aplicación ya que esta sirve para que el software sea utilizado en el área de la rehabilitación en parálisis facial, de acuerdo a los planteamientos iniciales, logrando 3 de 4 objetivos.
Morales Galván Irvin Rosendo, Instituto Tecnológico de San Luis Potosí
Asesor: Mg. Clara Sarith Amaya Marmol, Universidad de la Guajira

DISEÑO DE UN SISTEMA DE DESALINIZACIÓN DE AGUA POR OSMOSIS INVERSA EN LA COMUNIDAD INDÍGENA CHONCHONPRIS #2 EN ZONA RURAL DEL DISTRITO DE RIOHACHA


DISEÑO DE UN SISTEMA DE DESALINIZACIÓN DE AGUA POR OSMOSIS INVERSA EN LA COMUNIDAD INDÍGENA CHONCHONPRIS #2 EN ZONA RURAL DEL DISTRITO DE RIOHACHA

Arias Aguiñaga Jorge, Instituto Tecnológico de San Luis Potosí. Duarte Pinto Felix Dario, Universidad Simón Bolivar. Morales Galván Irvin Rosendo, Instituto Tecnológico de San Luis Potosí. Asesor: Mg. Clara Sarith Amaya Marmol, Universidad de la Guajira



PLANTEAMIENTO DEL PROBLEMA

El problema que se plantea se centra en la escasez de agua que afecta a más del 40% de la población mundial, un fenómeno que no solo provoca dificultades en el acceso a agua potable, sino que también conlleva graves consecuencias, como la muerte de alrededor de 1000 niños al día debido a enfermedades diarreicas relacionadas con la falta de higiene (Naciones Unidas, 2018). A nivel global, el vertido del 8% de las aguas residuales sin tratamiento y la falta de acceso a servicios modernos de electricidad para 3000 millones de personas agravan la situación, especialmente en las zonas rurales aisladas que carecen de servicios básicos. En el contexto de Colombia, el 52% del territorio pertenece a Zonas No Interconectadas (ZNI), lo que dificulta el acceso constante y de calidad a la energía eléctrica para sus habitantes. Además, el 29% de la población colombiana reside en zonas rurales, donde el 48% no tiene acceso a una red de suministro de agua; dentro del 52% restante que sí cuenta con el acceso de agua, solo el 12% tiene suministro seguro para el consumo humano (Viceministerio de Ambiente, 2010; Mantilla, 2016; Bustos, 2014). El problema se agrava en el departamento de La Guajira, donde se han registrado un preocupante número de muertes en niños, asociadas a la desnutrición y enfermedades derivadas de ella. Además, La Guajira enfrenta una pobreza extrema, con una brecha significativa entre su situación regional y la nacional, de aproximadamente 4:1 (Departamento Administrativo Nacional de Estadística [DANE], 2020). Por lo tanto, es esencial abordar la falta de acceso a agua potable en comunidades indígenas que dependen de pozos subterráneos con agua salobre. Una solución viable podría ser la implementación de tecnologías de desalinización, como la osmosis inversa, para mejorar la calidad de vida de estas comunidades y mitigar este grave problema.



METODOLOGÍA

Durante el periodo del 17 de junio al 2 de agosto de 2024, se lleva a cabo el Programa Delfín, un programa orientado al desarrollo y la potenciación de la investigación en jóvenes de México, Colombia, Perú, Costa Rica, entre otros países latinos. Este programa busca acercar a los estudiantes de pregrados a experiencias de interculturalidad y crecimiento académico mediante la colaboración con docentes investigadores. El papel principal es apoyar en los proyectos que se vienen desarrollando a lo largo de un periodo determinado de tiempo, con el objetivo de publicar un artículo de investigación. En este caso, se trabajó en el diseño de un sistema de ósmosis inversa para una comunidad indígena en norte de Colombia, en el departamento de La Guajira, el desarrollo de esta parte del proyecto se realizó a través de una planificación semanal, la cual tiene una duración de casi dos meses, e inició con la caracterización de la comunidad a través del análisis estadístico de 3 encuestas; así mismo, se caracterizó el agua a la que tienen acceso por medio de 15 muestras, posteriormente con la información recopilada se continuó con el diseño de la planta mediante el modelado en los software WAVE y Fusion 360. Finalmente, se realizó una evaluación del impacto socioeconómico de la implementación de la planta en dicha población con la ayuda de un sondeo que busca determinar las intenciones de negocio de la comunidad a partir del agua potable.  Escogimos esta línea de investigación basándonos en nuestros conocimientos y en los requerimientos solicitados por la Maestra Clara Amaya, docente e investigadora de la Universidad de La Guajira, en Riohacha, Colombia. Así pues, comenzó una de las aventuras académicas más interesantes de nuestras vidas. Otro propósito fue compartir los conocimientos adquiridos a lo largo de dos años y medio de estudio, con los colegas de la Universidad de La Guajira, en Colombia, quienes también estudian ingeniería mecánica y al mismo tiempo nos fuimos adaptando a un nuevo contexto sociocultural, con el único objetivo del desarrollo constante de nuestro perfil como ingenieros.


CONCLUSIONES

La instalación de una planta de ósmosis inversa en Chonchonpris #2 no solo proporcionará acceso a agua potable, sino que también tendrá un impacto positivo en el contexto socioeconómico de la comunidad. Con un suministro constante y seguro de agua potable, se mejorará la salud general de los habitantes, especialmente de los niños, quienes son más vulnerables a las enfermedades transmitidas por el agua. Además, la reducción del gasto en la compra de agua potable liberará recursos económicos que pueden ser utilizados en otras áreas importantes como la educación, la alimentación y el desarrollo comunitario. Se espera que la implementación de una planta de ósmosis inversa en la comunidad indígena Chonchonpris #2 sea una medida esencial que atienda las necesidades críticas de agua potable, mejorando la salud pública y fortaleciendo el desarrollo socioeconómico de la comunidad.
Morales Gomez José Manuel, Universidad de Guadalajara
Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez

DIAGNóSTICO TEMPRANO DE LA DIABETES UTILIZANDO MACHINE LEARNING BASADO EN LA METODOLOGíA CRISP-DM


DIAGNóSTICO TEMPRANO DE LA DIABETES UTILIZANDO MACHINE LEARNING BASADO EN LA METODOLOGíA CRISP-DM

Figueroa Palos Francisco Xavier, Universidad de Guadalajara. Morales Gomez José Manuel, Universidad de Guadalajara. Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez



PLANTEAMIENTO DEL PROBLEMA

La diabetes es una de las enfermedades crónicas más prevalentes y de mayor impacto a nivel mundial. Según la Organización Mundial de la Salud (OMS), la diabetes afecta a millones de personas, y su incidencia continúa en aumento debido a factores como la obesidad, la mala alimentación y el sedentarismo (WHO, 2020) [1]. La Diabetes Mellitus Tipo 2 es la forma más común de esta enfermedad, representando más del 90% de los casos globales (IDF Diabetes Atlas, 2021) [2]. En países como México, la diabetes se ha convertido en una de las principales causas de mortalidad, con un impacto significativo en la calidad de vida de los pacientes y en los recursos del sector salud. El diagnóstico temprano de la diabetes es crucial para implementar intervenciones oportunas que puedan prevenir complicaciones graves y mejorar los resultados a largo plazo. Sin embargo, los métodos tradicionales de diagnóstico pueden no ser suficientes para identificar todos los casos a tiempo. Por esta razón, el uso de tecnologías avanzadas como el machine learning ofrece una prometedora alternativa para mejorar la precisión y la rapidez en el diagnóstico de la diabetes



METODOLOGÍA

Para abordar el problema de la diabetes de manera efectiva, se propone la implementación de un modelo de machine learning siguiendo la metodología CRISP-DM (Cross Industry Standard Process for Data Mining). Este enfoque estructurado garantizará que el proceso de desarrollo del modelo sea sistemático y orientado a los objetivos del negocio. 1. Comprensión del Negocio: Definir los objetivos específicos del modelo, como mejorar el diagnóstico temprano de la diabetes. Entender los requerimientos y las restricciones del sector salud, incluyendo aspectos éticos y de privacidad de los datos. 2. Comprensión de los Datos: Recopilar datos relevantes sobre diabetes, incluyendo datos demográficos, históricos de salud, hábitos de vida y mediciones clínicas. Explorar y analizar los datos iniciales para identificar patrones y relaciones importantes que puedan influir en el desarrollo del modelo. 3. Preparación de los Datos: Limpieza y preprocesamiento de los datos para eliminar inconsistencias y manejar valores faltantes. Selección de características relevantes que serán utilizadas por el modelo, asegurando que los datos estén en un formato adecuado para el análisis. 4. Modelado: Selección y aplicación de algoritmos de machine learning, específicamente árboles de decisión y regresión logística, para la clasificación y predicción de casos de diabetes. Entrenamiento del modelo utilizando un conjunto de datos de entrenamiento y ajuste de los parámetros para optimizar el rendimiento. 5. Evaluación: Evaluación del rendimiento del modelo utilizando métricas como precisión, sensibilidad y especificidad. Validación del modelo con un conjunto de datos de prueba para asegurar su efectividad en diferentes escenarios. 6. Despliegue: Implementación del modelo en un entorno de producción, donde pueda ser utilizado por profesionales de la salud para apoyar el diagnóstico temprano de la diabetes. Monitoreo continuo del rendimiento del modelo y realización de ajustes necesarios para mantener su precisión y relevancia.


CONCLUSIONES

Resultados La creación de un algoritmo utilizando modelo de Deep Learning basado en metodología CRISP-DM y redes neuronales para el diagnostico temprano de diabetes fue positivo, obtuvimos un 78% de precisión con nuestro algoritmo. Utilizando la métrica ROC AUC obtuvimos un puntaje de 0.8228096304590867. Con este resultado podemos decir que de cada 100 casos posible diabetes podemos determinar con exactitud 82 de ellos, definiendo si es un caso positivo de diabetes o negativo. Agregando por último que el análisis de nuestra matriz de confusión, en ella se observa que los falsos negativos son menores a los falsos positivos por ello podemos determinar con mayor precisión las personas que no tienen diabetes a las que si las tienen.
Morales González Dalia, Universidad Autónoma de Guerrero
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

CORROSIóN EN ESTRUCTURAS DE CONCRETO REFORZADO. EFECTO DEL USO DE NANO PARTíCULAS DE SILICIO SOBRE PROPIEDADES DE DURABILIDAD DE MUESTRAS DE CONCRETO REFORZADO.


CORROSIóN EN ESTRUCTURAS DE CONCRETO REFORZADO. EFECTO DEL USO DE NANO PARTíCULAS DE SILICIO SOBRE PROPIEDADES DE DURABILIDAD DE MUESTRAS DE CONCRETO REFORZADO.

Morales González Dalia, Universidad Autónoma de Guerrero. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

Se define corrosión como el deterioro de un material debido a la interacción química con su entorno. Este fenómeno es una de las principales causas de deterioro y colapso prematuro de edificaciones; en la Península de Yucatán, siendo una zona costera, se presentan dos componentes claves, la humedad y los cloruros de sodio (sal), provocando el aceleramiento del proceso en estructuras de concreto reforzado. En este contexto, el presente trabajo pretende evaluar el comportamiento que tiene las nanopartículas de silicio para mejoras las propiedades de durabilidad y resistencia a la corrosión en muestras de concreto reforzado a partir de una cierta dosificación, sin comprometer sus demás propiedades.



METODOLOGÍA

1. Revisión bibliográfica de trabajos previos (tesis de alumnos de la UAC), norma ASTM y NMX. Tesis: EFECTO DE LA ADICION DE FIBRAS DE CAÑA Y NANOPARTICULAS DE SISLICE MESOPOROSA TIPO MCM-41 EN ESTRUCTURAS DE CONCRETO REFORZADO, Albertho Michel, 2022. Tesis: ANALISIS DE LA APLICACIÓN DE UN NANOMATERIAL MESOPOROSO DE PARTICULAS DE OXIDO DE SILICIO SOBRE LAS PROPIEDADES DE DURABILIDAD DE MUESTRAS DE CONCRETO REFORZADO, Tatiana Del Carmen Torrez Pérez, 2023. Tesis: ANALISIS DEL EFECTO DE LA ADICION DE FIBRA DE HENEQUEN SOBRE LAS PROPIEDADES DE DURABILIDAD DE MUESTRS DE CONCRETO REFORZADO, Tania Del Carmen Torrez Pérez, 2023. Método de ensayo normalizado para Granulometría - agregados fino y grueso. NMX-C-111-ONNCCE-2004. Método de ensayo normalizado para determinación de Peso Específico y Absorción - agregados fino y grueso. NMX-C-165-ONNCCE-2004. Método de ensayo normalizado para determinación de Peso Específico - cemento. NMX-C-152-ONNCCE-2010. 2. Diseño de mezclas de concreto. Materiales: Todos propios de la región de la Península de Yucatán. Cemento Portland marca CEMEX. Agua de llave. Agregado fino, arena, tanto tamizada como natural. Agregado grueso, grava. Aditivo reductor de agua, superfluidizante de fraguado normal de marca comercial DISPERCOL NL-SF. Se realizaron tres colados en distintas fechas, logrando un total de 36 muestras con dos tamaños de moldes distintos, la primera (P) de prueba con el fin de aprender a realizar un buen colado, la segunda (T) de testigo que nos servirá como comparación y la tercera (NM) ya haciendo uso del nanomaterial integradas al concreto. Muestras: P: 6 (pruebas de resistencia a la compresión), 3 (pruebas electroquímicas) y 3 (pruebas de carbonatación) T: 6 (pruebas de resistencia a la compresión), 3 (pruebas electroquímicas) y 3 (pruebas de carbonatación) NM: 6 (pruebas de resistencia a la compresión), 3 (pruebas electroquímicas) y 3 (pruebas de carbonatación) Dosificación para un f'c = 280 kg/cm2 Presentación de los valores (corregidos por humedad) de diseño en estado seco Cemento (Kg): 30.44 Kg Arena (Kg): 62.75 Kg Grava (Kg): 66.75 Kg Agua (L): 17.15 L Aditivo (L): 0.122 L 3. Relacionarse con los equipos de laboratorio. Elaboración de nanopartículas de MCM-41-HDTMS mediante el método sol-gel sin ser funcionalizadas. 4. Colado de las muestras, revenimiento y supervisión del curado de estas. La elaboración de la mezcla se realizó de manera manual, afuera de las instalaciones del edificio de CICOOR de la UAC. Muestras (P) realizadas el día 03 de julio, 2024. Muestras (T) realizadas el día 09 de julio, 2024. Muestras (NM) realizadas el día 09 de julio, 2024. Resultado de revenimiento: La medición del revenimiento se realizó en 3 puntos distintos obteniendo así un promedio en cada muestra: P: 7.8 cm T: 7.4 cm NM: 6.4 cm Al término del llenado de todos los cilindros en cada colado se les coloco una bolsa de plástico para evitar el escape de humedad, se dejaron reposar durante 6 horas en una superficie plana, pasado el tiempo se desmoldaron y trasladaron a una tina con suficiente agua para taparlas por completo para que cada una se curara adecuadamente. 5. Prueba mecánica: medición de resistencia de compresión. El viernes 19/ jul/ 2024 se llevaron 3 cilindros P1 (correspondientes al colado P) y 3 cilindros P2 (correspondientes al colado T) a SEDUMOP, en donde se realizó la prueba de ruptura de cilindros de concreto hidráulico, con el dato del punto de rotura en kg y el área de la sección transversal de la probeta en cm2 se calculó el límite de resistencia por compresión, arrojando los siguientes resultados: P1 A: 4.26 (kg/cm2) P1 B: 4.57 (kg/cm2) P1 C:3.98 (kg/cm2) P2 A: 3.92 (kg/cm2) P2 B: 3.72 (kg/cm2) P2 C: 3,76 (kg/cm2)  6. Curso: Fundamentos de durabilidad de infraestructura. Tuvo una duración total de 5 días, con un horario de 9 am a 2 pm, abordando los siguientes temas: Principios del método científico. Concreto reforzado. Leyes de la termodinámica. Electroquímica básica. Técnicas electroquímicas para el estudio de la durabilidad de infraestructura. Por otro lado, nos dio tiempo de aprender a usar el equipo para medir resistividad (resistivímetro), practicando en vigas que se encontraban en el laboratorio de concreto.  


CONCLUSIONES

Durante la estancia de investigación del Programa Delfín, se obtuvieron conocimientos práctico teóricos acerca de distintos temas: como lo son el diseño de mezcla, realizar el colado de muestras de concreto, medir resistividad y ver el proceso de sintetización de un nanomaterial en el laboratorio. Se obtuvo resultados iniciales de pruebas de compresión con un curado de 7 y 14 días en las muestras P y T y 7 días de las muestras NM, como estimación inicial para determinar si las NM tendrán un cambio en las propiedades del concreto, tomando en cuenta las condiciones ambientales presentes en una zona costera.
Morales Magallón Pedro Luis, Instituto Tecnológico de Morelia
Asesor: Dr. Gerardo Antonio Rosas Trejo, Universidad Michoacana de San Nicolás de Hidalgo

OBTENCIóN DE NANOPLACAS DE ZNO/CQDS POR VíA HIDROTERMAL


OBTENCIóN DE NANOPLACAS DE ZNO/CQDS POR VíA HIDROTERMAL

Morales Magallón Pedro Luis, Instituto Tecnológico de Morelia. Asesor: Dr. Gerardo Antonio Rosas Trejo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el desarrollo de materiales nanométricos ha cobrado gran importancia debido a sus propiedades únicas y a su potencial aplicación en diversas áreas como la optoelectrónica, la catálisis y la biomedicina. Entre estos materiales, el óxido de zinc (ZnO) es particularmente destacado por sus propiedades ópticas, electrónicas y fotocatalíticas. Sin embargo, la integración de puntos cuánticos de carbono (CQDs) con ZnO para formar nanocompuestos híbridos (ZnO/CQDs) podría potenciar aún más sus capacidades, mejorando sus propiedades optoelectrónicas y fotocatalíticas. La síntesis hidrotermal se presenta como una técnica prometedora para la producción de estos nanocompuestos debido a su capacidad para controlar la morfología y las propiedades del material resultante. No obstante, existe una falta de conocimiento acerca de los parámetros específicos necesarios para la síntesis eficiente de ZnO/CQDs mediante este método y cómo estos parámetros afectan las propiedades fisicoquímicas y ópticas del nanocompuesto final. El problema central de esta investigación radica en la necesidad de determinar y optimizar los parámetros de la síntesis hidrotermal para producir nanoplacas de ZnO/CQDs con propiedades mejoradas. Además, se requiere una caracterización exhaustiva de los materiales sintetizados para comprender cómo la variación en los métodos de síntesis y en la secuencia de adición de los reactivos impacta la estructura y funcionalidad del nanocompuesto. En este contexto, el presente estudio se propone sintetizar nanoplacas de ZnO/CQDs por vía hidrotermal, determinar los parámetros óptimos para su síntesis, y caracterizar los materiales obtenidos mediante técnicas como UV-Vis, FTIR, MEB, EDS y DRX. Al abordar estas cuestiones, se busca no solo contribuir al conocimiento científico sobre la síntesis y propiedades de nanocompuestos híbridos, sino también abrir nuevas posibilidades para su aplicación en áreas tecnológicas avanzadas.



METODOLOGÍA

Al inicio del programa se realizó una revisión bibliográfica para comprender mejor los temas involucrados, como cálculos de concentración, molaridad, catalizadores y estabilizadores. Luego, se llevaron a cabo cuatro síntesis. Primera síntesis Se pesaron 10 g de malva, se lavaron con agua desionizada y se secaron a 100°C por 2 horas. Después, se pulverizó y se pesó nuevamente, y se vertieron en 40 ml de agua desionizada en un recipiente de teflón dentro de una autoclave a 180°C por 4 horas. Segunda síntesis Se usaron 0.08 g de hidróxido de sodio, 0.3 g de PVP y 0.1189 g de nitrato de zinc. Se mezclaron el hidróxido de sodio y el nitrato de zinc en 40 ml de agua desionizada en un recipiente de teflón dentro de una autoclave a 180°C por 4 horas. La solución resultante se mezcló con PVP usando ultrasonido y se analizó en UV-vis. Luego, se lavó dos veces con agua desionizada y dos con alcohol, cada lavado duró 10 minutos. Finalmente, se secó a 60°C y se recolectó el óxido de zinc. Tercera síntesis Se usaron 0.4 g de hidróxido de sodio, 0.1 g de PVP y 0.29 g de nitrato de zinc en 50 ml de agua desionizada, y se colocaron en un recipiente de teflón dentro de una autoclave a 180°C por 9 horas. La solución resultante se analizó en UV-vis y se lavó dos veces con agua desionizada y dos con alcohol, cada lavado duró 10 minutos. Finalmente, se secó a 60°C y se recolectó el óxido de zinc. Cuarta síntesis Se mezclaron 0.01 g de óxido de zinc de la tercera síntesis y 0.01 g de malva de la primera síntesis en 50 ml de agua desionizada. Se colocaron en un recipiente de teflón dentro de una autoclave a 180°C por 7 horas. La solución resultante se analizó en UV-vis y se lavó dos veces con agua desionizada y dos con alcohol, cada lavado duró 10 minutos. Finalmente, se secó a 60°C y se recolectó el polvo obtenido. UV-vis: Se obtuvo el espectrograma y se calculó el bandgap de 5.48 eV. MEB: Se caracterizó el tamaño y la morfología del polvo de las síntesis 2, 3 y 4. Síntesis 2: Morfología tipo flor. Síntesis 3: Nano placas de 40 nm, algo aglomeradas. Síntesis 4: Nano placas de 40 nm con carbono depositado, confirmado por EDS y mapeo elemental. DRX: Fases cristalinas y tamaño del cristal (pendiente). FTIR: Se identificaron grupos funcionales como O-H, carbonilos, carboxilos, aminas alifáticas y óxido de zinc.


CONCLUSIONES

En esta investigación, logramos sintetizar con éxito nanoplacas de óxido de zinc/puntos cuánticos de carbono (ZnO/CQDs) mediante el método hidrotermal. A lo largo de cuatro síntesis distintas, establecimos y optimizamos los parámetros necesarios para la preparación de CQDs, ZnONPs y el híbrido ZnO/CQDs. Cada síntesis fue cuidadosamente caracterizada utilizando técnicas como UV-Vis, FTIR, MEB, EDS y DRX, lo que permitió evaluar sus propiedades fisicoquímicas y ópticas. Las síntesis dieron lugar a la obtención de nanoplacas de 40 nanómetros, aunque con diferentes morfologías según el orden de adición de los reactivos y el tratamiento posterior. Especialmente notable fue la cuarta síntesis, en la que se combinaron puntos cuánticos derivados de la malva y óxido de zinc, resultando en la formación de nanoplacas con la incorporación efectiva de carbono, como se evidenció a través de MEB y EDS. Estos resultados demuestran el potencial del método hidrotermal para la fabricación de nanocompuestos ZnO/CQDs, abriendo posibilidades para futuras aplicaciones en campos como la optoelectrónica y la catálisis. Hemos cumplido con los objetivos establecidos al inicio del proyecto, logrando sintetizar y caracterizar con éxito nanoplacas de ZnO/CQDs, y demostrando la viabilidad de incorporar puntos cuánticos de carbono en estructuras de óxido de zinc mediante métodos hidrotermales.
Morales Mejia Dulce Esmeralda, Instituto Tecnológico de Acapulco
Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

APLICACIóN DE INTELIGENCIA ARTIFICIAL EN LA EVALUACIóN Y MITIGACIóN DE AMENAZAS EN ENTORNOS IOMT UTILIZANDO RNN


APLICACIóN DE INTELIGENCIA ARTIFICIAL EN LA EVALUACIóN Y MITIGACIóN DE AMENAZAS EN ENTORNOS IOMT UTILIZANDO RNN

Morales Mejia Dulce Esmeralda, Instituto Tecnológico de Acapulco. Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los dispositivos IoMT son susceptibles a diversas amenazas, incluyendo ataques cibernéticos que pueden comprometer la integridad, disponibilidad y confidencialidad de los datos médicos. Para abordar estos desafíos, el presente proyecto propone la aplicación de técnicas avanzadas de inteligencia artificial (IA) y RNN en la evaluación y mitigación de amenazas en entornos IoMT. Haciendo uso de WUSTL EHMS como dataset que contiene registros médicos. Utilizando en este conjunto de datos tres tipos de ataques los cuales son; inyección de datos, hombre en medio (man-in-the-middle) y ataques de suplantación de identidad en el entorno IoMT.



METODOLOGÍA

Recolección de Datos: Utilizar el dataset "wustl-ehms-2020.csv". Análisis Exploratorio: Comprender la distribución de los datos con la creación de graficas en power bi y programas en python para conocer su arquitectura. Preprocesamiento de datos: Aplicar StandardScaler, Min-Max y balanceo con SMOTE Evaluación: Comparar el rendimiento de los modelos antes y después de la normalización y con los del estado del arte. Documentación: Registrar resultados y ofrecer recomendaciones.


CONCLUSIONES

El proyecto implemento un flujo completo de preprocesamiento, entrenamiento y evaluación de un modelo de Red Neuronal Recurrente (RNN). Utilizando un conjunto de datos preprocesado, se dividieron los datos en conjuntos de entrenamiento y prueba, se creó y entrenó una RNN, y se evaluaron sus resultados usando varias métricas de rendimiento, obteniendo un desempeño deseado. Lo que a un futuro poder implementar más técnicas como CNN y LSTM para tener la evaluación entre diversos algoritmos y poder ser comparado entre los artículos del estado del arte.
Morales Mendoza Alejandra Meritxell, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mg. Cielo Ester Marriaga Gonzalez, Universidad del Sinú

ANáLISIS DE LA ADOPCIóN DE LA BLOCKCHAIN EN LABORATORIOS UNIVERSITARIOS: MEJORA DE LA CALIDAD DE AGUA Y BROMATOLOGíA EN LA CADENA DE SUMINISTRO ALIMENTARIO Y SU IMPACTO EN LOS OBJETIVOS DE DESARROLLO SOSTENIBLES


ANáLISIS DE LA ADOPCIóN DE LA BLOCKCHAIN EN LABORATORIOS UNIVERSITARIOS: MEJORA DE LA CALIDAD DE AGUA Y BROMATOLOGíA EN LA CADENA DE SUMINISTRO ALIMENTARIO Y SU IMPACTO EN LOS OBJETIVOS DE DESARROLLO SOSTENIBLES

Centeno Marin Kevin Edgar, Instituto Tecnológico Superior de Ciudad Hidalgo. Loeza Calderón Raúl, Instituto Tecnológico de Morelia. López González Arahat Missael, Instituto Tecnológico Superior de Irapuato. Morales Mendoza Alejandra Meritxell, Instituto Tecnológico Superior de Ciudad Hidalgo. Nuñez López Gerardo, Instituto Tecnológico Superior de Irapuato. Ochoa Garcia Keila Lucia, Instituto Tecnológico de Piedras Negras. Vasquez Reyes Adanary Susel, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Cielo Ester Marriaga Gonzalez, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

En un mundo cada vez más globalizado y conectado, los consumidores demandan transparencia y seguridad en los procesos relacionados con la calidad de los productos alimenticios y del agua. En este contexto, los laboratorios que realizan análisis de estas muestras juegan un papel crucial, ya que sus procesos de recepción, análisis, y generación de resultados deben garantizar precisión, eficiencia y seguridad de la información. Sin embargo, en instituciones como la Universidad del Sinú Seccional - Cartagena, los procesos no están automatizados, lo que genera complejidades y desafíos significativos. Ante estas necesidades, se propone desarrollar un Aplicativo Web que funcionará como una plataforma digital soportada en la tecnología disruptiva Blockchain, asegurando la integridad de los datos sin alteraciones no consensuadas. El proyecto busca optimizar los procesos de los laboratorios de Bromatología y Calidad de Agua de la Universidad del Sinú Seccional Cartagena mediante un aplicativo web que utilice Blockchain para asegurar la calidad y trazabilidad de la información. Esto no solo mejorará la eficiencia operativa, sino que también contribuirá a los Objetivos de Desarrollo Sostenible (ODS), los cuales son los siguientes: Objetivo 2 (Hambre Cero): Gracias a los mejores sistemas de calidad mejorados mediante el aplicativo de la tecnología Blockchain se busca combatir ante esta problemática desde su causa raíz. Objetivo 3 (Salud y Bienestar): Al brindar nuevos sistemas mediante la implementación de la tecnología Blockchain, la calidad de los productos alimenticios incrementará, disminuyendo así los problemas relacionados a la salud. Objetivo 6 (Agua Limpia y Saneamiento): Al trabajar estrechamente con el Laboratorio de Bromatología y Calidad Ambiental, es la forma en que se combatirá a los distintos aspectos de vulnerabilidad con relación al agua y el saneamiento mediante la implementación de la tecnología Blockchain. Objetivo 7 (Energía Asequible y No Contaminante): Al hacer uso de la tecnología Blockchain se precisa en mejorar el uso sostenible de la energía sin generar desperdicios o contaminantes para el medio ambiente. Objetivo 9 (Industria, Innovación e Infraestructura): La tecnología Blockchain es una tecnología emergente, que propone nuevas ideas para hacer su uso en distintos ámbitos, creando así mejoras para distintos sectores de la sociedad. Objetivo 11 (Ciudades y Comunidades Sostenibles): La implementación de la tecnología Blockchain y en conjunto con nuevas tecnologías, servirá de partida para la transformación de las Ciudades en Ciudades Sostenibles.



METODOLOGÍA

Para el proceso de elaboración de este proyecto de investigación se determinaron 4 etapas en las cuales se desarrollarán distintas actividades con el fin de cumplir los objetivos y los resultados esperados. Las etapas son las siguientes: I. Revisión documental del estado de uso de tecnologías 4.0 (BlockChain) en laboratorios a nivel global: El punto consta de las siguientes fases: Como primera fase se estableció y delimitó el objetivo propuesto; en la segunda se delimitaron las bases de filtros para la selección de la información relevante para el artículo; en la tercera fase se definieron los descriptores de búsqueda como Google Académico, Scielo, entre otros; en la cuarta fase se delimitó el uso de gestores bibliográficos como Rayyan y Mendeley; finalmente se llevó a cabo la extracción de datos de interés para la elaboración del artículo. Las conclusiones obtenidas abordan la aplicación de la tecnología en diferentes países y su impacto en la trazabilidad de la cadena de suministro. II. Diseño de base de datos de hoja de vida de equipos (aplicativo para base de datos): Para la creación de una base de datos de las hojas de vida de los equipos, es esencial iniciar con una discusión detallada donde se definirán los requisitos específicos que deben cumplirse, asegurando que todos los aspectos y necesidades del proyecto sean considerados y abordados adecuadamente. Siguiente a esto, se procederá a la elaboración del diseño del esquema de la base de datos. Finalizado el diseño, se implementará la base de datos y se realizarán pruebas exhaustivas para verificar su correcto funcionamiento, incluyendo la inserción, actualización, eliminación y recuperación de datos III. Elaboración de procedimiento de almacenamiento de reactivos de acuerdo con SGA (Sistema Globalmente Armonizado): Es necesario realizar una revisión de las normativas del SGA para identificar las pautas de clasificación, etiquetado y manejo seguro de sustancias químicas. Basado en esta revisión, se debe llevar a cabo un control de inventario que clasifique los reactivos almacenados de acuerdo con el SGA, incluyendo secciones que contengan información sobre el uso y manejo seguro de estos reactivos. IV. Diseño de procedimientos, formatos e instructivos de trabajo bajo la norma 17025: Es necesario hacer una revisión con respecto de los requisitos específicos de la norma ISO/IEC 17025, que cubre la competencia técnica, la validez de los resultados y la gestión del laboratorio. Consecuentemente se debe determinar los procesos clave en el laboratorio que deben documentarse, como la realización de pruebas, calibración, mantenimiento de equipos y gestión de calidad.


CONCLUSIONES

Durante la estancia de verano se logró implementar dos nuevas herramientas para el control de inventario y la creación y manejo de las hojas de vida de los equipos para el Laboratorio de Bromatología y Calidad Ambiental, lo cual acredita a dichos laboratorios bajo la normativa 17025, beneficiando de esta forma con una mejora en la seguridad para el manejo de los reactivos dentro del inventario, así como también un control actualizable en tiempo real de los reactivos y de los equipos de los Laboratorios. De igual forma, se logró adquirir un amplio conocimiento gracias a las ponencias y capacitaciones que se llevaron a cabo durante este periodo, con lo cual se logra identificar la importancia y los usos que se le puede dar a la tecnología Blockchain, no solamente en las cadenas de suministro alimentarias, sino que hasta en un enfoque global, como lo es en las criptomonedas.
Morales Ochoa Gabriel Abelardo, Instituto Tecnológico de Chihuahua II
Asesor: M.C. Yeiny Romero Hernández, Benemérita Universidad Autónoma de Puebla

HERRAMIENTAS DE HACKEO éTICO PARA DETECCIóN DE VULNERABILIDADES


HERRAMIENTAS DE HACKEO éTICO PARA DETECCIóN DE VULNERABILIDADES

Morales Ochoa Gabriel Abelardo, Instituto Tecnológico de Chihuahua II. Asesor: M.C. Yeiny Romero Hernández, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La seguridad se refiere a las medidas y controles que se implementan para proteger los activos, tanto físicos como digitales, de amenazas potenciales. Esto incluye la protección contra accesos no autorizados, daños, interrupciones y otros riesgos que puedan comprometer la integridad, disponibilidad y confidencialidad de los activos. La ciberseguridad es una rama de la seguridad que se enfoca específicamente en la protección de los sistemas informáticos, redes y datos contra ataques cibernéticos. Este campo abarca una amplia variedad de prácticas y tecnologías diseñadas para prevenir, detectar y responder a amenazas cibernéticas. Dentro de la ciberseguridad, una de las ramas más destacadas es el hacking ético. El hacking ético implica la utilización de habilidades y técnicas de hacking de manera legal y autorizada con el objetivo de identificar y corregir vulnerabilidades en sistemas y redes antes de que puedan ser explotadas por atacantes malintencionados. Los hackers éticos, también conocidos como "white hat hackers", utilizan diversas herramientas y métodos para realizar evaluaciones de seguridad exhaustivas y proactivas. Las vulnerabilidades son debilidades o fallos en un sistema, red o aplicación que pueden ser explotados por atacantes para comprometer la seguridad. Pueden estar presentes en el hardware, software, o en las configuraciones del sistema. La identificación y corrección de vulnerabilidades es fundamental para proteger los activos de información y prevenir incidentes de seguridad. Las vulnerabilidades pueden permitir a los atacantes acceder a información confidencial, causar interrupciones significativas en los servicios, y dañar la reputación de una organización. En el ámbito de la ciberseguridad, la identificación y mitigación de vulnerabilidades en sistemas y redes es crucial para la protección de los activos digitales de las organizaciones. Las herramientas avanzadas de hacking ético, como Nmap, Wireshark y Maltego, son esenciales para este propósito, cada una proporcionando capacidades únicas que facilitan una evaluación de seguridad exhaustiva. Sin embargo, la eficacia y la complementariedad de estas herramientas en un entorno de pruebas de seguridad aún requieren una evaluación detallada. Esta investigación se centra en analizar y demostrar cómo estas herramientas pueden integrarse y potenciarse mutuamente para mejorar la seguridad de las redes.



METODOLOGÍA

La investigación se llevó a cabo mediante la implementación práctica de Nmap, Wireshark y Maltego en un entorno controlado de prueba. Nmap: Comando utilizado: sudo nmap -p- -sS -sC -sV --min-rate=5000 -n -vvv -Pn 172.17.0.2 -oN all Descripción: Se utilizó Nmap para realizar un escaneo detallado de red, abarcando todos los puertos (1-65535) y utilizando técnicas de escaneo TCP SYN (half-open scan) para detectar hosts y servicios activos. Se emplearon scripts NSE para la detección de versiones de servicios y se configuró una tasa mínima de paquetes para optimizar la velocidad del escaneo. Resultados esperados: Identificación de hosts activos, servicios y versiones de software, junto con posibles vulnerabilidades y puntos débiles en la red. Wireshark: Filtros de captura y visualización utilizados: Captura: host 192.168.0.192 and (tcp or udp) Visualización: ip.src == 192.168.0.0/24 and ssdp Descripción: Wireshark se utilizó para capturar y analizar el tráfico de red en tiempo real. Se aplicaron filtros específicos para focalizar en el tráfico TCP y UDP relacionado con SSDP (Simple Service Discovery Protocol). La captura de paquetes permitió identificar actividades sospechosas y anomalías en el tráfico de red. Resultados esperados: Identificación de patrones de tráfico anómalos y actividades sospechosas, proporcionando una visión detallada de las comunicaciones de red y posibles vectores de ataque. Maltego: Descripción: Maltego se empleó para realizar un análisis de reconocimiento de una página web, recolectando y visualizando información sobre dominios, registros DNS, direcciones IP y datos de WHOIS. Se ejecutaron diversas transformaciones para explorar relaciones y conexiones entre entidades, facilitando una comprensión integral de la infraestructura de red. Resultados esperados: Generación de un gráfico detallado que muestra las relaciones entre diferentes entidades, facilitando la identificación de posibles puntos de ataque y vulnerabilidades.


CONCLUSIONES

El uso combinado de Nmap, Wireshark y Maltego demostró ser altamente efectivo en la evaluación de seguridad. Cada herramienta aportó aspectos únicos y complementarios: Nmap facilitó un escaneo exhaustivo de la red, proporcionando una visión clara de los hosts activos y los servicios disponibles. Wireshark permitió un análisis profundo del tráfico de red, identificando actividades sospechosas y vulnerabilidades en tiempo real. Maltego ofreció una perspectiva integral de las relaciones entre entidades, mejorando la comprensión de la infraestructura de red y destacando posibles puntos débiles. La integración de estas herramientas permitió una cobertura más completa de las fases de evaluación de seguridad, desde el reconocimiento y mapeo de la red hasta el análisis del tráfico y la visualización de relaciones entre entidades. Se observó que la combinación de resultados de Nmap, Wireshark y Maltego proporciona una base sólida para la identificación y mitigación de vulnerabilidades, mejorando significativamente la eficacia de las pruebas de seguridad. En resumen, la combinación de Nmap, Wireshark y Maltego proporciona una suite robusta y versátil para los profesionales de ciberseguridad. Su uso complementario no solo cubre todas las fases de una evaluación de seguridad, sino que también potencia la capacidad de detectar y mitigar vulnerabilidades de manera más eficaz, asegurando una protección integral de los activos digitales de cualquier organización.
Morales Pacheco Liliana, Universidad Veracruzana
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

INTEGRACIóN DE VISIóN ARTIFICIAL PARA LA SEGMENTACIóN E IDENTIFICACIóN DE OBJETOS SOBRE UNA BANDA TRANSPORTADORA


INTEGRACIóN DE VISIóN ARTIFICIAL PARA LA SEGMENTACIóN E IDENTIFICACIóN DE OBJETOS SOBRE UNA BANDA TRANSPORTADORA

Morales Pacheco Liliana, Universidad Veracruzana. Pallares Muñoz Alanis, Corporación Universitaria Americana. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Debido a la creciente necesidad de automatización y monitoreo remoto que se ha generado en los últimos años en la industria se ha llevado al auge en el desarrollo de sistemas avanzados de visión artificial, de entre los cuales una de sus aplicaciones que se pueden encontrar en estos sistemas de detección y clasificación de objetos es el control de calidad llevado a un sistema conectado a una banda transportadora. Sin embargo, los métodos tradicionales basados en la programación de reglas y el procesamiento de imágenes pueden ser limitados en términos de precisión y flexibilidad.



METODOLOGÍA

Se utilizaron materiales como una tarjeta embebida Raspberry Pi 3, debido a su bajo consumo y capacidad de procesamiento para tareas de vision por computadora en tiempo real, además de una cámara compatible con la tarjeta la cual sería de utilidad para las tareas de detección y grabación de  videos en tiempo real. Por otro lado, se instalo el sistema operativo Raspbian, que proporciona un entorno de desarrollo completo para Python, además de contar con un entorno flexible que permitía la instalación de las librerías necesarias para llevar a cabo el proyecto, se decidió trabajar con el lenguaje de programación  Python debido a su sintaxis sencilla, amplia variedad de librerías y gran comunidad. Con esto en mente el primer paso fue realizar la instalación de las  librerías necesarias (OpenCV, NumPy, Tensorflow,etc.) en el sistema operativo de la Raspberry Pi, en la que podemos destacar que OpenCV es una biblioteca de visión por computadora de código abierto, la cual ofrece un conjunto completo de funciones para tareas como detección de objetos, seguimiento de movimiento, reconocimiento de patrones entre otras cosas. Dado que nos encontrábamos trabajando en este caso con cámaras y el propósito es obtener los mejores resultados y  para mejorar el rendimiento de los procedimientos a realizar con la misma era indispensaple hacer la calibración de la cámara, por medio de un método basado en imágenes de la vision por computadora. Por consiguiente se definieron los colores, formas  y parámetros con los que se trabajaría, en los que por medio del rango de colores en HSV (Hue, Saturation, Value) preferiblemente dado que estos poseen un rango similar y mucho más intuitivo dado que se asemeja en demasia a la manera en como el ojo humano percibe los colores a diferencia de los presentados en el modelo del espacio RGB. También, se utilizaron técnicas de detección de contornos para identificar las formas de los objetos requeridos en la imagen. En el caso de los contornos detectados se utilizaron diferentes técnicas para perfeccionar la aproximación de algunos polígonos para obtener sus vértices y calcular características como el área, perímetro y forma. Una vez obtenida la imagen o video requerido para realizar el análizis,  esta se convierte en frasmes y de la misma manera pasa a espacio de color HSV para facilitar la detección de colores, posteriormente se crea una mascara binaria para resaltar los píxeles que corresponden al color seleccionado con la que luego se pretende  encontrar el contorno de las formas y de esta manera realizar el etiquetardo con la forma y el color correspondientes al objeto que se está visualizando. De la misma manera con la detección del objeto previamente obtenida se realizan los métodos determinado para obtener el calculo de la distancia que tenemos entre el objeto y nuestra cámara, con lo que pretendemos tener una buena determinación de donde se encuentran nuestros objetos y que tan precisos son nuestras funciones para la detección de los mismos.


CONCLUSIONES

Durante la  estancia de verano se logramos adquirir conocimientos teóricos de temas relacionado con la vision por computadora, así mismo como la manera en como trabaja a nivel de maquinaria, sus requerimientos, aplicaciones y su funcionamiento. Donde podemos destacar el aprendizaje relacionado a sus utilidades, los mètodos requeridos por la misma, además de las multiples aplicaciones que esta pueda tener a nivel general, teniendo en cuenta que no solo aprendimos la parte aplicada sino también su fundamentación matemática y la representción de las mismas. Por otro lado, también aprendimos acerca del uso que pueden tener las tarjetas embebidas  y sus múltiples aplicaciones como lo fue en nuestro caso con la tarjeta embebida Raspberry Pi3.
Morales Ponce Alejandro, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

MODELADO Y SIMULACIóN DE UN ROBOT DIFERENCIAL


MODELADO Y SIMULACIóN DE UN ROBOT DIFERENCIAL

Morales Ponce Alejandro, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el campo de la robótica móvil, los robots diferenciales son ampliamente utilizados debido a su simplicidad y eficiencia en diversas aplicaciones, desde la exploración y mapeo hasta la asistencia en tareas domésticas y la navegación autónoma. Un robot diferencial se caracteriza por tener dos ruedas motrices independientes, lo que le permite una gran maniobrabilidad y capacidad de navegación en entornos complejos. La necesidad de simular y controlar con precisión estos robots es crucial para el desarrollo y la validación de algoritmos de control y navegación, además de que es posible probar distintos escenarios y estrategias evitando riesgos y costos asociados con las pruebas físicas, MATLAB/Simulink es una herramienta útil en este contexto, que proporciona un entorno robusto para simular y analizar sistemas dinámicos Las simulaciones permiten probar diferentes escenarios y estrategias sin los riesgos y costos asociados con las pruebas físicas. El software MATLAB/Simulink es en una herramienta esencial en este contexto, proporcionando un entorno flexible y robusto para modelar, simular y analizar sistemas dinámicos, es por eso que, en este trabajo, se hará uso del entorno de simulación para analizar el comportamiento del robot y controlar la trayectoria.



METODOLOGÍA

El propósito es simular el movimiento del robot diferencial, el punto de partida fue diseñar el modelo CAD en Solid Works, posteriormente se realizó una exportación al entorno de Simulink, una vez ya teniendo el modelo CAD en nuestro entorno y se agregan bloques necesarios al modelo, los bloques primordiales es agregar un Planar Joint que permite el movimiento traslacional y el movimiento rotacional del robot diferencial en un entorno tridimensional, además de que se reajustan los bloques Revolute para que sea permitido proporcionarles una velocidad angular a las ruedas del robot . Después de tener el robot en el entorno Simulink, se hace el estudio del modelo cinemático en el centro de la plataforma para poder modelar la posición del robot en base a las velocidades angulares de las ruedas, y se crean los diagramas de bloques. Los bloques del modelo cinemático se conectan al modelo del robot, en donde las velocidades angulares se conectan a los bloques Revolute y las salidas de posición del modelo cinemático se conectan al bloque Planar Joint Se hace una breve simulación para observar el comportamiento del robot cuando una rueda gira más rápido que la otra, y como es de esperarse, el robot tiende a girar mientras avanza. Después se agrega un bloque de cinemática inversa, con la finalidad de que sea capaz de calcular las velocidades angulares de las ruedas en base a la velocidad lineal y angular que proporcione el controlador. Para el control de la trayectoria se utiliza un control proporcional por compensación, el cual mide el error que hay entre la posición del robot y la posición deseada y lo transforma en la velocidad lineal y angular necesaria para alcanzar el objetivo deseado, para corroborar el funcionamiento se le da la instrucción de formar una trayectoria circular en función del tiempo y se simula el modelo para poder sintonizar la constante de proporción  del controlador hasta afinar la trayectoria y obtener un resultado más suave. Una vez obtenida la constante adecuada, se prueban trayectorias distintas para evaluar la eficacia del controlador.


CONCLUSIONES

Utilizar un controlador proporcional puede ser útil pero es deficiente al probar distintas trayectorias ya que funciona de una manera muy eficiente al seguir trayectorias circulares, pero no se adapta a trayectorias rectas o senoidales, los resultados no fueron los deseados en todos los aspectos pero se puede seguir trabajando con la implementación de controladores mas robustos para simular en medida de lo posible cualquier trayectoria deseada de manera eficaz 
Morales Rodríguez Mariana, Universidad Tecnológica de La Selva
Asesor: Mtro. Armando Méndez Morales, Universidad Tecnológica de La Selva

CLASIFICADOR DE LIMONES PARA EL PROGRAMA SEMBRANDO VIDA


CLASIFICADOR DE LIMONES PARA EL PROGRAMA SEMBRANDO VIDA

Jiménez Ballinas Alan Alexis, Universidad Tecnológica de La Selva. Morales Rodríguez Mariana, Universidad Tecnológica de La Selva. Rodríguez Núñez Juan Carlos, Universidad Tecnológica de La Selva. Asesor: Mtro. Armando Méndez Morales, Universidad Tecnológica de La Selva



PLANTEAMIENTO DEL PROBLEMA

La industria agrícola, especialmente la producción de cítricos, demanda sistemas eficientes y precisos para la clasificación de frutos. La clasificación manual, tradicionalmente utilizada, es laboriosa, subjetiva y propensa a errores. La visión artificial, por su parte, ofrece una alternativa automatizada y objetiva para evaluar características como tamaño, forma, color y presencia de defectos en los frutos. La falta de un sistema eficiente de clasificación de limones en las unidades productivas del programa Sembrando Vida dificulta la determinación precisa del rendimiento de las plantaciones, la identificación de las variedades y la garantía de la calidad de los frutos destinados a la comercialización, lo que impacta negativamente en la rentabilidad de los productores.



METODOLOGÍA

Se recopilaron una gran cantidad de imágenes de limones de diferentes variedades, tamaños, colores y con distintos tipos de defectos. Para ello, se utilizaron imágenes en varias condiciones de iluminación, fondo y orientación de los limones para aumentar la robustez del sistema. A cada una de las imágenes se les realizó un etiquetado (labeling) delimitando la región específica del limón por medio de puntos, que representaban en coordenadas la posición del objeto. Esta anotación detallada permitió clasificar los limones en dos categorías principales: local y exportación. Una vez finalizado el proceso de etiquetado, se realizó la exportación de las imágenes ya etiquetadas para su posterior entrenamiento, dividiéndolas en tres partes: imágenes de entrenamiento, validación y prueba. Con ello, se llevó a cabo el entrenamiento de las redes neuronales de la visión artificial usando YOLO en su versión más reciente (YOLOv10). Las imágenes se procesaron en una resolución de 640x640 con un total de 30 épocas para 945 imágenes. Por otro lado, se trabajó con un prototipo a escala para poder realizar la clasificación. Este prototipo estuvo conformado por un área de depósito, una banda de transportación en la cual los limones se separaban por una división en la parte central, una cámara para la detección de las imágenes, dos áreas para clasificación (dos destinadas para exportación y dos para local), y por último, el área de descenso en donde los limones ya clasificados se dirigían a sus contenedores. Posteriormente, todo el sistema fue integrado en una aplicación web para el control y almacenamiento de los registros de cada clasificación por productor. En la aplicación web, se destinó un área para visualizar y definir las zonas de detección de imágenes. También se incluyó un formulario en el que cada productor podía registrar datos relevantes para la clasificación, como los datos del agricultor y la cantidad de limones en kg. Al iniciar el proceso, el sistema opera el prototipo y realiza la clasificación automáticamente. Una vez concluido el proceso, los resultados se muestran en la interfaz y los registros se almacenan en la base de datos.


CONCLUSIONES

Durante esta estancia de estadía se lograron adquirir una gran cantidad de conocimientos técnicos y sólidos sobre el campo de la visión artificial, algo que actualmente es muy utilizado en muchas industrias. Sin embargo, al ser un trabajo muy amplio, aún se encuentra en una fase inicial en la cual el entrenamiento de la red neuronal no está completado al 100%. Se espera poder mejorar el prototipo y llevar a cabo la mejora del entrenamiento de la red neuronal con una mayor cantidad de imágenes para que este sea más eficaz. Adicionalmente, el fortalecimiento tecnológico y la integración de estos avances en el programa "Sembrando Vida" pueden desempeñar un papel crucial en el apoyo de los vínculos económicos y sociales entre las zonas rurales y urbanas. La aplicación de la visión artificial, y otras tecnologías emergentes, como parte integral de este programa, podría facilitar la mejora de la conexión entre estos contextos, promoviendo tanto el desarrollo local como el potencial de exportación.
Morales Sánchez Emanuel Alejandro, Universidad de Guadalajara
Asesor: Dra. Alma Yolanda Alanis García, Universidad de Guadalajara

PROTOTIPO DIDáCTICO CEREBRAL


PROTOTIPO DIDáCTICO CEREBRAL

Ayon Rosales Dafne Gissell, Universidad de Guadalajara. Bautista Islas Joshua, Instituto Politécnico Nacional. Montalvo Maldonado Hugo Armando, Universidad de Guadalajara. Morales Sánchez Emanuel Alejandro, Universidad de Guadalajara. Asesor: Dra. Alma Yolanda Alanis García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Comprender el funcionamiento y las áreas del cerebro es fundamental no solo para la educación en neurociencia, sino también para la investigación en inteligencia artificial y el desarrollo de redes neuronales artificiales. Este proyecto se centra en la creación de un modelo interactivo del cerebro humano, con el objetivo de que los usuarios puedan conocer todas las partes fundamentales del cerebro, incluyendo su ubicación anatómica y sus funciones específicas. Consideramos que este modelo será una herramienta educativa valiosa para estudiantes, investigadores y el público en general, facilitando la divulgación científica de manera accesible y atractiva.



METODOLOGÍA

Se realizó una investigación exhaustiva sobre la anatomía y fisiología cerebral, enfocada en las diferentes partes y áreas específicas del cerebro que realizan tareas determinadas. Estas áreas, conocidas como lóbulos, incluyen: Lóbulo Frontal: Control del movimiento, personalidad, concentración, planificación, resolución de problemas, significado de las palabras, reacciones emocionales, habla y olfato. Lóbulo Parietal: Tacto y presión, gusto, y conciencia corporal. Lóbulo Temporal: Recepción y procesamiento de los sonidos, reconocimiento de rostros, emociones y memoria a largo plazo. Lóbulo Occipital: Vista. Cerebelo: Control motor, equilibrio y coordinación. Lóbulo Límbico: Control de emociones como felicidad, tristeza y amor. Con esta información, buscamos modelos para imprimir en 3D nuestro modelo didáctico. Se imprimió un modelo detallado del cerebro, asegurando una representación precisa de las estructuras anatómicas y sus interconexiones. Después del trabajo de diseño e impresión 3D, se dividieron los lóbulos y las áreas de cada una de las funciones del cerebro. Se desarrolló una aplicación móvil conectada a una Raspberry Pi, que permite la selección de regiones cerebrales específicas. Al seleccionar una región, la aplicación muestra un video explicativo sobre su funcionamiento, y el modelo didáctico se ilumina mediante LEDs en el área correspondiente, mostrando así al usuario la ubicación anatómica. Este desarrollo de interactividad asegura una experiencia de aprendizaje inmersiva y dinámica. Realizamos diferentes pruebas para evaluar la facilidad de uso, la comprensión del contenido y la efectividad de las tecnologías interactivas implementadas. Basados en la retroalimentación, realizamos ajustes y mejoras para optimizar la experiencia de usuario y la precisión del contenido.


CONCLUSIONES

El proyecto "Prototipo Didáctico Cerebral" ha logrado desarrollar una herramienta educativa innovadora que combina el modelado 3D, la interactividad mediante tecnologías avanzadas y la accesibilidad inclusiva. Las pruebas demostraron que el prototipo es fácil de usar y efectivo en la transmisión del conocimiento. Este proyecto tiene el potencial de transformar la enseñanza y el aprendizaje de la neurociencia.
Morales Sánchez José Alberto, Universidad Tecnológica de La Selva
Asesor: Mtro. Armando Méndez Morales, Universidad Tecnológica de La Selva

APLICACIóN WEB PARA EL SEGUIMIENTO DE LA PRODUCCIóN DEL PROGRAMA SEMBRANDO VIDA


APLICACIóN WEB PARA EL SEGUIMIENTO DE LA PRODUCCIóN DEL PROGRAMA SEMBRANDO VIDA

Morales Sánchez José Alberto, Universidad Tecnológica de La Selva. Asesor: Mtro. Armando Méndez Morales, Universidad Tecnológica de La Selva



PLANTEAMIENTO DEL PROBLEMA

El programa Sembrando Vida enfrenta algunos problemas debido a la manera en que se lleva el registro de sus datos, ya que hacen uso tradicional del papel y lápiz, lo cual trae consigo algunas problemáticas: 1. Almacenamiento Ineficiente: El guardar documentos físicos requiere mucho espacio, lo cual ocupando lugares que se pueden aprovechar de mejor manera. 2. Riesgo de Pérdida y Deterioro: Los documentos físicos y en papel son susceptibles a daños y extravíos, lo que compromete la integridad de la información. 3. Dificultad de Acceso: Consultar los datos puede volverse un proceso lento y algo complicado debido al volumen de los datos y a la organización de los mismos. 4. Baja Eficiencia: El llevar los registros de manera manual es propenso a los errores humanos y también consume demasiado tiempo, el cual puede ser mejor aprovechado en otras cosa.



METODOLOGÍA

El desarrollo del proyecto se llevó a cabo utilizando Python para el desarrollo de la web, junto con el framework Flask, y MySQL como base de datos. Para el versionado y control de versiones se utilizó GitLab. El equipo de trabajo siguió la metodología SCRUM, que asegura un desarrollo ágil y efectivo mediante sprints, reuniones diarias y revisiones periódicas. Se añadió la funcionalidad de cargar archivos de Excel al sistema, permitiendo que los datos se guarden automáticamente en la base de datos del módulo de especies. Esto reduce significativamente el tiempo necesario para registrar los datos, mejorando la eficiencia. Esta funcionalidad se integrará en todos los módulos que se desarrollen así pudiendo facilitar la subida de registros a la aplicación web y así poder aprovechar el tiempo en otras actividades. La información que se encuentra en archivos de Excel se tomara de un sistema existente utilizado solo como almacenamiento de este tipo de archivos por el programa sembrando vida. El poder agregar registros de esta manera nos facilitara y ayudara a evitar duplicidad de datos en todos los registros realizados. Los módulos desarrollados son: • Módulo de Especies de Plantas: Permite subir datos sobre especies de plantas, incluyendo nombre, tiempo de maduración y observaciones. • Módulo de Productores: Permite registrar toda la información de los productores participantes en el programa, así como las fechas de ingreso. El desarrollo de la aplicación web por el momento se encuentra en proceso y aun se complementará con más catálogos de información (módulos) los cuales serán de suma importancia para los usuarios.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos sobre las tecnologías utilizadas en el desarrollado del proyecto, así como el aprendizaje de la metodología SCRUM para el trabajo en equipo y todo eso se puso en práctica en el desarrollo web. Con el desarrollo de la plataforma web para el programa Sembrando Vida se presentarán varios beneficios a los usuarios del sistema como serán la eficiencia mejorada ya que, al digitalizar la información, reduce significativamente el tiempo necesario para registrar y realizar las consultas.  La implementación de módulos específicos, como el de especies de plantas y productores, junto con la funcionalidad para cargar archivos de Excel, ha mejorado significativamente la eficiencia operativa. 
Morales Segura Azael, Instituto Tecnológico Superior de Las Choapas
Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato

ANáLISIS Y CUANTIFICACIóN DE LOS MODOS ELECTROMAGNéTICOS DE UN CILINDRO A TRAVéS DE SU COMPORTAMIENTO MEDIANTE FDTD.


ANáLISIS Y CUANTIFICACIóN DE LOS MODOS ELECTROMAGNéTICOS DE UN CILINDRO A TRAVéS DE SU COMPORTAMIENTO MEDIANTE FDTD.

Morales Segura Azael, Instituto Tecnológico Superior de Las Choapas. Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

A través del análisis y la implementación de las ecuaciones de maxwell discretizadas al método de diferencias finitas en dominio del tiempo (por sus siglas en ingles FDTD) con condiciones específicas del espacio y área analítica computacional añadiendo condiciones de frontera y del cuerpo cilíndrico con parámetros específicos para la obtención de resultados más óptimos. En general el comportamiento del flujo del electromagnético puede ser analizado y resuelto en apoyo de las ecuaciones de maxwell para su flujo en un espacio descrito especifico, usaremos el apoyo de una diferente metodología en el espacio confinado de geometría diferente, cilíndrica para en este caso sus efectos en electromagnéticos en función del tiempo. En el mundo de las matemáticas hay métodos de resolución y de mejor comprensión, en esta investigación tomaremos el método FDTD (diferencias finitas) respecto al tiempo propuesto por Kane Yee en 1966 para como un método para resolver las ecuaciones de maxwell, en específico dos leyes las cuales son: ley de Faraday y ley de Ampere-Maxwell, puesto que estas dos se relacionan comportamientos eléctricos y magnéticos los cuales nosotros queremos analizar. Ante el análisis para el cuerpo cilíndrico con propiedades variables, lo tomaremos para representación de un material de transmisión y así contemplar los efectos de este cuerpo a lo largo del lapso del tiempo y de su estructura, Para trabajar en la simulación del cuerpo y su análisis electromagnético usaremos el programa Matlab® por la familiarización de este respecto al campo científico e industrial que se induce desde el ámbito escolar, cabe recalcar que Matlab no es el único programa en el que se puede trabajar llevando  el análisis y cuantificación, hay programas de apoyo como por ejemplo C++ han sido de uso en desarrollo de códigos han sido de gran uso en las cuantificaciones de antecedentes de otras investigaciones. En el desarrollo del programa se desea un programa de simulación con datos y partes variables tanto de la geometría a analizar como de las propiedades de este, así tomar representación el comportamiento y cuantificación de distintos materiales con la misma geometría.



METODOLOGÍA

A continuación mediante las ecuaciones y parámetros para la simulación y con la ayuda del software appdesigner de Matlab para el desarrollar de una interfaz donde introduciendo las ecuaciones de maxwell ya discretizadas se podrá realizar  análisis y obtener  resultados específicos en el cilindro, considerando las propiedades de permitividad y permeabilidad para captar un mejor comportamiento de las ondas electromagnéticas en el medio espacial de análisis. Contemplando un desarrollo de visualización tanto en plots de visualización 2D y 3D. para el analisis debemos discretización las ecuaciones cada una con el método de diferencias finitas entonces considerando cada una de las ecuaciones sabiendo que son base para el análisis en espacio tridimencional las cuales son: Ley de Faraday Ley de Ampere-Maxwell Ley de Gauss para el campo eléctrico Ley de Gauss para el campo magnético Condición de frontera de absorción PML El método PML es una técnica de amortiguación artificial diseñada para absorber las ondas electromagnéticas que llegan a los bordes de la región de simulación sin reflejarlas. Fue introducido por Jean-Pierre Berenger en 1994 (Berenger, 1994) y se ha convertido en una herramienta esencial en la simulación numérica de problemas electromagnéticos. Frontera Perfectly Matched Layer (PML), se añade una región absorbente alrededor del dominio computacional para minimizar las reflexiones en los bordes. Las PML son implementadas modificando las ecuaciones de Maxwell para incluir términos de absorción. Las condiciones de frontera (PML) también deben considerar la presencia de la corriente. En la región PML, las ecuaciones modificadas incluirán términos de absorción junto con la corriente. Esta técnica nos ayuda a evitar la reflexión de los comportamientos en la simulación hacia dentro del área de análisis al llegar al limite de nuestro espacio; de manera siempre se introdujo una condición de espacio infinito en un área delimitada finita donde al llegar el fenómeno electromagnético se pudiera propagar sin afectar nuestros resultaos, ya que al no poder dejar un espacio fuera de la malla no podemos guardar o mantener los datos de comportamiento fuera de la visualización pues al ser datos de espacio indefinidos no podemos guardar tales datos sin considerar el espacio y la potencia de los equipos de cómputo en la actualidad.


CONCLUSIONES

En las investigaciones referentes al tópico se consideraron las mas versátiles con antecedentes al comportamiento electromagnético, ecuaciones discretizadas que se pueden usar para diferentes análisis de cuerpos o espacios donde se consideran el área computacional ya sea en manera isotrópica, y casos no homogéneos, la gran mayoría para diferentes propósitos, pero relacionados tanto en ecuaciones como en resultados de comprobación llevándose a cabo en simulación mediante software, las cuales fueron útiles siendo de gran ayuda para implementar todo el desarrollo y las formas matemáticas en el programa Matlab asi poder tener una interfaz para seleccionar variables para los parámetros de simulación pudiendo insertar la longitud del cilindro y sus propiedades, teniendo resultados para diferentes condiciones físicas para el material y simulación.
Morales Trujillo Felipe Alberto, Instituto Tecnológico Superior de Guanajuato
Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato

OBTENCIóN DE DATOS PARA LA INTERPRETACIóN DE GESTOS CORPORALES USANDO MéTODOS DE RECONOCIMIENTO.


OBTENCIóN DE DATOS PARA LA INTERPRETACIóN DE GESTOS CORPORALES USANDO MéTODOS DE RECONOCIMIENTO.

Chia Rodriguez Pamela Asusena, Instituto Tecnológico Superior de Guanajuato. Lozano Romero Brandon Gabriel, Instituto Tecnológico Superior de Guanajuato. Morales Trujillo Felipe Alberto, Instituto Tecnológico Superior de Guanajuato. Ortega Prieto Anayeli, Instituto Tecnológico Superior de Guanajuato. Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

 Planteamiento Del Problema: La interpretación de emociones humanas a través del lenguaje corporal es un área de creciente interés, ya que tiene un amplio campo para su desarrollo como la atención al cliente, educación, salud mental, interacción humano-computadora, interrogatorios judiciales y más. Sin embargo, el análisis del lenguaje corporal es complejo debido a la variabilidad y sutileza de las expresiones no verbales. Aunque existen sistemas automatizados para el reconocimiento facial, corporal y análisis de voz, estos suelen ser insuficientes para captar la gama completa de emociones expresadas a través del lenguaje corporal, ya que, por lo general, muchos trabajos han sido para la detección de gestos cuando única y exclusivamente se hace la postura exacta para dar la información al detector o programa. Por lo cual, en este trabajo dejamos una vía para que los métodos de reconocimiento sean más amplios para detectar dichas emociones.



METODOLOGÍA

Metodología: Se realizó la investigación de información sobre sistemas para el reconocimiento de posturas y obtener sus coordenadas, lo cual se registró como Estado del Arte. Posteriormente se decidió usar Python ya que este lenguaje, además de su versatilidad en programar, tiene bibliotecas que pueden servir para detectar movimientos y puntos del cuerpo en la cámara, en específico la biblioteca Mediapipe. Mediapipe con Landmarker es una herramienta que ayuda a detectar objetos cuando son vistos en una cámara, la herramienta por lo general proporciona elementos como líneas y puntos cuando detecta un objeto. En este caso, se usó para detectar las coordenadas de los puntos de diferentes personas y poder obtener una base de datos para su posterior uso en la investigación. Se tomaron diversas posturas de 3 estudiantes de diferentes estaturas, sexo y corpulencia con la intención de que exista una variedad en la información ya que en un entorno real no todos los usuarios serán de las mismas características.


CONCLUSIONES

Conclusión: En la implementación de este trabajo durante la estancia de verano, se adquirió un notable crecimiento en cuanto conocimientos sobre el manejo de bibliotecas y algoritmos para usarlos en la práctica con la detección de movimientos, cabe mencionar que estos datos obtenidos servirán como parte del trabajo a futuro de la investigación.
Morales Ureña Brenda Fernanda, Instituto Tecnológico de Querétaro
Asesor: Dr. Juan José Rodríguez Peña, Instituto Politécnico Nacional

APLICACIóN DIGITAL PARA LA VALORACIóN DEL AVANCE EN EL PROCESO DE APRENDIZAJE DEL CONTEO Y SECUENCIA NUMéRICA EN LA EDUCACIóN ESPECIAL DE SEXTO DE PRIMARIA.


APLICACIóN DIGITAL PARA LA VALORACIóN DEL AVANCE EN EL PROCESO DE APRENDIZAJE DEL CONTEO Y SECUENCIA NUMéRICA EN LA EDUCACIóN ESPECIAL DE SEXTO DE PRIMARIA.

Morales Ureña Brenda Fernanda, Instituto Tecnológico de Querétaro. Asesor: Dr. Juan José Rodríguez Peña, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La educación, como bien se sabe, además de ser un derecho, es un proceso de aprendizaje en el cual se busca el desarrollo de todas aquellas capacidades, habilidades, actitudes y conductas con el fin de obtener competencias. Por otra parte, la educación especial busca el desarrollo de estrategias afines para que la educación inclusiva y reciban una atención educativa acorde a sus características, necesidades, habilidades e intereses. En México los alumnos que presentan alguna discapacidad tienen una menor posibilidad de ir a la escuela, recibir buena atención de salud, y son los más vulnerables a la violencia, el abuso y la explotación, cerca del 47% de los niños con discapacidad no va a preescolar, el 17% no asiste a educación primaria, y el 27% nunca llega a estudiar la secundaria. El porcentaje de estudiantes con discapacidad escolarizado en la escuela general es menor al 10%, oscilando entre el 50 al 75% en algunos casos. Entre las principales causas para no aceptar a estos estudiantes están: la falta de formación y condiciones para su atención adecuada, la rigidez curricular, la carencia de docentes formados y sistemas de apoyo, así como materiales y equipamiento insuficiente.



METODOLOGÍA

Atacando una de las problemáticas, siendo la falta de material didáctico o práctico con el objetivo de estandarizar y digitalizar valoraciones que, a facilidad de los docentes, alumnos y familiares sea de uso y ayuda común. Se realizo con la ayuda de docentes de USEBEQ se realizó un acercamiento a las necesidades, asesoramiento de las evaluaciones y los procesos de aprendizaje, Se utilizo material didáctico, específicamente en el proceso de aprendizaje del conteo y secuencia numérica en la educación especial de sexto de primaria. Una vez obtenida la información del conteo y secuencia numérica, seleccione una plataforma digital que me permitiera el vinculo de actividades, la calificación de las mismas y los niveles de la evaluación del diagnóstico con recomendaciones para el alumno. Siendo Sites. La metodología fue un diagrama de flujo, en el que, con actividades específicas arroja directamente a un nivel desde el 1 hasta el 4, (reconocimiento del número, antecesor y sucesor, suma simple y resta simple, suma y resta de transformación). Una vez realizada su valoración, Sites arroja a una sección de recomendaciones, según sea el caso en el que el alumno haya hecho la evaluación y en el nivel que se encuentre, para los docentes, padres de familia y alumnos.


CONCLUSIONES

Durante estos meses, pude entender la importancia de conocer los procesos de aprendizajes y lograr eficientizar el proceso de evaluación de aprendizaje del conteo y secuencia numérica de educación especial, de tal modo que, no solo sea para pensamiento matemático, sino para lectura y escritura, desarrollo personal, entre otras.
Moreno Belmares Jazmin, Universidad Autónoma de Tamaulipas
Asesor: M.C. Juan Roberto de la Torre Escareño, Universidad Autónoma de Tamaulipas

DESARROLLO DE REALIDAD VIRTUAL PARA UN LABORATORIO DE PROCESOS QUíMICOS


DESARROLLO DE REALIDAD VIRTUAL PARA UN LABORATORIO DE PROCESOS QUíMICOS

Moreno Belmares Jazmin, Universidad Autónoma de Tamaulipas. Reyes Gonzalez Jesus Alejandro, Universidad Autónoma de Tamaulipas. Asesor: M.C. Juan Roberto de la Torre Escareño, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

En el ámbito de la ingeniería química, la experimentación y la práctica en laboratorio son esenciales para la comprensión y aplicación de conceptos teóricos. Sin embargo, los laboratorios físicos presentan una serie de limitaciones, tales como altos costos de mantenimiento, riesgos de seguridad, acceso limitado a recursos y la imposibilidad de simular ciertos escenarios extremos. Estos desafíos dificultan la enseñanza efectiva y la experimentación segura de procesos químicos complejos. La tecnología de realidad virtual (VR) ofrece una alternativa innovadora para superar estas limitaciones. A través de entornos virtuales inmersivos, es posible simular procesos químicos de manera segura, accesible y económica. Además, las herramientas de desarrollo como Unreal Engine y Blender, junto con dispositivos como Meta Quest, permiten crear experiencias visuales de alta calidad y altamente interactivas. El problema radica en la falta de implementación y desarrollo de un laboratorio de procesos químicos virtual que no solo sea técnicamente robusto, sino que también esté alineado con los objetivos educativos y formativos de los programas de ingeniería química. A pesar del potencial de la VR, existe una brecha significativa en la integración de estas tecnologías en el currículo académico, lo cual limita su aprovechamiento y su capacidad para mejorar el proceso de aprendizaje. Por lo tanto, se plantea la necesidad de desarrollar una solución de realidad virtual utilizando Unreal Engine, Blender y Meta Quest, que permita a los estudiantes de ingeniería química experimentar y practicar en un entorno virtual seguro y realista. Este proyecto busca no solo resolver los problemas de accesibilidad y seguridad en los laboratorios, sino también proporcionar una herramienta educativa que mejore la comprensión de los procesos químicos y su aplicación práctica.



METODOLOGÍA

Para llevar a cabo este proyecto de investigación, se implementó una metodología estructurada en varias fases técnicas. Inicialmente, se realizó una revisión bibliográfica y un análisis exhaustivo de las necesidades educativas en laboratorios de procesos químicos. En la fase de diseño conceptual, se utilizó Blender para crear modelos 3D detallados de equipos y reactores químicos, así como para aplicar texturas realistas a las moléculas químicas previamente modeladas en PyMOL. Posteriormente, se integraron estos modelos en Unreal Engine, donde se programaron los métodos físicos necesarios para simular con precisión los procesos químicos. Se prestó especial atención a la programación de las interacciones y las secuencias de experimentación para garantizar una experiencia inmersiva y educativa utilizando los dispositivos Meta Quest. La interactividad con la interfaz de usuario se desarrolló cuidadosamente para asegurar una navegación intuitiva y una experiencia de aprendizaje efectiva. Una vez desarrollado el entorno virtual, se llevó a cabo una fase de prueba y evaluación con estudiantes de ingeniería química, recopilando datos cualitativos y cuantitativos para evaluar la efectividad educativa y la usabilidad del laboratorio virtual. Finalmente, se analizaron los resultados y se realizarán los ajustes necesarios para optimizar el entorno, con el objetivo de crear una herramienta educativa robusta y eficaz.


CONCLUSIONES

Los resultados obtenidos indican una mejora significativa en la comprensión y aplicación de conceptos teóricos por parte de los estudiantes: 1. Mejora en el Aprendizaje: Los estudiantes mostraron una mayor comprensión de los procesos químicos complejos, gracias a la posibilidad de interactuar con los modelos 3D y las simulaciones en un entorno seguro y controlado. La realidad virtual permitió visualizar reacciones químicas y procesos que, de otro modo, serían difíciles de observar en un laboratorio físico. 2. Accesibilidad y Seguridad: La plataforma virtual proporcionó un acceso ilimitado a los laboratorios, eliminando los riesgos de seguridad asociados con la manipulación de sustancias peligrosas. Esto permitió a los estudiantes experimentar con diferentes escenarios y condiciones de reacción sin restricciones, promoviendo una mayor experimentación y aprendizaje activo. 3. Interactividad y Engagement: La interactividad programada en el entorno virtual, junto con la utilización de dispositivos Meta Quest, resultó en una experiencia altamente inmersiva. Los estudiantes reportaron una mayor motivación y engagement durante las sesiones de laboratorio, lo que se reflejó en una participación más activa y una retención de conocimientos mejorada. 4. Eficiencia en el Uso de Recursos: La implementación de un laboratorio virtual redujo significativamente los costos asociados con el mantenimiento y la operación de laboratorios físicos. Además, permitió la simulación de escenarios que requerirían equipos y reactivos costosos o difíciles de conseguir, optimizando así los recursos educativos. 5. Flexibilidad en la Enseñanza: Los instructores encontraron en el laboratorio virtual una herramienta versátil que les permitió personalizar las experiencias de aprendizaje según las necesidades individuales de los estudiantes. La posibilidad de ajustar parámetros y condiciones experimentales en tiempo real facilitó una enseñanza más adaptativa y centrada en el estudiante.
Moreno Caicedo Fabian Eduardo, Universidad de Pamplona
Asesor: Mg. Lewin Andrés López López, Universidad del Valle

DISEñO Y CONSTRUCCIóN DE UN PROTOTIPO ELECTRóNICO EDUCATIVO CON VISIóN ARTIFICIAL PARA EL CONTROL DE ACCESO A UN PARQUEADERO


DISEñO Y CONSTRUCCIóN DE UN PROTOTIPO ELECTRóNICO EDUCATIVO CON VISIóN ARTIFICIAL PARA EL CONTROL DE ACCESO A UN PARQUEADERO

Moreno Caicedo Fabian Eduardo, Universidad de Pamplona. Asesor: Mg. Lewin Andrés López López, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

El parqueadero del centro comercial Único en Yumbo, Cali, Colombia, cuenta con 22 puestos de parqueo y enfrenta la problemática de gestionar de manera eficiente la asignación de estos espacios. Actualmente, la identificación de las placas vehiculares y la asignación de puestos de parqueo se realiza manualmente, lo cual ante el aumento de la demanda de puestos de parqueo puede generar demoras, errores y congestión vehicular a las afueras del centro comercial, afectando tanto a los usuarios como a la administración del centro comercial. Para abordar esta problemática, se propone el desarrollo de un sistema automatizado que utilice una cámara con visión artificial para identificar las placas de los vehículos y determinar los posibles puestos de parqueo disponibles. Este sistema se basará en la integración de un microcontrolador de bajo costo, como la ESP32-CAM, junto con algoritmos de visión artificial implementados con la librería OpenCV y técnicas de OCR (Reconocimiento Óptico de Caracteres). Se realizó una revisión exhaustiva de la literatura, incluyendo artículos, conferencias y tesis reportadas en bases de datos especializados como SCOPUS, IEEE, EBSCO, utilizando terminos que permitieran encontrar aplicaciones con el ESP32CAM y particularmente asociados a la gestión de parqueaderos, ademas que aborden la implementación de técnicas de visión artificial para el reconocimiento de placas vehiculares. La mayoría de estos estudios evidencian el uso de la librería OpenCV en Python, junto con OCR, para desarrollar algoritmos eficaces en la identificación de placas. El objetivo principal de este proyecto es crear un prototipo que demuestre la viabilidad de utilizar microcontroladores de bajo costo y técnicas de visión artificial para automatizar la gestión de parqueaderos. Este prototipo servirá como base para evaluar su efectividad y potencial implementación en el parqueadero del centro comercial Único, mejorando así la experiencia de los usuarios y optimizando la administración del espacio disponible. Por lo tanto, es necesario la verificacion de algoritmos de reconocimiento de placas vehiculares en diversas condiciones y considerando la adaptacion a un sistema fisico similar al del parqueadero real en el centro comercial Unico de Yumbo



METODOLOGÍA

La metodología será Design Thinking: • Investigación y definición de problemas: Se realizo una búsqueda literaria para identificar los métodos más comunes de reconocimiento de placas vehiculares por medio de OpenCv y Python, pero fundamentados en la captura de imágenes con el ESP32CAM. Se encontró que hay poca información relacionada al procesamiento de imagen dentro del ESP32CAM y se pudo enfatizar en la importancia de hacer un sistema de pruebas con apoyo en una estructura propia para la captura de las placas y un dataset propio para las pruebas de los algoritmos. Se pudieron comprender las características didácticas y el propósito de aprendizaje del prototipo.  • Ideación y diseño conceptual: Se planteo el diseño del prototipo que permita la construcción de una caja cerrada donde se adapte la ESP32CAM en un extremo, mientras se modifica la distancia de la imagen de la placa mediante un sistema de engranes tipo correa, con la idea de simular el movimiento de un vehículo real. Se espera poder realizar físicamente este prototipo con apoyo de la impresión 3D y plantear el diseño estructural del parqueadero completo para determinar los posibles puestos de parqueo disponibles. • Prototipado y pruebas iterativas: Se realizo la comprobación de 3 posibles algoritmos enfocados a la tarea de identificar las placas vehiculares. Estos algoritmos se trabajaron con un dataset propio que permitirá la validación del reconocimiento en condiciones ideales y adversas. El primer dataset corresponde a placas cuya imagen corresponde a una fotografía tomada por la cámara con buena calidad, colores y nitidez suficiente para facilitar el reconocimiento, mientras que el segundo dataset se obtuvo de pasar el primer dataset por un software libre que permite la aplicación de filtros, lo cual reduce la calidad de las fotografías y afecta el color e iluminación de la misma, dificultando el reconocimiento y acercando a una situación real que puede llegar a presentarse. • Evaluación y refinamiento final: Dos de los tres algoritmos se pusieron a prueba y los resultados permitieron una validación de un 85% de aciertos en la identificación de estas placas, el siguiente algoritmo logro un 64% y el tercero funciono para las pruebas en modo video sugeridas por el desarrollador del algoritmo. Es importante mencionar que los primeros dos algoritmos se tomaron de referencia y se modificaron para la aplicación de los datasets de prueba. Se propone mejorar la respuesta de los algoritmos y terminar el tercer algoritmo para el mismo dataset de prueba, así como implementar las pruebas físicamente con apoyo en la estructura y la impresión 3D.


CONCLUSIONES

1. Se ha podido realizar una primera revisión de literatura para el uso de sistemas de visión artificial educativos, basados en la plataforma ESP32-CAM, al igual que los algoritmos de reconocimiento de placas vehiculares con lenguaje python mediante OpenCV. 2. Se ha desarrollado un prototipo de pruebas para experimentar con una ESP32-CAM y componentes electrónicos de uso común que permitan representar el ingreso a un parqueadero con un modelo basado en un centro comercial real de la ciudad de Yumbo. 3.  Se han comprobado tres algoritmos de reconocimiento de placas vehiculares con datasets, que constituyen un ejercicio práctico para el aprendizaje didáctico de la visión artificial, aplicado al caso real del parqueadero del centro comercial Único en Yumbo. Como trabajo futuro se propone mejorar los algoritmos, realizar pruebas físicas con imágenes capturadas con el ESP32CAM y completar la plataforma física basada en impresión 3D.  
Moreno Casas Vicente Adrián, Universidad de Guadalajara
Asesor: Dr. Ivan Enrique Campos Silva, Instituto Politécnico Nacional

CARACTERIZACIóN DE SISTEMAS MICRO-NANO ESTRUCTURADOS.


CARACTERIZACIóN DE SISTEMAS MICRO-NANO ESTRUCTURADOS.

Guardado Paniagua Soni Atonalt, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Jiménez Torres Tomas, Instituto Politécnico Nacional. Moreno Casas Vicente Adrián, Universidad de Guadalajara. Asesor: Dr. Ivan Enrique Campos Silva, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La selección de materiales para la fabricación de componentes específicos requiere evaluar múltiples propiedades y, a menudo, mejorar estos materiales para prolongar su vida útil. En el Grupo Ingeniería de Superficies del Instituto Politécnico Nacional, se utiliza el proceso de borurado en caja asistido por un campo de corriente directa pulsante (BCDP) para mejorar la dureza y la resistencia al desgaste de aceros, creando un recubrimiento cerámico en la superficie del metal. El proceso de borurado involucra la difusión de átomos de boro en la matriz metálica, formando compuestos de boruro en la superficie del material. Este tratamiento presenta desafíos en su implementación efectiva debido a factores como la composición química del medio borurante y la estructura cristalina del material base. La caracterización de estos materiales es crucial para comprender cómo estos factores influyen en la calidad y uniformidad de la capa de boruro, y para optimizar el proceso y justificar su uso en aplicaciones industriales como en la fabricación de componentes para la industria del vidrio, química, textil, entre otras. Se sabe que el borurado mejora la resistencia al desgaste y la dureza del material, pero es necesario entender mejor los mecanismos que controlan esta mejora. La composición química del medio borurante, la estructura del material de base, la temperatura de tratamiento y la intensidad y frecuencia de la corriente aplicada son factores que deben ser investigados. Además, la evaluación económica de estos procesos es crucial para su implementación en la industria.



METODOLOGÍA

Para llevar a cabo este estudio, primero se prepararon las muestras de acero AISI 1018. La preparación de las muestras incluyó tres etapas principales: corte, desbaste y pulido, siguiendo la norma ASTM E3-95, titulada "Standard Practice for Preparation of Metallographic Specimens". Este procedimiento asegura que las superficies de las muestras estén limpias y uniformes antes de someterlas al proceso de borurado. Posteriormente, las muestras se desbastaron con lijas de diferentes granulometrías, comenzando con una lija de grano 80 y finalizando con una lija de grano 2000. Este proceso es importante para obtener una superficie uniforme y libre de imperfecciones. El siguiente paso fue el proceso de BCDP. Las muestras se empaquetaron en una mezcla de 70% B4C, 20% SiC y 10% KBF4. Esta mezcla se eligió debido a sus propiedades para promover la difusión de boro en la superficie del acero. Las muestras empaquetadas se colocaron en un contenedor de acero inoxidable que actúa como cátodo, y se añadieron dos electrodos de nicromel conectados a una fuente de corriente directa pulsante. Este sistema se introdujo en una mufla y se calentó a una temperatura de 900 °C. Durante el proceso, se aplicó una corriente de 5 amperios con cambios de polaridad cada 30 segundos durante una hora. Este tratamiento promueve la difusión de átomos de boro ionizados hacia la superficie del material, formando una capa bifásica de FeB y Fe2B. Una vez finalizado el tratamiento de borurado, las muestras se enfriaron a temperatura ambiente. Posteriormente, se realizaron cortes transversales en las muestras para observar la estructura de las capas de boruro. Se volvieron a desbastar y pulir después del tratamiento para darle acabado espejo y analizarlo. Para la caracterización microestructural, se utilizaron técnicas de microscopía óptica para observar las capas. Para evaluar la resistencia al desgaste, se llevaron a cabo ensayos de desgaste reciprocante lineal utilizando una esfera de alúmina cerámica, bajo los parámetros establecidos por la norma ASTM G133-22 (Standard Test Method for Linearly Reciprocating Ball-on-Flat Sliding Wear). Este ensayo consiste en aplicar una fuerza constante de 5 newtons sobre la muestra mientras una esfera de alúmina se desliza sobre su superficie en un movimiento reciprocante a una velocidad de 30 mm/s. Se realizó este ensayo tanto en las muestras tratadas como en las no tratadas, permitiendo comparar directamente los efectos del tratamiento de borurado en su resistencia al desgaste. La longitud de prueba fue de 10 mm, con una distancia de deslizamiento total de 100 metros, y el ensayo se realizó sin lubricante para simular condiciones de desgaste severas. La resistencia al desgaste se evaluó mediante perfilometría óptica, una técnica no destructiva que permite obtener imágenes tridimensionales de alta resolución de las muestras. Esta técnica permitió medir el volumen de material removido durante los ensayos de desgaste, proporcionando una medida cuantitativa de la resistencia al desgaste de las muestras tratadas y no tratadas.


CONCLUSIONES

El proceso de BCDP mejora significativamente la dureza y la resistencia al desgaste de aceros. Este tratamiento implica la difusión controlada de átomos de boro ionizados hacia la superficie del acero. Los resultados obtenidos mediante perfilometría óptica mostraron una mejora notable en la resistencia al desgaste del material tratado en comparación con muestras sin tratamiento. La capa de boruro formada en la superficie del acero AISI 1018 fue uniforme y consistente, lo que sugiere que el proceso de borurado fue realizado adecuadamente. La prueba que se hizo con el acero AISI 1018 mostró que este tratamiento es capaz de producir mejoras significativas en la resistencia al desgaste y la dureza en aceros. Estos hallazgos subrayan la importancia de investigar y optimizar el proceso de borurado para maximizar sus beneficios y expandir su aplicabilidad en la industria. La combinación de técnicas avanzadas de caracterización, como la microscopía óptica y la perfilometría óptica, proporciona una comprensión profunda de las propiedades de las capas de boruro, lo que es esencial para el desarrollo de tratamientos de superficie más eficientes y efectivos. Además, la adopción de estándares internacionales garantiza la reproducibilidad y la comparabilidad de los resultados obtenidos, lo cual es determinante para la validación y aplicación industrial de estos tratamientos.
Moreno de la Paz Diana, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Sebastián Durango Idárraga, Universidad Autónoma de Manizales

RESTAURACIóN Y PROGRAMACIóN DE UN DISPOSITIVO DE PRUEBAS DE IMPACTOS BALíSTICOS DE BAJA VELOCIDAD


RESTAURACIóN Y PROGRAMACIóN DE UN DISPOSITIVO DE PRUEBAS DE IMPACTOS BALíSTICOS DE BAJA VELOCIDAD

Moreno de la Paz Diana, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Sebastián Durango Idárraga, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Este proyecto tiene como finalidad la puesta a punto de un dispositivo para pruebas balísticas de baja velocidad basado en un robot paralelo de dos grados de libertad con estructura Prismático-Rotacional-Rotacional (2-PRR). Específicamente la máquina se requiere para experimentar estructuras poliméricas compuestas y estructuras desplegables, con el objetivo de verificar la posibilidad de desarrollar nuevos materiales compuestos. Se disponía de un prototipo totalmente diseñado y construido en su parte electrónica y mecánica, que no estaba en funcionamiento desde hace un tiempo por lo que algunas conexiones presentaban un mal estado, no se proporcionó una interfaz o código de funcionamiento, sin embargo, en la parte electrónica tenía la mayoría de los componentes que fueron seleccionado por el diseñador. La Fig. 1 presenta un ensamble del diseño del robot 2-PRR. Este proyecto tiene como finalidad la puesta a punto de un dispositivo para pruebas balísticas de baja velocidad basado en un robot paralelo de dos grados de libertad con estructura Prismático-Rotacional-Rotacional (2-PRR). Específicamente la máquina se requiere para experimentar estructuras poliméricas compuestas y estructuras desplegables, con el objetivo de verificar la posibilidad de desarrollar nuevos materiales compuestos. Se disponía de un prototipo totalmente diseñado y construido en su parte electrónica y mecánica, que no estaba en funcionamiento desde hace un tiempo por lo que algunas conexiones presentaban un mal estado, no se proporcionó una interfaz o código de funcionamiento, sin embargo, en la parte electrónica tenía la mayoría de los componentes que fueron seleccionado por el diseñador. La Fig. 1 presenta un ensamble del diseño del robot 2-PRR.



METODOLOGÍA

1. Identificación de la Necesidad El primer paso del proyecto consistió en identificar las necesidades y requisitos del sistema robótico. Se realizó una evaluación exhaustiva del estado actual del robot paralelo de dos grados de libertad, considerando tanto los aspectos mecánicos como electrónicos. Se identificaron áreas críticas que requerían mantenimiento inmediato, así como posibles mejoras que podrían implementarse para optimizar el rendimiento del sistema. Esta fase fue crucial para establecer una base sólida sobre la cual se desarrollaron las siguientes etapas del proyecto. 2. Procedimientos Mecatrónicos para el Mantenimiento Una vez identificadas las necesidades, se procedió a la implementación de procedimientos mecatrónicos para llevar a cabo el mantenimiento del sistema. Esta etapa incluyó: Lubricación y Ajustes Mecánicos: Se rea Mantenimiento del Sistema Electrónico y de Potencia: Se revisaron y repararon las conexiones eléctricas, asegurando que todos los cables y conectores estuvieran en buen estado. También se comprobaron y reemplazaron, si era necesario, los componentes del sistema de potencia, como los controladores de los motores y las fuentes de alimentación, para garantizar un suministro de energía estable y eficiente.Hizó una lubricación completa de todas las partes móviles del robot para reducir la fricción y el desgaste. Además, se ajustaron las conexiones y componentes mecánicos para asegurar un funcionamiento suave y preciso del sistema. A continuación se incluye evidencia fotográfica del proceso de mantenimiento. 3. Programación del Control de los Motores Con el sistema en óptimas condiciones mecánicas y electrónicas, se procedió a la programación del control de los motores a pasos. Esta fase fue fundamental para asegurar la precisión en el posicionamiento del robot. Las actividades incluyeron: Desarrollo de Algoritmos de Control: Se diseñaron y programaron algoritmos específicos para controlar los motores a pasos, optimizando su rendimiento para lograr movimientos precisos y suaves. Estos algoritmos incluyeron técnicas de control de la aceleración y desaceleración para minimizar el impacto de las vibraciones y mejorar la exactitud del posicionamiento. Pruebas y Ajustes: Se realizaron pruebas exhaustivas de los motores en diferentes condiciones de operación. A través de estas pruebas, se identificaron áreas de mejora y se ajustaron los parámetros de control para alcanzar el nivel deseado de precisión y rendimiento.  


CONCLUSIONES

El proyecto de restauración y programación del robot paralelo de dos grados de libertad ha sido exitoso en alcanzar su objetivo. El sistema se mantiene en óptimas condiciones, se ha desarrollado un control de posicionamiento preciso para los motores a pasos y se ha habilitado el motor del mecanismo de disparo. Queda pendiente enlazar la interfaz con el microcontrolador, proceso que se realizaría usando el puerto serial de una computadora para escribir las variables en la tarjeta de control. Aunque este paso no se completó, el robot queda en un estado funcional (habilitado), cumpliendo con el objetivo general del proyecto. En el mecanismo de disparo se requieren ajustes para alcanzar la fuerza requerida para actuar el gatillo, para lo que se propone implementar una caja reductora en el motor del gatillo, o reemplazar el motor por uno de mayor torque. Si se implementa una caja, la velocidad de actuación disminuiría, lo que no es un problema dado el tipo de aplicación. Las pruebas preliminares mostraron la viabilidad del sistema de disparo, quedando pendiente solo el ajuste. 
Moreno Godínez Olga Elizabeth, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Mtro. Ricardo Luna Santos, Universidad Tecnológica de Xicotepec de Juárez

REINGENIERíA DEL FRONT-END Y BACK-END DEL PROYECTO IHOME


REINGENIERíA DEL FRONT-END Y BACK-END DEL PROYECTO IHOME

Moreno Godínez Olga Elizabeth, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Rosaldo Rosaldo Adame Angel Manuel, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Mtro. Ricardo Luna Santos, Universidad Tecnológica de Xicotepec de Juárez



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, las reingenierías han tomado un papel importante con respecto a solventar las necesidades  del cliente referente a los productos y servicios que se ofrece, al mantenerse a la vanguardia de las tecnologías actuales, y no quedarse en un estado anticuado en donde se pueda volver obsoleta con el paso del tiempo, lo que generalmente es algo primordial en cuanto a software; de igual forma, se utiliza para complementar el estado anterior de un software base, y volver a este en un nuevo software realizando una optimización en sus funcionalidades y rediseñando su estructura; es el caso de la aplicación web iHome antes de la reingeniería, presentaba APIs incompletas e interfaces con potencial a mejorar; a lo largo de la instancia del proyecto, se tomo como objetivo implementar un nuevo diseño de las interfaces de la aplicación, en la que se utilizó una nueva paleta de colores y un cambio en la estructura que tenía, así mismo, se realizó la integración de nuevos componentes y la reutilización de los antiguos, complementando con una nueva estructura y agregando más funcionalidades al front-end; en cuanto a back-end, se realizó la integración de nuevas funcionalidades, complementando las existentes, además, se implementaron nuevas peticiones get, delete, update a las APIs existentes, así mismo, la integración de la API  del login. en cuanto a APIs, se maneja herramientas como swagger, para realizar pruebas de optimización al realizar envíos y obtención de datos.



METODOLOGÍA

Al utilizar la reingeniería de procesos seguimos su metodología la cual se basa en las cuatro áreas fundamentales que se exponen a continuación: Reenfoque: en la cual se hizo revisión de la documentación existente sobre aplicaciones de casas inteligentes y análisis de las tendencias actuales; así mismo, la recolección de feedback de los usuarios actuales de la aplicación "IHOME" y la identificación de las funcionalidades clave y las áreas de mejora. Rediseño: en el se hizo la creación de wireframes y prototipos utilizando herramientas como Figma, posteriormente, la implementación del nuevo diseño de UI utilizando Angular y Tailwind CSS y la realización de pruebas de usabilidad con usuarios finales para validar el diseño. Reorganización: se llevó a cabo la refactorización del código del front-end utilizando Angular y TypeScript; además, la reestructuración del backend con Node.js para mejorar la gestión de datos y la comunicación entre el servidor y el cliente; y de igual manera, la implementación de una arquitectura modular y componentes reutilizables. Mejora: Se hicieron mejoras en la realización de consultas y procesamiento de datos en el back-end; además, de la validación de información para evaluar la capacidad de la aplicación para identificar que la información sea correcta. Proceso de Pruebas: Front-end: en este caso se llevaron a cabo  pruebas de usabilidad, realizadas para evaluar la inductividad y facilidad de uso de la nueva interfaz; de igual forma, se realizarón pruebas de integración, asegurando que los diferentes componentes del front-end funcionen de manera correcta. Back-end: en esta tuvo lugar las pruebas de rendimiento, las cuales evaluarón la capacidad del sistema para manejar múltiples solicitudes simultáneamente; así mismo, se realizó pruebas de envío de información, verificando la precisión y eficiencia en la transmisión de datos entre el servidor y el cliente.


CONCLUSIONES

El análisis de los resultados sugiere que la reingeniería de aplicaciones existentes puede ser una estrategia eficaz para adaptarse a los avances tecnológicos y a las cambiantes necesidades de los usuarios. La combinación de un reenfoque, rediseño, reorganización y mejora permitió abordar las carencias identificadas en la aplicación original. Futuras investigaciones podrían explorar la integración de tecnologías emergentes, como la inteligencia artificial y el aprendizaje automático, para ofrecer funciones aún más avanzadas y personalizadas en aplicaciones de casas inteligentes. En conclusión, la reingeniería de la aplicación "IHOME" no solo logró cumplir con las expectativas y objetivos establecidos, sino que también proporcionó valiosos conocimientos y experiencias para los desarrolladores. Los resultados obtenidos validan la eficacia del proceso de reingeniería y destacan su potencial para mejorar significativamente las aplicaciones de casas inteligentes, beneficiando tanto a los usuarios como a los desarrolladores.
Moreno Gómez Jesús, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Diana Elizabeth Vázquez Valerdi, Benemérita Universidad Autónoma de Puebla

INVESTIGACIÓN DE LAS PROPIEDADES DE LAS PELÍCULAS DELGADAS DE ÓXIDO DE ZINC PARA APLICACIONES EN DISPOSITIVOS OPTOELECTRONICOS Y FOTOVOLTAICOS.


INVESTIGACIÓN DE LAS PROPIEDADES DE LAS PELÍCULAS DELGADAS DE ÓXIDO DE ZINC PARA APLICACIONES EN DISPOSITIVOS OPTOELECTRONICOS Y FOTOVOLTAICOS.

Avila Maximo Leticia, Benemérita Universidad Autónoma de Puebla. Moreno Gómez Jesús, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Diana Elizabeth Vázquez Valerdi, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Las películas delgadas de óxido de zinc (ZnO) son de gran interés científico por sus notables propiedades ópticas y eléctricas, siendo prometedoras para dispositivos optoelectrónicos y fotovoltaicos. La optimización de estas propiedades requiere entender cómo los parámetros de depósito, como temperatura y tiempo, influyen en las características finales del material. El ZnO, un semiconductor con un amplio band gap (3.25 a 4 eV), es altamente transparente en el espectro visible y absorbe fuertemente en la región ultravioleta, haciéndolo ideal para celdas solares, sensores y dispositivos optoelectrónicos. Sin embargo, las variaciones en el proceso de depósito pueden alterar significativamente la microestructura, orientación cristalina y defectos del material, afectando sus propiedades. La técnica de depósito por spray pirolisis ultrasónico ofrece ventajas frente a otros métodos de deposición de películas delgadas. Permite un control preciso sobre la composición y espesor de las películas, esencial para obtener propiedades específicas. Además, produce películas homogéneas y uniformes a gran escala, beneficiosas para aplicaciones industriales. Esta técnica opera a temperaturas más bajas que métodos como la deposición química de vapor (CVD), reduciendo el consumo de energía y los costos asociados a sistemas de depósito complejos que requieren ultra alto vacío y gases de arrastre.



METODOLOGÍA

El óxido de zinc (ZnO) es un semiconductor con un amplio band gap, alta transparencia en el espectro visible y fuerte absorción en la región ultravioleta, ideal para dispositivos optoelectrónicos y fotovoltaicos. La técnica de depósito por spray pirolisis ultrasónico se utiliza para sintetizar películas delgadas de ZnO debido a su capacidad para producir recubrimientos uniformes y controlados, facilitando la optimización de las propiedades ópticas y eléctricas. *Preparación de Soluciones Precursoras:* Se preparó una solución precursora de acetato de zinc dihidratado disuelto en metanol. Para una concentración de 0.2 M, se disolvieron 2.195 gramos de acetato de zinc en 50 ml de metanol. La solución se agitó ultrasónicamente por 2 horas y se dejó reposar 24 horas antes de su uso. *Limpieza de Sustratos:* Los sustratos de silicio y vidrio se limpiaron mediante inmersión en xileno, acetona y metanol durante 10 minutos en una cubeta ultrasónica. *Depósito de Películas:* El depósito de las películas de ZnO se realizó usando un nebulizador y una campana de cuarzo. Los sustratos se colocaron sobre una parrilla con temperaturas controladas de 300°C, 350°C y 400°C. La frecuencia de nebulización y el tiempo de depósito (2 a 20 minutos) se ajustaron para obtener películas de diferentes espesores y propiedades. *Caracterización de las Películas:* *Propiedades Ópticas:* La espectroscopía UV-Vis se utilizó para evaluar la absorción y transmitancia de las películas, mostrando alta absorción en la región UV y alta transparencia (superior al 80%) en la región visible. El índice de refracción (n) y el índice de extinción (k) se determinaron mediante espectroscopía, con valores bajos de k (0.0115 a 0.0916), indicando baja absorción de luz y alta transparencia en la región visible. *Propiedades Estructurales (XRD):* La difracción de rayos X (XRD) se utilizó para evaluar la cristalinidad, fase y orientación de las películas de ZnO. Las películas son policristalinas con fase hexagonal wurtzita. Las películas depositadas a 300°C y 350°C tienen orientación preferencial en el plano (101), mientras que a 400°C la orientación cambió al plano (100), sugiriendo un cambio en la dinámica de crecimiento cristalino a temperaturas más altas. *Propiedades Eléctricas:* Se realizaron mediciones de curvas I-V (corriente - voltaje) e I-T (corriente - tiempo) para evaluar las propiedades eléctricas de las películas de ZnO. Las variaciones en la orientación cristalina y el tamaño de los cristalitos afectan las propiedades eléctricas. La orientación (101) favorece el transporte de electrones debido a una estructura más ordenada, mientras que la orientación (100) a 400°C podría aumentar la densidad de estados defectivos, afectando negativamente la conductividad eléctrica pero mejorando la sensibilidad en aplicaciones de sensores. Se observó foto-conducción, con un aumento en la corriente de hasta tres órdenes de magnitud al exponer las películas a la luz visible (de 20 nA a 20 µA).


CONCLUSIONES

El desarrollo de este trabajo logró cumplir de manera satisfactoria los objetivos planteados al inicio de la investigación. Se realizó una caracterización exhaustiva de las películas delgadas de ZnO depositadas mediante la técnica de spray pirolisis ultrasónico, demostrando que es posible optimizar las condiciones de deposición para obtener películas con alta transparencia y bajas propiedades de absorción. Los resultados confirman que el control preciso de la temperatura y el tiempo de deposición permite ajustar la estructura cristalina y la morfología superficial, mejorando así el rendimiento en aplicaciones optoelectrónicas y fotovoltaicas. En resumen, esta investigación establece una base sólida para futuras aplicaciones del ZnO, destacando la efectividad de la técnica de spray pirolisis ultrasónico en la fabricación de materiales avanzados. Se obtuvo un band gap entre 3.25 y 4 eV y una transparencia superior al 80% en el espectro visible. Los resultados confirman que ajustar la temperatura y el tiempo de deposición mejora la estructura y la morfología de las películas, optimizando su rendimiento en aplicaciones específicas. En resumen, se establece una sólida base para futuras aplicaciones del ZnO, demostrando la eficacia de la técnica de spray pirolisis ultrasónico en la fabricación de estos materiales avanzados.
Moreno González David Oswaldo, Universidad de Guadalajara
Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara

SíNTESIS Y CARACTERIZACIóN DE HIDROGELES ACRíLICOS REFORZADOS CON LIGNINA DE AGAVE TEQUILANA WEBER VAR. AZUL, POR FOTOPOLIMERIZACIóN


SíNTESIS Y CARACTERIZACIóN DE HIDROGELES ACRíLICOS REFORZADOS CON LIGNINA DE AGAVE TEQUILANA WEBER VAR. AZUL, POR FOTOPOLIMERIZACIóN

Moreno González David Oswaldo, Universidad de Guadalajara. Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los hidrogeles acrílicos han emergido como materiales altamente versátiles en diversas aplicaciones, desde la ingeniería de tejidos hasta el control de liberación de fármacos, gracias a su capacidad para absorber grandes cantidades de agua y su adaptabilidad estructural. La fotopolimerización, un proceso que utiliza luz ultravioleta para iniciar la formación de redes tridimensionales en polímeros, ha demostrado ser una técnica efectiva para la síntesis de estos materiales, ofreciendo control preciso sobre sus propiedades mecánicas y estructurales. El fortalecimiento de hidrogeles con refuerzos naturales no solo mejora sus propiedades, sino que también promueve la sostenibilidad al integrar biomateriales renovables. En este contexto, la lignina, un componente abundante en las paredes celulares de las plantas, ha captado atención debido a su potencial para mejorar las características mecánicas y funcionales de los hidrogeles. En particular, la lignina extraída del Agave tequilana Weber var. Azul, una especie emblemática de la región de Jalisco, México, ofrece una alternativa prometedora y ecológica, dada su abundancia y su capacidad para proporcionar propiedades adicionales como la resistencia y la estabilidad. El presente reporte aborda la síntesis y caracterización de hidrogeles acrílicos reforzados con lignina de Agave tequilana Weber var. Azul mediante fotopolimerización. El objetivo principal es evaluar el impacto de la incorporación de lignina en las propiedades físicas y mecánicas de los hidrogeles, así como explorar la viabilidad de este enfoque para la ingeniería de materiales. Este estudio no solo contribuye al conocimiento sobre la funcionalización de hidrogeles, sino que también promueve el uso de recursos naturales en el desarrollo de tecnologías más sostenibles y eficaces.



METODOLOGÍA

Preparación de las Soluciones Precursoras: Preparación de Hidrogeles Acrílicos: Se prepararon soluciones precursoras de monómeros acrílicos (como acrilamida y ácido acrílico) en combinación con agentes reticulantes (como N,N'-metilenbisacrilamida) en una matriz acuosa. Las concentraciones de los monómeros y del reticulante se ajustaron basándose en literatura y en pruebas preliminares. Incorporación de Lignina: La lignina extraída de Agave tequilana Weber var. Azul se incorporó a las soluciones precursoras en distintas concentraciones, ajustando su proporción para evaluar el impacto en las propiedades del hidrogel. Fotopolimerización: Configuración Inicial: Se realizó la fotopolimerización de las soluciones precursoras utilizando una fuente de luz ultravioleta (UV). La intensidad de la luz y el tiempo de exposición se establecieron inicialmente basándose en parámetros estándar. Ajustes Iterativos: Se llevaron a cabo múltiples rondas de prueba y error para ajustar los parámetros de fotopolimerización, como la concentración de la lignina, el tiempo de exposición y la concentración de iniciadores. Cada variación en los parámetros se documentó y se evaluó su efecto en la formación y calidad del hidrogel. Evaluación de las Propiedades del Hidrogel: Pruebas de Absorción de Agua: Se determinó la capacidad de absorción de agua de los hidrogeles mediante la inmersión en agua destilada durante un periodo definido y la medición del aumento de peso. Optimización y Validación: Iteración del Proceso: Basado en los resultados obtenidos, se ajustaron los parámetros de fotopolimerización y la composición de la mezcla de hidrogeles. Cada iteración se evaluó de manera sistemática hasta que se lograron hidrogeles con las propiedades deseadas. Documentación y Análisis: Se documentaron todos los cambios en los procedimientos y los resultados de cada prueba. Los datos obtenidos se analizaron para identificar las condiciones óptimas que permitieron la fotopolimerización exitosa y la mejora en las propiedades de los hidrogeles


CONCLUSIONES

La investigación realizada sobre la obtención y caracterización de lignina a partir del residuo de agave y su aplicación en la formulación de hidrogeles ha mostrado resultados prometedores en términos de rendimiento y propiedades del material final. El desarrollo de los hidrogeles con diferentes concentraciones de lignina (0.2 g, 0.4 g y 0.8 g) permitió evaluar el efecto de esta biomolécula en las propiedades de hinchamiento. Los resultados de las pruebas de hinchamiento indicaron que los hidrogeles que contenían lignina presentaron variaciones significativas en su capacidad de retención de agua en comparación con los hidrogeles sin lignina. Este fue el rendimiento promedio de cada formulación: Formulación Rendimiento promedio B0.4 -             54.9612987 B0.2 -             63.17471989 C0.4 -             21.9119758 C0.2 -             27.26336399 A0.4 -             57.52627081 A0.2 -             94.58776518 NoLIG 0.4 -    55.63506792 NoLIG0.2 -     98.01209379 Esto nos da a entender que de las formulaciones que contenían la lignina la mejor para absorber fue la formulación con la solución A y 0.2g de entrecruzante. Y la que mejor absorbió agua de todas fue la formulación sin lignina que contenía 0.2g de entrecruzante. Las variaciones en las formulaciones N,N'-metilenbisacrilamida en combinación con diferentes cantidades de lignina revelaron que la composición del hidrogel influye directamente en su capacidad de hinchamiento. Esto abre la puerta a futuras investigaciones que busquen optimizar estas formulaciones para aplicaciones específicas en campos como la agricultura, donde los hidrogeles pueden ser utilizados para mejorar la retención de humedad en suelos, o en la medicina, para el desarrollo de sistemas de liberación controlada de fármacos. El uso de lignina como componente en hidrogeles representa una alternativa viable y sostenible, aprovechando un residuo agroindustrial para la creación de materiales con aplicaciones innovadoras y ecológicas. Esta investigación no solo contribuye al desarrollo de materiales avanzados, sino que también promueve la valorización de subproductos agrícolas, alineándose con los principios de economía circular
Moreno Heredia Alicia Guadalupe, Universidad Autónoma de Sinaloa
Asesor: Dr. Alfonso Talavera López, Universidad Autónoma de Zacatecas

DESHIDROGENACIóN OXIDATIVA DE PROPANO CON CATALIZADORES DE SILICATOS MESOPOROSOS DOPADOS CON VANADIO UTILIZANDO CO2 COMO AGENTE OXIDANTE.


DESHIDROGENACIóN OXIDATIVA DE PROPANO CON CATALIZADORES DE SILICATOS MESOPOROSOS DOPADOS CON VANADIO UTILIZANDO CO2 COMO AGENTE OXIDANTE.

Moreno Heredia Alicia Guadalupe, Universidad Autónoma de Sinaloa. Quezada Espinoza Oscar Omar, Universidad Autónoma de Sinaloa. Asesor: Dr. Alfonso Talavera López, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

La deshidrogenación oxidativa de propano a propileno enfrenta desafíos debido a la emisión de CO y CO2, y a la combustión de hidrocarburos que deteriora la calidad del aire y reduce el rendimiento del propileno. Aunque el óxido nitroso (N2O) y el dióxido de azufre (SO2) son opciones viables, sus reacciones tóxicas son un problema. El dióxido de carbono (CO2) es una alternativa viable pero depende del catalizador utilizado. Los catalizadores comerciales actuales, basados en platino (Pt) y óxido de cromo (CrOx), son costosos, tóxicos y propensos a la desactivación. Los catalizadores metálicos, como los óxidos de vanadio (VOx), son una alternativa prometedora, pero la química superficial de VOx puede ser afectada por el soporte, resultando en baja selectividad y conversión.



METODOLOGÍA

En el proyecto, se emplearon dos metodologías distintas para la incorporación de óxido de vanadio en matrices mesoporosas de sílice. Para el SBA-16, se utilizó un enfoque que combina el método hidrotermal directo con un ajuste de pH. El procedimiento incluyó el uso del tensoactivo de copolímero tribloque no iónico Pluronic F127 y butanol (BuOH) como agente estructurante. El ortosilicato de tetraetilo (TEOS) sirvió como fuente de sílice, mientras que el metavanadato de amonio (NH4VO3) proporcionó el vanadio. El ajuste del pH se realizó mediante la adición de amoniaco acuoso en un medio ácido clorhídrico (HCl). Para la incorporación de óxido de vanadio en KIT-6, se aplicó un método similar, combinando el método hidrotermal directo con el ajuste de pH. En este caso, se empleó el tensoactivo de copolímero tribloque no iónico Pluronic P123 y butanol (BuOH) como mezcla directriz. Al igual que en el método para SBA-16, se utilizó TEOS como fuente de sílice y metavanadato de amonio (NH4VO3) como fuente de vanadio. El pH se ajustó utilizando amoniaco acuoso en un medio ácido clorhídrico (HCl).


CONCLUSIONES

Como resultado de la síntesis de los catalizadores con MCM-41, KIT-6 y SBA-16 se obtuvieron polvos de color amarillo que, según la literatura, dicho color se debe a la presencia de V2O5. Sin embargo, dos de los catalizadores, correspondientes a KIT-6 y SBA-16 con el método impregnación húmeda incipiente fueron de color anaranjado/amarillento. Debido al tiempo disponible no fue posible probar los catalizadores en el sistema de reacción, sin embargo, se esperaba una mejor conversión de los catalizadores a partir de SBA-16, la peor conversión de MCM-41 y como punto medio los catalizadores con KIT-6 como soporte.  Esto ya que, según la literatura los catalizadores con MCM-41 como soporte, tienen poca resistencia mecánica, lo que hace colapsar las paredes interiores impregnadas con fase activa. Y de acuerdo a resultados experimentales anteriores, los catalizadores a partir de SBA-16 presentan una mejor conversión y estabilidad con respecto a los de KIT-6.
Moreno Hernández Emma Yolanda, Universidad Autónoma de Occidente
Asesor: Dr. Ramiro Ahumada Cervantes, Universidad Autónoma de Occidente

EVALUACIóN DE LA VULNERABILIDAD AL CAMBIO CLIMáTICO EN LAS COMUNIDADES LOCALIZADAS EN EL AGEB 095-A DE GUASAVE, SINALOA


EVALUACIóN DE LA VULNERABILIDAD AL CAMBIO CLIMáTICO EN LAS COMUNIDADES LOCALIZADAS EN EL AGEB 095-A DE GUASAVE, SINALOA

Moreno Hernández Emma Yolanda, Universidad Autónoma de Occidente. Asesor: Dr. Ramiro Ahumada Cervantes, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

El cambio climático es un desafío global que afecta tanto los sistemas naturales como las actividades humanas. En regiones específicas, sus efectos pueden ser aún más severos debido a factores socioeconómicos y de dependencia de actividades vulnerables al clima. En el AGEB 095-A de Guasave, Sinaloa, las comunidades rurales enfrentan una alta exposición a eventos climáticos extremos como sequías, huracanes y temperaturas extremas. La vulnerabilidad de estas comunidades se ve exacerbada por su dependencia de actividades primarias como la agricultura y la pesca, que son directamente afectadas por el cambio climático. Este estudio evalúa la vulnerabilidad al cambio climático de las comunidades en esta área específica, analizando factores de exposición, sensibilidad y capacidad adaptativa.



METODOLOGÍA

El área de estudio comprende el AGEB 095-A en la zona Noreste del municipio de Guasave, Sinaloa, ubicada entre los paralelos 25º 11’ y 25º 50’ de latitud norte y los meridianos 108º 10’ y 109º02’ de longitud oeste. En esta área se encuentran siete comunidades rurales: Salsipuedes, Las Juntas, La Noria, Las Quemazones, El Toruno y Abelardo L. Rodríguez.La vulnerabilidad al cambio climático se evaluó en función de tres componentes: exposición, sensibilidad y capacidad adaptativa. Se utilizaron 21 indicadores para esta evaluación: 5 para exposición, 9 para sensibilidad y 7 para capacidad adaptativa. Los pasos metodológicos fueron los siguientes: Normalización de Indicadores: Cada indicador se normalizó para eliminar las diferencias de escala y hacerlos comparables. Cálculo de Componentes: Los valores de los componentes de exposición, sensibilidad y capacidad adaptativa se calcularon mediante la suma algebraica de sus respectivos indicadores. Cálculo del Índice de Vulnerabilidad: Los valores de los tres componentes se promediaron para obtener el índice de vulnerabilidad al cambio climático para cada comunidad.


CONCLUSIONES

El análisis reveló que la comunidad de Abelardo L. Rodríguez presenta una vulnerabilidad muy alta al cambio climático. Las comunidades de Las Juntas, La Noria, Las Quemazones y Salsipuedes muestran una vulnerabilidad alta, mientras que Las Moras presenta una vulnerabilidad baja y El Toruno una vulnerabilidad muy baja.De los componentes de vulnerabilidad, la sensibilidad y la capacidad adaptativa son los que tienen mayor influencia en la vulnerabilidad al cambio climático. Dentro de los subcomponentes, los factores económico-productivos y el capital financiero son los que más impactan la vulnerabilidad. Entre los 21 indicadores analizados, cinco resultaron ser los más significativos: ingreso per cápita, ingresos por actividades primarias, asistencia escolar para la población de 6 a 14 años, empleo en actividades primarias, y la incidencia de lesiones o muertes por eventos climáticos.Estos hallazgos subrayan la necesidad de fortalecer la capacidad adaptativa y reducir la sensibilidad de las comunidades mediante políticas que mejoren las condiciones económicas y educativas, así como estrategias específicas para mitigar los efectos adversos del cambio climático en las actividades primarias.
Moreno Rojas Patricio, Instituto Tecnológico de Morelia
Asesor: Mtro. Héctor Alejandro Galvez López, Universidad de Guadalajara

ACTUALIZACIóN DEL ARTíCULO DE REVISIóN: "INDUSTRIA 4.0 E INTERNET DE LAS COSAS EN ALMACENES INTELIGENTES: UNA REVISIóN DE TENDENCIAS".


ACTUALIZACIóN DEL ARTíCULO DE REVISIóN: "INDUSTRIA 4.0 E INTERNET DE LAS COSAS EN ALMACENES INTELIGENTES: UNA REVISIóN DE TENDENCIAS".

Alanis Domínguez Andrea Estefanía, Instituto Tecnológico de Morelia. Moreno Rojas Patricio, Instituto Tecnológico de Morelia. Asesor: Mtro. Héctor Alejandro Galvez López, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La industria es un sector crucial en la sociedad, responsable de transformar materias primas en productos y bienes de consumo, impulsando así el crecimiento económico. A lo largo del tiempo, la industria ha evolucionado significativamente, pasando por diversas etapas hasta llegar a la actual Industria 4.0, en la cual los almacenes inteligentes desempeñan un papel esencial. Los almacenes inteligentes son un claro ejemplo de innovación, integrando tecnologías avanzadas como el Internet de las Cosas (IoT), Big Data, la computación en la nube, inteligencia artificial y robótica. Estas tecnologías tienen como objetivo optimizar las operaciones en la cadena de suministro, aumentando la eficiencia y reduciendo costos. Para profundizar en este tema, se ha actualizado el artículo de revisión "Industria 4.0 e Internet de las cosas en almacenes inteligentes: una revisión de tendencias", con el propósito de reflejar las últimas tecnologías e innovaciones presentes en la Industria 4.0.



METODOLOGÍA

Se identificó el área de oportunidad de los almacenes inteligentes en la industria y las problemáticas que se presentan en los mismos, posteriormente se realizó una búsqueda de artículos relacionados con las problemáticas presentes en los almacenes inteligentes y artículos donde se proponian soluciones para resolver dichas problemáticas. Se realizó una tabla comparativa sobre las tecnologías utilizadas, las problemáticas, ventajas y desventajas de las tecnologías, la solución propuesta y los resultados obtenidos. Para así iniciar la redacción del artículo de revisión sobre las innovaciones presentes en la Industria 4.0 aplicadas en los almacenes inteligentes. Al finalizar la primera versión del artículo, se mandó a revisión con la finalidad de obtener retroalimentación y aplicar mejoras al mismo. Se repitió este procedimiento constantemente donde se aplicaban diversos cambios y se adaptaban los textos para mejorar la redacción del artículo.


CONCLUSIONES

Durante la realización de la estancia se pusieron en prática las habilidades de búsqueda de información y redacción de documentos para realizar de la mejor manera la actualización del artículo, implementando las tecnologías e innovaciones de la industria 4.0. Además de adquirir nuevas herramientas de búsqueda, también fue de suma importancia citar de manera correcta. Otro punto importante fue la comprensión adquirida sobre la importancia de la integración de tecnologías emergentes como el Internet de las Cosas (IoT), Big Data, la computación en la nube, inteligencia artificial y robótica en la optimización de las operaciones logísticas las cuales han enseñado la importancia de mantenerse al día con las últimas innovaciones tecnológicas y su aplicación práctica.
Mosquera Molina Carlos Alberto, Universidad de la Costa
Asesor: M.C. Alicia Rosas González, Instituto Tecnológico de Reynosa

TECNOLOGíAS DE SEGUIMIENTO SOLAR EN PANELES SOLARES: BASADAS EN EL AZIMUT Y EN EL ÁNGULO SOLAR


TECNOLOGíAS DE SEGUIMIENTO SOLAR EN PANELES SOLARES: BASADAS EN EL AZIMUT Y EN EL ÁNGULO SOLAR

Mosquera Molina Carlos Alberto, Universidad de la Costa. Asesor: M.C. Alicia Rosas González, Instituto Tecnológico de Reynosa



PLANTEAMIENTO DEL PROBLEMA

La eficiencia de los paneles solares está directamente relacionada con la cantidad de radiación solar que reciben. Los paneles fijos no pueden ajustarse a la posición cambiante del sol durante el día, lo que limita su capacidad para captar energía. Esto da lugar a una disminución de la eficiencia, especialmente en regiones con variaciones significativas en la posición del sol a lo largo del año. Las tecnologías de seguimiento solar, que permiten ajustar la orientación de los paneles, pueden abordar este problema al maximizar la exposición al sol. Entre las diversas tecnologías de seguimiento, las basadas en el azimut y el ángulo solar son particularmente prometedoras debido a su precisión y eficiencia.  



METODOLOGÍA

Seguimiento Basado en el Azimut El seguimiento solar basado en el azimut implica ajustar la orientación horizontal del panel para seguir el movimiento del sol de este a oeste a lo largo del día. Este tipo de seguimiento es especialmente útil en zonas donde el sol tiene una trayectoria amplia en el cielo. 1. Sensor de Luz: Se utiliza un sensor de luz para detectar la dirección del sol. Este sensor envía señales a un controlador que ajusta el ángulo del panel. 2. Actuador de Rotación: Un actuador de rotación ajusta el panel en el eje horizontal basado en las señales recibidas del sensor. 3. Controlador: El controlador procesa las señales del sensor de luz y determina el ángulo óptimo para maximizar la captación de luz solar. Seguimiento Basado en el Ángulo Solar El seguimiento solar basado en el ángulo solar, también conocido como seguimiento dual, ajusta tanto el ángulo de elevación (vertical) como el ángulo de azimut (horizontal) del panel para seguir el sol. 1. Algoritmo de Seguimiento: Un algoritmo basado en la posición geográfica y el tiempo calcula la posición precisa del sol en el cielo. 2. Sensores y Actuadores: Sensores de luz detectan la posición del sol y envían datos a los actuadores que ajustan tanto el ángulo de azimut como el ángulo de elevación del panel. 3. Sistema de Control: El sistema de control integra los datos del algoritmo y los sensores para ajustar continuamente la posición del panel y maximizar la exposición solar. Comparación de Eficiencia Para evaluar la eficiencia de ambas tecnologías, se pueden llevar a cabo experimentos en un entorno controlado. Se instalarían paneles con seguimiento de azimut y seguimiento dual en ubicaciones idénticas y se mediría la energía generada durante un período de tiempo específico. Los datos recolectados permitirán comparar la eficiencia de ambas tecnologías.


CONCLUSIONES

Las tecnologías de seguimiento solar basadas en el azimut y en el ángulo solar ofrecen soluciones efectivas para maximizar la eficiencia de los paneles solares. El seguimiento basado en el azimut es más simple y puede ser suficiente en ciertas aplicaciones, especialmente donde la trayectoria del sol es más predecible. Sin embargo, el seguimiento dual, que ajusta tanto el azimut como el ángulo de elevación, proporciona una mayor precisión y eficiencia en la captación de energía solar. Implementar estas tecnologías requiere una inversión inicial mayor debido a la complejidad de los sistemas de sensores y actuadores, pero los beneficios en términos de aumento de la eficiencia energética y la reducción de la dependencia de fuentes de energía no renovables justifican esta inversión. Las investigaciones futuras deberían enfocarse en optimizar estos sistemas para hacerlos más accesibles y rentables para una adopción más amplia en diversas regiones y condiciones climáticas.
Mosquera Perea Carlos Marlon, Instituto Tecnológico Metropolitano
Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional

SINTESIS EFICIENTE DE BIODIESEL MEDIANTE MECANOQUIMICA Y REACCION ONE-POT PROMOVIDA POR CATALIADORES HETEROGENEOS DE OXIDOS METALICOS.


SINTESIS EFICIENTE DE BIODIESEL MEDIANTE MECANOQUIMICA Y REACCION ONE-POT PROMOVIDA POR CATALIADORES HETEROGENEOS DE OXIDOS METALICOS.

Mosquera Perea Carlos Marlon, Instituto Tecnológico Metropolitano. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La producción de biodiesel a partir de aceites vegetales ha cobrado relevancia en las últimas décadas como una alternativa sostenible a los combustibles fósiles. Sin embargo, los métodos tradicionales de producción, como la transesterificación utilizando catalizadores alcalinos, presentan ciertas limitaciones que deben ser abordadas.   Uno de los principales desafíos radica en la necesidad de operar a temperaturas elevadas, generalmente entre 60°C y 80°C, para lograr una conversión adecuada de los triglicéridos a ésteres metílicos o etílicos (biodiesel). Esta condición de operación puede conllevar a la saponificación parcial del aceite, reduciendo el rendimiento del proceso y generando subproductos indeseados.   Los catalizadores alcalinos tradicionales, como el hidróxido de potasio (KOH) y el hidróxido de sodio (NaOH), presentan desventajas significativas, incluyendo alta corrosividad, dificultad para su separación del producto final, y la generación de grandes volúmenes de agua residual que representan un desafío ambiental. En contraste, la utilización de catalizadores basados en óxidos metálicos, como el óxido de titanio (TiO₂) o el óxido de hierro (Fe₂O₃), en combinación con métodos mecanoquímicos y de reacción one-pot, puede superar estas limitaciones, ofreciendo mejoras en eficiencia, sostenibilidad y viabilidad en la producción de biodiesel a partir de aceites vegetales.  



METODOLOGÍA

SINTESIS CATALIZADOR. Para la síntesis del catalizador se utilizaron 5.8 gramos de hidróxido de potasio (KOH), 8.4 gramos de óxido de titanio (TiO₂) y 21 gramos de ferrato de potasio (K₂FeO₄). Los reactivos se pesaron con precisión y se mezclaron homogéneamente en un mortero de ágata hasta obtener una mezcla uniforme. La mezcla preparada se colocó en un crisol de alúmina y se introdujo en una mufla. El proceso de calcinación se llevó a cabo en dos etapas: primero, la temperatura se elevó a 350 °C a una velocidad controlada y se mantuvo durante 3 horas. Luego, la temperatura se incrementó a 800 °C y se mantuvo durante 6 horas. Una vez finalizado el proceso, el crisol se dejó enfriar a temperatura ambiente dentro de la mufla. CARACTERIZAION DEl CATALIZADOR  El producto obtenido se recogió y se caracterizó utilizando técnicas avanzadas. La difracción de rayos X (XRD) se utilizó para confirmar la formación del catalizador y analizar su estructura cristalina, mientras que la microscopía electrónica de barrido (SEM) se empleó para estudiar su morfología superficial. REACCION DE TRANSESTERIFICACION VIA MECANOQUIMICA-REACCION ONE-POT Método de Reflujo: Preparación de la mezcla: Se mezclaron 15 mililitros de aceite vegetal con 3.5 mililitros de metanol en un matraz de reflujo. A la mezcla se le añadió un 6% en peso de catalizador previamente sintetizado. Proceso de reacción: El matraz de reflujo se calentó a 60 °C y se mantuvo bajo agitación constante durante 2 horas para asegurar una mezcla homogénea y una adecuada interacción entre los reactivos y el catalizador. Separación de fases: Tras la reacción, la mezcla se dejó enfriar a temperatura ambiente y luego se separaron las fases mediante decantación. 2. Método en Microreactores a Alta Presión: Preparación de la mezcla: En un microreactor de alta presión, se mezclaron 5 mililitros de aceite vegetal con 1.16 mililitros de metanol. A la mezcla se le añadió un 6% en peso de catalizador. Proceso de reacción: El microreactor se selló y se llevó a altas presiones. La reacción se realizó a una temperatura mayor a 100 °C durante 1 hora. Separación de fases: Una vez completada la reacción, el microreactor se dejó enfriar a temperatura ambiente y se despresurizó cuidadosamente. Las fases resultantes se separaron. CARACTRIZACION DE BIODIESEL. Se disolvieron 10 mg de biodiesel en 0.5 ml de cloroformo deuterado para análisis por ¹H-RMN, identificando los protones de los grupos metilo, metileno y metino y cuantificando su proporción. La pureza y composición del biodiesel se verificaron con espectros de referencia. Adicionalmente, se analizó la composición de ésteres metílicos de ácidos grasos (FAMEs) en el biodiesel usando GC-FID, con una columna capilar y un perfil de temperatura de 50 °C a 250 °C para determinar la pureza y composición mediante comparación con estándares de FAME.


CONCLUSIONES

La investigación sobre los métodos mecanoquímico y One Pot para la conversión de aceites vegetales en biodiesel revela que ambos enfoques ofrecen una alternativa eficaz y prometedora a los métodos tradicionales de transesterificación. Los resultados esperados sugieren que tanto el método mecanoquímico, que utiliza energía mecánica directa, como el método One Pot, que integra la transesterificación y neutralización en un solo paso, pueden alcanzar rendimientos y purezas del biodiesel comparables a los obtenidos mediante técnicas convencionales.   La influencia paramétrica, como la carga del catalizador, el tiempo de reacción, la velocidad de agitación y la relación aceite-metanol, juega un papel crucial en la optimización del proceso, destacando la importancia de ajustar estos factores para maximizar la eficiencia de producción. La caracterización de los catalizadores mediante técnicas como SEM, EDS y XRD confirmará la efectividad y adecuación de los catalizadores de óxidos alcalinos, asegurando que cumplan con los requisitos para una catálisis eficiente.   Finalmente, se espera que el biodiesel producido por estos métodos alternativos no solo cumpla con los estándares de calidad y eficiencia energética, sino que también ofrezca ventajas en términos de simplificación del proceso y potencial reducción de costos. En resumen, la adopción de los métodos mecanoquímico y One Pot puede representar una mejora significativa en la producción de biodiesel, proporcionando opciones más eficientes y sostenibles para el futuro de los biocombustibles.
Muciño Infante Valeria Angelica, Instituto Politécnico Nacional
Asesor: M.C. Auro Andres Gonzalez Hernandez, Universidad Tecnológica de Nayarit

DISEñO PARAMéTRICO CAD/CAM APLICADO AL DESARROLLO DE PROTOTIPOS DIDáCTICOS PARA EL áREA ELéCTRICA.


DISEñO PARAMéTRICO CAD/CAM APLICADO AL DESARROLLO DE PROTOTIPOS DIDáCTICOS PARA EL áREA ELéCTRICA.

Esquivel Fernández Renata Guadalupe, Instituto Politécnico Nacional. Hernández García Jorge Ricardo, Instituto Politécnico Nacional. Muciño Infante Valeria Angelica, Instituto Politécnico Nacional. Asesor: M.C. Auro Andres Gonzalez Hernandez, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

En muchos centros educativos, especialmente con recursos limitados, la falta de material didáctico en los laboratorios o talleres representa un gran obstáculo para adquirir un aprendizaje efectivo y de calidad sobre unidades de aprendizaje prácticas, particularmente en el área eléctrica/ electrónica. Por otro lado, la educación ha evolucionado en los últimos años gracias a la introducción de nuevas tecnologías como CAD/CAM, que tienen diversas aplicaciones en la educación, como la fabricación digital y la programación CNC, estableciendo un sistema de parámetros variables y restricciones para la creación de objetos versátiles.  Con relación a esto, el uso de CAD/CAM para la elaboración de prototipos didácticos que puedan contribuir a la enseñanza en el área eléctrica/electrónica resultaría benéfico y útil para los estudiantes.



METODOLOGÍA

1. Primeramente se requiere un diseño en CAD del prototipo o pieza, este es realizado con el software de Autodesk Inventor para crear un modelado paramétrico de un sólido en 3D, y después obtener los archivos .stl a partir de los realizados.   2. Posterior, el diseño realizado pasa al proceso de CAM, donde se utiliza una maquina CNC para realizar cortes. Para esto, obtenemos los archivos .g (gerber) desde Autodesk Inventor, previamente se tiene que configurar los parámetros necesarios para el CNC, seleccionar las herramientas de corte, definir trayectorias y establecer parámetros de maquinación.   3. Asimismo, a partir de los archivos .stl, se utiliza una impresora 3D (Ender 3Pro) para la fabricación de las piezas, previamente se realiza una investigación sobre los distintos tipos de filamento que pueden ser compatibles con la impresora (PLA, ABS, TPU, etc.) y posterior se utiliza un software para la impresión en 3D, UltiMaker Cura. En este software se modifican los parámetros de impresión, como la calidad, relleno, material, temperatura, velocidad, altura de las capas, etc. Y después se transforma a código G, para que la impresora pueda fabricar la pieza.   4. Finalmente se obtienen las piezas impresas y cortadas, posterior se realiza el ensamblaje junto con los componentes electrónicos contemplados para cada prototipo.


CONCLUSIONES

El uso de CAD/CAM se ha convertido en una herramienta de suma importancia en varias áreas, sin embargo, en el área de la educación ha tenido un gran impacto. Dadas las posibilidades que brindan estos softwares para el desarrollo de proyectos, haciendo posible los modelados, ensambles, proyecciones en dos y tres dimensiones, y sobre todo el manejo del dibujo paramétrico, así como también la fabricación de piezas en 3D. Es por esto por lo que al usar estos softwares se obtuvo un resultado positivo al poder fabricar prototipos didácticos, que presentan múltiples beneficios, incluyendo la mejora del rendimiento académico, una mayor comprensión de los conceptos y el desarrollo de habilidades prácticas. En conclusión, gracias a uso de CAD/CAM para la fabricación de prototipos resulto beneficioso y eficaz para los estudiantes del área eléctrica/electrónica.
Mundo Mundo Cuevas Brayan Manuel, Universidad Tecnológica Paso del Norte
Asesor: Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)

DISEñO DE PLATAFORMA DE CONTROL DE TRAYECTORIAS PARA SISTEMAS DE MANUFACTURA POR PTA


DISEñO DE PLATAFORMA DE CONTROL DE TRAYECTORIAS PARA SISTEMAS DE MANUFACTURA POR PTA

Mundo Mundo Cuevas Brayan Manuel, Universidad Tecnológica Paso del Norte. Asesor: Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los procesos de manufactura y reparación por soldadura a menudo requieren de sofisticada coordinación entre el movimiento de la antorcha que genera los cordones y el componente que va a ser reparado. Cuando las trayectorias necesarias para las reparaciones no están bien establecidas es muy factible que los recubrimientos queden con superposiciones exageradas o con espacios no cubiertos, y además, siendo afectados por aportes excesivos de calor. Debido a esto, una de las tareas más desafiantes en los procesos de manufactura y reparación es el establecimiento de las variables lineales y angulares y sincronización que describen los desplazamientos de antorchas y sustratos. En el laboratorio de procesos metalúrgicos PROMET se fabrican cordones de soldadura mediante el equipo de Arco transferido por Plasma (PTA) sobre superficies planas. Uno de los retos para este proyecto es estudiar y proponer posibles diseños para recubrir superficies cilíndricas. A continuación, desarrollamos las trayectorias de movimiento para la máquina de PTA con el fin de soldar cilindros de forma circular, en zigzag y helicoidal. Para poder obtener todas esas trayectorias en los ejes X y Y, tuvimos que investigar y comprender qué es un movimiento rotacional y qué es un movimiento lineal. Conforme avanzamos en nuestra investigación, surgió la trayectoria en zigzag.



METODOLOGÍA

Recopilamos información acerca de la tecnología de Arco Transferido por Plasma (PTA), una técnica avanzada de soldadura que permite realizar recubrimientos de alta calidad en componentes cilíndricos. Investigamos qué programa podría ayudarnos a ilustrar las diferentes trayectorias y encontramos que MATLAB era el más adecuado, ya que permite realizar estas ilustraciones mediante programación


CONCLUSIONES

Con MATLAB, pudimos determinar las trayectorias desde el punto de inicio hasta cómo se realizaría la soldadura, a qué velocidad puede moverse el cilindro, el tamaño del cilindro y el tamaño de la soldadura. Además, MATLAB nos permitió obtener las trayectorias en los ejes X y Y en una tabla, facilitando la visualización y análisis de los datos. Aunque la instalación del programa MATLAB es algo pesada, descubrimos que existe una versión en línea que nos ayudó mucho con el trabajo. Esto nos permitió avanzar sin problemas y explorar diferentes tipos de acople de trayectorias. Para simular las trayectorias en la aplicación, vimos varios videos tutoriales que nos enseñaron a utilizar MATLAB a nuestro beneficio. También investigamos tesis y artículos científicos relacionados con las circunferencias y los cilindros, lo que enriqueció nuestra comprensión del tema. El desarrollo de estas trayectorias tiene importantes aplicaciones prácticas, especialmente en la industria manufacturera, donde la precisión y la eficiencia en los procesos de soldadura son cruciales. La tecnología PTA es especialmente valiosa para recubrir componentes que requieren alta resistencia al desgaste y la corrosión, como válvulas, tubos y partes de maquinaria pesada. En conclusión, el uso de MATLAB para desarrollar y simular trayectorias de soldadura con la tecnología PTA no solo mejoró nuestra comprensión teórica y práctica de los movimientos rotacionales y lineales, sino que también nos proporcionó herramientas valiosas para aplicaciones industriales avanzadas.
Munguia Rabago Juan Jose, Instituto Tecnológico de Morelia
Asesor: Dra. Nelly Flores Ramirez, Universidad Michoacana de San Nicolás de Hidalgo

OPTIMIZACIóN DE BIOPLáSTICOS DE PLEUROTUS OSTREATUS: EFECTOS DEL ETILENGLICOL EN SUS CARACTERíSTICAS QUíMICAS Y FíSICAS


OPTIMIZACIóN DE BIOPLáSTICOS DE PLEUROTUS OSTREATUS: EFECTOS DEL ETILENGLICOL EN SUS CARACTERíSTICAS QUíMICAS Y FíSICAS

Munguia Rabago Juan Jose, Instituto Tecnológico de Morelia. Asesor: Dra. Nelly Flores Ramirez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El proyecto se centra en la investigación de biopolímeros obtenidos del hongo Pleurotus ostreatus, con el objetivo de utilizar estos biopolímeros como alternativa a los plásticos convencionales, los cuales son una gran fuente de contaminación. El uso de Pleurotus ostreatus se considera debido a sus múltiples aplicaciones potenciales en áreas como: Material de embalaje por su resistencia y ligereza Construcción y aislamiento por sus propiedades de aislamiento térmico y de humedad Textiles y moda, se usa en la fabricación de productos textiles debido a su biodegradabilidad Filtros por su estructura porosa permite su uso en sistemas de filtración   El proyecto también incluyó la aplicación de un plastificante, etilenglicol, para comparar muestras con y sin este aditivo y evaluar cómo afecta las propiedades finales del biopolímero.



METODOLOGÍA

Semana 1: Revisión bibliográfica y preparación del sustrato La primera semana se dedicó a la investigación bibliográfica para entender mejor los bioplásticos fúngicos y su preparación. Se aprendió sobre el proceso de preparación del sustrato y la técnica de inoculación del hongo Pleurotus ostreatus. La inoculación es la introducción de un microorganismo en un medio para promover su crecimiento bajo condiciones controladas, lo cual es esencial para el desarrollo del micelio del hongo.   Semana 2: Inoculación de hongos en el laboratorio Se preparó el sustrato mediante la hidratación de PDA (agar papa dextrosa), esterilizándolo en autoclave a 121.5 °C y 1 atm. Se vertió el sustrato esterilizado en placas Petri en un ambiente estéril y se dejó gelificar. Los hongos se lavaron y cortaron en pequeños pedazos, que se colocaron en el PDA bajo condiciones estériles para evitar contaminaciones. Los residuos de los hongos se secaron y reutilizaron, y los hongos se dejaron crecer en condiciones de temperatura ambiente, oscuridad total y humedad relativa del 60-80%. El crecimiento se monitoreó y registró cada tres días.   Semana 3: Preparación de bioplásticos y aditivos Se desarrollaron bioplásticos usando tres sustratos diferentes: olote, astillas y aserrín. Estos sustratos se ajustaron a un pH de 6.5, se hidrataron durante 24 horas y se esterilizaron en autoclave. En moldes cúbicos, se inoculó el micelio y se incubaron durante 30 días. Posteriormente, se desmoldaron y se secaron hasta alcanzar un peso constante a 60°C. Una vez que se tienen los sustratos, se le aplica glicerol como recubrimiento y como plastificante el etilenglicol.   Preparación de las mezclas 1. Glicerol al 30%: Se mezcla 70% de agua destilada con 30% de glicerol, se agita por 5 minutos y se deja reposar por 24 horas. Este procedimiento se hace por triplicado. 2. Etilenglicol al 10%: Se mezcla 90% de agua destilada con 10% de etilenglicol, se agita por 5 minutos y se deja reposar por 24 horas. La preparación se realizó con equipo de protección debido a la toxicidad del etilenglicol.   Procedimiento de recubrimiento de las muestras 1. Aplicación de glicerol: Se añade una fina capa de glicerol al 30% a los tres tipos de sustratos y moviendo cada muestra en la mezcla por 5 minutos por cada lado. 2. Reposo: Las muestras se dejan reposar al aire libre por 24 horas. 3. Aplicación de etilenglicol: Se añade una fina capa de etilenglicol al 10%, moviendo cada muestra en la mezcla por 15 minutos por cada lado. 4. Curado: Las muestras se dejan curar por 48 horas. 5. Secado: Las muestras se colocan en una estufa de secado a 40°C hasta alcanzar un peso constante.   Semana 4: Caracterización estructural y química Se realizaron pruebas para medir la hidrofobicidad e hidrofilicidad de los bioplásticos, incluyendo: Ángulo de contacto: Se midió utilizando gotas de agua destilada, y las imágenes capturadas se analizaron para determinar el ángulo formado por la gota en la superficie del biopolímero. Se observó que las muestras con plastificante eran más hidrófilas. Absorción de agua: Las muestras se sumergieron en agua destilada durante 24 horas, se pesaron antes y después para medir la cantidad de agua absorbida y el grado de hinchamiento. Las muestras con plastificante absorbieron más agua y mostraron mayor hinchamiento a comparación de las muestras que no. FTIR: Se utilizó un espectrómetro FTIR para analizar la composición química de los bioplásticos. Este instrumento mide la absorción de la radiación infrarroja por la muestra, proporcionando una "huella digital" molecular única para identificar los diferentes enlaces químicos presentes. El análisis espectral confirmó las diferencias en la composición química entre las muestras con y sin plastificante, proporcionando datos cruciales para entender cómo el etilenglicol afecta las propiedades del biopolímero.


CONCLUSIONES

El hongo Pleurotus ostreatus ha demostrado tener un gran potencial como material biodegradable y sostenible para aplicaciones industriales. Las pruebas realizadas evidenciaron que los bioplásticos basados en hongos pueden ser modificados con aditivos como el etilenglicol para ajustar sus propiedades según las necesidades específicas, revelando así su notable potencial. A pesar de que el plastificante tuvo un impacto significativo en todas las pruebas, es crucial considerar este factor al diseñar bioplásticos para diferentes aplicaciones. Este proyecto ofrece una base sólida para el desarrollo de biopolímeros derivados de hongos, subrayando su viabilidad como sustituto de plásticos convencionales y su potencial para reducir la contaminación ambiental. Durante la estancia de investigación, tuve la oportunidad de participar activamente en el desarrollo de una investigación en curso y adquirí conocimientos avanzados en técnicas instrumentales de análisis. Estas técnicas incluyeron espectroscopía infrarroja por transformada de Fourier, medición del ángulo de contacto, microscopía electrónica de barrido (MEB), así como análisis de propiedades físicas como densidad aparente y dureza.
Muñoz Coeto Andrea, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Juana Alvarado Ibarra, Universidad de Sonora

REDUCIENDO RIESGOS: CLAVES PARA LA SEGURIDAD DEL TRABAJO EN LABORATORIOS DE INSTITUCIONES DE EDUCACIóN SUPERIOR


REDUCIENDO RIESGOS: CLAVES PARA LA SEGURIDAD DEL TRABAJO EN LABORATORIOS DE INSTITUCIONES DE EDUCACIóN SUPERIOR

Muñoz Coeto Andrea, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Juana Alvarado Ibarra, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La gestión de riesgos en laboratorios de educación superior en México enfrenta grandes desafíos debido a la deficiente implementación de normas de seguridad, a pesar de su existencia. Incidentes como explosiones e incendios en universidades subrayan la necesidad de mejorar la gestión de riesgos y el manejo seguro de materiales peligrosos. Los laboratorios escolares son esenciales para el desarrollo de habilidades críticas en los estudiantes; sin embargo, un manejo inadecuado de sustancias químicas puede poner en peligro su seguridad. El proyecto busca mejorar la gestión de seguridad mediante la verificación e implementación efectiva de normativas, priorizando la prevención de riesgos y el uso de equipo de protección personal (EPP), proponiendo soluciones viables para optimizar la gestión de riesgos.



METODOLOGÍA

El trabajo se desarrolló con el siguiente diseño metodológico: Fase I: Recorrido en laboratorios y toma de fotografías. Fase II: Determinación de los requerimientos de las Normas Oficiales Mexicanas. Fase III: Evaluación de riesgos.    Se inspeccionaron los laboratorios de Caracterización de Materiales y Química Ambiental según varias Normas Oficiales Mexicanas (NOM) de seguridad. Se verificaron orden, limpieza, señalización y mantenimiento de extintores, actualizando el sistema de clasificación de sustancias peligrosas. Se identificaron sustancias riesgosas para la salud, con énfasis en pictogramas cancerígenos y tóxicos, complementando con la norma técnica COSHH de España. Se revisó la seguridad en el manejo y almacenamiento de sustancias químicas y se clasificaron residuos según su peligrosidad. Toda información fue documentada con fotografías, proporcionando un registro visual y detallado de las condiciones encontradas. Este enfoque permitió una evaluación objetiva, complementando el análisis cualitativo. Se identificaron incumplimientos en normas de seguridad en los laboratorios mediante fotografías, detallando soluciones y tiempos estimados. Para la NOM-002-STPS-2010, se verificaron extintores y su correcta ubicación. Se revisó el inventario y clasificación de sustancias químicas según la NOM-018-STPS-2015, identificando pictogramas de riesgo. La NOM-005-STPS-1998 se enfocó en la actualización de manuales de riesgos, provisión de equipo de protección y capacitación del personal. En la NOM-010-STPS-2014, se priorizaron sustancias tóxicas y cancerígenas, evaluando el riesgo con el método de evaluación COSHH. Se gestionaron residuos según las NOM-052-SEMARNAT-2005 y NOM-053-SSA1-1993, retirando, verificando y etiquetando residuos caducos. Se realizaron evaluaciones de riesgos en los laboratorios. Para la NOM-001-STPS-2008, se evaluaron aplicando el documento TRES-002-UEPC-2009, considerando sustancias peligrosas, procesos laborales y equipos contra incendios, según lineamientos de protección civil. La NOM-002-STPS-2010 se centró en identificar y clasificar reactivos inflamables, calculando el riesgo de incendio. Se creó una matriz de compatibilidad para el almacenamiento seguro de sustancias según la NOM-018-STPS-2015. En la NOM-010-STPS-2014, se evaluaron riesgos de sustancias cancerígenas para determinar el nivel de control necesario. Finalmente, para las NOM-052-SEMARNAT-2005 y NOM-053-SSA1-1993, se clasificaron residuos según el criterio CRETI-B y se documentó su manejo adecuado.


CONCLUSIONES

Se identificaron varias sustancias químicas, destacando el Pireno y la Piridina en cantidades superiores a las establecidas en el listado de actividades altamente riesgosas. El departamento realiza procesos riesgosos como alquilación, halogenación, hidrólisis, oxidación, esterificación, hidrogenación y polimerización. El programa de mantenimiento preventivo y correctivo no se sigue regularmente y no hay un programa de capacitación efectivo para el personal. El laboratorio cuenta con el equipo necesario para combatir incendios y no tiene calderas en uso; los recipientes a presión no superan los 5 kg/cm². La construcción tiene más de 9 años y el inmueble tiene una afluencia de aproximadamente 70 personas de forma permanente. Se generan residuos inflamables, corrosivos y tóxicos, almacenados de manera controlada. El edificio, con más de 3,000 m², es clasificado como de alto riesgo. El riesgo de incendio en el laboratorio de Química Analítica es alto, debido a la presencia de peróxido de benzoilo (sustancias pirofóricas). Se creó una matriz de sustancias orgánicas (grupo funcional 2), seleccionando 15 sustancias del inventario. La prioridad de muestreo de sustancias químicas se determinó como: 1 muy baja, 34 baja, 49 moderada, 4 alta y 0 muy alta. Las sustancias se clasificaron según la característica CRETI-B, omitiendo aquellas de peligro biológico, ya que el laboratorio no las maneja.
Muñoz Montes Paola Guadalupe, Instituto Tecnológico de Chihuahua II
Asesor: Dra. María de los Angeles Ahumada Cervantes, Instituto Tecnológico Superior de Pánuco

ANáLISIS Y DESARROLLO DE CHATBOTS DE IA PARA ASISTENCIA MéDICA EN ÁREAS VULNERABLES.


ANáLISIS Y DESARROLLO DE CHATBOTS DE IA PARA ASISTENCIA MéDICA EN ÁREAS VULNERABLES.

Marquez Torres Gabriel Josue, Instituto Tecnológico de Chihuahua II. Muñoz Montes Paola Guadalupe, Instituto Tecnológico de Chihuahua II. Asesor: Dra. María de los Angeles Ahumada Cervantes, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, la Inteligencia Artificial se utiliza en diversos ámbitos, incluyendo el uso cotidiano, escolar y profesional, en campos como la medicina y las leyes. Los modelos lingüísticos de gran escala (LLM) tienen el potencial de evolucionar en el ámbito médico, mejorando la precisión de los diagnósticos y apoyando la toma de decisiones clínicas, según Karabacak y Margetis (2023). La Inteligencia Artificial no solo mejora la eficiencia y precisión en diagnósticos y tratamientos, sino que también transforma la relación entre médicos y pacientes, permitiendo un enfoque más personalizado y humano en la atención médica, de acuerdo con Lanzagorta Ortega y colaboradores (2022). Ante estos desarrollos, se plantea crear una IA que asista a cualquier persona en el mundo desde un dispositivo móvil con internet, proporcionando asesoramiento médico o diagnósticos especializados, especialmente en comunidades marginadas. Además, esta IA realizará un seguimiento del tratamiento y permitiría la conexión virtual entre el usuario y un médico especializado, si es necesario o solicitado.



METODOLOGÍA

Se utilizó Meta Developers para trabajar con la API de WhatsApp y crear una aplicación que permite programar respuestas automáticas. Luego, se creó una cuenta en Always Data para almacenar la programación en Python, subiéndola mediante FTP y FileZilla, e instalando las librerías necesarias a través de SSH. La base de datos se guardó en MySQL utilizando phpMyAdmin. Se realizaron pruebas exitosas de envío y recepción de información a través de la API de WhatsApp. Además, se investigó cómo utilizar la tecnología de OpenAI para consultas médicas, trabajando con la versión gpt-3.5-turbo-0613 de ChatGPT. Se determinó la información crítica a almacenar en la base de datos para el seguimiento de pacientes, permitiendo a la IA ofrecer diagnósticos más precisos. Las librerías utilizadas incluyeron Flask, OpenAI, Heyoo, y Logging. Se validaron tokens con Verificación GET, se procesaron mensajes de WhatsApp y se obtuvieron respuestas usando OpenAI. Las respuestas se guardaron en ‘mensajes.txt’ y se manejaron excepciones durante las llamadas a la API y el envío de mensajes. Se implementó una ruta para guardar datos en MySQL y se ejecutó la aplicación Flask en modo de depuración. El código incluyó una clase en Python llamada ‘BDConector’ para interactuar con MySQL, con métodos para insertar y consultar mensajes. Otra clase, ‘LLM’, utilizó GPT-3.5 de OpenAI para procesar textos médicos y generar diagnósticos y sugerencias de tratamiento.


CONCLUSIONES

La implementación de IA en el ámbito médico promete revolucionar la atención sanitaria, ofreciendo diagnósticos más precisos y un seguimiento personalizado de los pacientes. La creación de una IA accesible desde dispositivos móviles es una solución innovadora para brindar asistencia médica en comunidades marginadas, mejorando significativamente el acceso a servicios de salud. Sin embargo, es crucial abordar los desafíos éticos y garantizar la transparencia y equidad en la aplicación. La combinación de tecnología avanzada y un enfoque humano puede transformar la medicina, llevando a una atención más eficiente y efectiva.
Muñoz Valencia Karina, Universidad Autónoma de Tamaulipas
Asesor: Dr. Gabriela Cervantes Zubirías, Universidad Autónoma de Tamaulipas

EL IMPACTO DE LA APLICACIÓN LA METODOLOGÍA SIX SIGMA EN LAS EMPRESAS


EL IMPACTO DE LA APLICACIÓN LA METODOLOGÍA SIX SIGMA EN LAS EMPRESAS

Muñoz Valencia Karina, Universidad Autónoma de Tamaulipas. Asesor: Dr. Gabriela Cervantes Zubirías, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

EL IMPACTO DE LA APLICACIÓN LA METODOLOGÍA SIX SIGMA EN LAS EMPRESAS  Asesor: Dra. Gabriela Cervantes Zubirías,Universidad Autónoma de Tamaulipas. Alumna: Karina Muñoz Valencia, Universidad Autónoma de Tamaulipas a2223710328@alumnos.uat.edu.mx La creciente necesidad de las empresas de destacar en el mercado de la industria manufacturera y buscando seguir el objetivo 9 de ODS de la agenda 2030 que hace referencia a la Industria Innovación e infraestructura, han causado que estas se vean orilladas a enfocarse en la mejora de sus procesos , volviendo más necesaria la implementación de metodologías que aporten a la mejora continua, al aumento de su productividad y niveles de calidad, y a su vez, optimicen y mejoren el flujo de sus procesos, de manera en que obtengan algunos beneficios como el ahorro y mejor administración de tiempos y capital, pero al mismo tiempo asegurando y brindando satisfacción a sus clientes en cuanto a productos y servicios. Dentro del marco de la mejora continua, han realizado mejoras en sus prácticas de calidad, exigencia y competitividad dentro de los mercados, convirtiendo a la calidad en una necesidad estratégica; Metodologías como el Six Sigma o el Lean Manufacturing son ejemplos claros de las metodologías que surgieron en este marco; y cada vez son incorporadas más frecuentemente a la estrategia organizacional de muchas empresas, tanto del sector  público como privado, desde microempresas hasta empresas de nivel internacional, debido a sus beneficios obtenidos, los cuáles son medidos en términos de eficiencia y efectividad, por tal motivo, esta investigación se centra en el análisis del proceso, evolución e impacto de la aplicación de la metodología Six Sigma en diversas áreas de empresas manufactureras, buscando crear una nueva perspectiva, acerca de sus beneficios y retos involucrados en su aplicación.



METODOLOGÍA

La metodología utilizada como método de estudio en la presente investigación, es una revisión sistemática literaria se define con enfoque cualitativo y consistió en tres fases; en primer lugar, se determinaron los criterios de inclusión y exclusión de la información, tales como Periodo (2018-2024), Idioma (español e Inglés), Tipo de documento (tesis, investigaciones, artículos de revistas científicas), entre otros. Después se llevó a cabo la investigación en fuentes confiables de búsqueda, con la ayuda de palabras clave definidas en base al objetivo de la investigación, y a través de recopilación de artículos relacionados a la metodología de Seis Sigma (SS), sus fases, variaciones y otras metodologías relacionadas y/o derivadas de dicha metodología, como lo son Lean Manufacturing, Lean Six Sigma, DMAIC, etc. Así como artículos que mencionen como han sido las condiciones, áreas y requerimientos que se han visto relacionadas al momento de la implementación de esta metodología, posteriormente se realizó el análisis y validación de uso para este escrito, y, por último, para determinar la selección de artículos, se seleccionaron aquellos que podrían representar aportes considerados enriquecedores para la investigación.


CONCLUSIONES

Durante la estancia de verano y con la realización de esta revisión literaria, se logró adquirir conocimientos teóricos acerca de la implementación de metodologías que contribuyan a una mejor gestión dentro de las empresas como lo es la metodología Six Sigma, y las razones por la que es cada vez más atractivo de implementar, como lo son sus grandes beneficios, como la disminución de costos, ahorro de tiempo, aumentos en su productividad, calidad, y flujo de sus procesos; siendo aplicada en conjunto de otras herramientas estadísticas y combinándola con otras metodologías que tengan la misma dirección en cuestión de la mejora de la calidad y procesos para maximizar sus efectos y beneficios, tanto para la empresa, como para los clientes.  Así también, se logró visualizar los diversos propósitos que han tenido las aplicaciones de esta metodología, los cuales se vieron adaptados a las necesidades expresadas por los clientes y las problemáticas que las empresas estuvieron presentando y que impedían alcanzar el éxito de acuerdo a sus estándares establecidos, de manera que se determinó una nueva perspectiva de la importancia de su aplicación, sus requerimientos materiales y no materiales para ser llevada a cabo y sus beneficios aportados a las empresas y sus aportes al mercado en general.
Murillo Frías María Fernanda, Instituto Tecnológico de Piedras Negras
Asesor: Mg. Jairo Alonso Palacio Morales, Instituto Tecnológico Metropolitano

DISEñO DE DISPOSITIVO DE METROLOGíA AMBIENTAL DE BAJO COSTO PARA EL MONITOREO DE LA CALIDAD DEL AGUA Y AIRE CASO DE ESTUDIO EN PIEDRAS NEGRAS Y MEDELLíN


DISEñO DE DISPOSITIVO DE METROLOGíA AMBIENTAL DE BAJO COSTO PARA EL MONITOREO DE LA CALIDAD DEL AGUA Y AIRE CASO DE ESTUDIO EN PIEDRAS NEGRAS Y MEDELLíN

Murillo Frías María Fernanda, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Jairo Alonso Palacio Morales, Instituto Tecnológico Metropolitano



PLANTEAMIENTO DEL PROBLEMA

En algunas comunidades como Piedras Negras, Coahuila y Medellín, Antioquia, el acceso a herramientas precisas y accesibles para el monitoreo de la calidad del agua es limitado. La carencia de dispositivos de metrología ambiental de bajo costo y eficientes dificulta la identificación de problemas de contaminación y la adopción de medidas de prevención, lo que a su vez afecta en la salud pública y la sostenibilidad de los recursos. El monitoreo de la calidad del agua es trascendental para garantizar potabilidad y calidad de los cuerpos de agua, ya que estos parámetros impactan en la vida cotidiana y el bienestar de las comunidades. Distintos parámetros clave como pH, turbidez, temperatura y solidos totales disueltos son indicadores esenciales para la evaluación y gestión de la calidad del agua. La falta de datos precisos y accesibles sobre la calidad del agua en estas áreas limita la capacidad de las autoridades y comunidades para tomar decisiones e implementar estrategias de conservación y el uso sostenible del agua.



METODOLOGÍA

El objetivo es comprender las necesidades específicas de las comunidades seleccionadas, que en este caso son Piedras Negras, Coahuila en México y Medellín, Antioquia en Colombia para establecer los parámetros clave para el diseño de un dispositivo. Se realizó una revisión y estudios previos para analizar datos de información en investigaciones existentes sobre la calidad del agua y métodos de monitoreo con tecnologías actuales y sus limitaciones. Para crear el dispositivo funcional de bajo costo y fácil acceso. Primero, se definieron las características técnicas del dispositivo, los sensores necesarios y la tecnología de transmisión de datos. Para luego desarrollar el modelo inicial del dispositivo y su ensamblaje, seleccionando materiales y componentes adecuados. Nuestro siguiente objetivo es evaluar la precisión y fiabilidad del dispositivo en condiciones reales. Se llevarán a cabo pruebas para evaluar la precisión de las mediciones del dispositivo en un entorno, ajustando y calibrando los sensores según lo necesario. Finalmente se evaluará el impacto del proyecto y se realizaran mejoras al dispositivo basado en la retroalimentación recibida. Se medirá el impacto en la gestión de la calidad del agua y a conciencia comunitaria. Se identificarán las áreas de mejora y se evaluara la posibilidad de expandir el proyecto a otras comunidades.


CONCLUSIONES

El proyecto en curso busca resolver la carencia de acceso a la información mediante la creación de un dispositivo de metrología ambienta de bajo costo, al momento se incluye la revisión de estudios previos, las características técnicas, el diseño y ensamblaje del dispositivo. Se espera un avance significativo que mejorara la gestión de la calidad del agua y aumentar la conciencia dentro de las comunidades sobre la importancia de los recursos hídricos. La implementación exitosa de este dispositivo promete proporcionar una solución práctica y económica, empoderando a las comunidades locales y promoviendo el cuidado del agua.
Murillo Orozco Josué Alejandro, Instituto Tecnológico de Tepic
Asesor: M.C. Jesús Gabriel Bernal Villanueva, Universidad Politécnica de Sinaloa

RESUMEN


RESUMEN

Murillo Orozco Josué Alejandro, Instituto Tecnológico de Tepic. Villaseñor Reyes Pedro Damián, Instituto Tecnológico de Tepic. Asesor: M.C. Jesús Gabriel Bernal Villanueva, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los sistemas de iluminación desempeñan un papel crucial en diversos ámbitos, ya sea en entornos escolares o laborales, donde se realizan una amplia gama de actividades que requieren condiciones óptimas de iluminación. Desde aulas y salones de clase hasta talleres industriales, contar con un sistema de iluminación adecuado puede tener un impacto significativo en el rendimiento y la productividad. Además, es fundamental cumplir con las normas y estándares que rigen la instalación de estos sistemas para garantizar un entorno de trabajo seguro y eficiente. La elección del tipo de iluminación puede influir en varios aspectos, como la salud visual, la concentración y la seguridad de los usuarios. Por ejemplo, una iluminación insuficiente o inadecuada puede causar fatiga ocular, disminuir la capacidad de atención y aumentar el riesgo de accidentes. Por otro lado, una buena iluminación puede mejorar el bienestar general y la satisfacción en el entorno de trabajo o estudio. Asimismo, la sostenibilidad energética se ha convertido en un aspecto cada vez más importante en el diseño de sistemas de iluminación de interiores, buscando minimizar el impacto ambiental y maximizar la eficiencia energética. Esto incluye la adopción de tecnologías más avanzadas, como las luminarias LED, que no solo consumen menos energía, sino que también tienen una vida útil más larga y requieren menos mantenimiento. En este contexto, la transición hacia sistemas de iluminación más eficientes no solo es una necesidad técnica y económica, sino también una responsabilidad ambiental. De tal forma, se realiza un análisis de las condiciones actuales de iluminación en los espacios pertenecientes al programa academico de ingenieria mecatronica (Aulas, Laboratorios/Talleres y Oficinas) de la Universidad Politecnica de Sinaloa.



METODOLOGÍA

Evaluación de los niveles de iluminación. Determinar el nivel promedio de iluminación (Lux) en los entornos de interés. Ubicación de los puntos de medición. Las áreas de trabajo se deben dividir en zonas del mismo tamaño para determinar las ubicaciones de los puntos de medición de acuerdo a lo establecido en la columna A, esto con ayuda de la Tabla 1 obtenida de la NOM-025-STPS-2008 [2]; en caso de que los puntos de medición coincidan con los puntos focales de las iluminarias se debe considerar el número de zonas de evaluación de acuerdo a lo establecido en la columna B de la Tabla 2. Se utilizará un Luxómetro modelo HS1010A para medir los niveles de iluminación. Debemos asegurarnos que las aulas, oficinas, laboratorios y talleres estén bajo condiciones normales de uso, con todas las luces artificiales encendidas y regular cualquier fuente de luz natural, es decir, utilizando persianas o cortinas en su posición habitual. El fotorreceptor del luxómetro se colocará a la altura del área de trabajo, esta puede variar dependiendo del local, ya sea un aula, en laboratorio o un taller. El entorno se dividirá en una cuadricula haciendo uso de la Tabla 2. Relación entre el índice de Áreas y el número de Zonas de Medición para asegurar una cobertura adecuada; se colocará el luxómetro en cada punto de la cuadricula, asegurándose de que el fotorreceptor este orientado de manera que no esté obstruido y reciba luz de manera directa y se hará registro de estos valores leídos para así obtener el nivel promedio de iluminación en cada entorno de interés.


CONCLUSIONES

Aulas. Una vez realizado el levantamiento de datos de las condiciones de iluminación, se obtuvieron los siguientes datos, únicamente en aulas: Se ha observado un aumento significativo en los niveles de iluminación promedio en las aulas 305, 306, 307 y 308. Esto se debe a la orientación de sus ventanas con respecto al sol, ya que estas están orientadas directamente hacia la dirección de la luz solar. Además, estas ventanas no cuentan con reguladores de luz natural, como persianas o cortinas, lo que permite una entrada sin control de la luz del sol. De igual forma, dos de estas aulas presentan un exceso de reflexión, esto también se debe a la mala regulación de la luz natural.   Con la información obtenida, podemos llegar a la conclusión de que solamente la mitad de las aulas en horario matutino cumplen con los niveles mínimos de iluminación según la NOM-025 [2].   Se observa una mejora notable con en los niveles de iluminación promedio en las aulas en el horario de medio día (12:00 hrs - 15:00 hrs). La gráfica muestra una mejora significativa en los niveles de iluminación en las aulas, con el porcentaje de aulas que cumplen con los estándares aumentando del 50% al 87%. Esta mejora se debe en gran parte a los cambios en la incidencia de la luz natural a lo largo del día. Por la mañana, la luz natural entra directamente a través de las ventanas. Sin embargo, al mediodía, la luz natural ya no entra directamente, lo que contribuye a una iluminación más uniforme y efectiva durante el mediodía. En el horario vespertino, al igual que el horario de mediodía, el 87% de las aulas cumplen con los niveles mínimos de iluminación que la NOM-025 establece para aulas. Se observa que solo el 43% de las oficinas cumple con los niveles mínimos de iluminación establecidos por la NOM-025 [2], esto se debe al mal estado de las luminarias, además, algunas oficinas tenían dañadas ciertas luminarias fluorescentes.   Talleres y Laboratorios. En este apartado se tomaron en cuenta tres horarios iguales a los mencionados anteriormente en Aulas, sin embargo, en la Celda de Manufactura la luz natural es despreciable, debido a esto solo se tomó una medición considerando únicamente la luz artificial. A continuación, se muestran los resultados obtenidos:  
Nahuat Narvaez Gerardo Alberto, Instituto Tecnológico Superior de Los Ríos
Asesor: Mg. Nolberto Gutiérrez Posada, Corporación Universitaria Empresarial Alexander von Humboldt

MODELO DE SIMULACIóN EMPRESARIAL PARA LA FORMACIóN EN LA TOMA DE DECISIONES EN LOGíSTICA Y CADENAS DE ABASTECIMIENTO


MODELO DE SIMULACIóN EMPRESARIAL PARA LA FORMACIóN EN LA TOMA DE DECISIONES EN LOGíSTICA Y CADENAS DE ABASTECIMIENTO

Cordova Cruz Iris Adela, Instituto Tecnológico Superior de Los Ríos. González Cervantes Karla Yeray, Instituto Tecnológico de Morelia. Morales Bertruy David, Instituto Tecnológico Superior de Los Ríos. Nahuat Narvaez Gerardo Alberto, Instituto Tecnológico Superior de Los Ríos. Asesor: Mg. Nolberto Gutiérrez Posada, Corporación Universitaria Empresarial Alexander von Humboldt



PLANTEAMIENTO DEL PROBLEMA

En este proyecto se abordaron dos situaciones clave relacionadas con la toma de decisiones en la gestión empresarial. Utilizando los conocimientos teóricos adquiridos en clase, se llevó a cabo una simulación de gestión empresarial para una fábrica de automóviles. El proceso incluyó diversas áreas de trabajo y tiempos de espera en la aduana. A continuación se describe el flujo de trabajo en la simulación:   1. Recepción y Preparación de Pedidos:    - Compradores: Los compradores nacionales e internacionales preparan los pedidos utilizando un formato específico. El apartado deseado debe coincidir exactamente con el pedido.    - Confirmación de Pedido: Una vez recibido el pedido, se completa con la palabra recibido y se envía a la bodega de productos terminados. 2. Gestión de Productos Terminados:    - Verificación en Almacén: Se realiza un pedido al área de almacén de productos terminados, que verifica la disponibilidad de productos para cumplir con el pedido.    - Preparación y Envío: Los pedidos se preparan en contenedores, se confirma el pedido en un formato y se envía tanto a nivel nacional como internacional. 3. Montaje y Revisión:    - Montaje Final: Los carros de montaje final se trasladan a la bodega de productos terminados y se recibe el pedido de la bodega de insumos. Se confirma el recibo y se actualiza el inventario.    - Ensamble: Se realiza el ensamble utilizando todos los materiales disponibles en un sistema de tipo push. En el pre-ensamble, se encargan los componentes existentes para el montaje final y se confirma el pedido de la bodega de insumos. 4. Gestión de Inventario y Pedidos:    - Pedido a Bodega de Insumos: Se efectúa un pedido a la bodega de insumos utilizando otro formato. La bodega recibe los pedidos de los proveedores, realiza inspecciones, y actualiza el inventario.    - Condiciones de Pedido:       - Pedido Internacional: No se pueden solicitar más de 38 piezas. Si no requiere revisión, el pedido tarda 2 etapas en llegar (etapa 1 al 3). Si requiere revisión, el pedido tarda 3 etapas (etapa 1 al 4).      - Pedido Nacional: No se pueden solicitar más de 45 piezas. El pedido tarda 2 etapas en llegar. 5. Manejo de Proveedores:    - Recepción y Clasificación: Los proveedores entregan pedidos, que se inspeccionan y se clasifican en buen o mal estado. El material en buen estado se coloca abajo en el contenedor y el de mala calidad arriba.    - Actualización de Inventario y Envío: Se actualiza el inventario y se envían los pedidos conforme a las solicitudes recibidas. Este enfoque asegura una gestión eficiente de los recursos y tiempos de espera en la aduana México-Colombia, en base una revisión bibliográfica, optimizando el proceso de producción y distribución.



METODOLOGÍA

Basados en el layout de la cadena de abastecimiento, se estableció la condición inicial para cada una de los roles de la simulación. Se establecieron las instrucciones de desarrollo de cada rol para que la simulación se realizara bajo condiciones controladas. Se establecieron los formatos requeridoa para la requisición entre los diferentes roles. Se validó el desarrolloo operativo de la simulación bajo esquemas ofimáticos. Se realizó la comparación de la simulación con conceptos teóricos.


CONCLUSIONES

La simulación empresarial brinda a los estudiantes la capacidad de aplicar sus conocimientos teóricos en un contexto práctico. Esta herramienta fortalece sus competencias en la toma de decisiones, gestión de inventarios y optimización de la cadena de suminstro a traves de la implementación de sistemas push y pull. Asimismo, los estudiantes adquieren habilidades en la gestión financiera y de recursos, el manejo de la logistica internacional y nacinal; por otra parte, promueve el pensamiento crítico, la resolución de porblemas y el trabajo en equipo, ofrecieno una experiencia educativa completa y realista que mejora la eficiencia y reduce los costos de producción. Dentro de los resultados obtenidos se encuntran los siguientes; - Se modificaron de manera exitosa las instrucciones de cada puesto, teniendo como resultado el éxito del simulador. - Se validaron los procesos de cada puesto de trabajo para que haya una continuida. - Se realizaron los modelos graficos de las distintas áreas de trabajo. - Se realizaron modificaciones en los formatos de Excel, en la parte de inventarios, facturas y formulas para crear un flujo entre todas las hojas de cada puesto de trabajo.
Nájar Solís Manuel Alejandro, Instituto Tecnológico de Tepic
Asesor: Dr. Joel Carvajal Soto, Universidad de Sonora

RESPUESTA SíSMICA EN SUELOS BLANDOS Y RíGIDOS


RESPUESTA SíSMICA EN SUELOS BLANDOS Y RíGIDOS

Flores Fabian José Alfredo, Instituto Tecnológico de Tepic. Higuera Virgen Ana Cristina, Instituto Tecnológico de Tepic. Nájar Solís Manuel Alejandro, Instituto Tecnológico de Tepic. Asesor: Dr. Joel Carvajal Soto, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Los sismos son un fenómeno natural de nuestro planeta, son el movimiento vibratorio resultado de la liberación de energía generada por distintos eventos, como es el movimiento de las placas tectónicas que conforman la corteza terrestre y otras fallas geológicas, erupciones volcánicas y de origen humano, o el impacto de cuerpos de gran tamaño en la corteza terrestre. Estos eventos son impredecibles y, cuando ocurren cerca de zonas pobladas, suelen estar acompañados de devastación. Según el Servicio Sismológico Nacional (SSN), dentro del territorio mexicano se encuentran ubicadas cinco placas tectónicas: Caribe, Pacífico, Norteamérica, Rivera y Cocos. Esta última se encuentra en subducción bajo la placa Norteamericana y cuyo proceso de hundimiento fue causante del sismo ocurrido el 19 de septiembre de 1985 en las costas de Michoacán, con una magnitud de 8.1 en la escala de Richter y una profundidad de 15 km. La mayoría de las edificaciones afectadas en estos eventos no estaban diseñadas para soportar movimientos sísmicos de estas magnitudes. Se busca entonces determinar la respuesta de las estructuras según su periodo estructural. Esto con el fin de identificar las instancias más susceptibles al colapso, analizando tanto suelos blandos, como rígidos.



METODOLOGÍA

Se usaron registros sísmicos archivados en el Servicio Sismológico Nacional (SSN), incluyendo el sismo ocurrido en 1985, así como el registro de otros sismos menores. Para su análisis se utilizaron métodos tanto cualitativos, esto en el uso e investigación de lo que es la intensidad sísmica, como cuantitativos, en el empleo de las magnitudes de los sismos debido a la energía liberada. Usando un software de cálculo, se graficó la comparativa de la aceleración en cuestión del tiempo para cada registro. Igualmente se graficaron la velocidad y el desplazamiento provocado por el sismo, calculados al integrar la aceleración. Dada la naturaleza de los datos, se integró numéricamente usando el método del trapecio para obtener las velocidades, que se integraron para obtener los desplazamientos. Con esto se identificaron los valores máximos y mínimos en cada conjunto de datos, y se marcaron en las gráficas. Con esto concluido, se procedió a interpolar la excitación de los sismos registrados usando el método de las 8 constantes. Éste toma la ecuación diferencial del movimiento libre amortiguado para incluir una función de excitación dependiente de la variable de tiempo tau (τ), que va desde el segundo 0 hasta Δt: mü + ku = pi +Δpi/Δti * τ Las fórmulas de recurrencia provenientes de la solución de la ecuación diferencial, se usaron para determinar el desplazamiento y la velocidad en cada instante: ui+1= Aui+Búi+Cpi+Dpi+1 úi+1=A'ui+B'úi+C'pi+D'pi+1 Para esto se tiene que: pi es la aceleración en cierto tiempo Y pi+1 es la aceleración en el momento siguiente. Tras calcular la aceleración por derivación numérica del desplazamiento u, se procedió a obtener los máximos absolutos de cada conjunto. El proceso se repitió para los periodos estructurales entre 0.1 y 6 segundos, con una progresión de 0.1 segundos. Con todos los casos analizados, se graficaron los espectros de respuesta para el desplazamiento, la velocidad y la aceleración, que relaciona un periodo con su valor máximo absoluto. También se consideró la pseudo-aceleración, una aproximación de la aceleración máxima real a partir de la frecuencia. Esto se debe a que cuando ocurre un sismo, el suelo experimenta vibraciones y aceleraciones, y estas se transmiten a la estructura, requiriendo conocer cómo el suelo afecta a las respuestas de la estructura. La pseudo aceleración se calcula usando la fórmula: psa = ωn*ui Donde: ωn es la velocidad angular = 2π/Tn Y ui es el desplazamiento. Se generó su propio espectro de respuesta de la misma forma que los demás. Una vez se analizaron todos los registros sísmicos, los espectros se juntaron en una sola imagen según el tipo de suelo en el que sucedió el sismo y el tipo de respuesta. De esta manera se pudo comparar el comportamiento de las distintas estructuras y determinar el periodo estructural que resulta en una mayor excitación, causado por la resonancia.   Finalmente, se calculó la intensidad de Arias, que sirve para determinar el potencial destructivo de un sismo. Para esto se elevaron al cuadrado los valores de aceleración encontrados en los registros sísmicos y se integraron de forma numérica, del cual el valor final es la intensidad. De ahí se determinó la duración efectiva de los sismos, considerando que este inicia cuando se tiene el 5% de intensidad y termina al alcanzar el 95%. Una vez se terminó de calcular todo, se generó una gráfica de la progresión de intensidad respecto al tiempo señalando la duración efectiva, que también se incluyó en las gráficas de aceleración.


CONCLUSIONES

En la estancia se adquirieron conocimientos sobre ingeniería sísmica, como es la generación de acelerógrafos, la obtención de espectros de respuesta y el cálculo de la intensidad de un sismo, apoyados en el análisis numérico. Estos se desarrollaron a través de la programación para el análisis de los registros sísmicos y la generación de gráficas. Usando los espectros de respuesta, clasificados según el tipo de suelo en el que sucedió el sismo correspondiente y considerando que el periodo de respuesta de un edificio depende de sus características geométricas y de las propiedades mecánicas de los materiales, se distingue que: En suelos rígidos, los sismos afectan las estructuras de menor altura, especialmente aquellas con un periodo estructural cercano a los 0.5 segundos, que sufren de la mayor excitación. Los sismos ocurridos en suelos blandos afectan a estructuras de mayor altura, con la mayor excitación siendo cuando tienen un periodo estructural que se acerque a los 2 segundos.
Nájera Aguilar Priscila, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Bernardino Castillo Toledo, Instituto Politécnico Nacional

PUESTA A PUNTO DE UN DRON PARA MONITOREO PERIMETRAL.


PUESTA A PUNTO DE UN DRON PARA MONITOREO PERIMETRAL.

Iñiguez Hernández Marco Antonio, Universidad Autónoma de Baja California. Manzanares Aguilar Juan Jesús, Tecnológico de Estudios Superiores de Villa Guerrero. Nájera Aguilar Priscila, Instituto Tecnológico Superior de Irapuato. Vazquez Ledesma Brandon, Universidad Autónoma de Baja California. Asesor: Dr. Bernardino Castillo Toledo, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual, la seguridad en las instituciones educativas es una preocupación primordial. Las escuelas buscan constantemente métodos más eficientes y efectivos para garantizar la seguridad de sus instalaciones y proteger a sus estudiantes y personal. Sin embargo, los métodos tradicionales de vigilancia, como el uso de guardias de seguridad o cámaras fijas, presentan limitaciones en cuanto a cobertura, costo y efectividad. La vigilancia manual es costosa y limitada por el número de personal disponible y su capacidad para monitorear grandes áreas de manera constante. Por otro lado, las cámaras de seguridad fijas, aunque son muy útiles, no pueden cubrir todas las áreas y ángulos de un perímetro extenso, y su instalación y mantenimiento representan un costo significativo. En respuesta a estas limitaciones, surge la necesidad de un sistema de vigilancia más avanzado y eficiente. El uso de drones para el monitoreo perimetral se presenta como una solución innovadora, capaz de ofrecer una cobertura más amplia y flexible a un costo relativamente menor. Los drones equipados con cámaras pueden volar de manera autónoma alrededor de un perímetro, proporcionando una vigilancia continua y en tiempo real de áreas extensas y de difícil acceso para el personal de seguridad. Además, para que este sistema sea verdaderamente autónomo y eficiente, es crucial que los drones puedan gestionar su energía de manera independiente. Una base de carga autónoma permitiría que los drones se recarguen automáticamente cuando sus niveles de batería sean bajos, asegurando así una operación ininterrumpida. El objetivo de este trabajo de investigación es desarrollar un dron con capacidad de vuelo autónomo para el monitoreo perimetral del CINVESTAV, equipado con una cámara para vigilancia y una base de carga que permita su recarga automática. Este sistema tiene el potencial de mejorar significativamente la seguridad en esta institución, ofreciendo una solución más flexible, eficiente y económica que los métodos tradicionales de vigilancia.



METODOLOGÍA

Selección del equipo Controlador del dron: Para el control del dron se utilizó el Pixhawk 2.4.8, conocido por su capacidad de manejar vuelos autónomos y su compatibilidad con diversas plataformas de software de control de vuelo. Software de control: Inicialmente se intentó utilizar Matlab para la conexión y control del dron. Sin embargo, debido a dificultades técnicas, se optó por usar Mission Planner, un software ampliamente utilizado y compatible con Pixhawk, que permite la planificación y control de vuelos autónomos. Evaluación y selección del dron Se probaron varios drones disponibles en la escuela para evaluar su rendimiento. Las pruebas incluyeron la verificación de la estabilidad de vuelo y la duración de la batería. Tras una serie de pruebas, se seleccionó el dron que mostró el mejor desempeño y estabilidad, adecuado para el monitoreo perimetral de la escuela. Desarrollo del controlador Controlador PID: Se desarrolló un controlador PID (Proporcional-Integral-Derivativo) para el dron, con el objetivo de garantizar un vuelo estable y preciso. El controlador PID fue ajustado y probado en múltiples iteraciones para optimizar el rendimiento del dron durante vuelos autónomos. Pruebas de vuelo autónomo: Se realizaron pruebas de vuelo autónomo utilizando el controlador PID desarrollado. Estas pruebas incluyeron la planificación de rutas de vuelo específicas alrededor del perímetro de la escuela, con el objetivo de asegurar que el dron pudiera seguir la ruta planificada de manera precisa y estable. Modelado y control del dron Se dedicó tiempo a comprender y modelar el comportamiento dinámico del dron. El modelado permitió simular el comportamiento del dron bajo diferentes condiciones y ajustar los parámetros del controlador para mejorar el rendimiento.


CONCLUSIONES

El objetivo principal de este proyecto era desarrollar un sistema de vuelo autónomo para un dron destinado al monitoreo perimetral del CINVESTAV. A lo largo de las últimas siete semanas, se logró implementar y probar con éxito el controlador PID en el dron seleccionado, lo que permitió realizar pruebas de vuelo autónomo. Estas pruebas demostraron la capacidad del dron para seguir rutas planificadas de manera precisa y estable, cumpliendo así con el objetivo inicial de establecer un vuelo autónomo eficaz. La metodología empleada incluyó la selección del dron adecuado, el desarrollo y ajuste del controlador PID, y la planificación de rutas de vuelo específicas. A pesar de los desafíos iniciales con el uso de Matlab, la transición a Mission Planner permitió superar estos obstáculos y avanzar en el proyecto de manera efectiva. Los siguientes pasos en este proyecto incluyen la integración de una cámara para la captura de video en tiempo real, lo que permitirá la vigilancia continua del perímetro de la escuela. Además, es crucial definir y optimizar las rutas de vuelo del dron para maximizar la cobertura y eficiencia del monitoreo. Finalmente, la implementación de una base de carga autónoma garantizará que el dron pueda operar de manera continua sin intervención humana, completando así el sistema autónomo de monitoreo perimetral. Con estos avances, el proyecto está bien encaminado para ofrecer una solución innovadora y eficiente para la seguridad de la institución educativa, proporcionando una vigilancia flexible y económica que supera las limitaciones de los métodos tradicionales.
Naranjo Maturana Angie Carolina, Fundación Universitaria Tecnológico Comfenalco
Asesor: Dra. Diana Milena Caicedo Concha, Universidad Cooperativa de Colombia

ANÁLISIS DE TECNOLOGÍAS PARA CIERRE DE CICLOS PRODUCTIVOS Y ECONOMÍA CIRCULAR PARA LA PRODUCCIÓN DE BIOCOMBUSTIBLES Y BIOPRODUCTOS A PARTIR DE RESIDUOS DE CAÑA DE AZÚCAR EN EL VALLE DEL CAUCA.


ANÁLISIS DE TECNOLOGÍAS PARA CIERRE DE CICLOS PRODUCTIVOS Y ECONOMÍA CIRCULAR PARA LA PRODUCCIÓN DE BIOCOMBUSTIBLES Y BIOPRODUCTOS A PARTIR DE RESIDUOS DE CAÑA DE AZÚCAR EN EL VALLE DEL CAUCA.

Naranjo Maturana Angie Carolina, Fundación Universitaria Tecnológico Comfenalco. Asesor: Dra. Diana Milena Caicedo Concha, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

La industria azucarera en el Valle del Cauca genera grandes cantidades de residuos de caña de azúcar (como bagazo y vinaza) que suelen ser subutilizados o desechados de manera inadecuada, causando impactos ambientales negativos. Este proyecto busca explorar la valorización de estos residuos mediante la producción de biocombustibles y bioproductos, promoviendo así la economía circular y el desarrollo sostenible en la región. La pregunta principal que se plantea es: ¿Qué tecnologías y estrategias pueden impulsar la valorización de los residuos de caña de azúcar en el Valle del Cauca, contribuyendo a la sostenibilidad ambiental y al desarrollo económico?



METODOLOGÍA

​Revisión de Literatura Análisis de estudios y casos de éxito a nivel nacional e internacional sobre la valorización de residuos de caña de azúcar. Identificación de tecnologías existentes para la producción de biocombustibles y bioproductos a partir de residuos de caña de azúcar. Análisis de Casos de Éxito Estudio de empresas y proyectos exitosos en la valorización de residuos de caña de azúcar, tanto en Colombia como en otros países. Identificación de Barreras Análisis de barreras tecnológicas, económicas y sociales que impiden la implementación de la economía circular en la industria azucarera del Valle del Cauca. Recomendaciones: Propuestas de estrategias para superar las barreras identificadas y fomentar la implementación de tecnologías de valorización de residuos.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de la caña de azúcar y sus distintas cualidades con potencial en la economía circular. Potencial de la Economía Circular: La economía circular ofrece una solución prometedora para convertir los residuos de caña de azúcar en recursos valiosos, reduciendo la dependencia de combustibles fósiles y disminuyendo las emisiones de gases de efecto invernadero. Tecnologías Disponibles: Existen diversas tecnologías adecuadas para la valorización de residuos, como la hidrólisis y fermentación para producir bioetanol, y la digestión anaeróbica para generar biogás. La integración de estas tecnologías puede impulsar una bioeconomía más sostenible. Impacto Ambiental y Social: La valorización de residuos puede reducir significativamente la contaminación ambiental y promover un uso más sostenible de los recursos. Además, puede generar nuevas oportunidades de negocio y empleo en la región. Barreras a Superar: Las principales barreras incluyen la falta de conocimiento y tecnología adaptada, la resistencia al cambio y la falta de incentivos económicos. Superar estas barreras requerirá colaboración entre productores, industrias, gobiernos y academia. Recomendaciones: Se recomienda la implementación de políticas que incentiven la economía circular, el fomento de la investigación y desarrollo de tecnologías de valorización, y la promoción de alianzas entre actores clave para compartir conocimientos y recursos.
Naranjo Mercado Monserrat, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Omar Jehovani López Orozco, Instituto Tecnológico Superior de Apatzingán

DESARROLLO DE UNA PLATAFORMA PARA GENERAR MODELOS UTILIZANDO EL MéTODO DE EMBEDDINGS


DESARROLLO DE UNA PLATAFORMA PARA GENERAR MODELOS UTILIZANDO EL MéTODO DE EMBEDDINGS

Naranjo Mercado Monserrat, Instituto Tecnológico Superior de Apatzingán. Venegas Hernández Ángel, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Omar Jehovani López Orozco, Instituto Tecnológico Superior de Apatzingán



PLANTEAMIENTO DEL PROBLEMA

Las micro, pequeñas y medianas empresas (MIPyMES) enfrentan problemas significativos en la atención al cliente debido a la falta de recursos suficientes para contratar personal dedicado y la ausencia de sistemas y herramientas modernas. Esto resulta en un servicio al cliente lento y deficiente, lo que disminuye la competitividad de estas empresas en mercados cada vez más competitivos. Además, las MIPyMES a menudo carecen de la capacitación necesaria para manejar eficientemente las interacciones con los clientes, lo que agrava el problema. La digitalización de los procesos y la implementación de soluciones de inteligencia artificial (IA) personalizada pueden ofrecer una mejora significativa en la eficiencia y la satisfacción del cliente.



METODOLOGÍA

Se realizó una investigación documental sobre las tendencias tecnológicas, sociales y comerciales del periodo 2022-2024 en donde se logró identificar la gran atracción de las personas hacia las nuevas Inteligencias artificiales. Después de investigar en diversas fuentes, fue que por medio de la documentación de OpenAl se logró encontrar una solución para implementarlo a nuestras necesidades. Se utilizaron herramientas tipo API avanzadas como Chat-GPT y técnicas de búsqueda basadas en Embeddings, estos convertirán el lenguaje humano en vectores numéricos, los cuales son una representación del lenguaje humano para permitir que las computadoras procesen de manera más efectiva la información. Para nosotros manipular los embeddings y realizar búsquedas de acuerdo a estos, nosotros utilizamos Pinecone, la cual es una plataforma encargada de un servicio de indexación y búsqueda de vectores que utiliza embeddings para mejorar la eficiencia y precisión de la búsqueda de información, esta plataforma nos permite crear nuevos embeddings a partir de la información que nosotros ingresemos. Para la implementación de esta búsqueda utilizamos el lenguaje de programación Python para así utilizar las librerías necesarias para nuestro programa. Para que el desarrollo sea utilizado será accedido mediante una página web utilizando lenguajes para frontend y backend tales como: HTML, CSS, JavaScript y Python. Lo anterior con la finalidad de crear un servicio de chatbots personalizados que puedan ser entrenados con la información específica proporcionada por cada empresa y dar pruebas gratuitas a cada cliente que acceda a nuestra página. Los usuarios interesados en crear un modelo personalizado para su empresa o negocio podrán ingresar documentos con las extensiones docx o pdf, el backend de esta plataforma web se encargará de leer el contenido de los documentos cargados y una vez extraída la información de los documentos estos se convertirán en embeddings utilizando la librería de Pinecone, con esta librería se implementó también nuestra búsqueda basada en embeddings para así realizar una búsqueda mediante similitud entre los embeddings y filtrar la información de nuestros documentos de texto, escoger la información más relevante y de esta manera la información recolectada será enviada a la API de Chat Gpt para así este pueda responder sólo de acuerdo a la información enviada.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos teóricos sobre el uso de inteligencia artificiales y embeddings los cuales logramos ponerlos en práctica mediante un programa hecho en python para una página web y así con esto crear inteligencias artificiales automatizadas para las empresas, al ser un extenso trabajo aún se encuentra en una fase incompleta y no se pueden mostrar con un diseño gráfico en total funcionamiento. Se espera que se finalice el frontend para así implementar seguridad a esta página y se pueda integrar todo el backend.
Nava Castro Dayanaraximena, Benemérita Universidad Autónoma de Puebla
Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú

DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA


DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA

Nava Castro Dayanaraximena, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

La constante globalización hace que cada vez sea necesario que las Pymes se encuentren en constante actualización, adoptando nuevas estrategias y dando paso a la industria 4.0 para seguir siendo cada vez más competitivas. El objetivo de esta investigación es poder enfocarse en las problemáticas y desafíos que actualmente presentan este sector de empresas, investigando a fondo que son los factores que no permiten el desarrollo y avance de las mismas, además a su vez, que las vuelve más vulnerables a que no sigan adoptando un nuevo y mejorado paso a la tecnología y por ende todo termine en quiebra o pérdidas. Para el debido desarrollo de la investigación se tomó a el país de Colombia, enfocándonos en los principales departamentos para terminar con el departamento de Bolívar donde se encuentra la ciudad de Cartagena; que, observando la ubicación, cuenta con una gran oportunidad para la comercialización y desarrollo de empresas. 



METODOLOGÍA

La metodología para llevar a cabo la investigación se desarrolla en cuatro principales etapas que se conforman por, (1) Investigación de la documentación científica sobre la industria 4.0, (2) Investigación de la documentación científica sobre la industria 4.0 en el contexto nacional de Colombia, (3) Investigación de la documentación científica sobre la industria 4.0 en el contexto local Cartagena,-Colombia, (4) Análisis de los desafíos hacia la industria 4.0 en la ciudad de Cartagena, Colombia.  Investigación de la documentación científica sobre la industria 4.0. Los documentos utilizados (libros, tesis y artículos científicos) fueron obtenidos mediante la herramienta de Google académico. Investigación de la documentación científica sobre la industria 4.0 en el contexto nacional de Colombia. Se investigó documentación científica que examina cómo se está desarrollando la Industria 4.0 en Colombia, identificando investigaciones previas, tendencias actuales, desafíos, y oportunidades que se están presentando a nivel nacional en Colombia. Investigación de la documentación científica sobre la industria 4.0 en el contexto local de Cartagena, Colombia. Se investigó documentación científica que aporta conocimiento sobre los antecedentes, problemas y principales desafíos a nivel local de la ciudad de Cartagena hacía la industria 4.0. Análisis de los desafíos hacia la industria 4.0 en la ciudad de Cartagena, Colombia. Para el análisis de los desafíos hacia la industria 4.0 se tomaron en cuenta los principales problemas que los autores de los documentos de investigación abordaron cómo los principales desafíos que enfrenta la ciudad de Cartagena Colombia hacia la industria 4.0.


CONCLUSIONES

Los hallazgos encontrados nos dicen que las Pymes representan una parte crucial del tejido empresarial colombiano, constituyendo el 99.5% del total de empresas y generando aproximadamente el 65% del empleo. Sin embargo, estas empresas enfrentan una alta volatilidad económica y desafíos financieros significativos debido a la falta de acceso a garantías mobiliarias y créditos adecuados, lo que aumenta su riesgo de quiebra y su vulnerabilidad financiera.   Aunado a lo anterior y centrándonos en una parte específica, las Pymes en Cartagena, al igual que en el resto del país, enfrentan una serie de problemas, como la falta de recursos propios, la inadecuada estructura financiera, y la escasa formación del personal en nuevas tecnologías. Estos problemas resultan en una baja calidad de productos y una falta de ventajas competitivas, lo que pone en riesgo la sostenibilidad de estas empresas en el largo plazo. Eso sumado a problemas de gestión estratégica, y una baja participación en procesos de innovación provocan variaciones notables en su producción y la falta de visión estratégica a mediano y largo plazo limita la competitividad de las Pymes. Algunas recomendaciones que se sugieren son que las Pymes deben invertir en la formación y capacitación de su personal en nuevas tecnologías y procesos innovadores. Programas de capacitación y desarrollo profesional ayudarán a mejorar la calidad de los productos y servicios ofrecidos, incrementando su competitividad. A su vez es vital que las Pymes adopten una visión estratégica a mediano y largo plazo. La planificación estratégica permitirá a estas empresas anticipar desafíos y aprovechar oportunidades de manera más efectiva, mejorando su sostenibilidad y crecimiento. Esto va de la mano con la siguiente recomendación, ya que se debe incentivar la participación de las Pymes en procesos de innovación y abordar investigaciones sobre la industria 4.0 generando estrategias para implementar nuevas tecnologías en los procesos productivos y logísticos que permitan estandarizar los procesos y se aprovechen al máximo los recursos como mano de obra, tiempo, materia prima, etc., dando ese diferenciador que ayude al crecimiento de las Pymes. Para lo anterior es necesario ayuda del gobierno, Es esencial que las Pymes accedan a financiamiento adecuado. Se recomienda promover políticas públicas que faciliten el acceso a créditos y garantías mobiliarias. Las instituciones financieras deben simplificar los trámites administrativos y fomentar el crecimiento de las Pymes, esto genera mayor crecimiento económico y un impulso hacía nuevos horizontes en todo el país colombiano.
Nava Garibay Andrea Margarita, Instituto Tecnológico de Morelia
Asesor: Mg. Ana Ruby Correa Mosquera, Universitaria Agustiniana Uniagustiniana

EVALUACIóN DEL PROCESO DE FERMENTACIóN DE HIDROMIEL CON LEVADURAS INMOVILIZADAS


EVALUACIóN DEL PROCESO DE FERMENTACIóN DE HIDROMIEL CON LEVADURAS INMOVILIZADAS

Nava Garibay Andrea Margarita, Instituto Tecnológico de Morelia. Asesor: Mg. Ana Ruby Correa Mosquera, Universitaria Agustiniana Uniagustiniana



PLANTEAMIENTO DEL PROBLEMA

La apicultura en Colombia ha incursionado paulatinamente en los programas de gobierno, dado el potencial de sus productos y la importancia que el mantenimiento de la polinización representa para el sector agrícola de un país (Romero, 2012). La producción anual de miel se estima en 3000 toneladas (Martínez 2006). Por lo tanto, se hace necesario explotar nuevos mercados, que a través de tratamientos de conservación y transformación generen nuevos productos que den valor agregado y mejoren la rentabilidad de la cadena apícola. Por otra parte, el hidromiel se pude definir como una bebida alcohólica a base de miel y agua potable, cuya fermentación es llevada a cabo por levaduras. En Colombia, la cultura de consumo de vino se ha visto favorecida con cifras de hasta un 128% de crecimiento desde el año 2000 (Vallebendito 2006). Tomando en cuenta las consideraciones anteriores, se estima al vino de miel (Hidromiel) como una bebida saludable, nutritiva y protectora del organismo humano. Los griegos encontraron en ella propiedades antisépticas, calmantes, tonificantes, diuréticas y laxantes. Es esta razón se pretende evaluar la fermentación alcohólica con levaduras inmovilizadas, debido a que en los últimos años Colombia ha tenido significativamente el interés por este producto, impulsado por la tendencia global hacia efectos artesanales y naturales.



METODOLOGÍA

Materiales En este estudio se utilizó miel de Apicolmenas Miel del bosque. Como fuente de mitógeno se usó polen apícola obtenido del mercado local. Para llevar a cabo las fermentaciones se utilizaron 2 cepas de S. cereviciae, una cepa nativa aislada y la otra, una levadura comercial. Método • Preparación del mosto Para la preparación del mosto se siguió la metodología de Quicazán et al., 2018. Se prepararon 4 kg de mosto de miel de abejas de la especie Apis mellifera. El mosto fue estandarizado a 24 brix, se le añadió polen apícola como fuente de nitrógeno a una proporción de 4 g/kg de mosto. El mosto fue pasteurizado a 80°C y atemperado a 37°C con agua fría. Inicialmente se midieron los ºBrix de la miel y se obtuvo la cantidad necesaria de miel (1.22 kg) para la elaboración del mosto a 24º Brix, se diluyo con 2.78 kg de agua potable y se añadió 16 g de polen. El mosto fue sometido a un proceso de higienización, pasteurizando hasta alcanzar una temperatura de 80ºC, inmediatamente fue sometido a enfriamiento rápido utilizando agua fría hasta alcanzar una temperatura de 37ºC. • Esferificación La levadura nativa se encontraba conservada en 3 ml de caldo de cultivo extracto de malta en refrigeración. Se realizó la activación de la levadura en aproximadamente 100 ml del mosto de miel de abejas atemperado a 37 °C. Posteriormente, el inoculo de la levadura fue inmovilizado en alginato de sodio al 2% (p/v). La mezcla del inoculo y alginato se encapsuló dejando caer desde un gotero la mezcla en una solución de cloruro de calcio al 2% (p/v), las esferas reposaron durante 2 min aproximadamente y fueron llevadas a un baño de agua mineral para enjuagar las esferas una vez formadas. Para el caso de la levadura comercial, se preparó un inoculo de 0.4 g levadura por kg de mosto. La levadura fue activada en 100 ml de mosto de miel que posteriormente fue inmovilizada en alginato de sodio siguiendo el mismo procedimiento. • Inoculación Las levaduras inmovilizadas fueron puestas en el mosto de miel y llevadas a incubación a 19 °C durante 18 días aproximadamente. • Monitoreo de la fermentación Una vez inoculados los mostos se depositaron en recipientes de vidrio (250 mL) tapados con pañuelos para obtener una fermentación tipo aerobia, estos se incubaron a 20 ºC durante 18 días, en este tiempo se tomó muestra cada 3 días para dar seguimiento a los análisis fisicoquímicos de pH, Acidez Total, y °Brix con el fin de verificar el curso de la fermentación. • Trasiego Para este proceso el hidromiel se transvaso, con el fin de separar las impurezas (esferas de levadura). Con el uso de un colador y un filtro, el hidromiel se pasó a un vaso previamente pasteurizado sin tocar ni perturbar la parte sólida sedimentada del mismo. • Pasterización Se realizó una pasteurización lenta a 60 °C, con el fin de parar por completo el proceso de fermentación y prolongar la vida útil del producto final. • pH Se utilizó un potenciómetro HANNA® Instrumens para la determinación del pH, este procedimiento se realizó por triplicado, adicionando 10 mL de la muestra (Hidromiel). Previamente a la medición del pH, el electrodo se sumergió en un buffer 7 y 4 para su calibración. • Grados Brix Se utilizó un refractómetro digital Milwaukee® para la lectura de grados Brix. Se tomó una alícuota con una pipeta y se colocó una gota en la superficie del refractómetro. Enseguida se tomó la lectura. • Acidez El procedimiento se realizó con una bureta digital y un frasco de 250 mL. Se extrajeron 5 g de cada una de las muestras para colocarlos en los frascos previamente etiquetados donde se adicionaron 50 mL de agua destilada y tres gotas de fenolftaleína (indicador). Posteriormente se dejó caer gota a gota el agente titulante (NAOH a 0.1 N) sobre la muestra de hidromiel, agitando manualmente todo el tiempo y deteniendo el gasto cuando se observó una coloración rosa tenue el cual debía mantenerse constante por lo menos 30 segundos después de agitar.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos sobre la producción de hidromiel, fue una experiencia enriquecedora que permitió desarrollar y perfeccionar diversas habilidades en el campo de la producción de bebidas fermentadas. No sólo se obtuvo un producto final de calidad, sino también valiosos conocimientos y experiencia a lo largo de todo el proyecto. El hidromiel obtenido cumplió con los estándares fisicoquímicos, así como de sabor, aroma y apariencia establecidos al inicio del proyecto. El control de variables como temperatura, limpieza y fermentación permitieron obtener un producto homogéneo y de alta calidad. Los conocimientos adquiridos y las mejoras implementadas proporcionan una base sólida para la producción futura y el crecimiento continuo en el sector cervecero de hidromiel.
Nava Monita Gilda Frine, Instituto Tecnológico de Matamoros
Asesor: M.C. Alicia Rosas González, Instituto Tecnológico de Reynosa

ANáLISIS Y COMPILACIóN DE DATOS ASTRONóMICOS PARA ESTUDIO DE EFICIENCIA ENERGéTICA EN SEGUIDORES SOLARES.


ANáLISIS Y COMPILACIóN DE DATOS ASTRONóMICOS PARA ESTUDIO DE EFICIENCIA ENERGéTICA EN SEGUIDORES SOLARES.

Nava Monita Gilda Frine, Instituto Tecnológico de Matamoros. Asesor: M.C. Alicia Rosas González, Instituto Tecnológico de Reynosa



PLANTEAMIENTO DEL PROBLEMA

Conocer y proponer técnicas para los paneles solares, en dónde se empleen seguidores solares para que independiente mente el lugar o temporada del año, tenga la misma eficacia



METODOLOGÍA

Para recabar los datos, lo primero que realice fue buscar una fuente confiable, que me pudiera da información precisa, eligiendo “SunEarthTool” que me pareció muy completa, dando tanto los ángulos a cualquier minuto que se señale, y ciudades propuestas (Matamoros, Reynosa,Ciudad de México, Cancún, Tijuana, y Natick Massachussets. Así como la hora en que sale y se esconde el sol, junto con sus correspondientes gráficas, las cuales no ocupo, pero sirven mucho de referencia


CONCLUSIONES

En conclusión, los estados y ciudades, que se encuentran más cerca de este tienen antes su amanecer antes, debido a la zona horaria, sin embargo, desde la perspectiva del oeste el sol sale más temprano para ellos, al menos así en México. Mas sin embargo en Estados Unidos es diferente ya que no están en el centro y el son tiene diferente elevación, por lo que Natick, Massachussets estando en el Este amanece aún más temprano Estos datos junto, con ángulos nos da un panorama sobre el movimiento del sol, dándonos a conocer todo el potencial que podría tener el panel solar dependiendo en el lugar donde se va a colora, es por ello que para asegurar una mejor función igualitariamente en cada ciudad es más factible aplicar los seguidores solares a las energías renovables.
Nava Morales Angel Emmanuel, Universidad Autónoma de Guerrero
Asesor: Mtro. Jesús Eladio Barrientos Mora, Benemérita Universidad Autónoma de Puebla

CREACIóN DE BASE DE DATOS DE OFICIOS PARA LA FACULTAD DE ARQUITECTURA DE LA BUAP


CREACIóN DE BASE DE DATOS DE OFICIOS PARA LA FACULTAD DE ARQUITECTURA DE LA BUAP

Nava Morales Angel Emmanuel, Universidad Autónoma de Guerrero. Asesor: Mtro. Jesús Eladio Barrientos Mora, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La gestión de oficios en la Facultad de Arquitectura de la Benemérita Universidad Autónoma de Puebla (BUAP) se realiza de manera manual, resultando en ineficiencias y posibles pérdidas de documentos importantes. Este proceso consume tiempo y dificulta el seguimiento y control de los oficios enviados y recibidos. La necesidad de una solución automatizada para la creación, almacenamiento y gestión de estos documentos es esencial para mejorar la eficiencia operativa y asegurar la integridad de los datos.



METODOLOGÍA

Para abordar esta problemática, se desarrolló una base de datos que centraliza la información de los oficios. La metodología consistió en varias fases: Recolección de Requisitos: Se realizaron entrevistas con el personal administrativo de la facultad para entender sus necesidades y los tipos de oficios que manejan. Diseño de la Base de Datos: Se diseñó un esquema de base de datos relacional utilizando MySQL. Este diseño incluyó tablas para almacenar información de los oficios, remitentes, destinatarios, fechas y estado de los documentos. Desarrollo e Implementación: Utilizando PHP y JavaScript para el desarrollo del frontend y backend, se creó una interfaz web amigable que permite al personal administrativo ingresar, buscar y gestionar los oficios de manera eficiente. Pruebas y Validación: Se llevaron a cabo pruebas de funcionalidad y usabilidad con el personal de la facultad para asegurar que el sistema cumple con los requisitos y es fácil de usar. Capacitación: Se impartieron talleres al personal administrativo sobre el uso del nuevo sistema y se proporcionó documentación detallada para su referencia.


CONCLUSIONES

El desarrollo de la base de datos de oficios para la Facultad de Arquitectura de la BUAP ha permitido centralizar y automatizar la gestión de documentos, mejorando significativamente la eficiencia operativa. Al momento del envío de este resumen, el sistema se encuentra en fase de implementación final y se espera que los beneficios incluyan una reducción en el tiempo de procesamiento de oficios, una mayor seguridad en el manejo de la información y una mejor capacidad para hacer seguimiento de los documentos. El éxito de esta solución sugiere que podría ser replicada en otras facultades y departamentos de la universidad.
Navarrete Ambrosio Oswaldo, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Juan Jose Bedolla Solano, Instituto Tecnológico de Acapulco

PLATAFORMA AUTOMATIZADA PARA LA GESTIóN Y EL FOMENTO DE PROYECTOS ECONóMICOS EN GUERRERO


PLATAFORMA AUTOMATIZADA PARA LA GESTIóN Y EL FOMENTO DE PROYECTOS ECONóMICOS EN GUERRERO

Calderón Leyva José de Jesús, Instituto Tecnológico de Chilpancingo. Navarrete Ambrosio Oswaldo, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Juan Jose Bedolla Solano, Instituto Tecnológico de Acapulco



PLANTEAMIENTO DEL PROBLEMA

En Guerrero, existe una considerable población de emprendedores con potencial y creatividad, pero muchos de ellos desconocen las oportunidades disponibles en diversas plataformas que podrían ayudarles a crecer y expandir sus negocios. Esta falta de información y acceso a recursos limita severamente su capacidad para desarrollarse económicamente y contribuir al bienestar de sus comunidades. El desconocimiento sobre herramientas digitales y plataformas de apoyo impide que los emprendedores aprovechen plenamente los recursos de financiamiento, capacitación y asesoría técnica que podrían impulsar sus proyectos. Además, la dispersión de la información y la falta de una centralización efectiva resultan en una gestión ineficiente y fragmentada de los recursos disponibles, lo que agrava la situación.



METODOLOGÍA

Análisis Documental e Investigativo Se llevó a cabo un análisis comparativo con el objetivo de identificar y analizar plataformas similares que pudieran servir de modelo para expandir el conocimiento sobre emprendimiento entre los emprendedores de Guerrero. Esta investigación implicó un análisis exhaustivo de diversas plataformas existentes en México y en otras partes del mundo, evaluando sus funcionalidades, tecnologías empleadas y el impacto generado en sus respectivas comunidades emprendedoras. Se consultaron fuentes académicas, informes y estudios de caso para obtener una visión detallada y comparativa de cada sistema. Encuestas a Emprendedores Locales Como parte de la metodología, se diseñó y aplicó una encuesta dirigida a 120 emprendedores en Guerrero. El propósito de esta encuesta fue obtener una comprensión profunda de las características demográficas, educativas y sectoriales de los emprendedores locales, así como de sus necesidades y desafíos específicos. Los datos recolectados permitieron identificar las áreas donde se requería mayor apoyo y tomarlas en cuenta a la hora del desarrollo. Desarrollo Tecnológico de la Plataforma Para el desarrollo de la plataforma, se utilizaron tecnologías modernas y eficientes, asegurando una interfaz amigable y una funcionalidad robusta: HTML para la estructura básica de las páginas web. CSS para el diseño y la presentación visual, asegurando una experiencia de usuario atractiva. JavaScript para la interactividad en el lado del cliente, mejorando la usabilidad. PHP para la lógica del sistema en el servidor, facilitando la gestión de datos y procesos. MySQL para la gestión de bases de datos, garantizando un almacenamiento seguro y eficiente de la información. phpMyAdmin para la administración de MySQL, permitiendo una gestión sencilla y efectiva de la base de datos. Resultados Los resultados de la plataforma fueron muy satisfactorios. Se logró centralizar y simplificar el acceso a diversos tipos de apoyo para los emprendedores, desde financiamiento hasta asesoría y recursos formativos. La plataforma facilitó el registro de emprendedores y la gestión de sus proyectos, permitiendo una supervisión más eficiente y un seguimiento continuo de sus avances. Los emprendedores que utilizaron la plataforma reportaron mejoras significativas en la organización y ejecución de sus proyectos. La facilidad de acceso a la información y recursos necesarios redujo el tiempo y esfuerzo requeridos para gestionar sus emprendimientos. Además, la plataforma proporcionó herramientas personalizadas y módulos de ayuda interactiva, aumentando la eficiencia y accesibilidad, independientemente del nivel de experiencia tecnológica de los usuarios. Impacto y Beneficios El impacto de la plataforma en la comunidad emprendedora de Guerrero ha sido notable. Al proporcionar una herramienta centralizada y fácil de usar, se ha fomentado un ambiente de colaboración y apoyo entre los emprendedores.  El impacto del sistema se manifiesta en tres áreas clave: social, al fomentar el emprendimiento y mejorar la calidad de vida en comunidades; ambiental, al apoyar proyectos sostenibles como la agricultura y la pesca; y económico, al fortalecer la economía local y mejorar la eficiencia en la administración gubernamental. 


CONCLUSIONES

La implementación de la plataforma ha demostrado ser una solución efectiva para abordar la problemática de la falta de emprendimientos en la región. A través de una investigación aplicada y un análisis comparativo exhaustivo, se desarrolló una plataforma que no solo centraliza y simplifica el acceso a recursos y apoyo, sino que también empodera a los emprendedores locales mediante la capacitación en el uso de tecnologías digitales. Ha demostrado ser una herramienta valiosa y multifacética que aborda eficazmente los desafíos del emprendimiento en Guerrero. Su impacto positivo en las áreas social, ambiental y económica subraya la importancia de continuar apoyando y expandiendo este tipo de iniciativas para promover el desarrollo integral de la región.
Navarrete de Jesus Raul, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: M.C. Manuel Pérez Villegas, Universidad Tecnológica de Tecamachalco

MANTENIMIENTO PREDICTIVO EN EL SECTOR INDUSTRIAL


MANTENIMIENTO PREDICTIVO EN EL SECTOR INDUSTRIAL

Martínez Aguilar Saúl Naim, Benemérita Universidad Autónoma de Puebla. Navarrete de Jesus Raul, Tecnológico de Estudios Superiores de Jocotitlán. Pérez Soto Juan Diego, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: M.C. Manuel Pérez Villegas, Universidad Tecnológica de Tecamachalco



PLANTEAMIENTO DEL PROBLEMA

El mantenimiento industrial es un conjunto de actividades destinadas a garantizar que los equipos, maquinarias e instalaciones de una planta funcionen de manera eficiente y segura durante su ciclo de vida útil. Este proceso incluye la inspección, la reparación, la lubricación, el reemplazo de piezas desgastadas y la implementación de mejoras para prevenir averías y maximizar la disponibilidad operativa. Es crucial para asegurar la continuidad de la producción, reducir costos de operación y mantener altos estándares de calidad y seguridad en el entorno industrial. La Universidad Tecnológica de Tecamachalco (UTTECAM) cuenta con diversos equipos industriales en la carrera de Ingeniería en Mantenimiento Industrial, por lo que durante la estancia de investigación se abordaran diferentes técnicas de mantenimiento predictivo, y junto con ello se tomaran cursos para mejor entendimiento.



METODOLOGÍA

Se abordaron diferentes técnicas de mantenimiento predictivo para un sector industrial, las cuales son: Inspección visual: esta técnica permite observar a simple vista si la maquinaria tiene una anomalía, con el fin de indicar fallos superficiales que se manifiestan físicamente mediante grietas, fisuras, desgaste, soltura de elementos de fijación, cambios de color, etc., a nivel industrial lo podemos identificar en los check-list. Líquidos penetrantes: se trata de una inspección no destructiva que se usa para encontrar fisuras superficiales o fallos internos del material que presentan alguna apertura en la superficie. Se aplican tres líquidos a la pieza mediante un spray, utilizándolos de la siguiente manera: el primero de ellos es el PENETRANT el cual funciona para detectar la posible fisura con un tiempo de trabajo de 5-10 minutos, el segundo es el CLEANER funcionando como limpiador de la superficie, posterior a él se aplica el DEVELOPER el cual tendrá un tiempo de trabajo de 10 minutos después de ello se resaltara de un color rojizo la superficie dañada, y por ultimo se vuelve a aplicar el CLEANER para limpiar por completo la pieza. Partículas magnéticas: la técnica consiste en utilizar una herramienta nombrada YUGO ELECTROMAGNÉTICO la cual produce un campo magnético al material ferromagnético y luego usar partículas magnéticas para revelar defectos en la superficie del material, tales defectos alteran el campo magnético, lo que provoca una acumulación de partículas magnéticas en esos puntos, haciéndolos visibles. Análisis termográfico: se utilizan cámaras termográficas para capturar imágenes de la radiación infrarroja emitida por la maquinaria u objeto, permitiendo ver la temperatura en la que se encuentran, y de esta manera, ayudando a detectar posibles anomalías en temperatura que podrían indicar posibles problemas. Análisis de vibraciones; se basa en la medición y evaluación de las vibraciones generadas por máquinas, como consecuencia de holguras mecánicas, desbalanceo dinámico, holguras mecánicas, rozamientos, daños en rodamientos, etc., utilizando un analizador de vibraciones, el cual al colocarlo en el equipo nos permite evaluar mediante espectros de vibración las condiciones en las que se encontraba. Rayos x: esta técnica utiliza radiación electromagnética de alta energía para penetrar materiales y revelar estructuras internas, que nos va a permitir obtener imágenes claras y detalladas de la estructura interna de los componentes, de igual forma nos facilita la inspección sin necesidad de desmantelar o mover el equipo. Ultrasonido: utiliza ondas acústicas de alta frecuencia para detectar y analizar defectos en materiales y componentes, la técnica mide el tiempo que tarda una onda en viajar a través de un objeto y regresar, proporcionando información sobre la estructura interna y posibles defectos, estos datos son proporcionados mediante un analizador ultrasónico, el cual manda espectros para saber el estado actual de la maquinaria.  Existen equipos para medir espesores de materiales y defectos en soldaduras, así como equipos enfocados en la detección de fugas. Análisis de lubricantes: técnica enfocada en el análisis físico-químico de muestras de aceite en servicio y el análisis de partículas de desgaste contenidas en el aceite para determinar el desgaste interno de los equipos y tomar acciones preventivas. Prueba hidrostática: la cual consiste en aplicar agua, a un equipo o sistema a una presión 1.3 veces superior a la operativa, durante un periodo mínimo de 1 hora, para detectar posibles fugas, deformaciones o debilidades en la estructura.  La presión de prueba y los tiempos de aplicación deben hacerse de acuerdo a las normas vigentes. Prueba neumática: utiliza gases, como aire comprimido o nitrógeno, para realizar la prueba, pero se aplica en sistemas donde el uso de líquidos no es práctico o seguro. Los cursos que se abordaron son:​ Energías Renovables (energía solar fotovoltaica) Soldadura Torneado Neumática Pantallas HMI CNC Programación de robot


CONCLUSIONES

En conclusión, el mantenimiento predictivo se ha consolidado como una estrategia fundamental en la gestión de activos industriales, ofreciendo ventajas significativas frente a los enfoques tradicionales. Al utilizar estas técnicas junto con tecnologías avanzadas para monitorear y analizar el estado de los equipos nos permite anticipar fallos y realizar intervenciones precisas, lo que resulta en una reducción de costos operativos y un incremento en la eficiencia de las operaciones. El sector industrial es cada vez más competitivo, y la implementación efectiva del mantenimiento predictivo en las áreas, se traduce como una ventaja estratégica crucial para mantener la continuidad y la sostenibilidad de las operaciones, siendo clave para el éxito a largo plazo de la empresa.
Navarrete Navarrete Jhoan Stiven, Universidad de Pamplona
Asesor: Dr. Freddy Segundo Navarro Pineda, Universidad Autónoma de Yucatán

SOSTENIBILIDAD Y ENERGíA EN COLOMBIA: EXPLORANDO SOLUCIONES PARA UN FUTURO VERDE


SOSTENIBILIDAD Y ENERGíA EN COLOMBIA: EXPLORANDO SOLUCIONES PARA UN FUTURO VERDE

Duarte Enciso Leidy Yulieth, Fundación Universitaria Cafam. Navarrete Navarrete Jhoan Stiven, Universidad de Pamplona. Asesor: Dr. Freddy Segundo Navarro Pineda, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

Colombia depende en gran medida de la energía hidroeléctrica, que representa entre el 63% y el 70% de la generación total de electricidad del país. Esta fuente renovable ha sido históricamente dominante gracias a la abundancia de recursos hídricos. Las plantas térmicas, que utilizan combustibles fósiles como el carbón y el gas natural, constituyen entre el 28% y el 35% de la generación eléctrica. Estas plantas se emplean principalmente como respaldo durante períodos de baja disponibilidad hídrica. Aunque aún en desarrollo, las fuentes de energía renovable no convencionales, como la solar y la eólica, están ganando importancia. En 2023, la participación de estas energías en la matriz energética era baja, pero con un crecimiento notable en proyectos y capacidad instalada, como el Parque Eólico de Vientos de La Guajira, que se espera tenga una capacidad total de aproximadamente 200 MW.Colombia depende en gran medida de la energía hidroeléctrica, que representa entre el 63% y el 70% de la generación total de electricidad del país. Esta fuente renovable ha sido históricamente dominante gracias a la abundancia de recursos hídricos. Las plantas térmicas, que utilizan combustibles fósiles como el carbón y el gas natural, constituyen entre el 28% y el 35% de la generación eléctrica. Estas plantas se emplean principalmente como respaldo durante períodos de baja disponibilidad hídrica. Aunque aún en desarrollo, las fuentes de energía renovable no convencionales, como la solar y la eólica, están ganando importancia. En 2023, la participación de estas energías en la matriz energética era baja, pero con un crecimiento notable en proyectos y capacidad instalada, como el Parque Eólico de Vientos de La Guajira, que se espera tenga una capacidad total de aproximadamente 200 MW.



METODOLOGÍA

Producción de Combustibles Fósiles Colombia es un importante productor de petróleo, con una producción de entre 750,000 y 800,000 barriles por día. El petróleo es crucial para el transporte y la industria. Además, el país produce gas natural, que se usa tanto para la generación de electricidad como para consumo industrial y residencial, con una producción de aproximadamente 1,000 millones de pies cúbicos por día. En cuanto al carbón, Colombia es uno de los principales exportadores del mundo, aunque su uso interno para la generación de electricidad es limitado. Consumo de Energía El consumo de electricidad en Colombia está en aumento debido a la expansión urbana y el desarrollo económico. Según la UPME, la demanda total de electricidad es de aproximadamente 70,000 a 80,000 GWh anuales. En los sectores más consumidores, el transporte es el mayor consumidor de combustibles fósiles, principalmente gasolina y diésel, y representa una parte significativa de las emisiones de CO₂. Le sigue el sector industrial, que incluye minería, manufactura y producción de cemento, con un alto consumo de combustibles fósiles, especialmente carbón. El sector residencial y comercial también ha visto un aumento en el consumo energético con la expansión urbana, utilizando principalmente electricidad, pero también combustibles fósiles para calefacción y cocción. En cuanto a los datos obtenidos en la investigación, se puede evidenciar que el balance energético de Colombia en cuanto a consumo es de 1130 PJ , esta información fue tomada respecto del sector de transporte; incluyendo el transporte aéreo, maritimo y terrestre y por otro lado el sector de No transporte donde se incluye información del sector residencial, industrial, comercial y otros sectores, donde el 71% de las fuentes de energía son de combustibles fósiles, seguido de un 23,25% de hidroeléctricas, los biocombustibles ocupan el 2,49%, le sigue las fuentes de Biomasa en 1,65% y por ultimo las fuentes fotovoltaicas con un 0,83% y las fuentes eólicas con el 0,71%. Es importante mencionar que el sector de transporte actualmente funciona principalmente con fuentes fósiles las cuales ocupan entre el 70% y 90% de uso en los tres sectores de transporte investigadas. En el caso de No transporte las fuentes de energía principales están entre las fósiles y las hidroeléctricas, en el caso de las fósiles van desde aproximadamente el 36% y el 84% donde su uso mayor es en el sector residencial y en el caso de las hidroeléctricas van desde aproximadamente el 15% y el 63% donde su uso mayor es en el sector comercial.


CONCLUSIONES

La transición a tecnologías eficientes en Colombia es un proceso complejo pero esencial para enfrentar los desafíos energéticos y ambientales. Implica promover energías renovables, mejorar la eficiencia energética, electrificar el transporte, desarrollar políticas adecuadas e invertir en infraestructura. Estas estrategias pueden llevar a un futuro energético más sostenible y resiliente para el país.
Navarro Diaz Tania Yamel, Universidad de Guadalajara
Asesor: Dr. Mario Alejandro Rodriguez Rivera, Centro de Investigaciones en Óptica (CONACYT)

MATERIALES ORGáNICOS, DISEñO Y SíNTESIS DE MOLéCULAS ORGáNICAS PARA APLICACIONES FOTóNICAS Y OPTOELECTRóNICAS, TALES COMO SENSORES QUíMICOS


MATERIALES ORGáNICOS, DISEñO Y SíNTESIS DE MOLéCULAS ORGáNICAS PARA APLICACIONES FOTóNICAS Y OPTOELECTRóNICAS, TALES COMO SENSORES QUíMICOS

Navarro Diaz Tania Yamel, Universidad de Guadalajara. Asesor: Dr. Mario Alejandro Rodriguez Rivera, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En diversas regiones de México, el acceso al agua potable es un desafío significativo. Para satisfacer la demanda de agua, muchas comunidades recurren a pozos artesanales como fuentes principales de suministro. Sin embargo, estos pozos frecuentemente presentan altos niveles de contaminación por iones metálicos. Actualmente, los métodos de detección de metales en el agua requieren equipos costosos y técnicos especializados, lo que limita su accesibilidad en distintas comunidades. En este contexto, surge la necesidad de desarrollar métodos de detección de metales que sean económicos, fáciles de usar y de fácil acceso para la población en general. La propuesta de este proyecto es el desarrollo de tiras de papel impregnadas con un sensor colorimétrico-fluorimétrico que puedan detectar la presencia de iones metálicos presentes en el agua de una manera rápida y eficiente. Estas tiras, basadas en ligantes tipo iminas (Garcias-Morales et al., 2021; Peralta-Domínguez et al., 2016), cambiarían de color o mostrarían luminiscencia bajo luz ultravioleta en presencia de metales específicos. La implementación de estas tiras proporcionaría una herramienta de diagnóstico simple y accesible para las comunidades, permitiendo una monitorización efectiva y constante de la calidad del agua. El objetivo es que estas tiras colorimétricas sean de fácil acceso y uso para cualquier persona, facilitando la identificación rápida de contaminación por iones metálicos.



METODOLOGÍA

Síntesis general de las iminas Para la síntesis de las iminas, se prepararon soluciones equimolares del clorosalicilaldehído y cada una de las aminas. El disolvente empleado para la síntesis fue metanol, utilizando 3 mL en total para cada reacción. La solución se mantuvo en agitación constante y se calentó en un matraz de fondo redondo a una temperatura entre 70-80 °C durante 3 horas para promover la reacción de condensación utilizando una trampa Dean-Stark. Posteriormente, los sólidos obtenidos se filtraron por gravedad y se dejaron secar a temperatura ambiente. Los productos sólidos obtenidos fueron purificados, disolviéndolos completamente en la menor cantidad de cloroformo, utilizando agitación ultrasónica. A continuación, se añadió hexano gota a gota para inducir la precipitación del producto. El sólido precipitado se separó mediante filtración y se lavó dos veces con 2 mL de hexano para eliminar cualquier impureza. Finalmente, las iminas purificadas se caracterizaron utilizando espectroscopia de absorción (UV-Vis), espectroscopia de emisión (fluorómetro) y espectroscopia infrarroja por transformada de Fourier (FT-IR). Los procesos de síntesis de las iminas arrojaron rendimientos que van del 21% al 31% después de los procesos de purificación.  Pruebas colorimétricas para la detección de iones metálicos disueltos en agua Para evaluar la capacidad de las iminas como sensores de iones metálicos, se prepararon soluciones acuosas de diversas sales metálicas a una concentración de 0.001 M. Las sales utilizadas incluyeron nitrato de aluminio (Al (NO3)3*9*H2O), sulfato de cadmio (CdSO4), cloruro de mercurio (HgCl2), nitrato de plomo (Pb (NO3)2), cloruro cúprico (CuCl2*H2O), acetato de zinc ((CH3COO)2Zn*2H2O) y cloruro de níquel (II) hexahidratado (NiCl2*6H2O).De cada imina sintetizada fue preparada una solución en THF (tetrahidrofurano) a una concentración de 0.3 mg/mL. Para las pruebas, se mezclaron en volúmenes similares de la solución de metal (0.001 M) con la solución de imina. Se preparó también un blanco mezclando de agua destilada con la solución de imina para comparar los resultados. Durante las pruebas, se observó un ligero cambio de color de las soluciones cuando se iluminan con luz blanca, con la finalidad de identificar cualquier interacción entre la imina y los iones metálicos que provoquen un cambio de color visible a simple vista. Además, las muestras fueron observadas bajo luz UV para detectar luminiscencia, lo que indicaría una interacción específica y significativa entre las iminas con los iones metálicos presentes en la solución. La imina 3 mostró selectividad hacia los iones de zinc (Zn) y aluminio (Al), exhibiendo cambios de color y luminiscencia bajo luz ultravioleta en presencia de estos metales.  Pruebas en Tiras de Papel Para probar las características del sensor para el desarrollo de tiras de papel, se preparó una solución del sensor en THF con una concentración de 1×10^-3 M, con la cual se bañaron 5 veces cada tira de papel filtro cortadas con 1 cm de ancho. Las tiras se colocaron dentro de una caja Petri y se adicionó 1 gota de la solución del sensor a una distancia de separación de 1.5 cm entre cada punto de aplicación. Las tiras se colocaron en una estufa por 5 minutos antes de adicionar la siguiente gota en el mismo lugar. El sensor se probó no más de 3 horas después de haber sido preparado. Durante las pruebas en tiras de papel, se observó que el sensor basado en la imina 3 mostró una notable selectividad hacia los iones de aluminio, lo que sugiere su potencial uso para la detección específica de este en muestras acuosas.


CONCLUSIONES

Durante la estancia de verano, se realizó la síntesis y evaluación como sensor de tres iminas, con el objetivo de desarrollar tiras de papel para la detección de metales pesados en agua. La imina 3, derivada de la reacción de condensación entre clorosalicilaldehído y un aminoclorofenol, se destacó por su selectividad hacia los iones de zinc y aluminio. En las pruebas colorimétricas, esta imina mostró un cambio de color bajo luz blanca y la luminiscencia bajo luz ultravioleta en presencia de dichos iones, mostrando su potencial como sensor específico. Además, las pruebas realizadas en tiras de papel demostraron que el sensor basado en imina 3 puede ser fácilmente implementado en un formato práctico y accesible, similar a las tiras de pH. Esto proporciona una herramienta eficaz y sencilla para la detección de iones metálicos en agua. 
Navarro Valenzuela Edwin Daniel, Universidad Autónoma de Zacatecas
Asesor: Dr. Leo Alvarado Perea, Universidad Autónoma de Zacatecas

SíNTESIS, CARACTERIZACIóN Y APLICACIóN DE MATERIALES CU/(AL-)MCM-41 POR LA TéCNICA DE CVD PARA LA DEGRADACIóN DE FENOL


SíNTESIS, CARACTERIZACIóN Y APLICACIóN DE MATERIALES CU/(AL-)MCM-41 POR LA TéCNICA DE CVD PARA LA DEGRADACIóN DE FENOL

Alcocer Gomez Ivan Daniel, Universidad Veracruzana. Mata Vázquez Mari Carmen, Universidad Veracruzana. Navarro Valenzuela Edwin Daniel, Universidad Autónoma de Zacatecas. Asesor: Dr. Leo Alvarado Perea, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Un grave problema ambiental que actualmente enfrenta nuestro país es la contaminación de los recursos hídricos. Uno de los contaminantes más peligrosos que ocasionan esta problemática son los compuestos disruptores endocrinos, en específico el fenol y sus derivados, que deterioran la calidad del agua. Aunque los compuestos fenólicos desempeñan diversas funciones beneficiosas en las plantas y alimentos, su liberación indiscriminada en agua, ya sea superficial o subterránea, representa una amenaza potencial para el ecosistema, así como en el humano. Esto se debe a que estos compuestos se pueden bio-acumular a lo largo de las cadenas alimentarias. Con lo anterior, se busca afrontar dicha problemática a través de la presente investigación, logrando así ser un apoyo para el cumplimiento de los objetivos de desarrollo sostenible de la Agenda 2030, tratando los objetivos tres, seis y catorce. Buscando degradar el fenol de una manera más eficaz a través de un catalizador, utilizando el material MCM-41, con y sin Cu, con el método de Deposición Química de Vapor, lo que permitirá un procedimiento más económico y efectivo a la hora de eliminar este compuesto.



METODOLOGÍA

Para la realización de esta metodología se siguió la propuesta del Dr. Leo Alvarado Perea, siendo asesorados por el M. en C. Pedro Antonio González Ocegueda, Dra. Laura Annette Romero de León. Etapa 1. Síntesis de los materiales MCM-41 y Al-MCM-41 con relaciones Si/Al ∞, 60 y 5. Etapa 2. Se deshidrató en la estufa durante 24 h a 120 °C, luego se metió al desecador durante 20 min aproximadamente. Se pesan 0.08 g la fibra de vidrio para su uso como soporte del material. Este es colocada dentro del reactor con forma de L, quedando en la parte de deposición. Se pesa cada material (0.2g - 0.5g) y se vierten en el reactor. Se coloca un empaque en cada salida del reactor para luego colocar los termopares, uno en la mitad de donde se encuentra el material a sintetizar y otro en donde estará el precursor (Acetilacetonato de Cobre II), para que finalmente el reactor se coloque en el horno de calentamiento a una temperatura de 300°C en la parte de deposición y 190°C en la parte de sublimación. Posteriormente, se purga el material durante 30 min con gas de nitrógeno. Se pesa la charola donde irá el precursor y el precursor. Meter al reactor, colocándolo en la zona de sublimación, sellar y abrir el flujo del oxígeno para esperar durante 1.30 h a que suceda la reacción. Se saca el material fotocatalítico, se pesa y se guarda. La metodología se repite con las diferentes relaciones de Al/Si y con los diferentes pesos. Etapa 3. Caracterización de materiales por Absorción Atómica. Cada muestra se mezcla después de salir del CVD, se toma 0.05 g por cada muestra y se vacía en un recipiente de plástico, se le agrega 10 ml de HF al 10% y se espera mínimo 24 h. Luego se le añaden 20 ml de agua regia con una relación 3:1 de HCl y HNO3 respectivamente, se espera mínimo 2 h y se afora a 100 ml en un matraz de propileno. Se guarda la muestra y se analiza en un equipo de absorción atómica para obtener resultados. Etapa 4. Degradación de fenol mediante fotocatálisis heterogénea con los materiales sintetizados. Se arma el reactor Batch colocado en una plancha de agitación con un agitador magnético que permitirá que el material esté en constante movimiento, posteriormente se coloca un tubo de cuarzo sostenido por un soporte universal donde se pondrá la lampara de luz UV, así como la manguera que permitirá que haya un burbujeo en la reacción, lo que dará oxígeno al experimento y se pueda iniciar la reacción permitiendo una esperada degradación de fenol. Se comenzó por la fotólisis del fenol y la hidroquinona. Posteriormente se realizó la fotocatálisis, donde se vierten al reactor de doble pared 200 ml de fenol a una concentración de 40 ppm. Se tomarán muestras, una inicial donde solo sea el fenol, otra a los 40 minutos con una agitación de 300 rpm. Después con la luz UV y el burbujeo se tomarán muestras cada 15 minutos durante una hora, cada 30 minutos durante la segunda hora y, finalmente, cada hora, hasta completar 8 horas. Cada muestra pasa por la centrifugadora a una velocidad de 4000 rpm, para posteriormente realizar un análisis de absorbancia en el UV-VIS, colocando en la celda 200 μl de la muestra para limpiar adecuadamente, luego vertiendo 500 μl para obtener los barridos y la absorbancia puntual a una longitud de onda de 270 nm, que corresponde al fenol, así como la de los intermediarios 245 nm (benzoquinona), 290 nm (hidroquinona) y 310 nm (catecol).


CONCLUSIONES

Durante la investigación se adquirieron conocimientos teóricos y prácticos, aprendiendo el proceso de síntesis de materiales, fotólisis, fotocatálisis y analizando los datos obtenidos de las actividades realizadas con los materiales sintetizados. Aunque por cuestión de tiempo no se hicieron las técnicas de caracterización propuestas como el DRX, RMN, TEM; se alcanzó a realizar la caracterización de espectroscopia por absorción atómica, determinando que hay un 37% de Cu en MCM-41 con relación Si/Al de 60, por lo que, se inquiere que el color del material obtenido no es un parámetro importante para tomar en cuenta, pues el material tenía un aspecto blanco en comparación al de referencia que su color era marrón obscuro. Por otro lado, a través de la experimentación y de los datos obtenidos del CVD, se concluyó que la temperatura de deposición es importante para el soporte, así como la cantidad de material para la deposición de Cu, observando que, a mayor cantidad de Al, menor material del MCM-41 en el reactor para CVD. El mejor material sin Cu para degradar al fenol en 8 h es el de 0.2 g Al-MCM-41 con relación Si/Al de 5, degradando un total del 97.7% de fenol. El mejor material con Cu para degradar al fenol en 8 h es el de 0.2 g Cu-Al-MCM-41 con relación Si/Al de 60, degradando un 45.8% de fenol. Por su parte, la fotolisis la hiroquinona se degrado un 91.3% en 8 h.
Navarro Valenzuela Jesús Ivan, Universidad Autónoma de Occidente
Asesor: Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente

MISIóN: SABER Y JUGAR


MISIóN: SABER Y JUGAR

Navarro Valenzuela Jesús Ivan, Universidad Autónoma de Occidente. Tellez Giron Lizarraga Alan Albino, Universidad Autónoma de Occidente. Velarde Ramírez José Emiliano, Universidad Autónoma de Occidente. Asesor: Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Actualmente, vivimos en la era digital en donde los niños y jóvenes del siglo XXI utilizan las tecnologías de información y comunicación (TIC) desde temprana edad con distintos fines, ellos son conocidos como nativos digitales, debido a que piensan y procesan la información de una manera diferente y su destreza en el manejo de las tecnologías es superior a la de sus profesores denominados inmigrantes digitales.   Por lo cual; es importante incorporar las TIC al aprendizaje, debido a que son consideradas como una herramienta clave para participar en las dinámicas de las sociedades contemporáneas y como elemento indispensable en el modelo educativo de México y a los ODS (Objetivos de Desarrollo Sostenible) de la UNESCO, en donde se menciona que se tiene que lograr una educación de calidad. Sin embargo; a pesar de ello, se continúa viendo en las escuelas clases monótonas, en las que se puede observar que los maestros(as) siguen utilizando las mismas prácticas y métodos tradicionales en la mayoría de las asignaturas, pero sobre todo en la clase de Historia en donde se continúa recurriendo a la memorización de acontecimientos y hechos, no captando la atención de los niños ni tampoco la comprensión de los temas.   Otro de los problemas a los que se enfrentan los docentes, es no contar con los medios suficientes de un aula de medios o la infraestructura adecuada para poner en practica otras herramientas educativas, como lo es el software educativo.   



METODOLOGÍA

De acuerdo con la relevancia y el contexto del presente estudio, se plantearon diversos objetivos. Los métodos, técnicas e instrumentos para recolectar los datos y cumplir con los objetivos propuestos están cimentados en un enfoque mixto.   Para el enfoque cualitativo, se empleó la investigación documental, la cual consistió en el procesamiento y recuperación de información contenida en documentos, como: libros de la SEP de 4to., 5to. y 6to. año, artículos de revistas, la observación en el salón de clases, y entrevistas abiertas a maestros(as).   Mientras que, para el enfoque cuantitativo, se diseñó un Cuestionario, el cual se aplicó a 50 maestros(as), en donde los resultados arrojados fueron parte fundamental para el análisis, diseño y desarrollo del software educativo. Entre las preguntas que se realizaron fue ¿Cuál materia(as) cree usted que es la que se le dificulta más aprender a los estudiantes?, obteniendo un 70% Historia, posteriormente con un 34% Geografía e Inglés y después con un 30% Matemáticas. Otra fue ¿Cuál es el principal desafío que enfrenta al enseñar una asignatura? Con un 64% opinaron que los estudiantes se distraen constantemente, posteriormente con un 32% el tiempo del ciclo escolar no alcanza para abordar demasiados temas por asignatura, con un 2% la escuela primaria no permite el uso de la tecnología en clases solo la enseñanza tradicional, y otro 2% fue otra respuesta. Y una última, fue ¿Cuál considera usted que es el dispositivo tecnológico que más usan los estudiantes en la actualidad? Respondiendo con un 88% que el celular, posterior la tableta con un 38%, un 16% la laptop y un 2% computadora de escritorio.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos de análisis, diseño y desarrollo de un software educativo de historia para los grados de 4to., 5to. y 6to. grado. En cuanto a la fase de análisis y diseño del logotipo se contemplaron los puntos de vista de los maestros(as) y alumnos. Mientras que en la fase de desarrollo se contemplaron las características apropiadas para el mismo, el cual lleva de nombre Misión: Saber y Jugar. El software educativo de historia, fue creado en plataforma Unity mediante el lenguaje de programación C# para computadoras de escritorio o laptop, empezando por temas desde los primeros humanos en América y terminando en la revolución mexicana utilizando un ambiente atractivo y divertido donde los niños se adentrarán a un mundo fascinante de los hechos y acontecimientos.   Además, se pretende que el proyecto crezca a futuro, dándolo a conocer en diversas primarias del municipio de Mazatlán, Sin. así como a nivel Estatal, desarrollándolo para otros dispositivos como celulares y tabletas. Por último, contemplar lo que menciona la UNESCO El patrimonio es nuestro legado del pasado, con lo que vivimos hoy y lo que transmitimos a las generaciones futuras, por lo cual; en ello radica la importancia de dicho proyecto.
Navarro Villarreal Xilena, Universidad Cooperativa de Colombia
Asesor: Mg. Laura Nieto Henao, Universidad Cooperativa de Colombia

DETERMINACIÓN DE LAS CONCENTRACIONES DE ELEMENTOS TRAZA METÁLICOS EN LAGOS DE ALTA MONTAÑA DE LA SIERRA NEVADA DE SANTA MARTA- CUENCA SEVILLA


DETERMINACIÓN DE LAS CONCENTRACIONES DE ELEMENTOS TRAZA METÁLICOS EN LAGOS DE ALTA MONTAÑA DE LA SIERRA NEVADA DE SANTA MARTA- CUENCA SEVILLA

Navarro Villarreal Xilena, Universidad Cooperativa de Colombia. Asesor: Mg. Laura Nieto Henao, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

La Sierra Nevada de Santa Marta es un ecosistema estratégico en la región caribe, donde confluyen una variedad de ecosistemas como la Ciénaga Grande de Santa Marta, los ecosistemas costeros con una gran variedad de arrecifes coralinos, parques naturales nacionales, entre otros. Estos ecosistemas a su vez se han visto impactados negativamente por las actividades antrópicas de la región, que van desde la explotación de suelos por monocultivos hasta la industria de exportación carbonífera. Además, la contaminación del recurso hídrico, deficiencia en el manejo de residuos sólidos, la contaminación atmosférica, la carencia de agua potable y saneamiento básico, son factores que degradan la calidad ambiental de la región y disminuyen su valor y capacidad de ofrecer servicios ecosistémicos al departamento y el país. En este contexto, la Sierra Nevada presenta un sistema de lagos de alta montaña que son sistemas claves para comprender la dinámica ambiental de la tierra a media o gran escala, ya que son una fuente de información de gran interés en el estudio del grado de contaminación generada por elementos traza en el medio ambiente (Williamson et al., 2009). Además, las cuencas de los lagos de alta montaña se consideran excelentes sensores para la contaminación difusa, debido a su ubicación distante de las fuentes contaminantes es posible observar el impacto de la contaminación en estos sistemas a lo largo del tiempo. De hecho, son muy sensibles a la propagación de la contaminación desde largas distancias (Bacardit y Camarero, 2009). De manera similar, los suelos de gran altitud son bastante sensibles a los procesos de erosión, es decir, reaccionarán más fuerte a los cambios ambientales inducidos por el hombre, por ejemplo; agricultura, minería, tala y el impacto del cambio climático. Estos procesos de erosión y contaminación presentes en las cuencas de alta montaña alteran las composiciones fisicoquímicas de las aguas naturales, lagos y estanques de montaña, donde el material en suspensión erosionado que llega a la columna de agua decanta para formar el sedimento. Este sedimento es un registro de la historia de la contaminación ambiental, y gracias a ellos, es posible determinar el aumento de las tasas de contaminación espacial y temporal de metales traza. (Biester et al., 2007).   Estos metales pueden llegar hasta los seres humanos por consumo directo de agua contaminada o por consumo de alimentos contaminados como peces (Bowles et al., 2001). Ha habido numerosos ejemplos de contaminación fatal con estos metales traza, como la ciudad de Minamata (Japón) por el consumo de pescado y mariscos que habían almacenado metilmercurio, una de las formas más tóxicas del mercurio (Aries, 2001).



METODOLOGÍA

La metodología que se ha seleccionado para el desarrollo del siguiente proyecto de investigación es la Estructura de Descomposición del Trabajo WBS por su flexibilidad y porque permite detallar en forma jerarquizada el trabajo a realizar hasta el nivel de actividad o tarea según el nivel de detalle que se requiera. Fase 1: Área de estudio Para seleccionar el área de estudio se realizaron Análisis de Fotogrametría, con sistemas de información geográfica y georreferenciación en campo. Se seleccionó la cuenca del Río Sevilla que cuenta con 11 lagos a más de 3500 m de altitud, entre los que se muestrearon dos lagos y dos turberas. Las imágenes presentan las características de las cuatro áreas muestreadas. Tienen entre 2000 y 2500 mm de precipitación por año, temperatura máxima de 8 grados y óxido de 3000 a 3500 mm por año. Fase 2: Metales traza Los elementos traza metálicos estudiados en los sedimentos de lagos de alta montaña de la Sierra Nevada de Santa Marta, específicamente de la cuenta Sevilla, son: Mercurio, Plomo, Arsénico, Zinc, Cadmio, Vanadio y Cobre. Estos elementos han sido identificados en altas concentraciones en estudios realizados sobre ecosistemas que reciben aportes de las fuentes hídricas superficiales de la Sierra Nevada de Santa Marta (Doria, 2017; Campos 1990; Espinoza et al., 2011) Fase 3: Muestreo Las muestras de agua fueron tomadas en enero de 2021, y en agosto de 2023 en dos lagunas seleccionadas en la cuenca Sevilla. Para tener dos puntos de comparación en temporada estacionaria seca del año. Dos litros de agua fueron utilizados para hacer los análisis de calidad del agua. Las muestras de sedimentos y turbas se realizaron en enero de 2021 en áreas poco profundas de los lagos. Se recuperaron muestras de 40 cm de profundidad para dividirla en rodajas de 5 cm. Para la turba el proceso fue similar, sin embargo, la profundidad de las muestras se tomó hasta 20 cm. Fase 4: Análisis de laboratorio La tecnología analítica útil es la espectrometría de absorción atómica para detectar metales en el agua de superficie de los lagos.


CONCLUSIONES

En las aguas superficiales de los lagos de la sierra nevada de Santa Marta, se detectaron que las concentraciones de los metales traza aceptadas por el estándar de calidad de los alimentos para beber son más altas en comparación con otras regiones remotas del mundo, indicando una posible contaminación. En los sedimentos, las concentraciones de la mayoría de los elementos aumentan con la profundidad. Específicamente, los niveles de Sc, Sr y Cr los cuales están fuera de los límites recomendados por la NoAA, mientras que ZN, Cu y V están dentro de los límites aceptables. Además, se detectó Pb en el lago 1. En las turberas, las concentraciones también aumentaron con la profundidad. Se observaron que los niveles de Cu, Cr y As están fuera de los límites recomendados por la NoAA. Para futuras investigaciones, se recomienda realizar un segundo muestreo durante la temporada de lluvias y en áreas más profundas, enfocándose en la datación de sedimentos y turberas.
Navas Miranda Abelang, Corporación Universitaria de Ciencias Empresariales, Educación y Salud
Asesor: Dra. Cristina Arely de Leon Condes, Tecnológico de Estudios Superiores de Tianguistenco

DISEñO DE PLAYERA DE CáñAMO CON PROPIEDADES ANTIBACTERIANAS Y ANTI RAYOS UV.


DISEñO DE PLAYERA DE CáñAMO CON PROPIEDADES ANTIBACTERIANAS Y ANTI RAYOS UV.

Archila Sanchez Adriana Yulieth, Universidad de Investigación y Desarrollo. Navas Miranda Abelang, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Niño Rueda Marisol, Universidad de Investigación y Desarrollo. Asesor: Dra. Cristina Arely de Leon Condes, Tecnológico de Estudios Superiores de Tianguistenco



PLANTEAMIENTO DEL PROBLEMA

El algodón es el más utilizado a nivel mundial debido a sus características de suavidad. La producción de playeras realizadas con algodón tiene alta demanda de recursos hídricos. Se estima que el cultivo de algodón requiere aproximadamente cuatro veces más agua que el cáñamo para su producción, además que al momento de cultivar el algodón desarrolla plagas y por lo cual se debe aplicar pesticidas para conservar el cultivo, además de afectar la salud de agricultores quienes pueden llegar a desarrollar cáncer por la exposición y contaminación del agua, en proceso de cultivo y teñido. La investigación parte desde la búsqueda de alternativas de materiales que tengan propiedades parecidas y puedan ser utilizadas para la producción de artículos similares a los elaborados con las fibras de algodón.



METODOLOGÍA

Se busco solución a procesos y/o productos que existen, para poder aplicar innovación y gestión alineada con los objetivos de desarrollo sostenible. En específico los establecidos por los factores del ecodiseño. Se realizo lluvia de ideas hasta establecer una alternativa a el material con el cuál se realizan millones de playeras alrededor del mundo que es el algodón mismo que genera aplicación excesiva de agua a sus cultivos. Por medio de la metodología que evalúa los factores del ecodiseño, establecida en la rueda de la sostenibilidad o rueda del ecodiseño se fueron siguiendo los ocho pasos para establecer el proceso de esta alternativa de innovación, considerando la gestión de residuos, disminución de energía y gestión final postconsumo.


CONCLUSIONES

El proceso de diseño considero la opción de material más sustentable comparado con el algodón que utiliza hasta cuatro veces más agua en el cultivo que el cañamo. Además, se busca considerar la implementación tecnologías de teñido y acabado que optimicen el uso de recursos, y gestión y aprovechamiento de residuos considerando el consumo de agua, energía y productos tóxicos. Esta propuesta de investigación por medio de la utilización de fibra de cáñamo se presenta como una alternativa más sostenible que puede alinearse con los objetivos de desarrollo sostenible firmados en 2015 de forma internacional, promoviendo el consumo responsable y producción limpia relacionados con los procesos de manufactura. Este proyecto no solo tiene un impacto ecológico, sino también social y tecnológico, ya que busca desarrollar procesos industriales más eficientes y sostenibles que los convencionales.
Negrete Barranco Constantino Javier, Instituto Tecnológico Superior de Huauchinango
Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla

NEUROSCIENCE AR


NEUROSCIENCE AR

Negrete Barranco Constantino Javier, Instituto Tecnológico Superior de Huauchinango. Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La sociedad vigente suele servirse de la tecnología como un importante artilugio que contribuye de manera positiva y significativa a la evolución humana. Si bien, dicho precedente magno posee infinidad de vertientes, nos concentraremos en su allanamiento con la orientación en la educación. Las escuelas son las pioneras que atañen el uso y demandan el desarrollo de dichas herramientas, tales como Google Classroom, Microsoft Teams, Prezi, Canvas, Zoom, por mencionar algunas.



METODOLOGÍA

Bajo el contexto previo se optó por el desarrollo de una app móvil, la cual mediante realidad aumentada (AR). Una mezcla homogenizada entre una realidad y una realidad virtualizada, por consiguiente, podrá causar una eficiencia prominente en la adquisición de conocimiento con respecto al tiempo dedicado. En concreto se laboró sobre el motor gráfico de Unity, al unisonó con ARFoundation, un marco de trabajo derivado de Unity que facilita consigo el la implementación y desarrollo de realidad aumentada precisando de las tecnologías de ARCore para Android y ARKit para IOS. Acorde a lo previo se debatió el sector sobre el cual se llevaría a cabo el aporte, después de una breve dialéctica, se pudo definir el tema en cuestión, la neurociencia, la cual es encargada de dar seguimiento a la actividad neural aunado a su comprensión, por supuesto que se llevó a cabo una exuberante investigación para tener una noción excelsa. En su conato, también se definieron los módulos que compondrían a dicha app, se acordó que hubiera minijuegos que contribuyan al objetivo, un quiz y memorama en concreto, así como un módulo de consejos que sirvan para mejorar el cerebro en general, por ultimo y no menos importante habría el módulo con realidad aumentada que mostraría un modelo del cerebro, dicho modelo sería capaz de segregar visualmente sus lóbulos, así como una breve explicación haciendo realce en su importancia. Cabe resaltar que se llevó un control de versiones durante el desarrollo, con el fin de llevar un registro puntual y así evitar problemas, consumando pronto el designio.


CONCLUSIONES

En el transcurso de la estancia hubo crecimiento intelectual benéfico acerca de la neurociencia y partes magnas que la componen como sus hemisferios, lóbulos, etc. También se obtuvieron conocimientos en cuanto al desarrollo o creación de realidad aumentada y un refuerzo de habilidades blandas, una incesante diciplina por llegar al objetivo, anexo que sin duda alguna fue un vasto reto, llena de experiencia fructífera.
Negrete Cárdenas Jorge, Universidad de Guadalajara
Asesor: Dra. Miroslava Cano Lara, Instituto Tecnológico Superior de Irapuato

ESTUDIO DE POSTURA EN CICLISMO MEDIANTE VISIóN COMPUTACIONAL


ESTUDIO DE POSTURA EN CICLISMO MEDIANTE VISIóN COMPUTACIONAL

Castro López Angel Gustavo, Instituto Tecnológico Superior de Irapuato. Gutierrez Lopez Jose Alberto, Universidad de Guadalajara. Llamas Ramírez Marco Eduardo, Universidad de Guadalajara. Negrete Cárdenas Jorge, Universidad de Guadalajara. Asesor: Dra. Miroslava Cano Lara, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Estudios previos del rendimiento físico en ciclistas deportistas de alto rendimiento evalúan la postura del atleta mientras realiza el movimiento en la bicicleta, a su vez, multiples estudios abordan la evaluación de la actividad muscular y cardiaca del ciclista en búsqueda de optimizar el rendimiento del ciclista. Sin embargo, tras la incursion de tecnologías de vision computacional es posible analizar la postura en tiempo real extrayendo el mapeo de los puntos claves del cuerpo obteniéndose la inclinación y ángulos de ataque a lo largo de las etapas de reposo, ciclo normal y ciclo de ataque.



METODOLOGÍA

Se seleccionó a uno de los integrantes como ciclista sujeto al estudio, empleando el entorno de Python 3 se diseñaron 2 programas mediante los cuales se tomaría un video de entrada para extraer la malla corporal proporcionada por la librería MediaPipe, los nodos extraídos son tomados para el calculo de los ángulos de flexion en rodillas, espalda y brazos para su exportación en un formato CSV. a su vez, se analizó la actividad EMG, ECG, EEG empleando la diadema Emotiv Epoc + en el programa Emotiv. Se formó una base de datos de 30 videos en los cuales el ciclista ejecuta las 3 posturas en periodos de 10 segundos en tomas de 30 segundos, se analizaron los datos obtenidos entre los entre los diferentes momentos identificándose las relaciones entre la postura del ciclista y la actividad fisiológica y biomecánica.


CONCLUSIONES

En conclusión, este estudio reveló que la postura del ciclista cambia significativamente en relación con la fase de pedaleo y la velocidad. Se observó un aumento en el ritmo cardíaco y la contracción muscular a medida que el ciclista aumentaba su velocidad, lo que sugiere una mayor demanda fisiológica. Además, se encontró que los ángulos de las articulaciones siguen secuencias similares, aunque con pequeñas variaciones, lo que indica una patrón de movimiento consistente. La tendencia del ciclista a encorvarse más a medida que aumenta la velocidad sugiere una adaptación para reducir la resistencia aerodinámica. Los hallazgos en el EEG sugieren un aumento de la actividad eléctrica en los lóbulos frontal y occipital, probablemente relacionado con la función motora y la coordinación del movimiento. Estos resultados proporcionan una comprensión más profunda de las adaptaciones fisiológicas y biomecánicas que ocurren durante el ciclismo y pueden ser útiles para optimizar el rendimiento y prevenir lesiones.
Nestor Alatorre Lenin, Universidad Autónoma de Guerrero
Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla

MODELADO, NAVEGACIóN E INTERACCIóN DE ARQUITECTURAS EN EL METAVERSO CON GAFAS VR Y RECONSTRUCCIóN DIGITAL FOTOGRAMETRICA DE OBJETOS Y FACHADAS ARQUITECTóNICAS USANDO DRONES.


MODELADO, NAVEGACIóN E INTERACCIóN DE ARQUITECTURAS EN EL METAVERSO CON GAFAS VR Y RECONSTRUCCIóN DIGITAL FOTOGRAMETRICA DE OBJETOS Y FACHADAS ARQUITECTóNICAS USANDO DRONES.

Nestor Alatorre Lenin, Universidad Autónoma de Guerrero. Tolentino Tapia Fernando, Universidad Autónoma de Guerrero. Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, es indispensable adaptarse a las tendencias tecnológicas en el campo de la Construcción y Diseño para lograr proyectos financiera y ecológicamente beneficiosos para los socios y futuros clientes de estos. Las nuevas herramientas digitales nos han facilitado el desarrollo de proyectos verdaderamente innovadores y eficientes dentro del ámbito de la Arquitectura, sin embargo, es importante que nosotros entendamos que el simplificar la explicación y facilitar su comprensión de estos para los clientes termina siendo un factor determinante para que puedan involucrarse de manera personal con nuestro trabajo y así crear relaciones laborales beneficiosas a largo plazo. Entonces, para lograr esto, existe una limitante, o problemática, principal, la cual radica en los costos de implementar estrategias que creen una experiencia inmersiva para el cliente y que lo relacione con el proyecto, pues esto afectaría fuertemente a la viabilidad financiera del proyecto, ocasionando que sea poco redituable para los involucrados en éste.



METODOLOGÍA

Para las actividades del primer proyecto, el equipo de trabajo revisó y analizó, principalmente, tres diferentes alternativas para la representación y proyección de modelos arquitectónicos, o convencionales, en tercera dimensión, los cuales debían contar con la posibilidad de transferirse y manipularse a un entorno de realidad virtual, todo esto a través de las Gafas de Realidad Virtual Meta Quest 2, siendo los siguientes programas/aplicaciones, los que fueron empleados para la realización del proyecto: Sketchup, Arkio y Enscape. La primera semana consistió en actividades de familiarización con el entorno virtual de los dispositivos de Realidad Virtual y las interfaces de los programas anteriormente mencionados. La segunda semana, consistió en la realización de tutoriales que explicasen: cómo desarrollar recorridos virtuales a través de las funciones particulares de cada programa; cómo realizar la instalación de cada uno de los programas, o extensiones en la computadora; cómo exportar e importar archivos dentro de sus interfaces; cómo realizar la interconexión entre la computadora y las gafas de realidad virtual; entre otras. Puntos los cuales se encuentran recopilados en documentos detallados realizados por los participantes de la estancia, al igual que imágenes y videos explicativos que se encargan de complementar la información que se encuentra dentro de los tutoriales. Para el segundo proyecto desarrollado en el verano, en la tercera semana de la estancia, nuestro asesor nos facilitó una corta capacitación acerca del programa de reconstrucción digital a base de fotogrametría, denominado 3DF Zephyr, en donde nos orientó y explicó el manejo de las funciones de dicho programa mediante un ejemplo de la reconstrucción de un Pináculo a partir de un escaneo completo, a base de fotografías digitales tomadas desde un teléfono celular, con el que se pudo realizar un modelo en tercera dimensión, en formato .obj, de éste al finalizar dicho procedimiento. Con esto, durante las siguientes semanas, se nos asignó realizar 3 actividades derivadas de este segundo proyecto, las cuales fueron: De manera individual: cada participante realizará su propio modelo a partir de cualquier objeto que deseen procesar en el programa, haciendo hincapié en que debe detallado y de textura poco convencional. En parejas: escanear y representar en un modelo 3D una Fachada de tipo Colonial existente dentro del Centro Histórico de la Ciudad de Puebla. De manera grupal: realizar el escaneo del edificio coloquialmente denominado como La Monjita (un paraboloide hiperbólico doble) utilizando drones. De esta manera, cada una de las actividades mencionadas fueron desarrolladas y concluidas satisfactoriamente gracias al empleo del programa ya antes mencionado (3DF Zephyr), además de ser avaladas por el asesor de la estancia, posteriormente.


CONCLUSIONES

Durante esta estancia de verano de investigación, se lograron los objetivos principales que se plantearon al comienzo de la explicación del plan de trabajo. Los cuales fueron: Contar con la capacidad para realizar y explicar la elaboración de recorridos virtuales, interactivos e inmersivos mediante los programas seleccionados e indicados por parte de nuestro asesor, junto con gafas de Realidad Virtual. Entender y realizar proyectos de fotogrametría correctamente mediante el programa de procesamiento y modelado 3DF Zephyr, a través de los trabajos asignados por el Asesor: Escaneo y procesamiento de un elemento libre (Individual); y escaneo y procesamiento una Fachada Colonial de la ciudad de Puebla (en parejas). Ser capaces de manejar libremente un Dron de vuelo, de buena correcta y segura. Ser capaces de manipular la aplicación requerida para el Dron de vuelo y realizar un escaneo minucioso de los detalles generales de un edificio existente en las Instalaciones de la Facultad de Arquitectura. 
Nevárez Valdés Karla Yvonne, Universidad Autónoma de Coahuila
Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales

ANáLISIS DE CICLO DE VIDA EN PROCESOS AGROINDUSTRIALES: REVISIóN SISTEMáTICA DE LITERATURA.


ANáLISIS DE CICLO DE VIDA EN PROCESOS AGROINDUSTRIALES: REVISIóN SISTEMáTICA DE LITERATURA.

Nevárez Valdés Karla Yvonne, Universidad Autónoma de Coahuila. Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

La agricultura es una parte esencial de la economía actual, según Crovella et al. (2024), el 60% de los alimentos producidos a nivel mundial proviene de cultivos. Sin embargo, esta actividad supone importantes problemas para el medio ambiente, como deforestación, consumo masivo de agua y emisión de gases de efecto invernadero. Según la FAO (2022), la expansión de tierras de cultivo es responsable de casi el 50% de la deforestación a nivel global; la agricultura consume más del 70% de los recursos hídricos mundiales; y las emisiones de gases de efecto invernadero (GEI) producidas por sistemas agroalimentarios crecieron un 10% entre 2000 y 2021. Estas emisiones de GEI son las principales causantes del calentamiento global actual (IPCC 2023). Es por esto que es necesario usar herramientas que midan los impactos ambientales de actividades como la agricultura. Una de estas herramientas es el análisis de ciclo de vida, según la ISO 14040 (2006), es un método que evalúa todas las etapas del ciclo de vida de un producto, incluyendo la extracción de las materias primas, procesamiento, transporte, uso y etapa de fin de vida, todo esto usando una variedad de indicadores ambientales. Debido a la importancia de los análisis de ciclo de vida en la priorización de soluciones ambientales en procesos agroindustriales, se vuelve relevante conocer cuál es el panorama actual y los principales hallazgos de las investigaciones en estas temáticas, particularmente en Colombia y Latinoamérica estos estudios son necesarios en cultivos tradicionales y de exportación como el café, cacao y cítricos.



METODOLOGÍA

El objetivo general de esta investigación fue realizar una revisión sistemática de literatura del análisis de ciclo de vida en procesos agroindustriales. Los objetivos específicos fueron: 1. Recopilar y seleccionar artículos científicos relacionados con el análisis de ciclo de vida en procesos agroindustriales. 2. Identificar los aportes y principales conclusiones de los artículos científicos en relación con el análisis de ciclo de vida en procesos agroindustriales. 3. Identificar las aplicaciones de software para el análisis de ciclo de vida. Para lograr estos objetivos, las etapas metodológicas fueron las siguientes: 1. Inducción en manejo de bases de datos y ecuaciones de búsqueda en la biblioteca de la Universidad Autónoma de Manizales. 2. Preselección de 50 artículos en Science Direct, en idioma Inglés y publicados en los últimos cinco años (2019-2024), usando las siguientes ecuaciones de búsqueda: LCA AND: agroindustry, crops, agrobusiness, agriculture. 3. Recopilación del título, autor, país, año de publicación, revista, palabras clave, resumen, objetivo y cita bibliográfica de cada artículo. 4. Selección final de 20 artículos, basándose en la relevancia con el tema y con el tipo de cultivos. 5. Revisión de los artículos seleccionados para encontrar principales hallazgos y conclusiones de los autores.


CONCLUSIONES

Los estudios relacionados con el análisis de ciclo de vida (ACV) en procesos agroindustriales incluían revisiones sistemáticas de literatura, nuevas metodologías y frameworks para ampliar el alcance del análisis, casos de estudio en cultivos específicos, y estudios comparativos para encontrar alternativas de reducción del impacto ambiental de los procesos. Entre las temáticas novedosas de los artículos revisados está la asignación, que se refiere a cómo se reparten los impactos ambientales entre diferentes coproductos del proceso, y se llegó a la conclusión de que los estudios suelen no seguir las normas de la ISO 14044 a la hora de asignar impactos, y que es recomendado llevar a cabo la elección del método de asignación teniendo en cuenta la meta y el alcance del ACV. En cultivos de café predominan los estudios que comparan los impactos ambientales de la producción con distintas fuentes de energía o distintos tipos de procesamiento. También se identificó que es común no evaluar todo el ciclo de vida y emplear un enfoque de la cuna a la puerta, que no toma en cuenta las fases downstream del proceso. En los estudios de cacao, el tema más mencionado entre la literatura es la comparación entre sistemas convencionales y orgánicos. Se llegó a la conclusión de que generalmente los cultivos de manejo orgánico tienen mejores resultados en casi todas las categorías de impacto ambiental, pero se suelen dejar de lado ya que los cultivos convencionales son más viables económicamente y demandan menos tierra para producir la misma cantidad de cacao. En el caso de los cítricos, la mayoría de los estudios se llevan a cabo en Europa, específicamente en Italia y en España, pero se resalta la importancia realizar más estudios en otras regiones, porque es necesario contar con datos que reflejen con exactitud las condiciones locales, dado que los resultados varían en función de factores como el clima y el tipo de suelo. En cuanto al software para el ACV, el más mencionado fue SimaPro. No obstante, es necesario indicar que la mayoría de los artículos fueron  revisiones de literatura o en nuevas metodologías basadas en el análisis de ciclo de vida, que no mencionaban el software empleado. Se recomienda llevar a cabo más estudios que tomen en cuenta todo el ciclo de vida de los productos o que usen un enfoque de la cuna a la tumba o de la cuna a la cuna, ya que se encontró la tendencia de no incluir a la distribución, consumo y disposición final del producto en los límites del sistema, y solo enfocarse en las etapas tempranas. Es necesario realizar más estudios de ACV en Colombia y otros países de Latinoamérica, por su vocación agrícola y exportadora productos agroindustriales, dado a que este tipo de análisis podría ayudar a encontrar y priorizar prácticas más sostenibles para reducir los impactos ambientales de las actividades productivas en esta región.
Nieto Gonzalez Sugeidy, Universidad Nacional Abierta y a Distancia
Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato

GESTIóN DE PROYECTOS CON INTELIGENCIA EMPRESARIAL


GESTIóN DE PROYECTOS CON INTELIGENCIA EMPRESARIAL

Martinez Santiago Jaime, Instituto Tecnológico de Matamoros. Maya Villamizar Jhonier Alexis, Universidad de Investigación y Desarrollo. Nieto Gonzalez Sugeidy, Universidad Nacional Abierta y a Distancia. Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La inteligencia empresarial (BI) es fundamental se ha convertido en una necesidad para las organizaciones, es claro que algunas herramientas del office como Excel o en su defecto las hojas de cálculo como google sheets son excelente para la organización de datos, pero herramientas empresariales en este caso como tableau permite transformar los datos en información significativa para la toma de decisiones estratégicas. Teniendo en cuenta esto Tableau es una herramienta que surgió en la necesidad de una interfaz sencilla, amigable, practica, clara detallada, que permite una visualización y análisis de datos de manera intuitiva y efectiva. Tableau no solo permite a las empresas crear visualizaciones dinámicas e interactivas, sino que también potencia la capacidad de los equipos para explorar patrones, descubrir insights y tomar decisiones informadas, impulsando así la eficiencia operativa y la competitividad en el mercado. La inteligencia empresarial muestra datos estos pueden ser actuales o datos antiguos con el único fin que las organizaciones tomes decisiones. Las empresas pueden elegir la herramienta que consideren que va ser útil a su negocio, todas las herramientas son excelentes y prácticas, pero cada una de ellas nos ofrece una infinidad de oportunidades y de soluciones que será más efectiva para una u otra empresa, las empresas pueden aprovechar BI para proporcionar puntos de referencia de rendimiento y de la competencia para que la organización funcione de manera más fluida y eficiente



METODOLOGÍA

Para el desarrollo del informe, se recopilará la siguiente información: Recepción de la Solicitud de Servicios de Divulgación, Análisis de Requerimientos y Objetivos del Cliente, Elaboración de Propuesta y Presupuesto, Aprobación de Propuesta por el Cliente, Planificación del Proyecto de Divulgación, Investigación y Desarrollo del Contenido Científico, Revisión y Validación del Contenido por Expertos, Producción de Material Divulgativo, Edición y Diseño del Material, Distribución del Material, Evaluación de Impacto y Retroalimentación del Cliente, Entrega Final del Proyecto de Divulgación, Cierre del Proyecto y Evaluación Interna. La metodología se inicia con la recopilación de los datos mediante una tabla de Excel. Luego, se usa la herramienta Tableau donde se insertan los datos que aparecen en una hoja llamada "base de datos" y se unen las tablas. En la hoja 1, se filtra la información necesaria, generando diagramas e informes. Posteriormente, se evalúan los datos realizados por Tableau.


CONCLUSIONES

Al realizar la búsqueda de herramientas empresariales y observar muchas que son muy eficientes se tomó la decisión de usar tableau como herramienta de prueba en el procesamiento y análisis de datos sobre divulgación tecnológica observado que es una herramienta de fácil uso, que cuenta con una página que ofrece tutoriales para el manejo de la misma Tableau tiene diferentes formas de usar en línea, Tableau Public en su versión gratuita que se puede descargar, es una gran herramienta que nos ofrece la inteligencia artificial es intuitiva, de fácil acceso, uso, rápida visualización esta herramienta tiene la ventaja que nos muestra datos, que necesitemos El uso de Tableau en el proceso de servicios profesionales de divulgación científica mejoró significativamente la gestión del proyecto y la evaluación del impacto. La herramienta facilitó una mejor comprensión de los datos, de manera ordenada esto con el fin de que cualquier organización pueda tomar decisiones informadas y ajustarse a las necesidades del cliente de manera más efectiva.
Niño Rueda Marisol, Universidad de Investigación y Desarrollo
Asesor: Dra. Cristina Arely de Leon Condes, Tecnológico de Estudios Superiores de Tianguistenco

DISEñO DE PLAYERA DE CáñAMO CON PROPIEDADES ANTIBACTERIANAS Y ANTI RAYOS UV.


DISEñO DE PLAYERA DE CáñAMO CON PROPIEDADES ANTIBACTERIANAS Y ANTI RAYOS UV.

Archila Sanchez Adriana Yulieth, Universidad de Investigación y Desarrollo. Navas Miranda Abelang, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Niño Rueda Marisol, Universidad de Investigación y Desarrollo. Asesor: Dra. Cristina Arely de Leon Condes, Tecnológico de Estudios Superiores de Tianguistenco



PLANTEAMIENTO DEL PROBLEMA

El algodón es el más utilizado a nivel mundial debido a sus características de suavidad. La producción de playeras realizadas con algodón tiene alta demanda de recursos hídricos. Se estima que el cultivo de algodón requiere aproximadamente cuatro veces más agua que el cáñamo para su producción, además que al momento de cultivar el algodón desarrolla plagas y por lo cual se debe aplicar pesticidas para conservar el cultivo, además de afectar la salud de agricultores quienes pueden llegar a desarrollar cáncer por la exposición y contaminación del agua, en proceso de cultivo y teñido. La investigación parte desde la búsqueda de alternativas de materiales que tengan propiedades parecidas y puedan ser utilizadas para la producción de artículos similares a los elaborados con las fibras de algodón.



METODOLOGÍA

Se busco solución a procesos y/o productos que existen, para poder aplicar innovación y gestión alineada con los objetivos de desarrollo sostenible. En específico los establecidos por los factores del ecodiseño. Se realizo lluvia de ideas hasta establecer una alternativa a el material con el cuál se realizan millones de playeras alrededor del mundo que es el algodón mismo que genera aplicación excesiva de agua a sus cultivos. Por medio de la metodología que evalúa los factores del ecodiseño, establecida en la rueda de la sostenibilidad o rueda del ecodiseño se fueron siguiendo los ocho pasos para establecer el proceso de esta alternativa de innovación, considerando la gestión de residuos, disminución de energía y gestión final postconsumo.


CONCLUSIONES

El proceso de diseño considero la opción de material más sustentable comparado con el algodón que utiliza hasta cuatro veces más agua en el cultivo que el cañamo. Además, se busca considerar la implementación tecnologías de teñido y acabado que optimicen el uso de recursos, y gestión y aprovechamiento de residuos considerando el consumo de agua, energía y productos tóxicos. Esta propuesta de investigación por medio de la utilización de fibra de cáñamo se presenta como una alternativa más sostenible que puede alinearse con los objetivos de desarrollo sostenible firmados en 2015 de forma internacional, promoviendo el consumo responsable y producción limpia relacionados con los procesos de manufactura. Este proyecto no solo tiene un impacto ecológico, sino también social y tecnológico, ya que busca desarrollar procesos industriales más eficientes y sostenibles que los convencionales.
Nolasco Garcia Victor Manuel, Universidad Autónoma de Baja California
Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)

DISEñO DE UN SISTEMA DE DISPERSIóN DE SEMILLAS DE HIERBAS AROMáTICAS


DISEñO DE UN SISTEMA DE DISPERSIóN DE SEMILLAS DE HIERBAS AROMáTICAS

Nolasco Garcia Victor Manuel, Universidad Autónoma de Baja California. Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La albahaca (Ocimum basilicum) es una hierba aromática valorada en México por sus propiedades medicinales, incluyendo efectos antiinflamatorios, antimicrobianos, antioxidantes y analgésicos. En la medicina tradicional mexicana, se utiliza para tratar problemas digestivos, dolores de cabeza y trastornos respiratorios. Los compuestos bioactivos, como eugenol, linalool y estragol, son objeto de estudios científicos por su potencial en el desarrollo de medicamentos. Sin embargo, hay desafíos en la producción de albahaca de alta calidad debido a la falta de acceso a conocimientos avanzados y capacitación técnica, problemas de plagas y condiciones climáticas adversas. Estos factores pueden afectar la calidad y consistencia de la producción, así como la efectividad de la planta en aplicaciones medicinales. La siembra de semillas de albahaca en charolas es una tarea fundamental en el desarrollo de experimentos agrícolas, ya que permite un control preciso del ambiente y facilita la gestión del cultivo en etapas tempranas. Sin embargo, este proceso manual puede ser laborioso y propenso a errores, afectando la uniformidad y el éxito del cultivo. Con el fin de optimizar esta actividad, se plantea la automatización de la siembra mediante un robot especializado. La implementación de este sistema automatizado no solo requiere del desarrollo del robot, sino también del diseño específico de una herramienta que permita la dispersión controlada y precisa de las semillas en cada caja de la charola, buscando mejorar la eficiencia y consistencia en la siembra y aumentando la precisión en los experimentos agrícolas.



METODOLOGÍA

Se utilizaron muestras de semillas de albahaca donadas por el Laboratorio del Centro de Investigaciones Biológicas del Noroeste, de esta manera se tomaron las medidas necesarias (2.1 mm x 1.6 mm x 1 mm) de las semillas para poder insertar las medidas a los diseños, luego se realizó una lluvia de ideas para llegar al objetivo de acuerdo a nuestras metas, una vez obtenida la idea se llevó a realizar bocetos con las medidas que se usarán, para esto se tomó en cuenta que se usará un motor de pasos Model:17HS4401, al cual también se le tomaron medidas, cuando el boceto fue obtenido se utilizó el programa Fusion 360 para modelar las 4 piezas de unión para el despachador de las semillas. Una vez que las piezas fueron modeladas con éxito, estas se llevaron a imprimir en 3D, para posteriormente limpiarlas, una vez limpiadas las piezas fueron ensambladas y pegadas, junto con el motor. Con ayuda del Arduino UNO, el motor fue programado para girar a 3000 micro segundos dando 1/16 de paso, logrando de esta manera el correcto funcionamiento del despachador de semillas, cuando el despachador funcione correctamente se llevó a montar a un robot automatizado que logra sembrar la albahaca de manera automática y eficaz. Los componentes que se usaron fueron: • Piezas impresas en 3D • Arduino Uno • Motor de pasos 17HS4401 • Microcontrolador DRIVER A4988


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos acerca de la albahaca, la importancia de su cultivo y cómo impacta en México, se logró poner en práctica, la automatización de cultivar las semillas con técnicas diseño para un despachador de semillas montado en un robot. De esta manera se espera el cultivo automatizado de semillas de albahaca para lograr el cultivo más rápido, eficaz y sostenible, haciendo que de esta manera la albahaca crezca de mejor calidad.
Noverola Cardenas Ingrid Sherlyn, Universidad Politécnica de Sinaloa
Asesor: Dra. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa

REPROGRAMACIóN DE MOTORES DYNAMIXEL Y REPARACIóN


REPROGRAMACIóN DE MOTORES DYNAMIXEL Y REPARACIóN

Estrada Manriquez José Ramón, Universidad Politécnica de Sinaloa. Noverola Cardenas Ingrid Sherlyn, Universidad Politécnica de Sinaloa. Asesor: Dra. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los servoactuadores AX-12 combinan un motor DC con un sistema de control y sensores, permitiendo un movimiento preciso de hasta 300 grados, ideales para aplicaciones robóticas y de automatización. Estos dispositivos utilizan un sistema de engranajes para convertir la rotación del motor en un movimiento controlado, ofreciendo alta precisión y fuerza. La programación de los servoactuadores AX-12 se realiza mediante el protocolo de comunicación TTL y lenguajes como C/C++ o Python, utilizando bibliotecas como DynamixelSDK. A través de la programación, se establecen comandos para controlar la posición, velocidad y par del servo, enviando y recibiendo paquetes de datos para obtener retroalimentación sobre su estado. La calibración inicial incluye la configuración de límites de posición, ajustes de torque y parámetros PID para optimizar la respuesta del servoactuador. Los ajustes finos, realizados en tiempo real, aseguran que el movimiento sea preciso y eficiente, adaptando los parámetros a las necesidades específicas de la aplicación. La resolución de problemas técnicos implica la capacidad de diagnosticar y solucionar problemas relacionados con la programación, comunicación y hardware del servoactuador. Esto incluye la corrección de errores de código, ajustes en los parámetros de control y reparaciones de hardware, garantizando así un funcionamiento óptimo del sistema.



METODOLOGÍA

En los primeros días se dio a conocer a los robots con los que se trabajan además de un resumen de las tareas a realizar, se estuvo investigando acerca de cómo funcionan, conocer la manera en que se mueven y conectan los robots Bioloid. De igual manera se instaló el programa de Bioloid para poder controlar el robot, dicho programa brindó mayor facilidad para controlar dichos robots. Asimismo al momento de intentar hacer funcionar los robots se encontraron fallas mecánicas y eléctricas, por esa razón antes de seguir entendiendo el programa y manejo primero se ocupó en hacer los ajustes correspondientes. Los arreglos realizados fueron primeramente la unión de una de las extremidades para reemplazar, el reemplazo de cables dañados que ocasionaron cortocircuito los cuales provocan notorias fallas. De igual manera fue necesario cambiar tornillos y partes dañadas que se encontraron. Una de las tareas más complicadas fue el cambio de motores ya que para ella se requirió desarmar en distintas ocasiones, y en algunos casos casi en su totalidad. Estas mejoras eran realizadas después de cada  prueba que se hacía para verificar que el robot funcionara a la perfección.   Paralelamente se inició la construcción de un robot Bioloid desde el inicio, esto para poseer a cuatro robots en funcionamiento. Esto requirió buscar y separar las piezas necesarias que se encontraban en almacenamiento, se tuvo que verificar el funcionamiento correcto de los motores existentes para su selección, posteriormente se tuvo que reprogramar cada uno de los motores, con el ID necesario así como situarlo en su punto inicial. Una vez de lograr lo anterior se continuó con el  armado de cada extremidad. lo que conllevo a verificar los cables de conexión que disponíamos dado que algunos están en malas condiciones lo que después provocan cortocircuitos. De la misma manera fue necesario separar los distintos tornillos, tuercas y empaques que se requieren.  


CONCLUSIONES

En conclusión, el uso de servoactuadores en el contexto de este proyecto de robótica ha demostrado ser tanto estimulante como desafiante. A lo largo de su implementación, se ha destacado la necesidad de realizar reparaciones periódicas en algunos de estos actuadores debido al desgaste natural derivado de su uso continuado. Estas experiencias han proporcionado valiosas lecciones sobre el mantenimiento y la durabilidad de los componentes, subrayando la importancia de un enfoque proactivo en la gestión de hardware en entornos robóticos.
Nuñez Chavarro Sebastian, Institución Universitaria Antonio José Camacho
Asesor: M.C. Viridiana Humarán Sarmiento, Instituto Tecnológico Superior de Guasave

DISEñO DE LA CADENA DE SUMINISTRO VERDE DE POLVO DESCARTADO DE LA TECNOLOGíA POWDER BED FUSION (PBF) Y SU USO COMO INSUMO PARA RECUBRIMIENTOS POR DIRECT ENERGY DEPOSITION (DED)


DISEñO DE LA CADENA DE SUMINISTRO VERDE DE POLVO DESCARTADO DE LA TECNOLOGíA POWDER BED FUSION (PBF) Y SU USO COMO INSUMO PARA RECUBRIMIENTOS POR DIRECT ENERGY DEPOSITION (DED)

Nuñez Chavarro Sebastian, Institución Universitaria Antonio José Camacho. Asesor: M.C. Viridiana Humarán Sarmiento, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

La Manufactura Aditiva a diferencia de la Sustractiva, ha permitido de entrada reducir los desperdicios y el inventario en stock, debido a que esta tecnología incorpora la materia prima a procesar en función de la necesidad de lo que se desea construir, disminuyendo los costos que genera el tener materia prima almacenada (Maldonado, 2023). Dentro de estos procesos, se encuentran una serie de técnicas tipificadas en siete (7) familias encargadas de procesar diferentes materiales bajo parámetros, requerimientos y objetivos acorde a lo que se desea realizar. De acuerdo con lo anterior, el presente estudio se enfoca en dos (2) de las familias que pertenecen a la tecnología de Manufactura Aditiva, como lo son Fusión en Lecho de Polvo (Powder Bed Fusion - PBF) a través del método de Laser Powder Bed Fusion, y Deposición de Energía Dirigida (Direct Energy Deposition - DED) por medio del método de Laser Cladding. En este sentido, dentro del proceso de fabricación aditiva por Fusión en Lecho de Polvo (PBF por sus siglas en inglés) se ha identificado que al finalizar la elaboración de una pieza, quedan dos (2) tipos de remanente, de los cuales uno (1) es reutilizado para ser procesado nuevamente como insumo para la generación de una nueva pieza, mientras que el otro se reconoce por ser un polvo descartado que se cataloga como desperdicio debido a que se encuentra fuera de especificaciones y no puede volver a ser reutilizado en la técnica de Fusión en Lecho de Polvo. Este polvo descartado impacta de manera negativa desde un punto de vista sostenible, debido a que el no aprovechamiento de este remanente puede ocasionar un aumento en los costos de fabricación como respuesta a la necesidad de adquirir más polvo virgen adecuado para el proceso, asimismo, constituye un incremento en la producción de residuos industriales que impactan al medio ambiente, así como la generación de huella de carbono asociada a la creación de un nuevo polvo metálico. Estas consecuencias causan una serie de efectos relacionados con la economía empresarial sostenible y responsable, debido a que demanda mayores costos de gestión y eliminación de los residuos industriales, una reducción de la competitividad empresarial por motivo de aumentos en los costos operativos, la existencia de un desaprovechamiento de material potencialmente valioso, y finalmente, pérdida de oportunidades asociadas a la innovación verde que se nutran de los Objetivos de Desarrollo Sostenible (ODS).



METODOLOGÍA

Se ha enmarcado en una investigación aplicada debido a que con el presente estudio se busca dar solución a un problema práctico relacionado con el desperdicio del polvo metálico descartado de la técnica PBF, permitiendo generar conocimientos con aplicación directa hacia tecnologías de la Manufactura Aditiva. Castro et al. (2023), indican que este tipo de investigación se enfoca en la obtención de nuevos conocimientos, pero que están dirigidos a la solución de problemas identificados de un contexto en específico (p. 151). Asimismo, se asignó un enfoque cualitativo y cuantitativo (mixto) ya que, por un lado, se cataloga como un estudio cuantitativo como respuesta a que en la investigación se debe realizar mediciones y análisis de las propiedades del polvo metálico descartado PBF, así como del polvo virgen a utilizar con la técnica DED para identificar compatibilidades y realizar adecuaciones (si aplica) para su reutilización. En este sentido, se reconoce que un estudio cuantitativo se enfoca principalmente en la observación y cuantificación de los fenómenos estudiados a fin de realizar pruebas de validación estableciendo patrones de comportamiento (Polania et al., 2020).  Para los instrumentos de recolección de información, se implementaron los siguientes: Recopilación documental A través de este instrumento se realizó un análisis documental o bibliográfico, encaminado a identificar estudios similares en técnicas de fabricación aditiva relacionadas con Powder Bed Fusion (PBF) y Direct Energy Deposition (DED), con fines referenciales para emplear los procesos de pruebas que coadyuben a la viabilidad de la recuperación y reutilización del polvo metálico descartado PBF y su aprovechamiento para recubrimientos DED. Laser Powder Bed Fusion Esta herramienta se utiliza en el proceso de fabricación aditiva por la técnica de Fusión en Lecho de Polvo. Se reconoce que, al finalizar el proceso, quedan dos remanentes en polvo, uno que se reutiliza para la manufactura de una nueva pieza, y otro denominado descartado, el cual se sometió a un estudio para viabilizar su aplicación para recubrimientos DED. Siendo este último, el enfoque directo del presente estudio. Laser Metal Deposition - Laser Cladding La deposición de metal por láser se planteó como el instrumento requerido para realizar los recubrimientos en materiales, haciendo uso del polvo metálico descartado PBF previa validación y adecuación (si aplica) para ser procesado en la técnica de Direct Energy Deposition.


CONCLUSIONES

Durante la estancia del verano se logró adquirir conocimiento teóricos y epistemológicos relacionados con la manufactura aditiva, lo que permitió comprender las familias que la conforman y la importancia que esta tecnología tiene en las industrias actuales, así como el impacto que genera en el ecosistema ambiental. El estado del arte permitió conocer diferentes investigaciones en las cuales se identifica la viabilidad de la reutilización del polvo virgen en procesos de Deposición de Energía Dirigida y Fusión Láser en Lecho de Polvo. Se logró construir los diagramas operacionales de proceso para las técnicas PBF y DED, permitiendo comprender las etapas críticas que dan paso al polvo descartado.  En lo que respecta a la cadena de valor, se logró construir una propuesta donde se relacionan los eslabones de Producción, Transporte, Manufactura y Post-proceso, tipificando el análisis comparativo entre el polvo virgen y el polvo descartado.
Nuñez López Gerardo, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Cielo Ester Marriaga Gonzalez, Universidad del Sinú

ANáLISIS DE LA ADOPCIóN DE LA BLOCKCHAIN EN LABORATORIOS UNIVERSITARIOS: MEJORA DE LA CALIDAD DE AGUA Y BROMATOLOGíA EN LA CADENA DE SUMINISTRO ALIMENTARIO Y SU IMPACTO EN LOS OBJETIVOS DE DESARROLLO SOSTENIBLES


ANáLISIS DE LA ADOPCIóN DE LA BLOCKCHAIN EN LABORATORIOS UNIVERSITARIOS: MEJORA DE LA CALIDAD DE AGUA Y BROMATOLOGíA EN LA CADENA DE SUMINISTRO ALIMENTARIO Y SU IMPACTO EN LOS OBJETIVOS DE DESARROLLO SOSTENIBLES

Centeno Marin Kevin Edgar, Instituto Tecnológico Superior de Ciudad Hidalgo. Loeza Calderón Raúl, Instituto Tecnológico de Morelia. López González Arahat Missael, Instituto Tecnológico Superior de Irapuato. Morales Mendoza Alejandra Meritxell, Instituto Tecnológico Superior de Ciudad Hidalgo. Nuñez López Gerardo, Instituto Tecnológico Superior de Irapuato. Ochoa Garcia Keila Lucia, Instituto Tecnológico de Piedras Negras. Vasquez Reyes Adanary Susel, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Cielo Ester Marriaga Gonzalez, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

En un mundo cada vez más globalizado y conectado, los consumidores demandan transparencia y seguridad en los procesos relacionados con la calidad de los productos alimenticios y del agua. En este contexto, los laboratorios que realizan análisis de estas muestras juegan un papel crucial, ya que sus procesos de recepción, análisis, y generación de resultados deben garantizar precisión, eficiencia y seguridad de la información. Sin embargo, en instituciones como la Universidad del Sinú Seccional - Cartagena, los procesos no están automatizados, lo que genera complejidades y desafíos significativos. Ante estas necesidades, se propone desarrollar un Aplicativo Web que funcionará como una plataforma digital soportada en la tecnología disruptiva Blockchain, asegurando la integridad de los datos sin alteraciones no consensuadas. El proyecto busca optimizar los procesos de los laboratorios de Bromatología y Calidad de Agua de la Universidad del Sinú Seccional Cartagena mediante un aplicativo web que utilice Blockchain para asegurar la calidad y trazabilidad de la información. Esto no solo mejorará la eficiencia operativa, sino que también contribuirá a los Objetivos de Desarrollo Sostenible (ODS), los cuales son los siguientes: Objetivo 2 (Hambre Cero): Gracias a los mejores sistemas de calidad mejorados mediante el aplicativo de la tecnología Blockchain se busca combatir ante esta problemática desde su causa raíz. Objetivo 3 (Salud y Bienestar): Al brindar nuevos sistemas mediante la implementación de la tecnología Blockchain, la calidad de los productos alimenticios incrementará, disminuyendo así los problemas relacionados a la salud. Objetivo 6 (Agua Limpia y Saneamiento): Al trabajar estrechamente con el Laboratorio de Bromatología y Calidad Ambiental, es la forma en que se combatirá a los distintos aspectos de vulnerabilidad con relación al agua y el saneamiento mediante la implementación de la tecnología Blockchain. Objetivo 7 (Energía Asequible y No Contaminante): Al hacer uso de la tecnología Blockchain se precisa en mejorar el uso sostenible de la energía sin generar desperdicios o contaminantes para el medio ambiente. Objetivo 9 (Industria, Innovación e Infraestructura): La tecnología Blockchain es una tecnología emergente, que propone nuevas ideas para hacer su uso en distintos ámbitos, creando así mejoras para distintos sectores de la sociedad. Objetivo 11 (Ciudades y Comunidades Sostenibles): La implementación de la tecnología Blockchain y en conjunto con nuevas tecnologías, servirá de partida para la transformación de las Ciudades en Ciudades Sostenibles.



METODOLOGÍA

Para el proceso de elaboración de este proyecto de investigación se determinaron 4 etapas en las cuales se desarrollarán distintas actividades con el fin de cumplir los objetivos y los resultados esperados. Las etapas son las siguientes: I. Revisión documental del estado de uso de tecnologías 4.0 (BlockChain) en laboratorios a nivel global: El punto consta de las siguientes fases: Como primera fase se estableció y delimitó el objetivo propuesto; en la segunda se delimitaron las bases de filtros para la selección de la información relevante para el artículo; en la tercera fase se definieron los descriptores de búsqueda como Google Académico, Scielo, entre otros; en la cuarta fase se delimitó el uso de gestores bibliográficos como Rayyan y Mendeley; finalmente se llevó a cabo la extracción de datos de interés para la elaboración del artículo. Las conclusiones obtenidas abordan la aplicación de la tecnología en diferentes países y su impacto en la trazabilidad de la cadena de suministro. II. Diseño de base de datos de hoja de vida de equipos (aplicativo para base de datos): Para la creación de una base de datos de las hojas de vida de los equipos, es esencial iniciar con una discusión detallada donde se definirán los requisitos específicos que deben cumplirse, asegurando que todos los aspectos y necesidades del proyecto sean considerados y abordados adecuadamente. Siguiente a esto, se procederá a la elaboración del diseño del esquema de la base de datos. Finalizado el diseño, se implementará la base de datos y se realizarán pruebas exhaustivas para verificar su correcto funcionamiento, incluyendo la inserción, actualización, eliminación y recuperación de datos III. Elaboración de procedimiento de almacenamiento de reactivos de acuerdo con SGA (Sistema Globalmente Armonizado): Es necesario realizar una revisión de las normativas del SGA para identificar las pautas de clasificación, etiquetado y manejo seguro de sustancias químicas. Basado en esta revisión, se debe llevar a cabo un control de inventario que clasifique los reactivos almacenados de acuerdo con el SGA, incluyendo secciones que contengan información sobre el uso y manejo seguro de estos reactivos. IV. Diseño de procedimientos, formatos e instructivos de trabajo bajo la norma 17025: Es necesario hacer una revisión con respecto de los requisitos específicos de la norma ISO/IEC 17025, que cubre la competencia técnica, la validez de los resultados y la gestión del laboratorio. Consecuentemente se debe determinar los procesos clave en el laboratorio que deben documentarse, como la realización de pruebas, calibración, mantenimiento de equipos y gestión de calidad.


CONCLUSIONES

Durante la estancia de verano se logró implementar dos nuevas herramientas para el control de inventario y la creación y manejo de las hojas de vida de los equipos para el Laboratorio de Bromatología y Calidad Ambiental, lo cual acredita a dichos laboratorios bajo la normativa 17025, beneficiando de esta forma con una mejora en la seguridad para el manejo de los reactivos dentro del inventario, así como también un control actualizable en tiempo real de los reactivos y de los equipos de los Laboratorios. De igual forma, se logró adquirir un amplio conocimiento gracias a las ponencias y capacitaciones que se llevaron a cabo durante este periodo, con lo cual se logra identificar la importancia y los usos que se le puede dar a la tecnología Blockchain, no solamente en las cadenas de suministro alimentarias, sino que hasta en un enfoque global, como lo es en las criptomonedas.
Nuñez Peralta Angela, Universidad de Sonora
Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional

OMPARACIóN ENTRE LA DINáMICA DE FERMENTACIóN PRIMARIA DE AGAVE Y SARGAZO A DIFERENTES TAMAñOS DE PARTíCULA (MICRO Y NANO) PARA OBTENCIóN DE ALCOHOL EN MEZCLA Y SU POSIBLE USO COMO ADITIVO EN MOTORES A GASOLINA.


OMPARACIóN ENTRE LA DINáMICA DE FERMENTACIóN PRIMARIA DE AGAVE Y SARGAZO A DIFERENTES TAMAñOS DE PARTíCULA (MICRO Y NANO) PARA OBTENCIóN DE ALCOHOL EN MEZCLA Y SU POSIBLE USO COMO ADITIVO EN MOTORES A GASOLINA.

Nuñez Peralta Angela, Universidad de Sonora. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La generación de biocombustibles puede ser una alternativa importante para disminuir las emisiones atmosféricas ya que los combustibles fósiles son insostenibles dado a su impacto ambiental. Generar bioetanol a partir de sargazo y agave puede ser la solución a dos problemas pues se reducen las emisiones a la atmosfera y se aprovechan residuos de agave y sargazo que pueden estar afectando a la economía del lugar. 



METODOLOGÍA

Alcohol de sargazo. Ya se contaba con alcohol de Sargazo, por lo que se inicia con la caracterización de dicho alcohol, se mide el nivel de alcohol que contiene el líquido, por otra parte, se toman muestras de sargazo de diferentes playas mexicanas para analizar sus características y composición por medio de espectroscopía electrónica de barrido. El alcohol de Sargazo fue enviado al centro de nanociencias para analizar su composición y octanaje por medio de HPLC acoplado a masas y resonancia magnética nuclear 1H y 13C. Con ese mismo alcohol de sargazo, se realizaron pruebas en el Dispositivo Ahorrador de Combustible (DAC) el dispositivo está acoplado al sistema mecánico de un automóvil Golf 2010 para utilizar el alcohol como aditivo y así ahorrar combustible, se depositaron 1.6 L del alcohol en el recipiente del DAC y se puso en marcha el automóvil tomando registro de kilometraje recorrido, combustible y aditivo gastado. Alcohol de agave. La segunda fase del procedimiento corresponde a la obtención de bioalcohol a partir de agave. Primero, se cortaron las pencas de agave en pedazos pequeños y se puso a secar a 180° C durante un periodo de tiempo de 30 a 60 minutos, una vez seco el material se trituró hasta lograr obtener un polvo fino de agave. Después se realizó la hidrólisis ácida, para esto, se tomaron 100 g del polvo de agave y se colocaron en un matraz bola de 2 Litros, por otro lado, se realizó una solución de 1 Litro al 50 % de ácido sulfúrico en agua. Para montar el sistema se necesita una placa de calentamiento, un baño de arena para colocar el matraz bola, un sistema con bomba para reflujo, soporte y pinzas. Una vez montado el sistema, se colocaron los 100 g de polvo de agave en el matraz junto con el litro de la solución de ácido sulfúrico en agua. Se inició el calentamiento y el reflujo, cuidando que la temperatura se mantuviera alrededor de los 100°C durante 4 horas. Una vez pasado el tiempo, se apagó el calentamiento, manteniendo el reflujo hasta que la temperatura bajara completamente para poder manipular la muestra. El producto obtenido de la hidrólisis fue lavado y neutralizado con ayuda de hidróxido de sodio para utilizarlo como mosto en la etapa de fermentación. Para esta etapa, se utilizó un reactor donde se agregó el mosto y el 10% (p/p) de levadura. El reactor se dejó en baño de arena por 1 semana aproximadamente, controlando la presión de vacío dentro del sistema y temperatura de 30°C, pues la fermentación primaria anaerobia se realiza de manera aislada. Una vez obtenido el alcohol de agave, se tomaron muestras para analizar composición y octanaje por medio de HPLC acoplado a masas, al igual para realizar Resonancia magnética nuclear 1H y 13C. Se debe probar el alcohol de agave obtenido en el DAC, se agrega 1.6 L de alcohol para que cumpla la función de aditivo, se reinicia el marcador del kilometraje del automóvil y se pone en marcha, se deben recopilar los datos de kilometraje recorrido, porcentaje de combustible ahorrado y volumen de alcohol utilizado como aditivo gastado. Alcohol en polvo. Con fines alimenticios y en biocombustibles, se trabajó con la realización de alcohol en polvo. Para cumplir con esto, el primer procedimiento realizado se utilizó Maltodextrina D-30, esta es un carbohidrato derivado del almidón a través de un proceso de hidrólisis parcial. DE de 30 significa que la maltodextrina tiene un nivel intermedio de hidrólisis, lo que implica que tiene una mezcla de polímeros de glucosa más cortos y largos. Se realizó una solución de 10 g de Maltodextrina con 90 g de Mezcal para crear una solución alcohólica que fue asperjada en un secador de lecho fluidizado, además se agregan 40 g de Maltodextrina D-30 en la cámara del secador, se inyecto un flujo de aire para encapsular el alcohol en la Maltodextrina y así obtenerlo en polvo. Se realiza una segunda prueba donde se colocó Maltodextrina D-30 en un triturador y se le agregó mezcal en formade hilo hasta que se obtuvo un polvo saturado de alcohol con las características organolépticas del mezcal. Se repite el proceso hasta obtener 1 Kg de alcohol en polvo.  Se prueban las características organolépticas al mezclar el alcohol en polvo con granos de café y solubilizarlo con agua caliente, se observan la capacidad de solubilización, olor, color y sabor del café resultante.


CONCLUSIONES

La composición principal del Sargazo es material orgánico como se esperaba, las imágenes corresponden a las estructuras comunes de Sargazo. No se obtuvo el resultado esperado durante la prueba en el DAC ya que no se presentó ahorro de combustible ni consumo de alcohol.  El alcohol de agave se encuentra en la etapa de fermentación. Realizar el alcohol en polvo en lecho fluidizado es mas tardado por el tamaño de la cámara de secado, por el flujo de aire se volatiliza mucho polvo, sin embargo, queda bien encapsulado el alcohol y no se aglomera al almacenar. Trabajar con bioalcohol presenta alternativas para reducir las emisiones atmosfericas. Al finalizar este proyecto se espera que el alcohol de agave funcione como aditivo y se pueda comercializar para representar un ahorro economico a las familias mexicanas y disminución en cueston de contaminación ambiental. El alcohol en polvo puede tener muchas aplicacines en diferentes areas, desde la alimenticia hasta la farmaceutica, facilitando el transporte del material.Durante esta estancia se adquirieron conocimientos teoricos-practicos del area de ingeniería ambiental, area que se seguirá explorando por conservar y mejorar las condiciones medioambientales.
Nuñez Rodriguez Roldan Everardo, Universidad Politécnica del Mar y la Sierra
Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra

DESARROLLO DE UN SISTEMA INFORMáTICO PARA ADMINISTRAR EL ACCESO E INVENTARIO DE UNA BIBLIOTECA UTILIZANDO SENSORES


DESARROLLO DE UN SISTEMA INFORMáTICO PARA ADMINISTRAR EL ACCESO E INVENTARIO DE UNA BIBLIOTECA UTILIZANDO SENSORES

Arellano Gutierrez German, Universidad Politécnica del Mar y la Sierra. Nuñez Rodriguez Roldan Everardo, Universidad Politécnica del Mar y la Sierra. Ochoa López Carlos Manuel, Universidad Politécnica del Mar y la Sierra. Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

La universidad Politécnica del Mar y la Sierra es una institución ubicada en el centro sur del estado de Sinaloa, en el municipio de Elota. Desde el año 2012 ofrece programas de licenciaturas e ingenierías a jóvenes de los municipios de Cosala, Elota y San Ignacio. Actualmente la institución cuenta con un Centro de Información Digital el cual se compone de una biblioteca y un centro de cómputo, diseñado para la búsqueda de información por parte de los estudiantes. Desafortunadamente dicho edificio no cuenta con un proceso o sistema para el registro, préstamo y administración de material bibliográfico, solo se reduce a permitir la entrada de estudiantes y personal docente para realizar la búsqueda de información sin poder solicitar un libro. Aunado a esto, el edificio también carece de una persona que se encargue de atender a tiempo completo la entrada de estudiantes, por lo tanto, si se desea entrar es necesario primero solicitar el acceso a la encargada de activo fijo para que así se registre la entrada o salida.  Considerando lo anterior, surge la necesidad apremiante de diseñar un proceso capaz de administrar el inventario bibliográfico que la universidad posee, dando la posibilidad de realizar prestamos de libros y material a estudiantes, docentes y/o administrativos; Llevando de manera ordenada y sistemática una base de datos que asegure el conocimiento concreto de donde se encuentra el material. Aunado a lo anterior, al no contar con una persona que se encargue de vigilar las entradas o salidas a tiempo completo, surge la necesidad de implementar un sistema que pueda registrar esto mediante el uso de una credencial con sensores para guardar de manera automática quien entra o sale del reciento. 



METODOLOGÍA

En el proceso de desarrollo del sistema, se emplea la metodología basada en prototipos, la cual consta de seis fases que posibilitan la generación de versiones preliminares del software y la obtención de comentarios del usuario final de forma iterativa. A través de este enfoque, se fomenta la participación del usuario final y garantiza que el sistema informático satisfaga sus requisitos y expectativas.  1. Requisitos de desarrollo: Se realiza un análisis para poder establecer cuáles son los requisitos que debe cubrir el sistema informatico.  2. Modelaje y desarrollo del código: En esta fase se construye el prototipo inicial según los requisitos establecidos.  3. Evaluación: Una vez desarrollado el prototipo es necesario comprobar su funcionamiento, evaluando su funcionalidad y verificando que cumple realmente con los requisitos iniciales.  4. Modificación: Tras evaluar el prototipo se deben corregir los errores encontrados y aplicar las mejoras necesarias para que esté listo para ser probado por los usuarios.  5. Documentación: Todo el diseño y desarrollo debe ser documentado para disponer de información precisa y clara del proceso.  6. Pruebas: El prototipo debe ser probado por los usuarios para poder recibir el feedback necesario y así evaluar su utilidad y rendimiento.


CONCLUSIONES

La investigación, diseño y desarrollo del sistema informático de administración para la biblioteca de la Universidad Politécnica del Mar y la Sierra, basado en la tecnología NFC, busca demostrar ser una solución eficaz y moderna para gestionar las entradas y salidas de estudiantes, docentes y administrativos. La implementación de sensores NFC permitirá automatizar y agilizar el proceso de registro, reduciendo significativamente los tiempos de espera y los errores humanos. El sistema no solo busca mejorar la eficiencia operativa de la biblioteca, sino que también proporcionará una experiencia más fluida y segura para los usuarios. Además, la integración de esta tecnología sin duda podrá ofrecer un registro preciso y en tiempo real de las actividades, facilitando la supervisión y el análisis de los patrones de uso. En conclusión, el sistema propuesto no solo busca cumplir con los requisitos iniciales, sino que también tratará de establecer un precedente para la adopción de tecnologías avanzadas en el ámbito académico, promoviendo un entorno de aprendizaje más innovador y accesible. Ademas buscara ser una plataforma escalable que pueda implementarse en otros edificios de la institución el registro de visitas a eventos y actividades academicas.
Nuñez Segura Violeta Isabel, Instituto Tecnológico de Ciudad Juárez
Asesor: Mg. Nelson Mora Calderon, Fundación Universitaria Empresarial

PRINCIPIOS CLAVE DE LOS SISTEMAS DE GESTIÓN DE LA CALIDAD, SU IMPORTANCIA EN LA INDUSTRIA AUTOMOTRIZ ACTUAL, Y CÓMO PUEDEN BENEFICIAR A LAS ORGANIZACIONES QUE BUSCAN ALCANZAR Y MANTENER ALTOS ESTÁNDARES DE CALIDAD Y RENDIMIENTO.


PRINCIPIOS CLAVE DE LOS SISTEMAS DE GESTIÓN DE LA CALIDAD, SU IMPORTANCIA EN LA INDUSTRIA AUTOMOTRIZ ACTUAL, Y CÓMO PUEDEN BENEFICIAR A LAS ORGANIZACIONES QUE BUSCAN ALCANZAR Y MANTENER ALTOS ESTÁNDARES DE CALIDAD Y RENDIMIENTO.

Nuñez Segura Violeta Isabel, Instituto Tecnológico de Ciudad Juárez. Asesor: Mg. Nelson Mora Calderon, Fundación Universitaria Empresarial



PLANTEAMIENTO DEL PROBLEMA

VALEO Service México inició operaciones en Octubre del 2013. El objetivo principal de la compañía es atender al mercado de repuesto de productos de Equipo Original para vehículos ligeros, vehículos ligeros comerciales y vehículos de equipo pesado, Valeo Service México se caracteriza por ser especialista en las unidades de negocio señaladas, ya que ofrece productos de alta calidad, precios competitivos, canales convenientes para los diferentes públicos especializados, así como promociones y campañas que ofrecen un negocio interesante a los diferentes participantes (Valeo Mexico, 2024). Para lograr los estándares de calidad y de servicio exigidos por la industria automotriz y en especial por los clientes de Valeo, la empresa implemento y gestiona un sistema de calidad bajo la norma IATF 16949, este sistema le ha permitido resolver los desafíos relacionados con la calidad de sus productos y la satisfacción del cliente. La empresa experimenta una brecha entre los estándares establecidos por la norma y su desempeño real, lo que se manifiesta en la persistencia de algunos productos no conformes, ineficiencias en los procesos y dificultades para cumplir con los plazos de entrega. Esta situación se vuelve un reto de cara a la competitividad de Valeo en un mercado automotriz cada vez más exigente y fragmenta los beneficios esperados de la implementación del sistema bajo IATF 16949.   Pregunta problema: ¿Cómo puede la empresa Valeo superar las dificultades y aprovechar al máximo los beneficios del Sistema de Gestión de la Calidad bajo IATF 16949 implementado y mejorar los índices de satisfacción del cliente?  



METODOLOGÍA

La metodología de la investigación planteada para el presente caso de estudio sobre el análisis de la importancia de los principios clave de los Sistemas de Gestión de la Calidad (SGC) bajo IATF 16949 en la empresa Valeo y cómo su implementación efectiva puede mejorar la satisfacción del cliente y mantener altos estándares de calidad es la siguiente: Revisión de documentos: Análisis de la información documentada interna de Valeo relacionada con sistema de gestión de calidad, incluyendo manuales, procedimientos, registros y políticas, así como registros de no conformidades y acciones correctivas. También se revisará encuestas, quejas, reclamos y sugerencias de los clientes y los indicadores de satisfacción del cliente Entrevistas a stakeholders: Se seleccionará una muestra representativa de empleados de diferentes niveles jerárquicos (gerentes, ingenieros, operadores, etc.) y áreas funcionales (producción, calidad, ventas, etc.) involucrados en el SGC. Para esto se diseñará una guía de entrevista semiestructurada para explorar las percepciones de los empleados sobre la implementación del sistema IATF 16949, los desafíos enfrentados, las oportunidades de mejora y el impacto en la satisfacción del cliente. Análisis de datos: Con la información recopilada sobre indicadores clave de desempeño (KPIs) relacionados con la calidad, como el número de defectos, l tiempo de ciclo, el costo de calidad y los índices de satisfacción del cliente se aplicarán técnicas estadísticas descriptivas e inferenciales para analizar los datos e identificar tendencias, correlaciones y diferencias significativas.


CONCLUSIONES

En este ejercicio de investigación sobre gestión de calidad y la norma IATF 16949 se esperan los siguientes resultados: Alcanzar la comprensión integral del estándar IATF 16949: para esto se espera poder comprender cada uno de los requisitos establecidos en la norma, desde los generales hasta los específicos de la industria automotriz; comprender los principios fundamentales de la gestión de la calidad que sustentan la norma, como enfoque en el cliente, liderazgo, mejora continua, etc.; conocer en detalle cómo aplicar la norma a los procesos de diseño, desarrollo, producción, instalación y servicio; aprender a utilizar las herramientas y técnicas de gestión de la calidad especificadas en la norma, como el análisis de modo de fallo y efectos (FMEA), el control estadístico de procesos (CEP) y las auditorías. Impacto de la gestión de la calidad en la satisfacción del cliente: Determinar cómo la implementación de IATF 16949 puede ayudar a mejorar la calidad y la eficiencia de su organización, reducción de reprocesos y defectos para lograr mayor conformidad con los requisitos del cliente. Mejora continua y satisfacción del cliente: Evaluar los métodos utilizados para la mejora continua dentro del estándar y su impacto en la organización; identificar cómo los estándares afectan la satisfacción del cliente y la capacidad de la empresa para satisfacer sus expectativas y demandas.   Estos resultados nos ayudarán a tener una visión clara sobre cómo la norma IATF 16949 impacta la gestión de la calidad en la industria, los beneficios de su implementación y los desafíos asociados. Conclusiones Este ejercicio de investigación está en desarrollo, por tal razón no hay conclusiones definitivas, tan solo se presenta a manera de conclusiones parciales las siguientes: La gestión de la calidad bajo la norma IATF 16949 revela la importancia crítica de esta norma en la mejora continua de los procesos de fabricación, especialmente en la industria de las autopartes. Combinando los requisitos de ISO 9001 con estándares específicos de la industria, IATF 16949 proporciona un marco sólido para garantizar la calidad y confiabilidad de los productos y servicios proporcionados por una organización a sus clientes.   A lo largo de esta investigación se ha podido evidenciar que la implementación de IATF 16949 no solo mejora la eficiencia operativa y reduce los defectos, sino que también fortalece las relaciones con los proveedores y mejora la satisfacción del cliente. Las organizaciones que implementan sistemas de gestión bajo este estándar experimentan mejoras significativas en sus sistemas de gestión de calidad, lo que significa una mayor competitividad y la capacidad de cumplir con los estrictos estándares del mercado global.
Nungaray Montaño Luz Beatriz, Universidad Autónoma de Sinaloa
Asesor: Ing. Reynaldo Cortez Solis, Tecnológico de Estudios Superiores de Valle de Bravo

DISEñO DE CONTROL AUTOMATIZADO PARA PROTOTIPO DE ESTACIONAMIENTO VERTICAL


DISEñO DE CONTROL AUTOMATIZADO PARA PROTOTIPO DE ESTACIONAMIENTO VERTICAL

Lastra Alvarez Oscar Leonel, Universidad Autónoma de Sinaloa. Nungaray Montaño Luz Beatriz, Universidad Autónoma de Sinaloa. Asesor: Ing. Reynaldo Cortez Solis, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

En un contexto urbano cada vez más congestionado, la disponibilidad de espacio para estacionar vehículos se ha convertido en un desafío. Los estacionamientos verticales automatizados ofrecen una solución prometedora al optimizar el uso del espacio y mejorar la eficiencia en la gestión del estacionamiento. Sin embargo, enfrentamos varios retos:​ 1. Seguridad y Precisión:  La integridad de los vehículos y la infraestructura es primordial. ¿Cómo evitamos daños durante el proceso de almacenamiento y recuperación? ¿Qué sensores y algoritmos de control aseguran un posicionamiento exacto? 2. Interfaz de Usuario Intuitiva: La experiencia del usuario debe ser sencilla. ¿Cómo diseñamos una interfaz que permita a los conductores interactuar sin complicaciones? ¿Qué indicadores visuales facilitan la navegación dentro del estacionamiento?



METODOLOGÍA

Se realizó la investigación de los componentes óptimos para realizar el proyecto, en cuanto a capacidades, rendimiento, costo y conocimientos que ya se tuvieran respecto a cierta placa de microcontrolador o componente añadido. Todas estas ideas fueron propuestas ante el investigador a cargo y compañeros con los cuales se desarrolla actualmente el proyecto. Los componentes finales a utilizar fueron: Microcontrolador ESP32 Motores NEMA (2 unidades) Driver para motor a pasos NEMA A4988 (2 unidades) Motor DC de 6V Puente H TB6612FNG LCD 16x2 Módulo I2C Teclado capacitivo MPR121 Módulo RFID-RC522 Convertidor lógico bidireccional 5V-3.3V Dentro de las propuestas realizadas, se llegó a la decisión de que el programa principal asignaría contraseñas aleatorias de 4 dígitos a 22 de los 24 lugares, siendo los 2 lugares sobrantes unos lugares para VIP's, con acceso especial por tarjetas/tags RFID. Primero, este programa se encarga de conocer si el usuario llega y busca dejar su vehículo, revisando la disponibilidad de los lugares en orden ascendente y una vez se llega a la coincidencia de una disponibilidad, el programa genera una contraseña aleatoria que se muestra al usuario permitiéndole memorizarla o incluso tomar una fotografía a la pantalla LCD. Segundo, se inicializa la activación de los motores a pasos para la elevación de la plataforma al piso seleccionado por el sistema y una rotación hasta el lugar igualmente indicado por el sistema, para que, finalmente, el transfer coloque el vehículo en el lugar indicado. Una vez esto se complete, la plataforma regresará a su estado inicial esperando a recibir un nuevo vehículo o la instrucción de sacar alguno de los ya colocados previamente. Programación ante posibles errores: Dentro del programa nos encargamos de que las contraseñas aleatorias generadas se comparen con las generadas previamente para evitar que 2 lugares tengan una misma contraseña. De igual modo, se almacenó la identificación específica de las tarjetas tipo RFID para los lugares 'asignados' o lugares VIP, estos lugares tineen la característica de que no necesitan presionar nada, únicamente deberán acercar su tarjeta o tag previamente identificada para que el programa almacene su vehículo o lo saque del lugar ya asignado. Por otro lado, los lugares 'no asignados', en caso de que los lugares se llenen el programa mostrará en la pantalla LCD "No hay lugares disponibles" para notificar al usuario que no se podrá almacenar su vehículo hasta que alguno de los lugares sea liberado. Y, por último, en caso de que alguno de los usuarios olvide su contraseña, se generó una contraseña de administrador que podrá utilizar para observar la contraseña de todos los lugares del estacionamiento en orden ascendente y piso a piso, para que pueda recuperarse algún o algunos vehículos en los que haya sucedido este caso. El programa fue hecho para que su manipulación sea simple en caso de que otras personas decidan realizar cambios en él y puedan ajustar sus valores sin mayor conflicto. Además de que, se realizaron por nuestra parte una guía de usuario, guía técnica y diagramas de conexión en la circuitería para facilitar la realización de posibles optimizaciones futuras. Autoría de: Luz Beatriz Nungaray Montaño y Oscar Leonel Lastra Álvarez (01 de agosto del 2024). Estudiantes de ingeniería electrónica de la Universidad Autónoma de Sinaloa.


CONCLUSIONES

Una vez la elección de componentes fue realizada, la programación terminada y la conexión de circuitos fue concluida, el proyecto fue puesto a prueba ante el investigador y compañeros, donde, se observó que todo trabajó según lo esperado y el programa cubrió todos los posibles errores que podrían haberse presentado durante su manipulación. Indicamos la información importante en el programa con comentarios e informamos en una presentación del programa las variables que debían modificarse para controlar los motores con precisión, el rango de valores que debían ser utilizados y la escala de dichos valores que debían ser ingresados. Todo el circuito fue funcional y trabajó como correspondía.  A futuro, se espera que el circuito se instale sobre una maqueta del estacionamiento vertical y los valores correspondientes sean asignados para controlar el estacionamiento vertical de manera exitosa. Confiamos en el trabajo realizado y la limpieza que se tuvo montando el circuito en protoboards y el orden que seguimos mientras trabajamos en el programa fuente.
Ochoa Garcia Keila Lucia, Instituto Tecnológico de Piedras Negras
Asesor: Mg. Cielo Ester Marriaga Gonzalez, Universidad del Sinú

ANáLISIS DE LA ADOPCIóN DE LA BLOCKCHAIN EN LABORATORIOS UNIVERSITARIOS: MEJORA DE LA CALIDAD DE AGUA Y BROMATOLOGíA EN LA CADENA DE SUMINISTRO ALIMENTARIO Y SU IMPACTO EN LOS OBJETIVOS DE DESARROLLO SOSTENIBLES


ANáLISIS DE LA ADOPCIóN DE LA BLOCKCHAIN EN LABORATORIOS UNIVERSITARIOS: MEJORA DE LA CALIDAD DE AGUA Y BROMATOLOGíA EN LA CADENA DE SUMINISTRO ALIMENTARIO Y SU IMPACTO EN LOS OBJETIVOS DE DESARROLLO SOSTENIBLES

Centeno Marin Kevin Edgar, Instituto Tecnológico Superior de Ciudad Hidalgo. Loeza Calderón Raúl, Instituto Tecnológico de Morelia. López González Arahat Missael, Instituto Tecnológico Superior de Irapuato. Morales Mendoza Alejandra Meritxell, Instituto Tecnológico Superior de Ciudad Hidalgo. Nuñez López Gerardo, Instituto Tecnológico Superior de Irapuato. Ochoa Garcia Keila Lucia, Instituto Tecnológico de Piedras Negras. Vasquez Reyes Adanary Susel, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Cielo Ester Marriaga Gonzalez, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

En un mundo cada vez más globalizado y conectado, los consumidores demandan transparencia y seguridad en los procesos relacionados con la calidad de los productos alimenticios y del agua. En este contexto, los laboratorios que realizan análisis de estas muestras juegan un papel crucial, ya que sus procesos de recepción, análisis, y generación de resultados deben garantizar precisión, eficiencia y seguridad de la información. Sin embargo, en instituciones como la Universidad del Sinú Seccional - Cartagena, los procesos no están automatizados, lo que genera complejidades y desafíos significativos. Ante estas necesidades, se propone desarrollar un Aplicativo Web que funcionará como una plataforma digital soportada en la tecnología disruptiva Blockchain, asegurando la integridad de los datos sin alteraciones no consensuadas. El proyecto busca optimizar los procesos de los laboratorios de Bromatología y Calidad de Agua de la Universidad del Sinú Seccional Cartagena mediante un aplicativo web que utilice Blockchain para asegurar la calidad y trazabilidad de la información. Esto no solo mejorará la eficiencia operativa, sino que también contribuirá a los Objetivos de Desarrollo Sostenible (ODS), los cuales son los siguientes: Objetivo 2 (Hambre Cero): Gracias a los mejores sistemas de calidad mejorados mediante el aplicativo de la tecnología Blockchain se busca combatir ante esta problemática desde su causa raíz. Objetivo 3 (Salud y Bienestar): Al brindar nuevos sistemas mediante la implementación de la tecnología Blockchain, la calidad de los productos alimenticios incrementará, disminuyendo así los problemas relacionados a la salud. Objetivo 6 (Agua Limpia y Saneamiento): Al trabajar estrechamente con el Laboratorio de Bromatología y Calidad Ambiental, es la forma en que se combatirá a los distintos aspectos de vulnerabilidad con relación al agua y el saneamiento mediante la implementación de la tecnología Blockchain. Objetivo 7 (Energía Asequible y No Contaminante): Al hacer uso de la tecnología Blockchain se precisa en mejorar el uso sostenible de la energía sin generar desperdicios o contaminantes para el medio ambiente. Objetivo 9 (Industria, Innovación e Infraestructura): La tecnología Blockchain es una tecnología emergente, que propone nuevas ideas para hacer su uso en distintos ámbitos, creando así mejoras para distintos sectores de la sociedad. Objetivo 11 (Ciudades y Comunidades Sostenibles): La implementación de la tecnología Blockchain y en conjunto con nuevas tecnologías, servirá de partida para la transformación de las Ciudades en Ciudades Sostenibles.



METODOLOGÍA

Para el proceso de elaboración de este proyecto de investigación se determinaron 4 etapas en las cuales se desarrollarán distintas actividades con el fin de cumplir los objetivos y los resultados esperados. Las etapas son las siguientes: I. Revisión documental del estado de uso de tecnologías 4.0 (BlockChain) en laboratorios a nivel global: El punto consta de las siguientes fases: Como primera fase se estableció y delimitó el objetivo propuesto; en la segunda se delimitaron las bases de filtros para la selección de la información relevante para el artículo; en la tercera fase se definieron los descriptores de búsqueda como Google Académico, Scielo, entre otros; en la cuarta fase se delimitó el uso de gestores bibliográficos como Rayyan y Mendeley; finalmente se llevó a cabo la extracción de datos de interés para la elaboración del artículo. Las conclusiones obtenidas abordan la aplicación de la tecnología en diferentes países y su impacto en la trazabilidad de la cadena de suministro. II. Diseño de base de datos de hoja de vida de equipos (aplicativo para base de datos): Para la creación de una base de datos de las hojas de vida de los equipos, es esencial iniciar con una discusión detallada donde se definirán los requisitos específicos que deben cumplirse, asegurando que todos los aspectos y necesidades del proyecto sean considerados y abordados adecuadamente. Siguiente a esto, se procederá a la elaboración del diseño del esquema de la base de datos. Finalizado el diseño, se implementará la base de datos y se realizarán pruebas exhaustivas para verificar su correcto funcionamiento, incluyendo la inserción, actualización, eliminación y recuperación de datos III. Elaboración de procedimiento de almacenamiento de reactivos de acuerdo con SGA (Sistema Globalmente Armonizado): Es necesario realizar una revisión de las normativas del SGA para identificar las pautas de clasificación, etiquetado y manejo seguro de sustancias químicas. Basado en esta revisión, se debe llevar a cabo un control de inventario que clasifique los reactivos almacenados de acuerdo con el SGA, incluyendo secciones que contengan información sobre el uso y manejo seguro de estos reactivos. IV. Diseño de procedimientos, formatos e instructivos de trabajo bajo la norma 17025: Es necesario hacer una revisión con respecto de los requisitos específicos de la norma ISO/IEC 17025, que cubre la competencia técnica, la validez de los resultados y la gestión del laboratorio. Consecuentemente se debe determinar los procesos clave en el laboratorio que deben documentarse, como la realización de pruebas, calibración, mantenimiento de equipos y gestión de calidad.


CONCLUSIONES

Durante la estancia de verano se logró implementar dos nuevas herramientas para el control de inventario y la creación y manejo de las hojas de vida de los equipos para el Laboratorio de Bromatología y Calidad Ambiental, lo cual acredita a dichos laboratorios bajo la normativa 17025, beneficiando de esta forma con una mejora en la seguridad para el manejo de los reactivos dentro del inventario, así como también un control actualizable en tiempo real de los reactivos y de los equipos de los Laboratorios. De igual forma, se logró adquirir un amplio conocimiento gracias a las ponencias y capacitaciones que se llevaron a cabo durante este periodo, con lo cual se logra identificar la importancia y los usos que se le puede dar a la tecnología Blockchain, no solamente en las cadenas de suministro alimentarias, sino que hasta en un enfoque global, como lo es en las criptomonedas.
Ochoa López Carlos Manuel, Universidad Politécnica del Mar y la Sierra
Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra

DESARROLLO DE UN SISTEMA INFORMáTICO PARA ADMINISTRAR EL ACCESO E INVENTARIO DE UNA BIBLIOTECA UTILIZANDO SENSORES


DESARROLLO DE UN SISTEMA INFORMáTICO PARA ADMINISTRAR EL ACCESO E INVENTARIO DE UNA BIBLIOTECA UTILIZANDO SENSORES

Arellano Gutierrez German, Universidad Politécnica del Mar y la Sierra. Nuñez Rodriguez Roldan Everardo, Universidad Politécnica del Mar y la Sierra. Ochoa López Carlos Manuel, Universidad Politécnica del Mar y la Sierra. Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

La universidad Politécnica del Mar y la Sierra es una institución ubicada en el centro sur del estado de Sinaloa, en el municipio de Elota. Desde el año 2012 ofrece programas de licenciaturas e ingenierías a jóvenes de los municipios de Cosala, Elota y San Ignacio. Actualmente la institución cuenta con un Centro de Información Digital el cual se compone de una biblioteca y un centro de cómputo, diseñado para la búsqueda de información por parte de los estudiantes. Desafortunadamente dicho edificio no cuenta con un proceso o sistema para el registro, préstamo y administración de material bibliográfico, solo se reduce a permitir la entrada de estudiantes y personal docente para realizar la búsqueda de información sin poder solicitar un libro. Aunado a esto, el edificio también carece de una persona que se encargue de atender a tiempo completo la entrada de estudiantes, por lo tanto, si se desea entrar es necesario primero solicitar el acceso a la encargada de activo fijo para que así se registre la entrada o salida.  Considerando lo anterior, surge la necesidad apremiante de diseñar un proceso capaz de administrar el inventario bibliográfico que la universidad posee, dando la posibilidad de realizar prestamos de libros y material a estudiantes, docentes y/o administrativos; Llevando de manera ordenada y sistemática una base de datos que asegure el conocimiento concreto de donde se encuentra el material. Aunado a lo anterior, al no contar con una persona que se encargue de vigilar las entradas o salidas a tiempo completo, surge la necesidad de implementar un sistema que pueda registrar esto mediante el uso de una credencial con sensores para guardar de manera automática quien entra o sale del reciento. 



METODOLOGÍA

En el proceso de desarrollo del sistema, se emplea la metodología basada en prototipos, la cual consta de seis fases que posibilitan la generación de versiones preliminares del software y la obtención de comentarios del usuario final de forma iterativa. A través de este enfoque, se fomenta la participación del usuario final y garantiza que el sistema informático satisfaga sus requisitos y expectativas.  1. Requisitos de desarrollo: Se realiza un análisis para poder establecer cuáles son los requisitos que debe cubrir el sistema informatico.  2. Modelaje y desarrollo del código: En esta fase se construye el prototipo inicial según los requisitos establecidos.  3. Evaluación: Una vez desarrollado el prototipo es necesario comprobar su funcionamiento, evaluando su funcionalidad y verificando que cumple realmente con los requisitos iniciales.  4. Modificación: Tras evaluar el prototipo se deben corregir los errores encontrados y aplicar las mejoras necesarias para que esté listo para ser probado por los usuarios.  5. Documentación: Todo el diseño y desarrollo debe ser documentado para disponer de información precisa y clara del proceso.  6. Pruebas: El prototipo debe ser probado por los usuarios para poder recibir el feedback necesario y así evaluar su utilidad y rendimiento.


CONCLUSIONES

La investigación, diseño y desarrollo del sistema informático de administración para la biblioteca de la Universidad Politécnica del Mar y la Sierra, basado en la tecnología NFC, busca demostrar ser una solución eficaz y moderna para gestionar las entradas y salidas de estudiantes, docentes y administrativos. La implementación de sensores NFC permitirá automatizar y agilizar el proceso de registro, reduciendo significativamente los tiempos de espera y los errores humanos. El sistema no solo busca mejorar la eficiencia operativa de la biblioteca, sino que también proporcionará una experiencia más fluida y segura para los usuarios. Además, la integración de esta tecnología sin duda podrá ofrecer un registro preciso y en tiempo real de las actividades, facilitando la supervisión y el análisis de los patrones de uso. En conclusión, el sistema propuesto no solo busca cumplir con los requisitos iniciales, sino que también tratará de establecer un precedente para la adopción de tecnologías avanzadas en el ámbito académico, promoviendo un entorno de aprendizaje más innovador y accesible. Ademas buscara ser una plataforma escalable que pueda implementarse en otros edificios de la institución el registro de visitas a eventos y actividades academicas.
Ochoa Nava Fernanda Ximena, Instituto Tecnológico de Piedras Negras
Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa

CALIDAD Y SOSTENIBILIDAD EN EL SECTOR AGROINDUSTRIAL. MEJORA CONTINUA Y PRáCTICAS INNOVADORAS PARA UN FUTURO RESPONSABLE.


CALIDAD Y SOSTENIBILIDAD EN EL SECTOR AGROINDUSTRIAL. MEJORA CONTINUA Y PRáCTICAS INNOVADORAS PARA UN FUTURO RESPONSABLE.

Ochoa Nava Fernanda Ximena, Instituto Tecnológico de Piedras Negras. Paz Chávez José Eduardo, Instituto Tecnológico de Piedras Negras. Rodriguez López Hannia Citlaly, Instituto Tecnológico de Piedras Negras. Romero Bobadilla Oscar, Instituto Tecnológico de Piedras Negras. Zerrweck Faz Anacristina, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La agroindustria en Colombia es crucial para la economía del país, abarcando desde la producción agrícola hasta la transformación y comercialización de productos. La diversidad climática permite cultivar una amplia gama de productos como café, banano, flores, cacao y palma de aceite, que no solo abastecen al mercado nacional, sino que también generan ingresos significativos por exportaciones. Sin embargo, el sector enfrenta desafíos como la necesidad de mejorar la infraestructura rural, adaptarse al cambio climático y adoptar tecnologías avanzadas para ser más productivo y sostenible. La calidad es un factor clave para la competitividad de la agroindustria colombiana, siendo fundamental cumplir con estándares rigurosos y obtener certificaciones internacionales como Buenas Prácticas Agrícolas (BPA) e ISO [1]. Además, las certificaciones de comercio justo y orgánicas ayudan a asegurar prácticas comerciales equitativas y sostenibles, lo cual es esencial para acceder a mercados globales exigentes. El apoyo gubernamental y la inversión en investigación y desarrollo son esenciales para fomentar la innovación y fortalecer la cadena de valor agrícola. Programas que promuevan la asociatividad y el acceso a créditos para pequeños y medianos productores son vitales para el crecimiento del sector. En conjunto, el desarrollo sostenible y la responsabilidad social empresarial son fundamentales para asegurar que el avance de la agroindustria beneficie a todos los actores involucrados, desde los agricultores hasta los consumidores.



METODOLOGÍA

Para la realización de esta investigación se inició con la elaboración de un estado del arte de una forma metódica sobre los temas de la agroindustrial, calidad, sostenibilidad, mejora continua y agricultura de precisión para un futuro responsable. Esta investigación está dirigida a los comerciantes, emprendedores y agricultores, para que tengan mayor consciencia sobre los beneficios a largo plazo que se obtienen al hacer uso y aplicación de las tecnologías de precisión aplicada en la agricultura, además de la aplicación de métodos y técnicas sostenibles para asegurar la producción y consumo responsable de los productos y fortalecer la resiliencia y capacidad de adaptación a riesgos relacionados con el clima. Posteriormente, se realizó un estudio mediante encuestas a los comerciantes locales sobre los temas investigados para saber si cuentan con conocimiento sobre estos temas y los beneficios que conlleva la aplicación de estas tecnologías. De igual manera se asistió a conferencias y expos en donde se pudo recabar más información respecto a la Agroindustria. Finalmente, se concluyó con el análisis de la información recabada que podemos tener una visión integral sobre la importancia de implementar tecnologías de precisión y prácticas sostenibles en la agroindustria.


CONCLUSIONES

Las encuestas realizadas fueron de gran ayuda, ya que nos permitieron darnos cuenta de que, aunque la mayoría de las personas cuentan con conocimientos básicos sobre la agricultura de precisión y las tecnologías asociadas, estos conocimientos no siempre cumplen con los estándares de calidad necesarios para aprovechar al máximo dichas tecnologías. Nuestra investigación ha demostrado que es esencial mantenerse en constante mejora e innovación en tecnologías de precisión. La evolución tecnológica es rápida, y para mantenernos competitivos y eficientes, debemos adoptar nuevas herramientas y técnicas que mejoren la precisión y la eficacia en las prácticas agrícolas. Además, la sostenibilidad se ha convertido en un componente crucial de la agricultura moderna. Las prácticas sostenibles no solo ayudan a preservar el medio ambiente, sino que también contribuyen a la salud a largo plazo de los cultivos y del suelo. Esto incluye el uso de tecnologías que permiten un uso más eficiente de los recursos, como el agua y los fertilizantes, y que reducen el impacto ambiental negativo.
Ochoa Portillo Celia Jocelyn, Universidad Vizcaya de las Américas
Asesor: Mtro. Erasmo José Aguilar Arriola, Universidad Nacional de Ingeniería

ESTUDIO DE LA RESILIENCIA URBANA DEL DISTRITO II EN EL 2024 DE LA CIUDAD DE MANAGUA, NICARAGUA


ESTUDIO DE LA RESILIENCIA URBANA DEL DISTRITO II EN EL 2024 DE LA CIUDAD DE MANAGUA, NICARAGUA

Ochoa Portillo Celia Jocelyn, Universidad Vizcaya de las Américas. Asesor: Mtro. Erasmo José Aguilar Arriola, Universidad Nacional de Ingeniería



PLANTEAMIENTO DEL PROBLEMA

Resumen Verano Delfín 2024 Universidad Nacional de Ingeniería 1. Datos generales: Nombre del proyecto - Estudio de la resiliencia urbana del Distrito II en el 2024 de la ciudad de Managua, Nicaragua Nombre del estudiante. - Celia Jocelyn Ochoa Portillo Nombre del asesor. - Arq. Erasmo José Aguilar Arriola   2. Objetivo - XXXXXX El objetivo del estudio resiliente del Distrito II Managua es observar y analizar estrategias integrales para fortalecer la resiliencia urbana, enfocándose en la planificación urbana, la gestión del suelo para promover un desarrollo sostenible, la optimización de los espacios públicos para mejorar la cohesión social, y la mejora de la infraestructura de servicios básicos como agua, drenaje, saneamiento, gestión de residuos, y transporte. Además, se busca aumentar la capacidad de la ciudad para gestionar riesgos de desastres mediante un mejor conocimiento del riesgo, planes efectivos de recuperación y difundir posiblemente la reconstrucción, y la promoción de la adaptación al cambio climático y otros riesgos emergentes, garantizando un Distrito II más seguro y resiliente frente a futuras catástrofes.



METODOLOGÍA

1. Descripción del trabajo La metodología propuesta en este estudio fue desarrollada por los arquitectos Ochoa Jocelyn, Xicohtencatl Alexa y Aguilar Erasmo, fundamentada en una revisión documental de metodologías similares, la modelación de instrumentos prácticos basados en criterios normativos y experiencias previas en trabajos similares. El estudio se enfoca en evaluar la resiliencia urbana de un sector específico de la ciudad de Managua, analizando eventos históricos significativos que han afectado la zona y proponiendo escalas de análisis que no superen los 25 km². La resiliencia urbana abarca múltiples aspectos, dependiendo de las variables consideradas para su análisis. Se examinan cinco variables principales: equipamientos urbanos, áreas verdes y espacios abiertos accesibles, infraestructura y servicios básicos, uso del suelo y ecología urbana. Para ello, se emplearon métodos históricos, analíticos y sintéticos, abordando la gestión de riesgos y la importancia de la planificación urbana y el diseño de infraestructuras para mitigar la vulnerabilidad social y ambiental.   El término "resiliencia urbana" incluye la capacidad de un sistema urbano para mantener su continuidad operativa después de impactos o catástrofes, facilitando la adaptación y transformación hacia una mayor resistencia. En este contexto, se reconocen dos cualidades clave de la resiliencia: inherencia, que se refiere al mantenimiento de funcionalidades durante las crisis, y flexibilidad, que implica la capacidad de adaptación y respuesta durante eventos adversos. Estas características se aplican a la infraestructura, la organización institucional y los sistemas sociales y económicos, siendo esenciales para que una ciudad evalúe, planifique y actúe de manera proactiva ante diversos desafíos, ya sean repentinos o graduales.   Además, se enfatiza la importancia de integrar el análisis socio-ecológico en contextos urbanos específicos para entender los desafíos y oportunidades únicos de cada ubicación. En el caso de Managua, particularmente el Distrito II, se observan dinámicas complejas entre componentes sociales y ecológicos. Este distrito, con una extensión de aproximadamente 10.5 km² y una población heterogénea en términos socioeconómicos, enfrenta desafíos significativos como la gestión inadecuada de desechos y la degradación de espacios verdes. La protección y mejora de estos elementos ecológicos pueden traer numerosos beneficios, como la mejora de la calidad del aire y el agua, y la mitigación del efecto de isla de calor urbana, contribuyendo así a la resiliencia y sostenibilidad del distrito.   Finalmente, la resiliencia urbana no solo se trata de la capacidad de recuperación tras desastres, sino también de la anticipación y preparación frente a potenciales amenazas. La integración de estrategias de diseño urbano sostenibles y la promoción de políticas y regulaciones efectivas son cruciales para reducir la vulnerabilidad de las comunidades. Al crear espacios que no solo respondan a las necesidades funcionales de los residentes, sino que también promuevan su bienestar y seguridad, se puede avanzar hacia una planificación urbana que mitigue los riesgos asociados a la vulnerabilidad social y ambiental, logrando así un desarrollo urbano más resistente y sostenible.


CONCLUSIONES

1. Resultados obtenidos Se pretende publicar los siguientes resultados en la Revista + de la Universidad, tomando en cuenta algunos factores de las variables importantes, dieron como resultado: •          La cuantificación porcentual de usos habitacionales y otros usos •          Mapa síntesis del sector •          Mapa de incompatibilidades y transformaciones del sector •          Análisis de variables climáticas actuales y su respectivo mapa •          Análisis y contraste de las relaciones entre usos, infraestructuras y puntos débiles actuales en la ciudad   Al igual un porcentaje de RU (Resistencia Urbana) que mide la RU del sector al cual es replicable según las características de una delegación, distrito o ciudad.
Ochoa Torres Karla, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca

DESARROLLO DE DISEñO DE MEZCLA DE TIERRA ESTABILIZQADA PROYECTADA PARA PROTOTIPO DE BRAZO ROBóTICO


DESARROLLO DE DISEñO DE MEZCLA DE TIERRA ESTABILIZQADA PROYECTADA PARA PROTOTIPO DE BRAZO ROBóTICO

Bernabe Hernandez Anahi, Benemérita Universidad Autónoma de Puebla. Ochoa Torres Karla, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

La industria de la construcción en el mundo y especialmente en México, Oaxaca, emplea en su mayoría procesos manuales, lo cual conlleva a procedimientos que ponen en peligro la vida humana, para ello se plantea el desarrollo y diseño de una mezcla de tierra estabilizada que sea capaz de proyectarse.  



METODOLOGÍA

La metodología a seguir fue tener un estado del arte sobre mezclas de tierra, consultar expertos en el tema para partir de una referencia con lo cual partir; posteriormente contar con el equipo necesario en laboratorio, material, herramientas, así como la supervisión y apoyo de Arquitectos e ingenieros con la previa experiencia para lograr capacitar al equipo y asi obtener un mejor resultado. Después de contar con lo necesario se debía analizar el tipo de tierra a emplear asi como hacer pruebas de granulometría para decidir su implementación, a partir de ello bajo criterios previamente seleccionados en el estado del arte se decidieron los aditivos para mejorar y estabilizar la mezcla. Al concluir este proceso se prosiguió a realizarle pruebas de compresión, de plasticidad y de fluidez, además de analizar los resultados obtenidos y conseguir un resultado satisfactorio.


CONCLUSIONES

De acuerdo a la investigación y la expermentación se concluyó que se puede realizar y es capaz de duplicarse el diseño de la mezcla de tierrra estabilizada en cuanto se cumplan las variables aplicadas, al aplicar mayor búsqueda de información y experimentación puede mejorarse dicho diseño, por lo cual tenemos como conclusión del Programa Delfín que logramos aprender en este proyecto de investigación sobre el proceso metodológico y práctico para poder llevar acabo una investigación, dejando nos como enseñanza el trabajo en equipo, la resiliencia y la importancia de la investigación para poder aplicarlo a futuras investigaciones.
Ojeda Valencia Urbano Vicente, Universidad Tecnológica de Tecamachalco
Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar

API INTELIGENTE PARA EL MONITOREO Y EVALUACIóN DE SISTEMAS FOTOVOLTAICOS


API INTELIGENTE PARA EL MONITOREO Y EVALUACIóN DE SISTEMAS FOTOVOLTAICOS

Ojeda Valencia Urbano Vicente, Universidad Tecnológica de Tecamachalco. Serrano Sánchez Juan José, Universidad Tecnológica de Tecamachalco. Valencia Lopez Nancy Yesenia, Instituto Politécnico Nacional. Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

Los sistemas fotovoltaicos se están posicionando como una solución clave en la transición hacia energías renovables. Sin embargo, su eficiencia y rendimiento dependen de un monitoreo constante y una evaluación precisa. La complejidad de los datos generados por estos sistemas y la necesidad de analizar múltiples variables simultáneamente hacen que la gestión manual sea ineficiente y propensa a errores.  Se requiere una solución tecnológica avanzada que permita:  Calcular automáticamente los Indicadores Clave de Rendimiento (KPIs) críticos.  Integrar datos de diversas fuentes, incluyendo APIs externas.  Proporcionar análisis en tiempo real para optimizar el rendimiento de las instalaciones.  Facilitar la toma de decisiones basada en datos para el mantenimiento y mejora de los sistemas.  Este proyecto busca desarrollar una API inteligente que aborde estas necesidades, mejorando significativamente la gestión y eficiencia de las instalaciones solares. 



METODOLOGÍA

Para el desarrollo de la API para el Cálculo de KPIs en Sistemas Fotovoltaicos, se implementó una metodología estructurada en diversas fases.   Inicialmente, se llevó a cabo una fase de planificación y configuración, que incluyó la elaboración de un plan de trabajo detallado, el análisis de los requerimientos del sistema y la instalación y configuración de las herramientas necesarias, como Visual Studio y las extensiones relevantes para el desarrollo de APIs. Posteriormente, en la fase de diseño y planificación de KPIs, se definieron los indicadores a implementar basados en métricas estándar de la industria fotovoltaica y se identificaron las APIs externas necesarias, incluyendo una para datos de temperatura y otra de Huawei para los datos de la energía solar. Es importante destacar que los datos obtenidos del enlace de Huawei corresponden específicamente a la planta UTB Solar. Durante la fase de desarrollo e integración, se implementaron módulos de autenticación y funciones para manejar solicitudes y respuestas, además de crear algoritmos para el cálculo de KPIs.   La implementación del código se realizó utilizando FastAPI como framework principal y Pydantic para la validación y serialización de datos. Se definió una estructura de datos robusta con la clase KPIData para asegurar la integridad de los datos de entrada, y se desarrolló el endpoint principal para procesar estos datos y calcular los KPIs relevantes.   Finalmente, se realizaron pruebas iniciales de la API para verificar su funcionamiento y precisión en el cálculo de KPIs.


CONCLUSIONES

El desarrollo de esta API para el Cálculo de KPIs en Sistemas Fotovoltaicos representa un avance significativo en la gestión eficiente de instalaciones solares. Durante el periodo de investigación, se logró crear una API capaz de calcular automáticamente KPIs como el rendimiento de referencia, rendimiento específico, índice de rendimiento con corrección de temperatura, rendimiento esperado y el índice de rendimiento energético.   Es importante señalar que, aunque la API está diseñada para calcular KPIs, actualmente no se conecta directamente a los datos reales de la planta UTB Solar. Sin embargo, durante las pruebas realizadas con datos aleatorios, la API demostró funcionar correctamente, lo que valida su capacidad de cálculo y procesamiento.   La implementación en FastAPI promete un procesamiento rápido de las solicitudes, sentando las bases para futuros análisis en tiempo real. Además, el uso de tecnologías modernas como FastAPI y Pydantic proporciona una base sólida para la escalabilidad y mantenibilidad del sistema.   La estructura modular del código permite la futura adición de nuevos KPIs o la integración de algoritmos más avanzados. Aunque el proyecto se encuentra aún en una fase inicial, los resultados obtenidos durante el verano de investigación son un buen comienzo.   Se ha establecido una base para el desarrollo futuro de una herramienta que podría revolucionar la forma en que se gestionan y optimizan los sistemas fotovoltaicos, contribuyendo significativamente a la eficiencia y sostenibilidad de la energía solar. 
Oliva Avelar Emmanuel, Universidad Autónoma de Aguascalientes
Asesor: Dr. Cesaré Ovando Vázquez, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)

DETECCIóN DE ARRITMIAS CARDíACAS MEDIANTE REDES NEURONALES


DETECCIóN DE ARRITMIAS CARDíACAS MEDIANTE REDES NEURONALES

Oliva Avelar Emmanuel, Universidad Autónoma de Aguascalientes. Asesor: Dr. Cesaré Ovando Vázquez, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Una de las principales características de las arritmias cardiacas es un comportamiento irregular del corazón afectando el ritmo cardiaco, así como la duración de las señales. En México, las ECV se encuentran entre las principales causas de muerte desde 1990. En la mayoría de los casos, se puede detectar alguna AC por medio del análisis de las señales de un ECG por parte de un especialista médico. Sin embargo, es ineficaz en México ya que existe una gran cantidad de población con alguna ECV. De acuerdo con la secretaria de salud en México, existe 0.8 especialista de cardiología por cada 1000 habitantes. El problema es más pronunciado en lugares donde faltan expertos médicos y equipo clínico, como en las zonas rurales de México. Por lo cual motiva al requerimiento de sistemas confiables, automáticos y asequible para el monitoreo y/o diagnóstico de las AC mediante análisis de señales del ECG obtenidas de los pacientes. Compuesto por procedimientos automáticos de monitorización de condiciones de salud de un determinado paciente, basándose en el procedimiento y análisis de las señales fisiológicas obtenidas por sensores. Sirviendo estas señales para poder monitorizar y evaluar la funcionalidad del órgano de interés . Los SDAC modernos aprovechan el Deep Learning Algorithms para que de esa forma pueda detectar AC de señales de ECG, lo que reduce el costo de la monitorización cardiaca continua y mejorando la calidad de sus predicciones.  



METODOLOGÍA

1. Comprensión del Problema: Detectar arritmias cardíacas mediante datos de ECG ya diagnosticados. 2. Obtención de Datos: Recolección de una base de datos en línea con registros de ECG y datos demográficos. 3. Análisis de Datos: Segmentación y análisis de tendencias según edad y sexo mediante histogramas y normalización. 4. Modelado con Keras y Tensor Flow: Creación y comparación de modelos densos y convolucionales. 5. Entrenamiento del Modelo: Evaluación del desempeño del modelo en términos de tiempo y espacio. 6. Validación del Modelo: Búsqueda de una precisión aproximada del 85%. 7. Mejora del Modelo: Ajuste de capas y neuronas según los resultados obtenidos. 8. Interpretación de Resultados: Análisis de curvas de aprendizaje y pruebas prácticas. 9. Identificación de Mejoras: Evaluación del desempeño del modelo en escenarios reales y búsqueda de mejoras.  


CONCLUSIONES

Base de Datos y Selección de Muestra La base de datos que fue utilizada en este estudio es un total de 45,152 pacientes contando con características de suma importancia para este estudio, como es el diagnostico emitido por una autoridad médica. Cabe resaltar que por limitaciones del equipo únicamente se pudieron analizar los primeros 10,000 registros para el entrenamiento del modelo. Se considero únicamente el primer diagnóstico de cada paciente, ya que había pacientes que tuviera más de un diagnóstico, para eso se basó en el documento donde indica que el primer diagnóstico es el más relevante . Algunos resultados son los que se muestran a continuación La ilustración 1 muestra la distribución de los diez diagnósticos más frecuentes en nuestra muestra de datos. La ilustración 2 presenta la distribución de edad de los pacientes en intervalos de cinco años, lo que facilita una mejor interpretación de los resultados. Esta información es crucial para adecuar el modelo a ciertos grupos etarios específicos y para identificar posibles diferencias en la prevalencia de arritmias entre hombres y mujeres . Para un preprocesamiento de datos únicamente se incluyó en la normalización de todas las señales antes de ser ingresadas al modelo, para que de esa manera observar que resultados se obtienen en procesar una señal más cruda sin aplicar los filtros mencionados. La normalización es importante para tener una escala uniforme y ayudar a nuestro modelo a tener una mejor estabilidad . Diseñada cada capa para lograr capturar características específicas de cada señal del ECG, tratando de que el modelo permita aprender patrones complejos asociados a si un paciente posee o arritmias cardiacas. Afectando las capacidades del modelo para lograr generalizar los datos no vistos .  
Oliva González César Michel, Instituto Tecnológico de Tepic
Asesor: M.C. Manuel Alejandro Lugo Villeda, Universidad Politécnica de Sinaloa

DISEñO, CONSTRUCCIóN Y CONTROL DE UN SISTEMA SIMULADOR UNDIMOTRIZ


DISEñO, CONSTRUCCIóN Y CONTROL DE UN SISTEMA SIMULADOR UNDIMOTRIZ

Oliva González César Michel, Instituto Tecnológico de Tepic. Raudales Barragán Héctor Uriel, Universidad de Guadalajara. Asesor: M.C. Manuel Alejandro Lugo Villeda, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La humanidad hoy en día está muy interesada en encontrar nuevas y mejores formas de generación de la energía, pues entre más eficiente sea, se vuelve más barata de producir, además de reducir continuamente las emisiones de gases de efecto invernadero que se ha vuelto un asunto de suma importancia para todos los habitantes del planeta. La energía undimotriz se refiere a la energía renovable generada a partir del movimiento de las olas del océano. Esta forma de energía aprovecha la energía cinética de las olas para convertirla en electricidad, utilizando dispositivos como boyas flotantes, columnas de agua oscilantes u otros dispositivos que capturan el movimiento que se aprecia entre las olas y una estructura fija. Además de no generar emisiones directas, la energía undimotriz tiene un impacto ambiental relativamente bajo en comparación con otras formas de energía renovable, lo cual es un asunto que es importante a tratar, para reducir el impacto en el ecosistema que crean las distintas maneras de crear electricidad limpia.



METODOLOGÍA

Se avanzó paralelamente en las dos áreas principales del proyecto, el diseño mecánico y el control del dispositivo. Para el área mecánica se realizaron los distintos bocetos del mecanismo. Se partió de un tornillo sin fin, el cual es la pieza principal que comunica el movimiento del motor con la veleta, para así poder generar el movimiento del agua y dar forma a las olas. Colocando piezas de sujeción para el motor, las bases superior e inferior de sostén al tornillo sin fin, guías y apoyos para guías de rodamientos que, directamente conectados a la tuerca rotativa del husillo que mantendrán equilibrado el movimiento lineal de la veleta y, por supuesto, el diseño de la veleta. Posteriormente se llevaron a cabo los diseños en el software SOLIDWORKS. Se planteó pieza por pieza para su manufactura y al finalizar, se hizo un ensamble con todas ellas para poder hacer también simulaciones del equipo con el movimiento relativo del husillo y así comprobar y analizar el comportamiento del dispositivo puesto en marcha en un fluido. Se realizaron también diseños para impresión 3D de una base primigenia para conocer las características del motor con ayuda de un elemento encoder, que, este mismo ayudará al control del motor en puesta en marcha. Además de la pieza encargada de la sujeción del encoder al equipo, el acomplamiento entre motor-husillo y la transmisión de movimiento desde dicho acoplamiento al encoder por medio de dos piñones y una banda. Se desarrolló un sistema de control para un motor de corriente directa (DC) de 24 volts, acompañado de un encoder de 1024 pulsos por revolución (PPR). El objetivo principal fue implementar un sistema unidimotriz de simulación de oleaje, utilizando una ESP32 y MicroPython para el control y monitoreo del motor. Para iniciar, se realizaron pruebas con la ESP32 y MicroPython para determinar los pulsos por segundo generados por el encoder. A partir de estos datos, se calcularon las frecuencias y la velocidad angular del motor. Adicionalmente, se registraron las corrientes de operación nominal y pico del motor, las cuales son: Corriente nominal: 2A Corriente pico: 3.6A Con esta información, se evaluaron distintos puentes H para seleccionar el más adecuado para nuestras necesidades. Finalmente, se determinó que el puente H BTS7960 era el más apropiado para el proyecto. Una vez seleccionado el puente H BTS7960, se estableció una comunicación entre la ESP32, el puente H y el encoder. Utilizando los datos recibidos del encoder, se implementó un control PID para el motor. El control PID se utilizó para ajustar la señal PWM, logrando así mantener la velocidad del motor dentro de los valores deseados. Para replicar el sistema de oleaje, además del control de velocidad del motor, se programó el recorrido que debía realizar el tornillo sin fin. Esto se logró controlando el puente H, permitiendo que el motor pudiera moverse en ambas direcciones según lo requerido.


CONCLUSIONES

Durante la estancia de verano se lograron obtener conocimientos en distintos tipos de software, como el caso del diseño en SOLIDWORKS, como otros destinados a la medición y simulación de equipos eléctricos para redes. Así también, se tuvo un enriquecimiento a los conocimientos en mercado energético y eficiencia energética por cursos impartidos por investigadores en apoyo a los estudiantes del programa Delfín. Se espera el aprovechamiento del dispositivo para poder analizar la energía producida por las olas dentro de las instalaciones de la universidad y apoyar a los alumnos de ingeniería en energía a desarrollar conocimientos de energía undimotriz directamente dentro de la escuela, así como también ambiciona la innovación de él y se pueda llevar a escalas mayores.
Olivares Angulo Gerardo, Universidad Autónoma de Sinaloa
Asesor: Dra. Marysol García Pérez, Universidad La Salle Bajío

DESARROLLO DE DISPOSITIVOS BIOMéDICOS


DESARROLLO DE DISPOSITIVOS BIOMéDICOS

Olivares Angulo Gerardo, Universidad Autónoma de Sinaloa. Asesor: Dra. Marysol García Pérez, Universidad La Salle Bajío



PLANTEAMIENTO DEL PROBLEMA

Las lesiones musculoesqueléticas en la mano presentan un problema de salud significativo para la población, esta es una de las partes del cuerpo más susceptibles a sufrir algún tipo de lesión. Este tipo de tecnologías presenta muchas ventajas, ya que puede proporcionar un tratamiento más personalizado, además de funcionar como asistente de movimiento durante la etapa de rehabilitación, permitiendo al paciente un apoyo en sus tareas cotidianas y propiciar una recuperación más rápida y eficiente, mejorando su calidad de vida.



METODOLOGÍA

Primero se comenzó con el diseño para el antebrazo, se realizó una especie de funda, con hendiduras en los costados para colocar velcros con los que se ajustará al tamaño del brazo del paciente. El diseño presenta una pequeña curvatura por los costados para que amoldarse mejor a la forma del antebrazo, y por la parte superior cuenta con una zona plana, en la que se montarán los dispositivos electrónicos, por la zona frontal se realizaron varios agujeros de un milímetro de diámetro por donde pasaran los cables guía para el movimiento de los dedos, también se dejó espacio para colocar los servomotores. Por la zona interior se colocará material amigable para la piel ya que se imprima el diseño de manera física, puede ser algún tipo de textil o un material esponjoso, para evitar irritación por contacto directo con el polímero. La pieza del dorsal de la mano se hizo con la herramienta Form de Fusion 360, se creó una malla de pequeñas cuadriculas a la cual se le fue dando forma a partir de la modificación de los vértices y aristas, se utilizó este método ya que la zona dorsal tiene una forma con curvas más irregulares, difíciles de adaptar con la herramienta de figuras o sketches más convencional. Primero se definió el área de los nudillos, formando una curva que interfiriera lo menos posible con el movimiento natural que se produce al abrir y cerrar los dedos, después se extendió el área hasta la zona de la muñeca, y al final se adaptaron las partes con formas más irregulares, como lo son la zona del músculo flexor corto mínimo y del abductor mínimo, la cual se curveo para llegar hasta unos centímetros antes de la palma y formara un agarre firme. Al igual que la zona de los músculos oponente y flexor del pulgar, ya que esta zona presenta una curva bastante pronunciada y con un ángulo distinto al resto del dorso de la mano. Después para facilitar el paso de los cables que controlan el movimiento se realizaron varias zonas rectangulares elevadas, una en la zona cercana a la muñeca, otra en los nudillos y una pequeña en la zona del pulgar, ya que el movimiento del pulgar se realiza en dirección distinta a los demás se necesitó hacer un apartado aislado que cumpliera con el ángulo requerido para el movimiento del pulgar, en estas zonas se hicieron pequeños agujeros de un milímetro de diámetro por el cual pasarán los cables tensores que controlarán el movimiento. Para mover los dedos se diseñó un anillo, se hizo uno para cada articulación interfalángica de la mano, están pensados para colocarse en la parte posterior a la zona de las articulaciones metacarpofalángicas e interfalángica proximal (MCP y PIP). Se realizaron de un tamaño estándar con un diámetro interior de 18 mm, se dejó de esta manera ya que cada paciente necesitará una medida personalizada, y se necesitará ajustar el diámetro para cada sujeto en específico y para cada dedo en particular, además la forma puede ser ajustada aún mejor al aplicar calor en cada anillo hasta el punto donde el polímero sea ligeramente moldeable, para ajustarlo a la forma de la articulación de la persona y evitar deslizamientos indeseados. Para el pulgar también se han diseñado dos anillos pero estos van colocados de manera distinta, en este caso se diseñaron para colocarse en la zona posterior a la articulación carpometacarpiana y otro en la articulación interfalángica, cada anillo tiene dos secciones sobresalientes con un agujero de 1 mm de diámetro sobre el cual pasará el cable guía que tensará y liberará los dedos, este mecanismo se diseñó confiando en el movimiento natural de la articulaciones que actúan como un mecanismo con centro virtual en la unión de las falanges, se espera que utilizando los mecanismos naturales del cuerpo se logre un movimiento fluido y poco invasivo para el paciente aprovechando al máximo las piezas pequeñas del diseño. Para la palma de la mano se siguió el mismo procedimiento que con el dorsal para darle la forma deseada, en este caso se acercó lo más posible a la zona metacarpofalángica de los dedos sin obstaculizar su movimiento, siguiendo con un área plana para la zona de la eminencia hipotenar, a partir de aquí se diseñó una curva que siguiera el área cóncava de la mano, evitando la superficie de la eminencia tenar, para mantener sin obstrucciones el movimiento del pulgar y evitar choques indeseados. Con el diseño de las piezas finalizado se realizó un análisis mecánico estructural apoyado por el método de elementos finitos para visualizar las zonas que sufrirán mayor estrés durante el funcionamiento, las zonas donde la deformación de las piezas será mayor y el factor de seguridad, a través de este análisis se concluyó que las piezas no corren peligro de ruptura o deformación grave, brindando mayor seguridad al paciente.


CONCLUSIONES

Durante la estancia de verano, se integró el conocimiento de diseño 3D para crear un dispositivo biomédico que apoyará a la rehabilitación. Este dispositivo combina conocimientos de anatomía humana, mecánica, diseño 3D, electrónica y programación, culminando en un modelo de ortesis de mano activo que apoya el movimiento de la extremidad al leer las señales eléctricas de los músculos. Gracias a la colaboración de diversas disciplinas, el dispositivo permitirá al paciente mover la extremidad afectada con mayor facilidad, ayudando a mantener sus funciones diarias y facilitando el movimiento durante el período de rehabilitación.
Olivares Elguea Edgardo, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla

DE RESIDUOS A OBJETOS - IMPRESIóN 3D CON PELLETS RECICLADOS


DE RESIDUOS A OBJETOS - IMPRESIóN 3D CON PELLETS RECICLADOS

Olivares Elguea Edgardo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Este proyecto tiene como objetivo desarrollar una impresora 3D capaz de utilizar pellets reciclados de PLA en lugar de filamento tradicional, contribuyendo así al cumplimiento del punto número 15 dentro de los Objetivos de Desarrollo Sostenible (ODS). Para lograrlo, se llevarán a cabo las siguientes etapas: Ensamblaje de la Impresora 3D: Se ensamblará una impresora 3D estándar a partir de sus componentes. Modificación del Extrusor: Se adaptará el extrusor para que pueda trabajar con pellets de PLA reciclados. Diseño e Impresión de la Tolva: Se diseñará y fabricará una tolva personalizada utilizando impresión 3D. Esta tolva administrará los pellets y alimentará el extrusor de manera eficiente. Modificación de la Trituradora de Residuos: Se modificará una trituradora de papel para procesar los sobrantes de impresiones en PLA y convertirlos en pellets. Prueba y Evaluación: Finalmente, se probará el sistema completo para verificar su funcionamiento y evaluar la calidad de las impresiones obtenidas.



METODOLOGÍA

Metodología 1. Ensamblaje de la Impresora 3D Se ensambló una impresora 3D a partir de sus componentes siguiendo las instrucciones del fabricante. Se verificó que todos los elementos estén correctamente conectados y funcionando. 2. Modificación del Extrusor Se desmontó el extrusor existente de la impresora 3D y se colocó en bases de acrílico para ajustar la altura. Se adaptó el extrusor para que pueda aceptar pellets reciclados de PLA en lugar de filamento, utilizando una broca para administrarlos de forma efectiva. Se ajustaron los parámetros de temperatura y velocidad de extrusión para optimizar la impresión con pellets. 3. Diseño e Impresión de la Tolva Se diseñó una tolva personalizada utilizando los softwares de modelado 3D FreeCAD y Fusion360. La tolva se imprimió en PLA utilizando impresión 3D. Se instaló la tolva en las bases de acrílico del extrusor de la impresora, asegurando una alimentación constante de pellets al extrusor. 4. Modificación de una Trituradora de Papel Se desmontó la trituradora de papel. Se modificó la electrónica para su uso y se adaptó una tolva a la trituradora para procesar los sobrantes de impresiones en PLA y convertirlos en pellets. Se probó la trituradora modificada para garantizar su eficacia, analizando el tamaño de los pellets tras pasar por la trituradora tres veces. 5. Prueba y Evaluación del Sistema Completo Se realizaron pruebas de impresión utilizando los pellets reciclados. Se evaluó el funcionamiento de la impresora e identificaron posibles áreas de mejora. Se documentaron los resultados y se compararon con impresiones realizadas con filamento comercial.


CONCLUSIONES

Conclusiones y Resultados Esperados En este proyecto, enfrentamos desafíos con el extrusor, que extruía poco material y se obstruía. A pesar de no lograr impresiones con pellets reciclados de PLA, esperamos lo siguiente: Reciclaje Efectivo: Solucionando los problemas técnicos, se espera lograr una impresión exitosa con pellets reciclados. Esto contribuiría al reciclaje y reutilización casi total del PLA utilizado. Biomateriales: Aprovechando el diseño de las modificaciones al extrusor, se podrían realizar combinaciones de pellets de PLA con biopolímeros como seda o quitosano, lo que abriría nuevas posibilidades para crear biomateriales en la impresión 3D. Caracterización: Se podrían realizar pruebas de caracterización en las impresiones resultantes para evaluar su resistencia, durabilidad y otras propiedades. Impacto y Futuras Investigaciones: Este proyecto sienta las bases para futuras investigaciones en la impresión 3D sostenible y la creación de biomateriales. Explorar soluciones para mejorar el rendimiento del extrusor y la velocidad de alimentación sería crucial. Consideraciones Éticas y Ambientales: Se debe considerar el impacto ambiental y social de utilizar materiales reciclados y biomateriales en la impresión 3D. La divulgación científica sobre estos temas es fundamental para inspirar a otros y fomentar prácticas más sostenibles.
Olivares Ramírez Rogelio, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato

INSTALACIóN ELéCTRICA EN CONVERSIóN DE AUTO DE GASOLINA A ELéCTRICO


INSTALACIóN ELéCTRICA EN CONVERSIóN DE AUTO DE GASOLINA A ELéCTRICO

Olivares Ramírez Rogelio, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Los vehículos eléctricos no son un invento nuevo, ya a lo largo del siglo XIX se presentaron varios prototipos eléctricos en algunas ciudades europeas, si embargo, fue la implementación del motor de combustión interna a principios del siglo XX el que se convirtió en la tecnología dominante. Desde entonces, la eficiencia del motor de gasolina se ha incrementado, pero está lejos de ser la mejor. Un motor a gasolina cumple el ciclo otto el cual consiste en: admisión, compresión, explosión y escape, los gases provocados por este son uno que los principales contaminantes para el medio ambiente siendo esta la mayor problemática y por años se han querido reducir estos con el uso de catalizadores sin reducirlos en su totalidad. En los últimos años, el interés por la electricidad como energía alternativa y la preocupación por el efecto contaminante de los combustibles, ha vuelto a poner en primera línea a los vehículos propulsados por electricidad, convirtiéndolos en una prioridad para todas las marcas.



METODOLOGÍA

Se utilizo un auto Chevrolet Optra con un motor de 4 cilindro de inyección electrónica como base para este proyecto donado por el Instituto Tecnológico Superior de Guanajuato al igual que el kit de conversión a automóvil eléctrico, pero para esto se realizó la investigación sobre los kits existentes en el mercado con la capacidad para tener un correcto funcionamiento ya montado en el auto. Dentro del los elementos electrónicos que se eligieron para esta conversión son los siguientes: Motor eléctrico de inducción YS220H020 SCROU: Se opto por este motor ya que en las especificaciones muestra que es de 144V 21KW 60KW ya que tiene la potencia necesaria para mover un automóvil de 1 y hasta 4 toneladas, ya que el vehículo pesa un poco mas de 1 tonelada ya con 4 pasajeros y el conductor alcanzando una velocidad aproximada ente 100-150km. Controlador de carga motriz (velocidad) electrónico MC3336E450: Se determino utilizar este controlador de carga ya que es el adecuado para el voltaje con el que funciona el motor que es de 144V a 400A. Convertidor DC/DC electrónico 144/12 ENPOWEE: Se utilizará este convertido DC/DC ya que la batería es de 144V la cual se necesitará reducir el voltaje a 12v pero a 500W. Un cargador de batería inteligente de alta eficiencia CH4100-144 ENPOWER: Se opto por utilizar este tipo de cargador inteligente ya que cuanto llega a la carga máxima el cargador corta esta para que no haya un sobrecalentamiento de la batería o bien que no se descomponga el controlador de carga. Pedal de acelerador electrónico P400 ENPOWER 12V: Este pedal es utilizado en la mayoría de los kits de automóvil eléctrico ya que controla las fases del motor regulando la potencia y velocidad mandando la señal al controlador de velocidad. BMS inteligente lifepo4 85: Esto es un sistema de gestión de batería siendo un componente inteligente que gestiona el sistema de almacenamiento de energía para este proyecto se opto por utilizar la versión de 72V a 200AMP. Enchufe de entrada de carga para vehículo eléctrico tipo de vehículo J1172: Este es un adaptador para la entrada de carga del vehículo para recargar las baterías, este para un voltaje de 220V. Enchufe para cargador EV SAE J1772 CONECTOR TIPO 1. Este es el enchufe del cargador para el modelo mencionado anteriormente. Batería lifepo4 fosfato prismático modulo con 8 celdas de 105Ah: Es la batería que se utilizara para potenciar el motor eléctrico, para el modelo de automóvil que se eligió este modelo de 8 celdas de 105Ah que le dará la potencia necesaria para obtener una buena eficiencia del sistema. Batería Acumulador LTH-L-22F-450: Esta batería es la que utiliza el modelo del automóvil la cual funcionara para alimentar los accesorios del automóvil sin necesidad de hacer una modificación compleja en el sistema eléctrico. Una vez haciendo la selección del kit y las variables de componentes electrónicos para el automóvil donado se realizo el desmontaje del motor, sistema de refrigeración de este y depósitos que se encontraban en el vano motor, así como el tanque de gasolina, se realizo un acomodo para tener preparado el espacio para fabricar soportes para adaptar el motor eléctrico con todos sus componentes electrónicos.


CONCLUSIONES

Durante la estancia de verano se logró adquirir los conocimientos teóricos que conlleva la conversión de un automóvil de gasolina a uno eléctrico analizando las especificaciones en las hojas de datos para hacer una adaptación eficiente realizando una correcta instalación eléctrica de los componentes electrónicos que controla y alimenta el motor eléctrico, una vez hecho la investigación se hizo el desmonte del motor y el tanque de gasolina. Al momento de realizar el reporte se está haciendo la instalación del kit en el automóvil realizando las adaptaciones eléctricas para que los accesorios del auto funcionen con normalidad.
Olivas González Ericka del Carmen, Universidad Nacional de Ingeniería
Asesor: Mg. Edgar Dario Obando Paredes, Universidad Cooperativa de Colombia

PROPUESTA DE USO DE TéCNICAS DE INTELIGENCIA ARTIFICIAL EN LA PLANEACIóN DE SISTEMAS DE DISTRIBUCIóN ELéCTRICA. CASO DE ESTUDIO COLOMBIA Y NICARAGUA


PROPUESTA DE USO DE TéCNICAS DE INTELIGENCIA ARTIFICIAL EN LA PLANEACIóN DE SISTEMAS DE DISTRIBUCIóN ELéCTRICA. CASO DE ESTUDIO COLOMBIA Y NICARAGUA

Olivas González Ericka del Carmen, Universidad Nacional de Ingeniería. Asesor: Mg. Edgar Dario Obando Paredes, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

La creciente complejidad de los sistemas eléctricos de potencia junto al desarrollo de la inteligencia artificial (IA) ha impulsado cambios tecnológicos significativos en el diseño, operación y mantenimiento de estos sistemas. Estos cambios buscan principalmente reducir tiempos de cálculo, disminuir costos y asegurar una operación confiable de la red eléctrica. En los últimos años se han propuesto diversas aplicaciones de modelos de programación en cálculos y análisis que incluyen estudios de flujo, estimación de cargas, identificación de topología, entre otras. Así como la IA engloba un conjunto de variadas técnicas de aprendizaje automático y modelos heurísticos, las soluciones que se le han dado a los desafíos energéticos son variadas. En este contexto, tanto Nicaragua como Colombia han identificado sus desafíos en sus respectivos planes energéticos. Nicaragua proyecta ampliaciones y reforzamientos en su red de transmisión y distribución, mientras que Colombia se orienta a una digitalización y automatización más eficiente de su sistema eléctrico. Además, ambos países han habilitado puntos de recarga para vehículos eléctricos, abriendo la posibilidad a tecnologías como el V2G (vehicle-to-grid, del vehículo a la red). Estos sistemas eléctricos pueden beneficiarse significativamente por una mejor planificación de la distribución eléctrica y la implementación de IA para garantizar el acceso a energía de calidad para la población, así como para fomentar el desarrollo industrial a través de la tecnificación.



METODOLOGÍA

Se realizaron búsquedas de la literatura existente sobre el uso de la IA en los sistemas eléctricos de potencia, con un énfasis particular en la aplicación de dichas técnicas en la planeación de redes de distribución. Los artículos científicos se seleccionarán y analizarán en función de su relevancia y concordancia con el tema propuesto. Se destacarán los distintos conceptos y técnicas desarrolladas, así como las áreas específicas en las que se han implementado. Se analizarán los casos recopilados identificando buenas prácticas y lecciones aprendidas que puedan ser aplicables a Nicaragua y Colombia. Este análisis ayudará a comprender las condiciones y factores críticos de éxito en la adopción de tecnologías de la IA en la planeación eléctrica. Con la información recopilada y analizada, se propondrán hojas de ruta para la implementación de IA en la planeación eléctrica en regiones heterogéneas.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos valiosos sobre las tendencias actuales en el uso de la inteligencia artificial en los sistemas eléctricos de potencia. Se aclararon conceptos relacionados con las diversas técnicas de IA ya utilizadas, así como las áreas específicas de aplicación y las razones detrás de la selección de cada técnica. Además, se proporcionaron pautas para la selección del algoritmo de inteligencia artificial más adecuado, considerando los requisitos y funciones necesarias para un futuro desarrollo de una IA que asista en el proceso de planificación de sistemas de distribución.
Olivas Matrinez Juan Daniel, Universidad Nacional Autónoma de Nicaragua, Managua
Asesor: Dra. Magally Martinez Reyes, Universidad Autónoma del Estado de México

TESTEO Y DESARROLLO DE SOFTWARE EDUCATIVO


TESTEO Y DESARROLLO DE SOFTWARE EDUCATIVO

Castellón Gutiérrez Magda Verónica, Universidad Nacional Autónoma de Nicaragua, Managua. Olivas Matrinez Juan Daniel, Universidad Nacional Autónoma de Nicaragua, Managua. Asesor: Dra. Magally Martinez Reyes, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

El proceso de evaluación de plataformas educativas es una actividad primordial para la formación del futuro profesionista relacionado con el área de cómputo, ya que más allá de una cuestión técnica, forma parte de un área de desarrollo en la investigación relacionada con mediciones de experiencias de usuario. Por ello este proyecto plantea testear dos plataformas educativas, es decir, identificar los factores que influyen en el correcto aprendizaje para las personas.  Se pretende mejorar la educación en diversos temas utilizando como base el pensamiento computacional, trabajando en formas interactivas de aprendizaje dejando un poco de lado los métodos de enseñanza presenciales y tradicionales premiando sobre todas las cosas el autoaprendizaje del estudiante a partir del material de estudio dado. 



METODOLOGÍA

Estas plataformas educativas, como su nombre indica, están diseñadas para educar sobre diversos temas y formas en los que se puede hacer uso del pensamiento computacional y el uso de algoritmos. Para poder seguir con el buen desarrollo de estas plataformas, se hizo uso de una métrica estandarizada sobre medición de experiencias de usuario, se verificó la usabilidad de ambas plataformas, se hicieron sugerencias de mejora y ahora se espera realizar las sugerencias dadas. Tomando en cuenta y detallando un poco más el proceso de lo anteriormente mencionado los testers de dicha aplicación se dan a la tarea de brindar retroalimentación a los desarrolladores a partir de su propia experiencia utilizando la plataforma y analizandola en profundidad, esta información es recopilada por medio de informes en los cuales se señalan los problemas que se llegaron a presentar a la hora de realizar dichas pruebas. En estos mismos reportes también los testers desde su perspectiva como usuario dan recomendaciones sobre cómo se podrían mitigar los problemas encontrados.  Las principales observaciones o fallas que debían encontrar los encargados del testeo estaban principalmente relacionadas con la información contenida en  los temas que ofrece la plataforma, se debían encontrar errores ortográficos, de coherencia o cohesión, bugs y también dar algunas cuantas ideas sobre pequeños posibles cambios o sugerencias con las que se puede llegar a facilitar el aprendizaje de los estudiantes, como por ejemplo formularios, videos o texto en formato de audio. En tanto a la segunda plataforma, los participantes fueron dados a la tarea de rellenar información faltante en su base de datos, corregir datos erróneos o con formato incorrecto y de reportar la información que no pudo ser encontrada para rellenar, además de eso también se encargaron del desarrollo de algunas interfaces en las que se mostraba la información, todo este trabajo de desarrollo fue realizado utilizando Wordpress y sin llegar a manipular el backend de la aplicación.


CONCLUSIONES

El proceso de evaluación de la plataforma E4C&CT dio como resultado final que es una herramienta bastante viable y muy efectiva para el aprendizaje de manera virtual y si las recomendaciones dadas por los testers llegan a ser implementadas por los desarrolladores de una buena manera puede convertirse en una propuesta mucho más sólida y eficiente de lo que ya es a día de hoy, es una aplicación bastante bien encaminada que fomenta el aprendizaje autodidacta de los usuarios dejándolos avanzar y resolver los problemas por su propia cuenta y ritmo dando simplemente las herramientas necesarias para comprenderlo. En la segunda plataforma Eical, no se obtienen resultados inmediatos debido a que su finalización no está prevista hasta el mes de septiembre pero se espera que al finalizar esta pueda ser utilizada de manera satisfactoria por los interesados. En conclusión, las actividades desarrolladas mediante esta estancia y el objetivo principal de la investigación que viene siendo el testeo y la evaluación de la viabilidad de la plataforma E4C&CT además del apoyo en el desarrollo de Eical fueron realizadas  con éxito dando a los desarrolladores la información necesaria de sus puntos débiles para mejorarlos a futuro optimizando aún más la calidad del aprendizaje en la mencionada primeramente y en Eical brindando apoyo en el proceso de diseño y alimentación de datos.
Oliveros Almenarez Carolina Vanessa, Universidad de la Costa
Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)

ANáLISIS ESTADíSTICO DE DATOS LOGíSTICOS Y DE TRANSPORTE EN UNA EMPRESA MEXICANA USANDO EL LENGUAJE R.


ANáLISIS ESTADíSTICO DE DATOS LOGíSTICOS Y DE TRANSPORTE EN UNA EMPRESA MEXICANA USANDO EL LENGUAJE R.

Oliveros Almenarez Carolina Vanessa, Universidad de la Costa. Ruiz Franco Mayra Alejandra, Corporación Universitaria Minuto de Dios. Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El propósito principal de este estudio es realizar un análisis estadístico de datos logísticos y de transporte en una empresa mexicana, utilizando el lenguaje R. Este análisis busca transformar los datos recolectados por la organización en información valiosa que permita generar una visión más amplia y profunda de sus operaciones. Los datos disponibles incluyen información detallada sobre municipios de origen, municipios de destino, fechas, horas de salida, tiempo pronosticado y tiempo real de llegada. Mediante este análisis, se podrán identificar ineficiencias en las rutas de transporte, así como demostrar patrones en la demanda que ayudarán a optimizar la planificación logística. La importancia de este propósito radica en el potencial de estos datos para ofrecer percepciones cruciales que pueden transformar las operaciones de la empresa, mejorando su eficiencia y reduciendo sus desperdicios. Por lo tanto, el análisis de datos no solo es una herramienta de mejora, sino una necesidad estratégica para mantenerse competitivo en el mercado. Utilizando el lenguaje R, este estudio pretende aprovechar plenamente el valor de los datos logísticos y de transporte de la empresa para ofrecer insights accionables y mejorar sus operaciones.



METODOLOGÍA

El análisis comenzó desarrollando en RStudio el código necesario para obtener una tabla de frecuencias que permita observar la cantidad de viajes realizados entre distintos lugares de origen y destino, tanto dentro de la misma ciudad como entre diferentes ciudades. Los datos se exportaron a un archivo de Excel para facilitar su análisis. Posteriormente, se implementó un diagrama de dispersión para visualizar la relación entre los tiempos reales y pronosticados de transporte. El análisis del diagrama mostró una correlación positiva entre ambas variables, aunque con una significativa dispersión a medida que los tiempos aumentan. Se aplicó una prueba de correlación para confirmar esta tendencia. Para profundizar en el análisis, se generó un diagrama de cajas y bigotes utilizando el paquete ggplot2, revelando que el modelo de pronóstico tiende a subestimar los tiempos de transporte, especialmente para tiempos más largos.  Se aplicó el test t de Student para comparar los tiempos de transporte pronosticados con los tiempos reales. Los resultados mostraron una diferencia estadísticamente significativa entre las medias de ambos conjuntos de datos, con los tiempos pronosticados siendo, en promedio, 0.60 unidades más largos que los tiempos reales. Se realizaron pruebas de normalidad utilizando histogramas y la prueba de Shapiro-Wilk, confirmando que los datos no se distribuyen de manera normal. Por ello, se optó por la prueba no paramétrica de Kruskal-Wallis, que mostró diferencias significativas entre las variables "Tiempo-Real" y "Tiempo-Pronosticado". Finalmente, se evaluaron específicamente los datos de Veracruz mediante histogramas y pruebas de normalidad, aplicando nuevamente la prueba de Kruskal-Wallis, confirmando diferencias significativas entre los tiempos reales y pronosticados en esta ciudad.


CONCLUSIONES

En la estancia de verano, se adquirieron conocimientos teóricos y prácticos fundamentales para realizar este análisis estadístico de datos logísticos y de transporte en una empresa mexicana, utilizando el lenguaje R. Este estudio reveló con frecuencias la cantidad de viajes realizados entre lugares de origen y destino, destacando que la mayor cantidad de viajes, 61.554, se realiza en Veracruz. Este hallazgo sugiere una alta demanda de transporte en la ciudad, probablemente debido a una mayor densidad de población y actividad económica. Esta información es crucial para la planificación urbana y la mejora de los servicios de transporte en Veracruz. El diagrama de cajas y bigotes muestra que el modelo de pronóstico tiende a subestimar los tiempos de transporte, especialmente en los casos de tiempos más largos. Además, el diagrama de dispersión indica una correlación positiva entre los tiempos reales y los pronosticados. Sin embargo, también se observa una dispersión significativa a medida que los tiempos aumentan, lo que sugiere variabilidad en las predicciones para tiempos más largos. La mayoría de los puntos se concentran en la parte inferior izquierda del gráfico. La prueba t de Student confirma una diferencia estadísticamente significativa entre los tiempos reales y los tiempos pronosticados, con los tiempos pronosticados siendo, en promedio, 0.60 unidades más largos que los tiempos reales. Este resultado indica que el modelo de pronóstico tiende a sobreestimar los tiempos de transporte. Además, las pruebas de normalidad y Kruskal-Wallis corroboraron que las distribuciones de los tiempos reales y pronosticados no son normales y presentan diferencias significativas.  
Olmedo Zayas Cindy Viviana, Universidad Autónoma de Baja California
Asesor: Mtra. Miriam Vega Hernández, Benemérita Universidad Autónoma de Puebla

GESTIóN INTEGRAL DE LOS RESIDUOS URBANOS EN EL MUNICIPIO DE TIJUANA, DEL ESTADO DE BAJA CALIFORNIA.


GESTIóN INTEGRAL DE LOS RESIDUOS URBANOS EN EL MUNICIPIO DE TIJUANA, DEL ESTADO DE BAJA CALIFORNIA.

Olmedo Zayas Cindy Viviana, Universidad Autónoma de Baja California. Asesor: Mtra. Miriam Vega Hernández, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La gestión integral de residuos es fundamental para la economía circular, ya que promueve el uso eficiente de los recursos y la minimización de los impactos ambientales negativos. Este enfoque busca minimizar el impacto ambiental y maximizar el aprovechamiento de los residuos mediante estrategias como la reducción en la fuente, la reutilización, el reciclaje y la disposición adecuada. Para identificar la problemática a trabajar, una pregunta general con la finalidad de responder una serie de preguntas las cuales nos ayudarían a identificar y describir el tema a trabajar. De está forma surge el análisis para conocer las necesidades de la población y seguidamente, elaborar un encuadre estratégico para establecer las bases del tema. Así es como nace el proyecto llamado “Gestión integral de los residuos sólidos urbanos en el municipio de Tijuana, del estado de Baja California, México” el cual tiene como objetivo general promover y recopilar información sobre la gestión integral de residuos mediante la investigación en diversos artículos académicos para generar difusión, logrando visibilizar conocimientos de el tema.



METODOLOGÍA

Recopilación de datos sobre la gestión de residuos sólidos a nivel nacional e internacional. Revisión de la literatura científica sobre los lineamientos de la gestión actual de residuos en Tijuana, Baja California mediante la consulta de documentos como el Programa de Gestión Integral de los Residuos Sólidos (PGIRS) y normativas que regulan dicha actividad y de otras localidades en México y a nivel internacional. Análisis comparativo de las prácticas de gestión de residuos a nivel nacional. Identificación de prácticas de gestión integral de los residuos sólidos urbanos en Tijuana, México, comparación con otras localidades en México y a nivel internacional. La comparación incluyó aspectos como la recolección, tratamiento, reciclaje y disposición final de residuos, así como las políticas y regulaciones que respaldan estas prácticas. Identificación de mejores prácticas y estrategias de gestión de residuos sólidos Se identificaron y clasificaron las mejores prácticas y estrategias de gestión de residuos sólidos. Analizar los desafíos y oportunidades de la de la gestión integral de residuos sólidos en Tijuana, Baja California para generar propuestas, basadas en el modelo de economía circular Análisis socioeconómico y ambiental de las propuestas identificadas.


CONCLUSIONES

El sistema de gestión de residuos Tijuana, Baja California, México , en particular en lo que respecta a la recogida de residuos, se caracteriza actualmente por el desequilibrio del desarrollo y la insuficiente precisión de los indicadores, y necesita acciones concertadas y medidas para optimizarlo con el fin de garantizar la recogida adecuada de los residuos municipales a nivel regional, así como para crear un sistema eficaz de información y análisis para supervisar el estado del sistema de gestión de residuos domésticos. Se concluye que la mejora del sistema de recogida de residuos debe ser una de las principales prioridades a nivel local para reducir el riesgo de impacto negativo en la vida y la salud humanas, el medio ambiente, etc.
Olvera Calderon Claudia Yomara, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Diofanor Acevedo Correa, Universidad del Sinú

HARINA DE ñAME: UN PRODUCTO CON POTENCIAL NUTRICIONAL


HARINA DE ñAME: UN PRODUCTO CON POTENCIAL NUTRICIONAL

Olvera Calderon Claudia Yomara, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Diofanor Acevedo Correa, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

El ñame (Dioscorea spp.) es un tubérculo de gran importancia en la alimentación de regiones tropicales y subtropicales, conocido por su valor cultural y nutricional. La elaboración de harina de ñame ha emergido como una solución tecnológica prometedora para mejorar la conservación del tubérculo y aumentar su valor en el mercado. La producción de harina de ñame implica diversos métodos de procesamiento, desde técnicas tradicionales de secado al sol hasta tecnologías avanzadas como la liofilización. Cada método tiene implicaciones en términos de coste, eficiencia y calidad del producto final. Aunque la harina de ñame ofrece un perfil nutricional favorable, incluyendo alto contenido de fibra y bajo índice glucémico, la percepción del consumidor y el reconocimiento del producto son aspectos críticos para su aceptación en mercados más amplios. La falta de información accesible y educativa sobre los beneficios de la harina de ñame puede limitar su adopción. Además, el desarrollo de productos derivados de la harina debe ser cuidadosamente diseñado para mantener y destacar sus propiedades nutricionales, lo cual requiere investigación y desarrollo continuos.



METODOLOGÍA

Investigación y recopilación de documentos Los documentos utilizados (libros, tesis, artículos científicos o normas) fueron obtenidos mediante la plataforma de google académico en formato pdf.   Análisis y selección de documentos  Se realizó un concentrado de todos los documentos recopilados en la investigación en el programa de Microsoft Excel 2010, mediante una tabla, la cual fungió como una herramienta para facilitar la identificación de cada archivo para así realizar de manera sencilla y objetiva el análisis y la selección de los archivos como de la información para cumplir con el objetivo planteado.  Interpretación de resultados de la investigación La interpretación de los resultados se llevó a cabo en un archivo de Microsoft Word 2010. En donde se plasmaron las ideas mediante un escrito, el cual abarca cada uno de los subtemas referentes al tema central, con la finalidad de que el lector conozca, comprenda y analice acerca de los temas explicados. 


CONCLUSIONES

En las últimas décadas el interés por los productos alimenticios derivados de tubérculos ha experimentado un notable crecimiento, las harinas de ñame han emergido como una alternativa alimentaria prometedora. Las harinas de ñame se obtienen mediante un proceso que transforma el tubérculo fresco en un ingrediente seco y versátil, adecuado para una variedad de aplicaciones en la industria alimentaria. Los métodos de obtención de harinas de ñame varían desde técnicas tradicionales hasta enfoques modernos que incorporan tecnologías avanzadas para mejorar la eficiencia y el perfil nutricional del producto final.  Secado al Sol: este método implica la exposición de los tubérculos  a la luz solar directa durante un período prolongado.  Secado en Horno: técnica que se realiza en instalaciones controladas, utilizando calor artificial para eliminar la humedad del ñame. Secado por Convección: este método utiliza corrientes de aire caliente para remover la humedad del ñame.  Secado por Liofilización: técnica que implica la congelación del ñame seguido de la sublimación del hielo en un ambiente de vacío. Blanqueo y Secado: implica la inmersión de los tubérculos en agua caliente, ayuda a inactivar enzimas que podrían afectar la calidad de la harina. Procesamiento en Seco: los tubérculos de ñame son secados sin pasar por un proceso de cocción previo.  Composición nutricional de la harina de ñame  A medida que la demanda de alimentos funcionales y nutritivos crece, se vuelve esencial una comprensión profunda de la composición nutricional para aprovechar al máximo sus beneficios potenciales. La harina de ñame está constituido por una serie de micro y macronutrientes que hace que esta sea un alimento con un perfil nutricional distintivo que ofrece una variedad de beneficios para la salud.  Composición de Macronutrientes Carbohidratos: constituyen 80-90% de su peso seco.  Proteínas: contiene 1-2% de proteínas. Grasas: contenido de aproximadamente del 0.2-0.5%.  Fibra Dietética: alrededor del 2-4% de fibra dietética. Composición de Micronutrientes Vitaminas:  Vitamina C: pequeñas cantidades de vitamina C (aproximadamente 5-10 mg/100 g de harina).  Vitaminas del Complejo B: Las vitaminas B presentes incluyen tiamina (B1-0.1 mg/100 g), riboflavina (B2-0.03 mg/100 g), niacina (B3-0.6 mg/100 g), ácido pantoténico (B5-0.3 mg/100 g) y piridoxina (B6-0.1 mg/100 g). Minerales: Potasio: 400-500 mg por 100 g de harina.   Magnesio: 30-50 mg por 100 g de harina.  Fósforo: 30-40 mg por 100 g de harina. Calcio: 10-20 mg por 100 g de harina. Hierro: 1-2 mg de hierro por 100 g de harina. Zinc: 0.5-1 mg por 100 g de harina. En conclusión, la harina de ñame representa una valiosa adición a la oferta de ingredientes alimentarios gracias a su notable perfil nutricional y sus múltiples beneficios para la salud. Este estudio ha demostrado que la harina de ñame es una excelente fuente de nutrientes esenciales, incluyendo carbohidratos complejos, fibra dietética, vitaminas (como la vitamina C y las vitaminas del complejo B), y minerales (como potasio, magnesio y hierro). La rica composición de fibra y micronutrientes no solo contribuye a una dieta equilibrada, sino que también promueve beneficios significativos para la salud, como la mejora de la digestión, la regulación del azúcar en sangre y el fortalecimiento del sistema inmunológico. La harina de ñame no solo ofrece una solución nutritiva y versátil para la industria alimentaria, sino que también presenta oportunidades para el desarrollo de productos innovadores que pueden satisfacer la creciente demanda de alimentos saludables y funcionales. El fomento de investigaciones continuas en estas áreas será clave para maximizar los beneficios de la harina de ñame y su integración efectiva en el mercado alimentario global.
Olvera Maldonado Oscar Adrian, Instituto Tecnológico de Reynosa
Asesor: Mg. Yenny Marcela Orozco Ocampo, Universidad Autónoma de Manizales

ADECUACIóN Y MEJORA DE MóDULO PARA SIMULACIóN DE OPERACIóN DE LIMAS ENDODóNTICAS


ADECUACIóN Y MEJORA DE MóDULO PARA SIMULACIóN DE OPERACIóN DE LIMAS ENDODóNTICAS

Olvera Maldonado Oscar Adrian, Instituto Tecnológico de Reynosa. Asesor: Mg. Yenny Marcela Orozco Ocampo, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Durante mi estadía como investigador del programa delfín en la Universidad Autónoma de Manizales, el nombre del proyecto en el trabajé fue Adecuación y mejora de módulo para simulación de operación de limas endodónticas bajo la tutela de la Mg. Yenny Marcela Orozco Ocampo. Para llevar a cabo dicha participación, se firmó un acuerdo de confidencialidad, debido a que el Módulo se encuentra en proceso de protección intelectual, una vez firmado el convenio tuve acceso a la información del proyecto y procedí a leer la documentación y antecedentes. Posteriormente, se propuso de manera conjunta, un plan de trabajo para las siete semanas de la estancia, en este se estableció como meta proponer mejoras a partir de la identificación de puntos críticos en el módulo, para esto fueron necesarias un par de reuniones donde se mostró cómo configurar el módulo y la operación del mismo, ya que se requiere del conocimiento teórico y práctico. A partir de esto, fue posible determinar cuáles aspectos se pueden mejorar para hacer más fácil y segura la operación para el usuario, a su vez, se realizaron una serie de videos y adecuaciones al manual, acorde a los cambios sugeridas. Las problemáticas y soluciones propuestas, se detallan a continuación.



METODOLOGÍA

Para realizar el presente trabajo se utilizó una metodología de Cuadro de mando integral (CMI), esto debido a que es una herramienta de gestión estratégica que nos ayuda a traducir la visión y la estrategia en acciones concretas, brindando una mayor claridad entre el investigador y el pasante, para el presente se propusieron las siguientes tareas. Lectura de documentación Inspección y operación del módulo Generación de propuestas de mejora (Diseño conceptual). Desarrollo de manuales y videos de uso del dispositivo. Implementación de mejoras. Conclusiones. Tras la inspección y operación del módulo se identificaron los siguientes puntos críticos, a su vez, se generaron distintas propuestas de mejora para finalmente elegir la que más convenga. Punto crítico: El punto de partida (Punto cero) debe ser indicado manualmente por el usuario y el canal artificial se sujeta a la base mediante tornillos. Se requiere diseñar una base nueva, donde se puedan montar diferentes geometrías de cubos, para que independientemente de la forma del cubo el punto 0 siempre sea el mismo, con esto podríamos agregar un sensor (herradura o fotoeléctrico) para que detecte la presencia del componente y por consiguiente los motores realicen el recorrido; o podríamos evitar los sensores y hacer un programa para que al presionar un botón (con enclavamiento) el brazo se coloque en el punto 0 y al volver a presionarlo, vuelva a la posición inicial. Para esto, se reutilizó la idea de las primeras propuestas, sin embargo, se deshechó el concepto del mecanismo de ajuste y se propuso un sistema mediante resortes; estos estarán extendidos manteniendo la base cerrada, a medida que se abra la base, se comprimen los resortes, lo que permitirá que el cubo siempre se encuentre sometido a presión, dejándolo firme sobre la base; en cuestión de los canales radiculares hechos en piezas rectangulares, se añadió un aditamento para que al igual que los cubos, queden firmes y conservando el mismo punto 0 al montarlos. Tras analizar y evaluar las propuestas, esta fue la elegida.


CONCLUSIONES

Los resultados obtenidos hasta el momento han sido buenos, primeramente, se consiguió detectar el componente dañado del módulo y con esto se pudo repararlo para proseguir a realizar la puesta a punto. Ya con el dispositivo en funcionamiento fue posible observar su funcionamiento y por consiguiente generar las propuestas con las cuales se logró solucionar el problema de la sujeción de los canales artificiales a la base, volviendo más fácil la acción para el usuario y eliminando el trabajo extra que esto implicaba; con la base diseñada para el sensor de herradura, el sensado ya no está sujeto a funcionar solo con cubos de ciertas dimensiones, debido a que se puede desplazar según se requiera; el módulo cuenta con las señalizaciones adecuadas para una operación  segura del usuario y los soportes antivibración generan una gran estabilidad al operar, sin importar las imperfecciones de la superficie donde se coloque; en cuestión de la colocación del motor de endodoncia, ya se está trabajando en un diseño que permita sujetarlo mediante un sistema de resortes (similar al de sujeción del cubo). Finalmente, se realizaron videos tutoriales como apoyo para el usuario, a su vez, se aplicaron las modificaciones pertinentes al manual, acorde a los cambios hechos en el dispositivo, también se añadió una sección de Problemas frecuentes en la cual se detalló la falla con el driver de motor paso a paso y otras situaciones observadas durante la operación. Aún hay trabajo por realizar, sin embargo, hasta el momento los avances logrados van acorde al plan de trabajo.
Olvera Sarabia Diego Fernando, Universidad de Guadalajara
Asesor: Mtro. Erasmo José Aguilar Arriola, Universidad Nacional de Ingeniería

CONCRETO ALTERNATIVO CON SUSTITUCIÓN DE AGREGADO FINO POR VIDRIO RECICLADO


CONCRETO ALTERNATIVO CON SUSTITUCIÓN DE AGREGADO FINO POR VIDRIO RECICLADO

Mendoza Rodríguez Angel Gabriel, Universidad de Guadalajara. Olvera Sarabia Diego Fernando, Universidad de Guadalajara. Asesor: Mtro. Erasmo José Aguilar Arriola, Universidad Nacional de Ingeniería



PLANTEAMIENTO DEL PROBLEMA

En los últimos años se ha avanzado en diferentes partes del mundo en el desarrollo de nuevos concretos que tengan un valor de sostenibilidad y reciclaje en su proceso o producto final. En la actualidad ya se manejan términos como Concretos alternativos o ecológicos, que se pueden definir como una variante del concreto tradicional, diseñada para minimizar su impacto ambiental sin comprometer su rendimiento. Se fabrica utilizando materiales reciclados o subproductos industriales, como cenizas volantes, escoria de alto horno, y vidrio molido, entre otros. Estos materiales, que de otra manera terminarían en vertederos, contribuyen a la resistencia y durabilidad del concreto, mientras reducen la necesidad de cemento Portland, uno de los mayores contribuyentes a las emisiones de CO2 en la producción de concreto.En los últimos años se ha avanzado en diferentes partes del mundo en el desarrollo de nuevos concretos que tengan un valor de sostenibilidad y reciclaje en su proceso o producto final. En la actualidad ya se manejan términos como Concretos alternativos o ecológicos, que se pueden definir como una variante del concreto tradicional, diseñada para minimizar su impacto ambiental sin comprometer su rendimiento. Se fabrica utilizando materiales reciclados o subproductos industriales, como cenizas volantes, escoria de alto horno, y vidrio molido, entre otros. Estos materiales, que de otra manera terminarían en vertederos, contribuyen a la resistencia y durabilidad del concreto, mientras reducen la necesidad de cemento Portland, uno de los mayores contribuyentes a las emisiones de CO2 en la producción de concreto. Se considera un tema de tanta relevancia entre los Objetivos de Desarrollo Sostenible-ODS, específicamente dentro del Objetivo 12 Garantizar modalidades de consumo y producción sostenibles. Este objetivo busca garantizar modalidades de consumo y producción sostenibles, cruciales para sostener los medios de vida actuales y futuros. Con el crecimiento poblacional proyectado a 9800 millones para 2050, podrían necesitarse casi tres planetas para satisfacer los recursos naturales necesarios. Para lograr este objetivo, destacan: gestionar de manera sostenible y eficiente los recursos naturales en 2030; para 2020, asegurar la gestión ecológica de productos químicos y desechos, reduciendo significativamente su liberación al medio ambiente para minimizar impactos negativos en la salud y el ecosistema; y para 2030, reducir considerablemente la generación de desechos mediante prevención, reducción, reciclaje y reutilización.



METODOLOGÍA

Para este estudio experimentar, se trabajó con un agregado reciclado que en este caso fue el vidrio (oscuro y claro), para lo cual se elaboraron cilindros de concreto aplicando dos propuestas de mezcla nueva. Se elaboraron 6 cilindros con vidrio oscuro y 4 con vidrio claro, utilizando moldes con tamaños de 15 x 20 cm (ASTM C31, Práctica estándar para la fabricación y el curado de muestras de hormigón para ensayos en el campo).   Posteriormente a la construcción y curado, se realizaron los ensayos de acuerdo a normativa, considerando dos momentos, a los 14 días y a los 28 días (ASTM C39, Método de ensayo estándar para la resistencia a la compresión de muestras cilíndricas de hormigón).  El vidrio fue triturado y luego cribados. Ambos tipos de vidrio se obtuvieron de botellas de bebidas de consumo frecuente por parte de la población. Se destaca que estos materiales frecuentemente terminan como desperdicios en las calles o botaderos, sin aprovechar los valores de reciclaje que estos tienen.  Se empleó cemento hidráulico Portland gris de uso general (GU) marca CEMEX en concordancia con la norma NTON 12 006-11(NTON, 2011)y ASTM C1157(ASTM, 2003a).   Los equipos e instrumentos manejados durante el procedimiento:  Cabezales/cilindros de acero con neopreno  Aceite (para lubricar cabezales de acero)  Tamices #4 y #8 (entre 4 y 2.3 mm)  Prensa hidráulica para compresión POWER TEAM Model A, capacidad de 10.000 PSI  Cono de Abrams o revenimiento    Se utilizó una proporción de Agua-Cemento (a/c)0.7. La dosificación fue de1:2:1 (cemento: árido fino: árido grueso), para la cual, se realizaron dos mezclas con diferentes dosificaciones: para el primer tipo, se sustituyó en un 15% de la arena tradicional por vidrio claro; la segunda, se sustituyó en un 20% de la arena tradicional por vidrio oscuro. Las mezclas aprobadas fueron sometidas a la prueba de revenimiento usando el cono de Abrams, en condiciones de laboratorio, a temperatura de 34°C.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos sobre el diseño de mezclas de concreto, su resistencia a la compresión. En este caso con 2 variables (vidrio oscuro y claro). Los resultados obtenidos fueron óptimos, llegando a ser mejor de lo que esperábamos ya que el diseño de mezcla base era para una resistencia de 300 kg/cm2.
Oñates Vega Esthefanny Sofia, Instituto Nacional de Formación Técnica Profesional - INFOTEP
Asesor: Mg. York Eliecer Casalins Maza, Corporación Universitaria Americana

EVALUACIÓN HIGIÉNICA INDUSTRIAL DE ILUMINACIÓN EN EL ÁREA DE TALLER DE SOLDADURA DE LA EMPRESA PRIME ENERGIATERMOFLORES S.A.S. E.S.P. EN PERÍODO 2024-1


EVALUACIÓN HIGIÉNICA INDUSTRIAL DE ILUMINACIÓN EN EL ÁREA DE TALLER DE SOLDADURA DE LA EMPRESA PRIME ENERGIATERMOFLORES S.A.S. E.S.P. EN PERÍODO 2024-1

Iguaran Arrieta Liz Meliza, Instituto Nacional de Formación Técnica Profesional - INFOTEP. Oñates Vega Esthefanny Sofia, Instituto Nacional de Formación Técnica Profesional - INFOTEP. Asesor: Mg. York Eliecer Casalins Maza, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del Problema En España, la incidencia anual de Trastornos Musculoesqueléticos (TME) relacionados con el trabajo es notable, con 24,2 casos por cada 10.000 accidentes laborales, afectando al 53% de la población trabajadora. Estos trastornos son la principal causa de enfermedad profesional en el país y generan costos económicos significativos, estimados entre el 0,5% y el 2% del PIB europeo en el año 2000, según la Agencia Europea para la Seguridad y la Salud en el Trabajo. A nivel global, la Organización Internacional del Trabajo (OIT) estima que cada día mueren aproximadamente 5.000 personas debido a accidentes o enfermedades laborales, lo que se traduce en 2 a 2,3 millones de fallecimientos anuales. De estos, 350.000 son causados por accidentes laborales y entre 1,7 y 2 millones por enfermedades profesionales. Además, se registran 270 millones de accidentes ocupacionales y cerca de 160 millones de casos de enfermedades no fatales cada año.



METODOLOGÍA

Diseño Metodológico Tipo de Estudio Este estudio es de tipo cuantitativo y se centra en la evaluación de una estrategia de investigación para cuantificar la recopilación y análisis de datos en el área del taller de soldadura de la empresa PRIME ENERGIA TERMOFLORES S.A.S. E.S.P. en Barranquilla. Se describen características como material, color, estructura y condición de las paredes, techo, piso, superficie de trabajo, ventanas y equipo, además de realizar mediciones de luz y analizar sus resultados numéricos. Método de Estudio El enfoque es inductivo, identificando variables y aspectos específicos para evaluar las condiciones higiénicas de iluminación en el taller de soldadura durante el periodo 2024-1, con el fin de mejorar la productividad y asegurar que el área cumpla con los niveles permitidos por la legislación aplicable para prevenir accidentes y enfermedades entre los trabajadores.


CONCLUSIONES

Resultados Determinación de Variables y Condiciones de Iluminación: Se utilizó el método de la constante del salón (K) para identificar variables como altura (H), largo (L) y ancho (A) del área, obteniendo un valor de K = 4.30. Este valor determinó la necesidad de tomar 25 puntos de medición de luz en el taller. Percepción de Condiciones de Iluminación: Según los trabajadores, el 58.3% afirma que hay una fuente de iluminación principal en el taller, pero el 41.7% considera que puede no cumplir con las normas nacionales. El 50.0% señala la falta de iluminación natural y adecuada protección de las luminarias, mientras que el 58.3% menciona que no se realizan inspecciones regulares ni hay una iluminación de emergencia adecuada. Establecimiento de la Calidad de Iluminación El estudio identificó que la iluminación en el taller de soldadura debe estar en el rango de 200 a 500 LUX, con un promedio de 300 LUX, según la normativa vigente. Se encontró que un 28% de las mediciones superaron los 500 LUX, mientras que el 72% estuvieron por debajo, indicando una falta de consistencia en la calidad de la iluminación debido a la ausencia de medidas como cortinas o persianas para controlar la luz natural. Recomendaciones de Mejora Se recomienda realizar estudios higiénicos de iluminación anualmente, cambiar las luminarias dañadas, y establecer un plan de mantenimiento y limpieza de los sistemas de iluminación. Además, es crucial implementar programas de capacitación para el personal, enfocados en la salud visual y la realización de pausas activas. Estas acciones no solo aseguran el cumplimiento legal sino que también mejoran la productividad y el bienestar de los empleados. Conclusiones Una iluminación adecuada es esencial para un entorno de trabajo cómodo y productivo. En el caso de PRIME ENERGIA TERMOFLORES S.A.S. E.S.P., la falta de estudios higiénicos de iluminación en el taller de soldadura representa un incumplimiento de la normativa vigente. Es fundamental realizar evaluaciones higiénicas de iluminación en todas las áreas de la empresa y aplicar las recomendaciones para mejorar el sistema de iluminación, lo que no solo garantizará el cumplimiento legal, sino que también aumentará la productividad y el bienestar de los empleados. Además, se deben realizar evaluaciones presupuestarias para las sustituciones y el mantenimiento del sistema de iluminación del taller de soldadura, asegurando que las mejoras puedan implementarse de manera efectiva y tengan un impacto positivo en el ambiente laboral.
Onofre Guarneros Alexis Manuel, Instituto Tecnológico de Gustavo A. Madero II
Asesor: Mtro. Gerardo Badillo Estrada, Universidad Politécnica de Tecámac

IMPLEMENTACIóN DE LEAN MANUFACTURING EN LA EMPRESA FAW ELAM


IMPLEMENTACIóN DE LEAN MANUFACTURING EN LA EMPRESA FAW ELAM

Garcia Paulin Bryan Guadalupe, Instituto Tecnológico de Matamoros. Meneses Sanchez Silvia, Universidad Politécnica de Tecámac. Mindiola Cordero María Clara, Universidad de la Guajira. Onofre Guarneros Alexis Manuel, Instituto Tecnológico de Gustavo A. Madero II. Asesor: Mtro. Gerardo Badillo Estrada, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

FAW ELAM es una empresa automotriz establecida, aunque ha mantenido una posición sólida en el mercado, enfrenta desafios relacionados con variabilidad en la calidad, elevado tiempo ciclo y desperdicio de recursos. Debido al incremento de venta correspondiente a los camiones de carga pesada y la construcción de líneas de ensamble, se requiere realizar un análisis de las líneas de producción y almacén para posteriormente implementar y llevar a cabo las metodologías del proceso el cual están sustentadas en las normas oficiales mexicanas.



METODOLOGÍA

Para realizar el análisis, se dividieron las 20 metodologías con el fin de implementar en 4 semanas, tomando así, 5 metodologías cada semana del proyecto y enfocándonos en su estudio dentro de la fabrica. 1. 5´s:organización y limpieza Value stream mapping Gestión visual/Andon Análisis de cuello de botella KPIs: indicadores de clave de desempeño 2. Flujo Progresivo Estandarización de Trabajo Just in Time Takt Time Hoshi kari / los 8 desperdicios 3. SMED (Cambio Rápido de Herramienta) Poka-Yoke Jidoka PDCA (Plan-Do-Check-Act) TPM: Mantenimiento productivo total 4. Heijunka Kaizen Kanban Gemba Administración de calidad total    


CONCLUSIONES

Tras la aplicación de Lean Manufacturing en FAW ELAM, se han obtenido los siguientes resultados: Se implementó la identificación de limitaciones, señalizaciones visuales claras en el área de trabajo, la organización del almacén se mejoró significativamente, se instauraron prácticas de limpieza regular y sistemática (5S). Se realizó una clasificación y disposición eficiente de los materiales, herramientas y equipos y finalmente se llevaran a cabo programas de formación continua para el personal. En conjunto, estos resultados han contribuido a un aumento de la productividad, una reducción de los desperdicios y una mayor satisfacción del cliente. La empresa ha logrado optimizar sus procesos, mejorar la calidad del trabajo y establecer una base sólida para el crecimiento futuro. La implementación de Lean Manufacturing en la industria automotriz resulta en mejoras sustanciales en términos de eficiencia operativa y competitividad. Empresas como FAW ELAM, al adoptar esta filosofía, logra reducir tiempos de ciclo, optimizar espacio y maquinarias, así como eliminar actividades que no agregan valor. Esto se traduce en una reducción notable en costos, tiempos de entrega, inventario, y número de defectos, mientras se mejora la calidad del producto y se aumenta la flexibilidad y utilización del personal.
Ontiveros Espinoza Isaac Alejandro, Universidad Tecnologica de León
Asesor: Dr. Alan David Blanco Miranda, Universidad Tecnologica de León

SISTEMA DE CAPACITACIóN DE CONTROL DE BRAZO ROBóTICO EDUCATIVO USANDO REALIDAD AUMENTADA Y SOFTWARE LIBRE


SISTEMA DE CAPACITACIóN DE CONTROL DE BRAZO ROBóTICO EDUCATIVO USANDO REALIDAD AUMENTADA Y SOFTWARE LIBRE

Ontiveros Espinoza Isaac Alejandro, Universidad Tecnologica de León. Asesor: Dr. Alan David Blanco Miranda, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

Este proyecto tiene como objetivo desarrollar un sistema de capacitación para el control de un brazo robótico educativo utilizando tecnologías de realidad aumentada (RA) y software libre. El sistema está diseñado para proporcionar una experiencia de aprendizaje interactiva y accesible, facilitando la comprensión de los principios básicos de la robótica y la programación.



METODOLOGÍA

Se realizo el desarrollo del brazo robótico utilizando software de diseño mecánico para modelado, simulación, visualización y documentación 3D del cual en este caso fue autodesk inventor con el fin de realizar pieza por pieza junto a sus motores y componentes como lo son la tornillería, rondanas, base del brazo robótico, bases de servomotores, extensiones, etc... a fin de tener todas las piezas modeladas de manera virtual para así lograr desarrollar el ensamble de estas piezas en conjunto dando un modelado virtual final de como quedaría físicamente el brazo. Una vez terminado el ensamble y teniendo el modelo final las piezas previamente hechas por separado serán impresas en una impresora 3D de las cuales cada una será fabricada en un tiempo aproximado de 3 horas por pieza (el tiempo depende de la pieza en cuestión, puede tardar mas o menos dependiendo sus características) para así tener también el ensamble físico sin ninguna limitante en cuestión a material para la fabricación del brazo robótico o problemas con las dimensiones que ya previamente se eliminaron esos errores con el modelado digital. Una vez teniendo todas las piezas impresas se realiza el armado físico de el esqueleto de el brazo junto a los servomotores a utilizar, para si probar la movilidad de el brazo y el correcto desplazamiento de los servomotores con todo el ensamble.   Para la implementación de la realidad aumentada se utilizó un software libre como lo es Python implementado en extensiones de Visual Studio Code, usado meramente con 2 finalidades de las cuales era un software agradable para los usuarios en el cual facilite la identificación de que hace cada parámetro del código y para lograr mantenerlo en una mejora continua en parámetro, haciendo más precisa y ágil su uso, en este apartado se realizaron 4 programas de los cuales uno era la declaración de un cerebro externo a la computadora que lograra tener este código funcional como en este aso lo fue Arduino o Raspberry el cual meramente funcionara como actuador en las acciones de los servomotores para desplazarse y sujetar, el segundo programa es para declarar un mapeo sobre las acciones, en este caso con la mano se realizara un mapeo por video para la detección de los movimientos realizados en tiempo real, junto a este programa viene acompañado el tercero ya que es el que tendrá los parámetro en cuestión al accionamiento a base de las señales creadas por la mano ya que tendrá los parámetros de lectura con el cual accionara los servomotores dependiendo lo que se pida. El 4to programa es meramente para comunica los programas previamente descritos en uno solo para que puedan trabajar en conjunto sin ningún tipo de error así al correr el programa mapeara la mano de el operador y ejecutara la acción que este le indique con la señal creada por la mano


CONCLUSIONES

A base de obtener exitosamente la programación se espera que una inteligencia artificial en base a un reconocimiento de gestos previamente cargados sea detectada por una cámara los cuales trabajando en conjunto lograran hacer que el brazo robótico logre ejecutar acciones como lo será desplazarse en sus ejes (arriba, abajo, izquierda, derecha, sujetar)
Ordaz Ambriz Bryan Alejandro, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

IDENTIFICACIóN DE SEQUIAS MEDIANTE íNDICES


IDENTIFICACIóN DE SEQUIAS MEDIANTE íNDICES

Ordaz Ambriz Bryan Alejandro, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las sequías son fenómenos climáticos extremos que pueden tener impactos devastadores en los ecosistemas, la agricultura, el suministro de agua y la economía. La identificación y monitoreo temprano de las sequías es crucial para la gestión de los recursos hídricos y la planificación de medidas de mitigación. Los índices de sequía, como el Índice de Precipitación Estandarizado (SPI) y el Índice Estandarizado de Precipitación y Evapotranspiración (SPEI), son herramientas importantes para la medir o caracterizar las sequias.  Identificar de forma temprana una sequía, así como lograr cuantificarla es de gran importancia en varios contextos diferentes, debido a que pueden existir déficits de humedad en el suelo, sequia agrícola que pueda afectar el crecimiento de los cultivos o puede existir una disminución significativa en los niveles piezométricos.



METODOLOGÍA

Para llevar a cabo el análisis de los índices SPI y SPEI, se inició con la recopilación de datos meteorológicos. La zona de interés donde se trabajo fue en la cuenca del rio Angulo, ubicada en Michoacán. Donde se obtuvieron registros mensuales de temperatura mínima, temperatura máxima y precipitación de aproximadamente de 15 estaciones meteorológicas situadas tanto dentro como fuera de la cuenca. Una vez recolectados los datos, se prosiguió a verificar la independencia y homogeneidad, y se realizó un llenado de datos vacíos, esto para asegurar que los datos fueran confiables. Se elaboro un código en R, en el cual se implementaron las metodologías específicas para calcular los índices SPI y SPEI. A continuación, se diseñó una plantilla para organizar las series de datos históricos de las variables meteorológicas de cada estación, de tal manera que el código en R pudiera leer las variables en cada uno de los archivos con variables de cada estación. El código desarrollado permitió obtener series mensuales de estos índices, con distintos periodos de acumulación: de 1-3 meses para evaluar la humedad del suelo, de 3-6 meses para analizar la sequía agrícola, y acumulaciones superiores a 12 meses para estudiar el almacenamiento de agua subterránea. Además, el código genera mapas de calor de las series históricas del SPI y SPEI. Estos mapas de calor se utilizaron junto con la información histórica de las sequías para verificar la coherencia de los resultados. Para integrar estos resultados en un entorno de análisis espacial, se crearon plantillas en Excel que contenían la serie de puntos correspondientes a cada año, permitiendo la importación de estos datos como shapefiles (vectores) con valores de SPI para cada año estudiado y para cada mes. En ArcGIS, se diseñó y ejecutó un modelo de herramientas que procesó cada shapefile, realizando una interpolación espacial de los puntos para cada mes y año. Este proceso permitió generar superficies continuas de los índices SPI y SPEI para toda la cuenca. Finalmente, se realizó una reclasificación de los datos interpolados siguiendo la clasificación estandarizada de los índices SPI y SPEI, con esto se garantizó que los índices estuvieran correctamente categorizados. La reclasificación permitió identificar y destacar las áreas afectadas por sequías de diferentes intensidades y duraciones.


CONCLUSIONES

Durante la estancia en el verano de investigación se trabajó con metodología estadística para la evaluación de datos meteorológicos obtenidos de las estaciones en la zona de estudio, se obtuvieron conocimientos teóricos acerca de la caracterización de sequías mediante índices, se logro adquirir conocimientos de programación en R y se aprendió a manejar el ModelBuilder de ArcGIS para la elaboración masiva de procesos Los índices desarrollados para la detección de sequías durante este verano, como el SPI y el SPEI, tienen en cuenta diferentes factores climáticos. El SPI se basa únicamente en la precipitación, mientras que el SPEI es más completo al considerar además la evapotranspiración. En zonas con altas temperaturas esto es algo a tomar en cuenta. Sin embargo, el SPI es más fácil de calcular y podría ser optimo en zonas donde la disponibilidad de datos meteorológicos es limitada o en algunos casos donde se requiere una evaluación rápida de la zona.
Ordoñez Rodriguez Angel Roberto, Instituto Tecnológico de Iztapalapa
Asesor: M.C. Judith Pérez Marcial, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE UNA PáGINA WEB PARA CONSULTAR EL ESTADO DE áNIMO DE LOS ESTUDIANTES CON LA AYUDA DE LAS HERRAMIENTAS CHAT GTP Y CODEIUM.


DESARROLLO DE UNA PáGINA WEB PARA CONSULTAR EL ESTADO DE áNIMO DE LOS ESTUDIANTES CON LA AYUDA DE LAS HERRAMIENTAS CHAT GTP Y CODEIUM.

Ordoñez Rodriguez Angel Roberto, Instituto Tecnológico de Iztapalapa. Xolalpa Moreno Itan Emir, Instituto Tecnológico de Iztapalapa. Asesor: M.C. Judith Pérez Marcial, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de aplicaciones web suele ser complejo ya que requiere de diversas tecnologías y suele ser complejo y tardado, incluso se generaba código repetitivo, las herramientas han evolucionado desde el autocompletado de código y la identificación de errores por el desarrollador, además de las herramientas CASE (Computer-Aided Software Engineering), generan código para adaptarlo a los objetivos. Las distintas herramientas han estado en constante cambio ya que se dio a conocer principalmente por ser un Chatbot el cual respondía preguntas que se le hiciera, de aquí podemos dar un ejemplo que sería Chat GTP ya que tuvo una gran popularidad, gracias a esta popularidad se dio origen a otros tipos de herramientas. Por ejemplo, el autocompletado de código se ha convertido en una característica común en los editores de texto, facilitando el trabajo del desarrollador al sugerir y completar fragmentos de código de manera eficiente. Estas herramientas también ofrecen sugerencias de código, lo que resulta en una interacción más productiva. Actualmente, existen herramientas avanzadas que no solo autocompletan código, sino que también generan documentación, explican el código, y realizan otras funciones útiles. Estas herramientas ayudan de gran manera a reducir la cantidad de tiempo que se emplea el desarrollo, eliminando las tareas repetitivas y por ende los desarrolladores tienen más tiempo que pueden implementar en tareas más complejas y, al mismo tiempo, disminuye la cantidad de errores durante el proceso de desarrollo. El objetivo de esta investigación es determinar si la implementación de estas herramientas en el desarrollo de una página web es realmente beneficiosa. Se evaluará su impacto en la eficiencia del proceso de desarrollo y en la calidad del código final.



METODOLOGÍA

Primero se realizó el análisis de los objetivos que son la mejora de la eficiencia, productividad, calidad y velocidad en el desarrollo de software, Al igual se tuvo que realizar una recolección de datos que hablaran acerca sobre el desarrollo utilizando estas herramientas por lo que de hay se pudo dar un idea sobre lo que iba esta investigación integrando las herramientas al desarrollo. Pasamos a identificar con cuáles herramientas con las que vamos a trabajar esto nos dio un amplio conocimiento de conocer cuantas herramientas de éstas existen ya que cada una de estas se tenía que investigar sobre qué tecnologías emplea, sus características, ventajas y desventajas al utilizar, una vez teniendo nuestras diferentes herramientas investigadas pasamos a tener en cuentas con cuales y cuantas herramientas íbamos a trabajar por lo que llegamos a la conclusión de utilizar Chat GTP y codeium. Al estar decididos con qué herramientas íbamos a trabajar tuvimos que estar familiarizados sobre las funciones que tenían estas dos herramientas, para poder sacar todo el provecho al ocuparlas esto lo ocupamos en el editor de código que fue VS code. La instalación de estas dos herramientas no fue muy complejo ya que codeium solamente se metía a la extensiones que proporciona VS code y se bajaban los paquetes desde esa parte, en cambio chat gtp solamente se tuvo que meter a su página web oficial y realizar las preguntas. En el desarrollo se estuvo ocupando de diferentes formas las herramientas es decir que Chat GTP se tuvo más en cuenta al desarrollar y la explicaciones del back end, ya que en esta área no se tenía mucho conocimiento por lo que tuvimos mayores problemas por ende necesitábamos que los explicaran el cómo funcionaban y comentando errores que nos daban, por parte de codeium se ocupó para tareas un poco más sencillas ya que se le preguntaba por código pequeño y se nos ayudaba más al usar HTML y CSS ya que se iban haciendo comentarios del código. Por último se tuvo en cuenta que Chat GTP recaba más información que te pueda ayudar ya que en un solo chat puede comprender los errores que va cometiendo esto los corrige y de la alguna otra solución esto se puede realizar las veces que se nos esté dando el error hasta poder darnos una solución adecuada, por codeium solamente se le podía pedir codigo sin poder darle alguna información adicional para darle alguna feedback adicional para que le ayude a entender los errores que proporciona.


CONCLUSIONES

Con los resultados obtenidos de las pruebas realizadas, observamos que al desarrollar la página web y consultar a Chat-GPT, en algunas ocasiones las respuestas proporcionadas eran útiles. Sin embargo, en otras ocasiones, al implementar las sugerencias, el compilador generaba errores debido a sintaxis desactualizadas que probablemente dejarán de funcionar en el futuro. Este problema se intensificó al usar el motor GPT-3, ya que utilizamos la versión gratuita de Chat-GPT, la cual limita la cantidad de respuestas proporcionadas con el motor GPT-4. En cuanto a nuestra segunda herramienta, Codeium, se utilizó con menos frecuencia que Chat-GPT. Codeium requiere un conocimiento previo considerable sobre el tema en cuestión, ya que su principal función es el autocompletado de código. Aunque ofrece un comando que permite generar código a partir de una descripción, este es efectivo solo para fragmentos cortos y repetitivos. Para códigos extensos y específicos, Codeium a veces produce errores o no cumple con lo solicitado. A pesar de la potencia de estas herramientas, en varias ocasiones fue necesario intervenir y realizar cambios en el código proporcionado. Esto fue más efectivo en tecnologías como HTML y CSS, lo que permitió reducir el tiempo de desarrollo en estas áreas. Sin embargo, en otras tecnologías en las que teníamos menos conocimiento, el tiempo dedicado al desarrollo fue mayor. Las ventajas de usar estas herramientas incluyen el aumento de la eficiencia y productividad, ya que facilitan el análisis de grandes cantidades de datos y la toma de decisiones, además de automatizar tareas repetitivas. Asimismo, ayudan a mejorar la calidad del desarrollo al permitir identificar errores durante la escritura del código e incluso adaptarse a las necesidades y preferencias de los usuarios. Finalmente, al liberar a los desarrolladores de tareas repetitivas, estas herramientas permiten dedicar más tiempo a la investigación y a la implementación de nuevas funcionalidades, enriqueciendo así el proceso de desarrollo y potenciando la innovación
Ordoñez Saavedra Maximiliano, Instituto Tecnológico de Reynosa
Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California

ANáLISIS MECáNICO DE UNA TORRE DE MATERIAL COMPUESTO EN UN AEROGENERADOR


ANáLISIS MECáNICO DE UNA TORRE DE MATERIAL COMPUESTO EN UN AEROGENERADOR

Ordoñez Saavedra Maximiliano, Instituto Tecnológico de Reynosa. Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema Las torres de aerogeneradores normalmente usan materiales como hormigón, aluminio y acero. Estos materiales provén a la torre de ciertas propiedades mecánicas que la protegen de un fallo estructural a causa de las fuerzas a la que está sometida, sin embargo, estos materiales tienen la desventaja de que suelen tener un gran peso, lo cual representa una gran dificultad en el transporte y ensamble de estas estructuras. Hay casos en los que la torre se diseña para tener un peso menor, pero sacrifican su resistencia mecánica. Los materiales compuestos como la fibra de carbono entran en escena para tomar el papel sustituto de estos materiales previamente mencionados, ya que muestran una resistencia mecánica considerablemente alta tomando en cuenta que también son muy livianos, por lo que, los materiales compuestos prometen ser una gran alternativa como material base para la construcción de torres de aerogenerador. Realizar un análisis mecánico de una torre de material compuesto en una torre nos permite, en gran medida, comprobar el buen desempeño de los materiales compuestos



METODOLOGÍA

Metodología Para comprobar cómo se comporta una torre, se apoyó en el software de diseño SolidWorks. Se diseñó una torre con las dimensiones comunes de una torre cónica de acero y se modelo para su posterior análisis. La torre tiene un diámetro inferior de 4.4 m y un diámetro superior de 3.5 m con un espesor de 30mm. Para la comparación, se dotó a la torre de las características de 3 materiales distintos, estos siendo el aluminio, acero y una fibra de carbono por capas. Para la torre de acero se hizo un análisis estático con una carga longitudinal y transversal, ambas cargas un permitiendo alcanzar un factor de seguridad de 1. Los resultados mostraron una deformación longitudinal máxima de 102.704 mm y una deformación transversal máxima de 982.085mm. Con este material de acero se obtuvo una masa de 135,148 Kg para esta torre. Se siguió el mismo procedimiento con la torre de aluminio, en este caso se obtuvo una deformación máxima longitudinal de 15.249 mm y una deformación máxima transversal de 148.838 mm. Se obtuvo una masa de 45,484 Kg para esta torre de aluminio. Por último, para la torre de carbono, se siguió el mismo procedimiento, y se obtuvo una deformación máxima longitudinal de 57.479mm y una deformación máxima transversal de 143.126mm. Se obtuvo una masa de 26,117 kg.


CONCLUSIONES

Conclusiones generales De los resultados se puede concluir que la torre de carbono puede soportar mayores cargas transversales y longitudinales en comparación con la de la torre de aluminio. Además, la torre de carbono presenta menos deformación máxima que la torre de acero y es más liviana que ambas por una cantidad considerable. Por lo que podemos decir que, tomando en cuenta este análisis, para una torre de aerogenerador, el ser construido a partir de material compuesto de fibra de carbono es una buena opción ya que este material tiene una excelente relación resistencia/peso.
Orenday González Lizbeth Aurora, Instituto Politécnico Nacional
Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes

SOFTWARE PARA REHABILITACIóN DE PARáLISIS FACIAL CON VISIóN ARTIFICIAL Y EVALUADO MEDIANTE TéCNICAS DE EYE-TRACKING "RELIF".


SOFTWARE PARA REHABILITACIóN DE PARáLISIS FACIAL CON VISIóN ARTIFICIAL Y EVALUADO MEDIANTE TéCNICAS DE EYE-TRACKING "RELIF".

Martinez Gordillo Cristian Santiago, Escuela Colombiana de Ingeniería Julio Garavito. Morales Galdamez Camila, Instituto Politécnico Nacional. Orenday González Lizbeth Aurora, Instituto Politécnico Nacional. Silva Briseño Blanca Fabiola, Instituto Politécnico Nacional. Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Según el (IMSS 2017), en México existen entre 11 y 53 casos por cada 100,000 personas al año que sufren de parálisis facial. Así mismo, la OMS menciona la alta demanda de fisioterapeutas, ya que, hay 1.06 por cada 10 mil habitantes cuando la recomendación es contar con un especialista por cada mil habitantes (Padilla, 2023). Dado lo anterior el desarrollo de esta versión inicial del software, se busca ayudar a pacientes y apoyar a fisioterapeutas, con la pronta recuperación de los pacientes y, de cierta manera, controlar el seguimiento de las terapias asistidas. Haciendo del conocimiento del primero los ejercicios realizados por el segundo y el tiempo necesario para cada uno, dependiendo el tipo de parálisis padeciente.



METODOLOGÍA

MEXUU Para el desarrollo del proyecto se utilizó la metodología MEXUU que está enfocada en los elementos UDL Y TUD, la cual nuestro proyecto integra algunos elementos claves para el diseño universal para el aprendizaje. Este proceso estuvo definido por 4 etapas principales, descritas a continuación. Análisis: Se definen los requisitos de la aplicación a desarrollar, teniendo en cuenta las características físicas del usuario final. Esto es crucial para identificar qué herramientas y tecnologías se van a integrar en la aplicación y los elementos según el diseño universal para el aprendizaje. En esta primera parte se decidió el proyecto a tratar y los roles de cada integrante en el equipo, se plantearon objetivos tanto generales como específicos y las preguntas de investigación y requerimientos funcionales y no funcionales de la aplicación a desarrollar (RELIF). Pre-producción: En esta etapa se desarrolla la aplicación con los requerimientos definidos en la etapa de análisis, de la misma manera se define la representación basada en UDL. En esta etapa se crearon perfiles de usuario, para así poder diseñar la interfaz teniendo en cuenta estos y dirigirla hacia este tipo de personas en particular, para solucionar la problemática de los perfiles de usuario propuestos. Teniendo en cuenta que la investigación se está desarrollando con metodología experimental, en esta parte se desarrollan posibles hipótesis y/o soluciones que se resuelvan por medio del desarrollo de la aplicación , de la misma manera se incluye la visión artificial en el proyecto como parte fundamental en la rehabilitación del paciente al momento de utilizar la aplicación propuesta, esto con el fin de la detección de los ejercicios por la misma aplicación y validar una terapia exitosa, por esta misma razón en esta etapa se revisa la documentación necesaria con el fin de integrar las mejores tecnologías dentro del proyecto . Producción: Se construye la solución planteada con las herramientas estipuladas anteriormente y se agregan los elementos UDL. En esta parte ya se tiene un diseño no funcional de la aplicación, se empieza el desarrollo inicial en el motor de videojuegos unity. Se utiliza esta tecnología para los objetivos que se plantearon al inicio, como la integración del diseño y funcionalidad del programa. Así mismo tiempo en esta etapa influye una nueva metodología nos basamos en la de EVUSINET (Evaluación del uso de interfaces mediante eye-tracking), esta nos ayudó a realizar las pruebas con las tecnologías de eye-tracking por medio del entorno de Tobii pro nano permitiendo crear diseños experimentales, eventos, áreas de interés, para así generar una interfaz más atractiva visualmente cumpliendo con los requerimientos de la aplicación y mayor funcionalidad al utilizar RELIF.  Simultaneamente se produce el modelo de identificador de emociones por medio de la visión artificial, utilizamos tecnologías como lo son: tensor flow, keras, openCv, todo esto en lenguaje python. El modelo fue entrenado con la base de datos públicas de Kaggle(Fer- 2013), se utilizó la neutral y felicidad para la integración de estas en dos ejercicios de la aplicación diseñada. Post- producción: Etapa final centrada en realizar evaluaciones al software para evaluar criterios de usuario. Se cambiaron aspectos en la tercera y última interfaz, siendo evaluada con el eye tracker tobii pro nano creando tablas de uso deseado, para seleccionar áreas de interés en cada interfaz evaluada y poder sacar índices, se creó una tabla de uso real para ser comparada con la de uso esperado, igualmente observar si se cumplieron los objetivos y las preguntas de investigación establecidas en la etapa de análisis.


CONCLUSIONES

Pasadas las sesiones enfocadas a la investigación y recolección de datos sobre la problemática, se emprendió el desarrollo del software, adquiriendo conocimientos sobre diseño de interfaces UI y UX, analizando su usabilidad mediante eye-tracking. Además de lo anterior, se recolectó basto conocimiento sobre interpretaciones de gráficas arrojadas por la tecnología antes mencionada, logrando una base sólida de conocimiento sobre las necesidades de un interfaz respecto a las experiencias de usuario. De igual forma, para la creación del software se utilizó unity, una herramienta que fue de gran ayuda, sin embargo, para su uso también se tuvo que aprender a usarla, para que el software cumpliera con los requisitos propuestos y su funcionamiento fuera efectivo. el software funcionó de manera adecuada. Adicionalmente a esto se adquieren conocimientos en el campo del deep learning, utilizando redes neuronales convolucionales y como se pueden ajustar a distintos proyectos y la utilidad de estas, dichas tecnología fue de vital importancia para el desarrollo de la aplicación ya que esta sirve para que el software sea utilizado en el área de la rehabilitación en parálisis facial, de acuerdo a los planteamientos iniciales, logrando 3 de 4 objetivos.
Orozco Castellanos Abril, Universidad Autónoma de Baja California
Asesor: Mg. Diego Andrés Restrepo Restrepo Leal, Universidad Cooperativa de Colombia

ANALISIS DE VENTAS DE CAFé: DATOS Y TENDENCIAS


ANALISIS DE VENTAS DE CAFé: DATOS Y TENDENCIAS

Orozco Castellanos Abril, Universidad Autónoma de Baja California. Asesor: Mg. Diego Andrés Restrepo Restrepo Leal, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la venta de café es sumamente importante debido a que desempeña una parte importante hacia la economía no sólo de manera global sino también  internacional, también impacta mucho en la cultura de cada país porque cada una sigue sus aprendizajes y culturas, debido a que existe una gran variedad de métodos de preparación del café desde un espresso hasta un latte. La producción de café genera numerosas oportunidades de empleo en áreas rurales; por ejemplo, Colombia, uno de los principales exportadores, envía alrededor de 12.5 millones de sacos de café al año (Legiscomex. (2020).  



METODOLOGÍA

La metodología que se utilizó fue el análisis de datos proporcionados de un DataSet donde se especifican ventas hipotéticas de café con fechas en específico (Marzo a Julio del 2024) correspondiente de la plataforma Kaggle en el cual se utilizó la programación con python3, esto con el fin de poder explorar, limpiar y verificar los datos, por ejemplo, la eliminación de columnas, datos no esenciales, entre otros.  Ya con los datos requeridos se realizaron gráficas para poder observar de manera visual y más simple la interpretación de los resultados. 


CONCLUSIONES

En esta investigación se logró analizar una gran variedad de datos gracias a un método de programación que nos permitió poder leer y limpiar información, estos tipos de análisis permiten tener un mejor manejo o proyección de datos que son relevantes para grandes y pequeñas empresas, ya que, como se observa se venden más un tipo de café que otro, el mes que más venta tiene hasta los días que más ventas hubo permitiendo que se consideren mejoras para poder aumentar las ventas.
Orozco Hernández Dayra Leilany, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

APLICACIÓN DE MÉTODOS ERGONÓMICOS PARA EL MANEJO MANUAL DE CARGAS EN EMPRESA DE EMPAQUE DE BERRIES


APLICACIÓN DE MÉTODOS ERGONÓMICOS PARA EL MANEJO MANUAL DE CARGAS EN EMPRESA DE EMPAQUE DE BERRIES

Orozco Hernández Dayra Leilany, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

En México entró en vigor la norma NOM-036-1-STPS-2018: Factores de riesgo ergonómico en el trabajo - identificación, análisis, prevención y control. Parte 1: Manejo manual de cargas con el objetivo de garantizar que se cumplan las condiciones mínimas para salvaguardar la salud de los trabajadores. La presente investigación se realizó en una empresa del sector frutícola dedicada a la cosecha, empaque y exportación de berries para exportación, en la cual, como uno de sus procesos consiste en la carga y descarga del producto de aproximadamente 300 kg, por lo que se desconoce los riesgos asociados con la operación en cuanto al levantamiento de cargas y posturas. A la vez, no se conoce el nivel de cumplimiento respecto a la norma dentro de la empresa.. 



METODOLOGÍA

Este proyecto se basa principalmente en una evaluación del nivel de riesgo que implica el manejo manual de cargas específicamente en dos áreas de la empresa que son, el área de calidad y el área de estiba. En ambas secciones, se eligió a una persona en base a su complexión, esto debido a que tiene influencia en el desempeño del trabajador y afecta en su frecuencia cardiaca la realizar las tareas correspondientes. En el área de estiba se escogió a una persona muy delgada y por el contrario en el área de calidad se seleccionó a una persona más robusta. Con apoyó de los siguientes métodos se realizó la evaluación: el método MAC que es un instrumento estipulado por la NOM-036 que evalúa manejo de cargas tales como: peso de la carga/ frecuencia, distancia de las manos a la región lumbar, distancia vertical de levantamiento, torsión y materialización del cuerpo, restricciones posturales, acoplamiento mano-objeto, superficie y otros factores ambientales. (Barrios et al. ,2022); el método RULA que, por sus siglas en inglés: Rapid Upper Limb Assessment, utiliza un sistema de codificación para generar una lista de acciones que indica el nivel de intervención necesario para reducir los riesgos de lesiones (McAtamney & Nigel 1993); el modelo FCD (Fuerza de Compresión de Disco) que corresponde a la acción de la fuerza ejercida por la musculatura extensora de columna vertebral a un determinado ángulo y %CC (porcentaje de carga cardiovascular) que Crespo-Salgado et al. (2015) citan el uso de frecuencia cardíaca como indicador de actividad física y su directa relación con el cuidado de enfermedades y factores de riesgo.  


CONCLUSIONES

Durante la estancia de verano se logró capturar toda esta evaluación, análisis y resultados que se llevaron a cabo de manera práctica dentro del sector agroindustrial en un documento con el fin de publicarlo como artículo. Además, se consiguió adquirir práctica y conocimientos de redacción e investigación complementando esta parte práctica con la teórica. Se espera que este articulo sea aceptado por parte de la revista.
Orozco Morán Bianca Noelia, Universidad Autónoma de Baja California
Asesor: Dr. Horacio Gómez Rodríguez, Universidad de Guadalajara

ESTACIóN CLIMATOLóGICA CON RASPBERRY PI


ESTACIóN CLIMATOLóGICA CON RASPBERRY PI

Orozco Morán Bianca Noelia, Universidad Autónoma de Baja California. Asesor: Dr. Horacio Gómez Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El proyecto de una estación climatológica con Raspberry Pi 3 B+ y sensores BMP180 y DHT11 cumplió con éxito sus objetivos. Los sensores proporcionaron datos precisos de temperatura, humedad, presión y altitud, comparables a estaciones comerciales. Los datos se almacenaron en una base de datos local y se visualizaron en tiempo real a través de un servidor web accesible desde la red local. La implementación fue sencilla, utilizando componentes comunes y software de código abierto, permitiendo a usuarios con conocimientos básicos configurar el sistema. El costo fue significativamente menor que el de estaciones comerciales, haciéndolo ideal para hogares, entornos educativos y pequeños negocios. La estación demostró ser confiable y útil para monitorear condiciones ambientales, con usuarios satisfechos por su facilidad de uso y precisión. En resumen, la estación climatológica es una solución práctica y económica para el monitoreo ambiental, facilitando la recolección y análisis de datos y fomentando la educación y conciencia ambiental.



METODOLOGÍA

Diseño del sistema La selección de componentes es de las partes más importantes de cualquier proyecto, por lo que nos concentramos especialmente en los dispositivos que utilizaremos de forma que sean económicos y al mismo tiempo funcionales.   Raspberry Pi 3 B+ La Raspberry Pi 3 B + fue seleccionada como la placa base debido a su capacidad de procesamiento y conectividad. Ofrece un rendimiento robusto a un costo accesible ya que puede ser utilizada para el procesamiento de datos y sensores y aparte servir como un servidor local para desplegar la información en una página web, lo que la hace a este dispositivo ideal para este proyecto.   Sensores DHT11: Lo usamos para medir la temperatura y humedad, es un sensor confiable y de bajo costo que nos ayuda a proporcionar datos precisos para estas variables. BMP180: Este sensor es utilizado para medir la presión barométrica y altitud, ofreciendo una alta precisión y flexibilidad en la integración de la raspberry pi. Desarrollo del software Instalación del sistema operativo La instalación del sistema operativo es un paso crucial para la preparación del entorno en el que funcionará la estación climatológica. Nos enfocamos en una configuración que sea eficiente y sencilla de implementar.   Para comenzar, descargamos e instalamos el sistema operativo Raspbian en la Raspberry Pi, asegurando un entorno estable y funcional, después de eso realizamos la configuración de red y ajustes iniciales de la Raspberry Pi para asegurar la conectividad y el correcto funcionamiento del sistema.   Programación de la interfaz de los sensores Para obtener los datos de la temperatura por medio de los sensores se hizo uso del lenguaje de programación Python y en cuanto al manejo de los sensores se utilizaron las diferentes librerías que proporciona Adafruit, cada una respectiva para el sensor en específico.   Almacenamiento de datos Para gestionar y almacenar los datos obtenidos, se optó por una base de datos local que permite un acceso rápido y seguro a la información. Para la instalacion y configuracion de la base de datos MySQL, se diseñó una estructura adecuada para almacenar las mediciones de los sensores, y por medio de los códigos de Python que se utilizaron para obtener la información de los sensores agregamos líneas de código con el propósito de hacer las respectivas inserciones dentro de la base de datos mencionada anteriormente, lo cual garantiza la actualización constante de los datos.   Desarrollo de la página Web Se llevó a cabo la instalación del servidor web Apache, proporcionando una plataforma robusta y flexible para el despliegue de los datos. Después de eso se crearon las páginas necesarias usando HTML/CSS para mostrar los datos de los sensores, utilizando php y javascript para actualizar la información y mejorar la experiencia del usuario.


CONCLUSIONES

El desarrollo de una estación climatológica ha demostrado ser efectivo para monitorear condiciones ambientales. Los sensores proporcionaron datos precisos de temperatura, humedad, presión y altitud, comparables a estaciones comerciales. Los datos se almacenaron en una base de datos local y se visualizaron en tiempo real a través de un servidor web accesible desde la red local. La implementación fue sencilla y económica, utilizando componentes comunes y software de código abierto, permitiendo a usuarios con conocimientos básicos configurar el sistema. La estación fue probada en diferentes entornos, demostrando su fiabilidad y utilidad para monitorear condiciones ambientales. Los usuarios reportaron alta satisfacción con la facilidad de uso y precisión de los datos. En resumen, la estación climatológica es una solución práctica y económica para el monitoreo ambiental, facilitando la recolección y análisis de datos y fomentando la educación y conciencia ambiental.
Orozco Velazquez Angelina, Universidad de Guadalajara
Asesor: Dr. Harvey Andrés Milquez Sanabria, Fundación Universidad de América

RESTRUCTURACIóN DE REACTOR UASB


RESTRUCTURACIóN DE REACTOR UASB

Orozco Velazquez Angelina, Universidad de Guadalajara. Asesor: Dr. Harvey Andrés Milquez Sanabria, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Los mayores problemas que enfrenta la humanidad es la contaminación ambiental y la crisis energética, siendo la quema de combustibles fósiles la causante de la producción de los gases de efecto invernadero como lo son el dióxido de carbono, óxidos de nitrógeno, óxidos de azufre, hidrocarburos no quemados y cenizas. Este recurso natural es una fuente energética no renovable que tarde o temprano se agotará, es por lo que hay interés en el desarrollo de combustibles alternativos que tengan menor emisión para que tenga potencial de sustitución de energía, como es el caso de los biocombustibles. Todos los residuos orgánicos son adecuados para ser fermentados anaeróbicamente , este proceso se lleva a cabo en un reactor de biogénesis (UASB), el cual produce un biogás que este compuesto principalmente por metano (del 50 al 70 %), dióxido de carbono (del 30 al 40%). El UASB es utilizado en procesos de estabilización de la materia orgánica, la mayoría de las veces son dirigidos por gravedad, el lodo efluente entra por la parte inferior en flujo ascendente, por lo que deben de pasar por un sistema de retención de solidos que varían desde los más densos que se pueden sedimentar, hasta los lodos más ligeros cercano al tope del reactor, en todas las zonas del biorreactor se encuentran estabilidad de la materia orgánica, siendo el sistema  promovido por el flujo ascensional del liquido y de las burbujas de gas; en seguida el biogás producido debe de fluir hacia la cámara digestora. El biogás producido se compone de dos tercios de metano y un tercio de dióxido de carbono con trazas de otros gases como el sulfuro de hidrogeno e hidrogeno.



METODOLOGÍA

El diseño típico de un reactor de manto de lodos de flujo ascendente incluye un tanque cilíndrico en posición vertical. El afluente del material digestivo anaeróbico ingresa al sistema por la parte inferior, y mediante la recirculación con una bomba, se inicia el movimiento dentro del reactor. Inicialmente, el reactor mantenía la temperatura mediante un recubrimiento con una manguera que sostenía una temperatura de aproximadamente 45 °C, gracias a una bomba sumergida en un baño calefactor. Sin embargo, este método resultó insuficiente, ya que el inóculo contenido en el reactor no mantenía el rango de temperatura deseado. Por ello, se propuso una variante en el método de calentamiento. El nuevo método propuesto consistió en reemplazar el baño calefactor por una resistencia térmica, además de instalar un sensor que indicara la temperatura dentro del biorreactor. Para ello, se comenzó desmontando la cubierta térmica, así como las mangueras de entrada del inóculo, las de alimentación, las de recirculación y las que conducían el biogás al gasómetro, además de las mangueras que recubrían la tubería de PVC como sistema de calefacción del biorreactor. Posteriormente, se procedió a vaciar el biorreactor, cuyo inóculo estaba basado en excremento porcino. Una vez vacío y sin conexiones de manguera, se limpió el interior del biorreactor y se sustituyó una manguera rota, lo que redujo el tamaño del tubo. Además, se realizó una perforación en el centro del biorreactor para introducir el sensor que controlaría el rango de temperatura de la resistencia. Posteriormente, se verificó que no hubiera fugas. Continuando con la instalación del sistema de calentamiento, se recubrió el tubo de PVC con aluminio para uniformar la distribución del calor proporcionado por la resistencia. Después de aplicar cuatro capas de aluminio, se envolvió con la resistencia y se recubrió con más aluminio. En este proceso quedó pendiente el aislamiento térmico, el cual intenté hacer con una chaqueta aislante de espuma y aluminio. Sin embargo, esta no fue suficiente, ya que la temperatura generada terminaría quemándola. Lo más conveniente hubiera sido recubrirla con cinta aislante. Finalmente, se colocaron nuevas mangueras de manera similar a como estaban originalmente, con la diferencia de que se instalaron dos nuevas válvulas para facilitar futuros mantenimientos del biorreactor.


CONCLUSIONES

Durante mi estadía de verano en la Fundación Universidad de América, adquirí conocimientos teóricos y prácticos sobre la generación de biogás, así como sobre la comparación de su rentabilidad en relación con los combustibles fósiles. Producción, almacenamiento y transporte de biocombustibles requieren insumos, tierra, agua y energía en cada uno de los procesos, lo que debe ser cuidadosamente considerado. A pesar de estos desafíos, los biocombustibles y procesos como la biometanización representan una vía viable para reducir la dependencia de los combustibles fósiles y mitigar el impacto ambiental. Sin embargo, es crucial desarrollar tecnologías que permitan su producción a costos competitivos. El objetivo de las mejoras implementadas es asegurar un rango de temperatura adecuado dentro del reactor, lo que optimizará la producción de biogás y hará más eficiente el proceso.
Ortega Alvarez Gael Emmanuel, Universidad Tecnológica de Nayarit
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

APLICACIóN DE COMUNICACIóN MóVIL PARA UNIMICH


APLICACIóN DE COMUNICACIóN MóVIL PARA UNIMICH

Ortega Alvarez Gael Emmanuel, Universidad Tecnológica de Nayarit. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El instituto de la Universidad Michoacana de San Nicolás de Hidalgo tiene un colectivo de personas las cuales buscan en el reconocimiento de la poblacion indigena y su integracion a la actualidad de forma que se solicitarian varios proyectos en su mayoria relacionados a temas tecnologicos siendo uno de estos el desarrollo de una aplicacion movil cuyo fin sea la comunicacion entre 2 o mas personas siendo esta una forma de apoyar y que servira en la implmentacion de estos pueblos en las nuevas tecnologias.



METODOLOGÍA

Se pensó en una forma de desarrollar una app móvil en el framework de android studio en lenguaje java y se desarrollaría de la siguiente manera 1. comprensión del framework: primero se centraría en comprender el funcionamiento del programa que se está trabajando 2. Bases para el funcionamiento principal: se crearía y empezaría a implementar las bases como todos los paquetes que se van a utilizar bases de datos, cantidad de páginas etc 3. Diseño y conexiones: se empezaría con el desarrollo de la parte visible de la aplicación ósea lo que el usuario ve y posteriormente se haría conexión en este caso con una base de datos que funcionaria junto a la aplicación para el almacenamiento de los datos necesarios 4. Pruebas y funcionamiento: se trabajaría de forma más ardua en la función principal de la aplicación para la posterior prueba de la aplicación y ver como esta responde en los dispositivos móviles 5. Ajustes y diseño final: por último, se afinarían detalles que esta pudo tener durante las pruebas y se solucionaría en caso de tener errores después se le haría más caso al diseño para que luzca más complementada y se daría por finalizada ´para su utilización. 


CONCLUSIONES

Concluyendo finalmente con la aplicación el desarrollo fue algo complicado pues se presentaron varias dificultades durante el desarrollo de la App pero se fueron solucionando una a una dando como resultado la app concluida de forma correcta y de esta forma dando finalizada mi contribución al proyecto los resultados se definen con el funcionamiento correcto de la app y el aprendizaje fue de lo más interesante a nivel técnico durante la programación de esta forma concluyendo este reporte
Ortega Calzada José Carlos, Universidad Tecnológica de Xicotepec de Juárez
Asesor: Mg. Diego Andrés Restrepo Restrepo Leal, Universidad Cooperativa de Colombia

ESTUDIO DE LANZAMIENTOS ESPACIALES DESDE 1957 Y SU RELACIÓN CON EL CRECIMIENTO DE LA INDUSTRIA AEROESPACIAL: UNA APROXIMACIÓN DESDE EL ANÁLISIS DE DATOS


ESTUDIO DE LANZAMIENTOS ESPACIALES DESDE 1957 Y SU RELACIÓN CON EL CRECIMIENTO DE LA INDUSTRIA AEROESPACIAL: UNA APROXIMACIÓN DESDE EL ANÁLISIS DE DATOS

Ortega Calzada José Carlos, Universidad Tecnológica de Xicotepec de Juárez. Asesor: Mg. Diego Andrés Restrepo Restrepo Leal, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

La industria aeroespacial ha tomado fuerza en los últimos años, ahora, es común ver cómo organizaciones gubernamentales se aventuran en la exploración espacial, un ejemplo de esto es el proyecto Artemis de la NASA. No obstante, los lanzamientos espaciales han dejado de realizarse únicamente con fines científicos; cuestiones sociales como el turismo espacial ha sido un gran detonante para impulsar esta área, una prueba de esto ha sido la aparición de empresas privadas, tales como Virgin Galactic, SpaceX y Blue Origin, consolidadas a nivel mundial de acuerdo a sus inversiones realizadas (Musselman y Hampton, 2020). Sin embargo, conocer la información registrada desde el comienzo de esta industria permitirá comprender la relación con eventos históricos importantes y predecir hacia donde se dirige este campo. 



METODOLOGÍA

La metodología empleada consistió, principalmente, en la revisión de información proporcionada por un dataset (o conjunto de datos), desde la plataforma de Kaggle, para esto, se utilizaron principios de ciencia de datos con el lenguaje de programación Python 3, para efectuar la limpieza del contenido del dataset. De esta manera, la información relevante se pudo visualizar mediante elementos gráficos, mejorando así su interpretación. Además, se utilizó la búsqueda de documentación bibliográfica para crear la relación con eventos históricos y demandas sociales significantes.  


CONCLUSIONES

De la presente investigación se ha logrado aplicar el análisis de datos con Python para gestionar y administrar información, visualizándola en gráficas y creando relaciones que explican el comportamiento de la industria aeroespacial desde sus inicios, la cual, en muchos casos, va de acuerdo a eventos históricos, entre ellos, la guerra fría (Bright, 2020). Siguiendo este patrón, se puede predecir cómo será el incremento de esta área para los próximos años y los factores que pueden influir en su crecimiento. Por otro lado, propiedades graficadas como el estado de la misión, el tipo de cohete u la organización informan a la población sobre la eficacia de estos eventos y la participación de determinadas naciones en esta área. 
Ortega Flores Laura Ximena, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Noé Alba Baena, Universidad Autónoma de Ciudad Juárez

DESAROLLO DE UN RECUBRIMIENTO SUPERAMFIFOBICO Y DURADERO


DESAROLLO DE UN RECUBRIMIENTO SUPERAMFIFOBICO Y DURADERO

Ortega Flores Laura Ximena, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Noé Alba Baena, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

La hidrofobicidad, o la capacidad de un material para repeler el agua, se ha convertido en una propiedad fundamental en una amplia variedad de aplicaciones científicas y tecnológicas. Desde la protección de superficies expuestas a la humedad hasta la mejora de la eficiencia en procesos industriales, la habilidad de un material para resistir el contacto con el agua no solo amplía sus posibles usos, sino que también incrementa su durabilidad y funcionalidad. Por lo cual la creación de comportamientos hidrofóbico es una tarea crucial para seguir con el desarrollo de materiales innovadores y la mejora de diversos productos y/o sistemas productivos, es por eso que en esta investigación se busca poder replicar el comportamiento hidrofóbico mediante diversas técnicas aplicadas.



METODOLOGÍA

El desarrollo de comportamientos hidrofóbicos en materiales requiere una metodología sistemática que aborde tanto la selección del material como la aplicación de técnicas específicas para modificar sus propiedades. Para el desarrollo de la metodología comenzamos dividiendo por etapas siendo la primera de ellas el identificar cuales erran los factores internos y externos y su relación con la problemática expuesta, una vez realizado eso pasamos a determinar los objetivos específicos para la hidrofobicidad, como la repelencia al agua, la resistencia a manchas, o la autolimpieza, considerando el contexto de aplicación. Ya una vez establecidos y definidos estas necesidades procedimos a establecer criterios específicos para el rendimiento hidrofóbico, como el ángulo de contacto del agua, la durabilidad del tratamiento, y la resistencia a factores ambientales del comportamiento que se decidió crear tomado en cuentas las limitaciones y factores no controlables del mismo. Después de haber definido todas la necesidades y especificaciones del tratamiento pasamos a la evaluación de materiales tomando en cuenta la composición química y estructura superficial de los materiales en cuestión ya que estos tendrían que estar en tratamiento para poder adquirir propiedades hidrofóbicas. Avanzamos a la siguiente etapa la cual consto en el desarrollo y aplicación de las técnicas para la modificación de la superficie/solido en la cual se utilizó la técnica de recubrimiento mediante compuestos no polares, como siliconas, fluoro polímeros, o ceras. Estos recubrimientos pueden ser aplicados mediante técnicas como pulverización, inmersión, o deposición tomando en cuenta las condiciones de aplicación como la temperatura y el tiempo de curado, para asegurar una cobertura uniforme y efectiva. Por último, pasamos a la evaluación la cual se dividió en pruebas de desempeño siendo una de las principales la medición del ángulo de contacto ya que ángulo de contacto alto indica una mayor repelencia al agua. Para esto se pensó en implementar el método de inclinación por medio del método de inclinación


CONCLUSIONES

Durante esta estancia logre expandir mis conocimientos y habilidades al momento de investigar, creo que logre de cierta manera ampliar mi forma de analizar las situaciones aparte de que aprendimos a utilizar diversas herramientas de tratamiento de datos y diversas metodologías que se pueden implementar según las necesidades y finalidades de la investigación en la que se esté trabajando. En cuanto a la estancia siento que falto un poco de tiempo para poder concluir de manera más satisfactoria la investigación ya que esta es muy extensa e interesante.
Ortega Gómez Rodrigo Yael, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Lilia Marcela Zaldumbide Carrillo, Instituto Tecnológico Superior de Guanajuato

INVESTIGACIóN, DISEñO Y CONSTRUCCIóN DE ROBOT PARA RESOLVER LABERINTOS


INVESTIGACIóN, DISEñO Y CONSTRUCCIóN DE ROBOT PARA RESOLVER LABERINTOS

Mendiola Mendoza Alan Mauricio, Instituto Tecnológico Superior de Guanajuato. Ortega Gómez Rodrigo Yael, Instituto Tecnológico Superior de Guanajuato. Ramirez Chávez Ari Emmanuel, Instituto Tecnológico Superior de Guanajuato. Rangel Cruz Citlally Monserrat, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Lilia Marcela Zaldumbide Carrillo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Un robot resolutor de laberintos es un proyecto interesante que combina inteligencia artificial, robótica y algoritmos de resolución de problemas. Título: Investigación, diseño y construcción de robot para resolver laberintos Objetivo: Diseñar y construir un robot capaz de navegar y resolver laberintos de manera autónoma utilizando algoritmos de búsqueda y sensores para detectar paredes y esquinas.



METODOLOGÍA

Requisitos: - Robot móvil con capacidad de movimiento en dos dimensiones (adelante, atrás, izquierda, derecha) - Sensores de detección de paredes y esquinas (infrarrojos, ultrasonidos, etc.) - Algoritmo de resolución de laberintos (Wall Follower, Depth-First Search, Breadth-First Search, etc.) - Programación del robot utilizando un lenguaje de programación adecuado (C++, Python, etc.) Funcionamiento básico: 1. El robot se coloca en la entrada del laberinto. 2. Utiliza sus sensores para detectar las paredes y esquinas del laberinto. 3. Se aplica el algoritmo de resolución de laberintos para determinar la ruta óptima hacia la salida. 4. Se desplaza según la ruta calculada, utilizando sus sensores para corregir su trayectoria si es necesario. 5. El robot llega a la salida del laberinto. Algoritmos de resolución de laberintos: - Wall Follower: el robot sigue la pared del laberinto hasta encontrar la salida. - Depth-First Search: el robot explora el laberinto de manera profunda, retrocediendo cuando llega a un callejón sin salida. - Breadth-First Search: el robot explora el laberinto de manera amplia, examinando todas las posibles rutas antes de elegir la siguiente dirección.


CONCLUSIONES

Consideraciones adicionales: - La complejidad del laberinto puede afectar la eficiencia del algoritmo de resolución. *Conclusión:* El desarrollo de un robot resolutor de laberintos será un proyecto prometedor que demostrará la capacidad de la inteligencia artificial y la robótica para resolver problemas complejos de navegación y búsqueda. El robot diseñado en este proyecto es capaz de navegar y resolver laberintos de manera autónoma, utilizando algoritmos de búsqueda y sensores para detectar paredes y esquinas. Los resultados esperados  demuestran que el robot será capaz de resolver laberintos de diferentes tamaños y complejidades. *Futuras mejoras:* - Implementar algoritmos de resolución más avanzados, como el algoritmo A* o el algoritmo de Dijkstra. - Mejorar la precisión de los sensores y la velocidad del robot. - Desarrollar un sistema de aprendizaje automático para que el robot pueda aprender de sus errores y mejorar su rendimiento con el tiempo.
Ortega Meza Erika, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Everardo Mares Mares, Instituto Tecnológico Superior de Guanajuato

EXTRACCIóN DE LA PROTEíNA DE LA SEMILLA DE YACA (ARTOCARPUS HETEROPHYLLUS LAM.) PARA LA FORMULACIóN DE UN SNACK SALUDABLE.


EXTRACCIóN DE LA PROTEíNA DE LA SEMILLA DE YACA (ARTOCARPUS HETEROPHYLLUS LAM.) PARA LA FORMULACIóN DE UN SNACK SALUDABLE.

Martínez González Karen Paola, Instituto Tecnológico Superior de Guanajuato. Ortega Meza Erika, Instituto Tecnológico Superior de Guanajuato. Ramírez González Moyra Daniela, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Everardo Mares Mares, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Actualmente el 9.4% de las personas de un rango de edades de 14-30 años salen rápido de sus casas sin poder cumplir con su alimentación adecuada, por ende, no adquieren los nutrimentos necesarios para empezar sus actividades cotidianas y uno de estos nutrimentos más importantes es la proteína ya que esta nos brinda la energía necesaria a nuestro cuerpo.  Este producto va dirigido a las personas (14-30 años) que buscan requerimientos proteicos para la obtención de nutrientes.



METODOLOGÍA

Trabajamos principalmente la formulación de la barrita con las harinas que se utilizarían, primero horneamos una barrita de harina avena, cacahuate, huevo y salvado de trigo obteniendo un resultado no favorable ya que esta tenia textura y sabor no agradable.  Para la siguiente barrita utilizamos los siguientes ingredientes: Harina de avena 30 gr Huevo 10 gr. Mantequilla 22 gr Azúcar blanca 10 gr 2 cucharaditas de vainilla. Harina de trigo refinada 20 gr Ate de yaca (bulbos) 10 gr Mermelada de yaca 8 gr  Obteniendo un sabor favorable, textura única y horneado adecuado aun sin agregarle ningún ingrediente de yaca Una vez de obtener la formulación trabajamos en la yaca; pelamos y separamos semillas, bulbos y fibra para luego poner en tratamiento las semillas  por el método de escaldado para quitar las sustancias toxicas que podrían producir daño, para  la fibra y bulbos el pretratamiento fue con agua, 4 gr de ácido cítrico  y  0.5 gr de bisulfito de sodio dejándolo una hora en reposo con el objetivo de que no se oxidara; pasando ese tiempo sacamos y separamos en kilos los bulbos, pasando la fibra, 3 kilos de bulbos y las semillas en charolas para llevar al horno dejándolo todo un día completo. Utilizamos 2 kilos de bulbos moliendo y obteniendo una pulpa pura de yaca que se llevó a refrigeración 24 hrs. Luego de un día completo, la semilla ya seca se molió para la elaboración de una harina de semilla de yaca y se hizo lo mismo con la fibra para también obtener una harina de fibra. Fabricamos una mermelada de la pulpa obtenida de los bulbos con los siguientes ingredientes: 1 kg de pulpa. 250 gr de azúcar. 3 gr de pectina. 25 gr de ácido cítrico. 0. 1 gr de benzoato de sodio. Todo esto a un fuego medio y mezclando hasta la obtención de la mermelada. Se elaboró también un ate de la misma manera y con los mismos ingredientes, pero para este utilizamos un fuego más alto. Finalmente, al tener todos los ingredientes y la formulación adecuada trabajamos en nuestro producto final, mezclando cada uno de los elementos (incluido todos los productos derivados de la yaca) dejando hornear por 30 minutos.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre el tratamiento de frutas y ponerlos en práctica para la extracción de proteína de semilla de yaca para la obtención de un snack saludable, además de formular distintas barritas hasta encontrar la adecuada en sabor, textura y horneado, a pesar de ser un trabajo extenso, logramos obtener nuestro producto listo para llevarlo al innovatec siendo nutritivo, económico y de buen sabor.
Ortega Prieto Anayeli, Instituto Tecnológico Superior de Guanajuato
Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato

OBTENCIóN DE DATOS PARA LA INTERPRETACIóN DE GESTOS CORPORALES USANDO MéTODOS DE RECONOCIMIENTO.


OBTENCIóN DE DATOS PARA LA INTERPRETACIóN DE GESTOS CORPORALES USANDO MéTODOS DE RECONOCIMIENTO.

Chia Rodriguez Pamela Asusena, Instituto Tecnológico Superior de Guanajuato. Lozano Romero Brandon Gabriel, Instituto Tecnológico Superior de Guanajuato. Morales Trujillo Felipe Alberto, Instituto Tecnológico Superior de Guanajuato. Ortega Prieto Anayeli, Instituto Tecnológico Superior de Guanajuato. Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

 Planteamiento Del Problema: La interpretación de emociones humanas a través del lenguaje corporal es un área de creciente interés, ya que tiene un amplio campo para su desarrollo como la atención al cliente, educación, salud mental, interacción humano-computadora, interrogatorios judiciales y más. Sin embargo, el análisis del lenguaje corporal es complejo debido a la variabilidad y sutileza de las expresiones no verbales. Aunque existen sistemas automatizados para el reconocimiento facial, corporal y análisis de voz, estos suelen ser insuficientes para captar la gama completa de emociones expresadas a través del lenguaje corporal, ya que, por lo general, muchos trabajos han sido para la detección de gestos cuando única y exclusivamente se hace la postura exacta para dar la información al detector o programa. Por lo cual, en este trabajo dejamos una vía para que los métodos de reconocimiento sean más amplios para detectar dichas emociones.



METODOLOGÍA

Metodología: Se realizó la investigación de información sobre sistemas para el reconocimiento de posturas y obtener sus coordenadas, lo cual se registró como Estado del Arte. Posteriormente se decidió usar Python ya que este lenguaje, además de su versatilidad en programar, tiene bibliotecas que pueden servir para detectar movimientos y puntos del cuerpo en la cámara, en específico la biblioteca Mediapipe. Mediapipe con Landmarker es una herramienta que ayuda a detectar objetos cuando son vistos en una cámara, la herramienta por lo general proporciona elementos como líneas y puntos cuando detecta un objeto. En este caso, se usó para detectar las coordenadas de los puntos de diferentes personas y poder obtener una base de datos para su posterior uso en la investigación. Se tomaron diversas posturas de 3 estudiantes de diferentes estaturas, sexo y corpulencia con la intención de que exista una variedad en la información ya que en un entorno real no todos los usuarios serán de las mismas características.


CONCLUSIONES

Conclusión: En la implementación de este trabajo durante la estancia de verano, se adquirió un notable crecimiento en cuanto conocimientos sobre el manejo de bibliotecas y algoritmos para usarlos en la práctica con la detección de movimientos, cabe mencionar que estos datos obtenidos servirán como parte del trabajo a futuro de la investigación.
Ortega Rodríguez Armando Emanuel, Instituto Tecnológico de Morelia
Asesor: Dra. Argelia Fabiola Miranda Perez, Universidad Popular Autónoma del Estado de Puebla

TECNOLOGIAS DE UNION


TECNOLOGIAS DE UNION

Ortega Rodríguez Armando Emanuel, Instituto Tecnológico de Morelia. Asesor: Dra. Argelia Fabiola Miranda Perez, Universidad Popular Autónoma del Estado de Puebla



PLANTEAMIENTO DEL PROBLEMA

Este estudio se centra en la investigación de diferentes parámetros y temperaturas de soldadura para entender cómo afectan la microestructura y las propiedades mecánicas del metal soldado.Analizandolos con el objetivo de optimizar los procesos de soldadura y garantizar la durabilidad y fiabilidad de las uniones soldadas en aplicaciones industriales críticas.



METODOLOGÍA

Selección del Material y Preparación de Muestras Proceso de Soldadura Preparación de Muestras para Análisis Metalográfico Revelado de la Microestructura Análisis Microestructural Análisis de Resultados


CONCLUSIONES

La adición de níquel en la soldadura del acero inoxidable dúplex 2205 ha demostrado mejorar significativamente las propiedades microestructurales y mecánicas del material. El incremento de la fase austenítica, gracias al níquel, aumenta la tenacidad y la ductilidad de la soldadura, mientras que la estabilización de esta fase reduce la formación de fases intermetálicas perjudiciales, mejorando la resistencia a la corrosión. Además, la distribución más homogénea de las fases ferrítica y austenítica minimiza la segregación de elementos y la formación de microfisuras, mejorando la integridad estructural
Ortega Zamarripa Enya Abigail, Instituto Politécnico Nacional
Asesor: Dr. Rubén Galicia Mejía, Instituto Politécnico Nacional

SISTEMAS DE IRRADIACIóN UV CON MONITOREO DE TEMPERATURA


SISTEMAS DE IRRADIACIóN UV CON MONITOREO DE TEMPERATURA

Ortega Zamarripa Enya Abigail, Instituto Politécnico Nacional. Asesor: Dr. Rubén Galicia Mejía, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Uno de los principales contaminantes orgánicos presentes en el agua residual, son los colorantes orgánicos, como el azul de metileno que se utiliza en la industria textil, papelera, farmacéutica, alimenticia, como tinción en microscopía, como tinte, como antiséptico y cicatrizante, en acuicultura para el tratamiento de infecciones en peces. Las aguas residuales presentan cierta coloración, que indican la contaminación de esta y en el caso de los colorantes, aún en concentraciones relativamente bajas, 0.5 ppm son notorios y aparte de contaminar, este tipo de descargas de aguas residuales impiden el paso de la luz del Sol para la realización de procesos microbiológicos que mantienen el equilibrio del ecosistema.



METODOLOGÍA

La primera etapa del desarrollo consistió en el estudio y funcionamiento de las fuentes de luz en la región UV y los intervalos de luz UV a utilizar. Para después de pruebas para saber las condiciones ideales para tener la potencia necesaria para efectuar la reacción. Se comenzó con el diseño del sistema electrónico, donde todos los componentes utilizados son para el correcto funcionamiento de los LEDs UV. En el cual, con el microcontrolador se genera una señal PWM de frecuencia XX Hz, la cual se inyecta a un controlador de corriente que permite la correcta polarización de los LEDs. El control mediante PWM permite la regulación del flujo radiante emitido, en este caso el controlador de corriente trabaja de forma inversa a la señal generada, lo cual hace que la corriente entregada sea mayor, por lo cual ayuda a tener un mejor desempeño en las fuentes de luz. Adicionalmente, se realizó la caracterización de cada una de las fuentes de irradiación seleccionadas para determinar el comportamiento del flujo radiante en función de la corriente suministrada. A través de la programación se decidió los distintos porcentajes del ciclo de trabajo de la señal PWM que se emplearía para cada uno de los LEDs. Por otro lado, mediante una pantalla LCD se muestra el flujo radiante emitido por la fuente de luz, así como la temperatura de la sustancia a analizar. Al igual que con cada componente electrónico, se realizó un análisis detallado del sensor empleado, incluyendo su método de comunicación y el proceso de conversión de los datos enviados a temperaturas. Por último, se diseñó la placa para el circuito eléctrico, así como el diseño para hacer  los cortes de la estructura. Después de ensamblar todos los elementos, se concluyo el diseño del prototipo.


CONCLUSIONES

Se diseñó, construyó un sistema de irradiación basado en LEDs UV que permite de forma segura llevar a cabo fotorreacciones aplicables a la fotodegradación de contaminantes orgánicos en aguas residuales, validando los excelentes resultados para el caso de la fotodegradación del azul de metileno. Se utilizó una fuente de excitación luminosa para inducir luz ultravioleta tipo A (UVA), la operación dele quipo se realiza de forma manual y permite regular la intensidad del LED, el tiempo de irradiación, su apagado y encendido, así como el monitoreo de la temperatura. La cabina del fotorreactor fue desarrollada utilizando materiales que permiten trabajar al usuario de manera segura. Las pruebas de fotodegradación de azul de metileno en solución.
Ortiz Albarrán Julián, Instituto Tecnológico de Morelia
Asesor: M.C. José de Jesús Villela Aguilar, Instituto Tecnológico de Morelia

ANáLISIS DE UN MODELO MATEMáTICO Y SU APLICACIóN EN FENóMENOS VIBRATORIOS


ANáLISIS DE UN MODELO MATEMáTICO Y SU APLICACIóN EN FENóMENOS VIBRATORIOS

Ortiz Albarrán Julián, Instituto Tecnológico de Morelia. Asesor: M.C. José de Jesús Villela Aguilar, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, muchos fenómenos físicos que se presentan en la naturaleza y que buscan ser analizados por la Ingeniería para ser llevados a aplicaciones tecnológicas, están basados en principios matemáticos y físicos que ya han sido investigados previamente, sin embargo, existe una limitada comprensión de estos para llevarlos a la práctica. Algunos de estos fenómenos pueden modelarse desde el punto de vista físico y matemático como ondas, las cuales, pueden presentarse con un amortiguamiento o no. Los sistemas físicos que exhiben estos comportamientos (fenómenos vibratorios, transitorio eléctrico e hidráulico, etc) son de gran interés en la ingeniería, ya que, se vuelve crucial analizar de manera precisa la frecuencia, periodo y en general, los detalles que describen el comportamiento de un sistema que se desarrolla de manera periódica a lo largo del tiempo. El estudio teórico de estos fenómenos permite proporcionar bases para diseñar sistemas óptimos y analizar o prevenir posibles escenarios no deseados al momento de llevar la implementación de estos modelos en aplicaciones ingenieriles y tecnológicas.



METODOLOGÍA

Para el desarrollo del proyecto abordado en el presente verano de investigación (Programa Delfín) se llevó a cabo una propuesta de resolución basada en modelos matemáticos existentes (Modificación a la Ecuación Korteweg-De Vries y Kuramoto-Sivashinsky). Para ello nos apoyamos en la comprensión y desarrollo de diferentes herramientas matemáticas, como lo son, la transformada de Fourier, el método de variación de parámetros, e incluso realizando diferentes cambios de variable a lo largo del desarrollo para facilitar la resolución de la problemática abordada desde un punto de vista matemático. A la hora de describir fenómenos físicos resulta de vital importancia el poder interpretar los datos que se obtienen a partir de los modelos matemáticos que los describen. Relacionar, analizar y visualizar dichos datos conforman un proceso que culmina en una implementación practica a aplicaciones ingenieriles y/o tecnológicas que buscan ser siempre lo más optimas posibles, debido a la necesidad de esta rápida interpretación de datos es necesario hacer uso de herramientas computaciones que trabajen conjuntamente con los modelos matemáticos funcionando como un sistema sinérgico. Es pues, que se declinó por usar una herramienta de programación como lo es Python pues presenta claras ventajas respecto a otras plataformas, tales como un lenguaje simple, una gran versatilidad en los usos y la precisión en los cálculos computaciones, además de un acceso libre a todo público y, por tanto, una mayor difusión de los resultados que se esperan obtener. El proceso a seguir durante este verano delfín hizo necesario comprender el uso de las herramientas mencionadas anteriormente y, así mismo, como pasos siguientes fue fundamental hacer énfasis en el sistema seleccionado para el primer análisis, este fue el sistema masa-resorte amortiguado, para ello fue necesario desglosar y desentrañar cada parte que conforma el análisis matemático de este sistema, debido a ello se estudió cada posible caso que se puede presentar. Todo esto tuvo el fin de dominar este fenómeno y facilitar el modelado y traslado hacia el entorno de un script en Python que pueda realizar una aproximación mucho más precisa y en un menor tiempo de los valores que puedan obtenerse bajo distintas circunstancias y esto con el beneficio de un menor requerimiento computacional en comparación a otros códigos realizados por la comunidad previamente (tanto libres como comerciales).  En esta última etapa se profundizó en el uso de las herramientas que se han desarrollado dentro de la comunidad de Python cuyo fin es el de resolver ecuaciones diferenciales, desde las ordinarias hasta las parciales (NumPy, SciPy, Matplotlib, etc), resultando  inesperadamente en una tarea prolongada dentro de la estancia  y que, además, supuso uno de los retos más interesantes, pues fue necesario indagar en una gran cantidad de documentos relacionados a estas herramientas para poder comprender su funcionamiento y poder hacer más efectivo el traslado mencionado con anterioridad de los modelos matemático al script, se comenzó por analizar las funciones de utilidad dentro de la librería SciPy, entre las que destacaron dos que permiten la resolución de ecuaciones diferenciales (odeint y scipy.fftpack), sin embargo, ambas fueron únicamente el parteaguas para continuar con las investigaciones de este tipo de funciones. Debido a lo extenso de esta tarea, se vio limitado el progreso del proyecto.


CONCLUSIONES

Por ello, la parte teórica se convirtió en el pilar fundamental del proceso de investigación en esta estancia delfín, la cual definió los pasos a seguir para conseguir los objetivos que se plantearon y si bien esto podría  parecer a simple vista una limitante para poder apreciar todo el panorama en el proceso de investigación, no hay nada más alejado de la realidad, pues durante esta estancia se buscó como objetivo principal el aplicar la teoría a fenómenos reales cuyas aplicaciones ingenieriles y tecnológicas tienen un impacto notable. Cabe resaltar que esta es una investigación que aún está en proceso de realización, pues se busca llevar a cabo, de igual manera que con los casos anteriormente mencionados, un proceso de análisis con ecuaciones existentes que modelan fenómenos físicos que exhiben comportamientos periódicos oscilatorios y que pueden apreciarse gráficamente como ondas. Finalmente, es necesario hacer énfasis en la necesidad que se tiene por analizar y comprender demás conocimientos del acervo matemático teórico que, si bien, en su momento se desglosaron de observaciones físicas, ahora muestran una generalización a distintos fenómenos que exhiben comportamientos similares a ellos, pues el poder dominarlos abre la puerta a posibilidades inmensurables de las posibles aplicaciones que se le pueden dar y, principalmente, el mejoramiento a distintos procesos que ya existen.
Ortiz Bello Ana Luz, Fundación Universitaria Tecnológico Comfenalco
Asesor: Prfnal. Juan Cano Arroyave, Corporación Universitaria Remington

MODELO DE GESTIóN PARA EL CENTRO DE LABORATORIOS DE LA CORPORACIóN UNIVERSITARIA REMINGTON SEDE MEDELLíN


MODELO DE GESTIóN PARA EL CENTRO DE LABORATORIOS DE LA CORPORACIóN UNIVERSITARIA REMINGTON SEDE MEDELLíN

Ortiz Bello Ana Luz, Fundación Universitaria Tecnológico Comfenalco. Asesor: Prfnal. Juan Cano Arroyave, Corporación Universitaria Remington



PLANTEAMIENTO DEL PROBLEMA

Los laboratorios de la facultad de ingeniería de la Corporación Universitaria Remington sede Medellín   - (CUR) Torre 2 Carrera 51 # 49-59 ubicados en el piso 1 (Laboratorio de Pavimento, Hidráulica y Concreto) y piso 10 (Laboratorio de Bioquímica, Química y Laboratorio de Suelos); llevan alrededor de 8 años prestando el servicio a estudiantes, docentes de la universidad y externos. En el tiempo que llevan abierto a la población, no cuentan con un modelo organizativo para el seguimiento de sus procesos y no generan evidencia documentada de las actividades que se llevan a cabo. Para identificar el problema se llevó a cabo un diagnóstico sobre la ISO 9001:2015; Por medio del cual se obtuvo una serie de datos que permiten evaluar en qué punto con respecto a la norma se encuentran los laboratorios. El porcentaje total de implementación es apenas del 23%, lo que se califica como "BAJO" según la evaluación global. Todos los numerales de la norma tienen porcentajes bajos de implementación: La cláusula 10 correspondiente a la "Mejora y la 5 que habla sobre Liderazgo, son las de mayor grado de cumplimiento con un porcentaje de 29% y 27% respectivamente. El más bajo es la cláusula 6 "Planificación" con solo 12%; Los demás oscilan entre 19% y 25%. Para todos los numerales, la acción requerida es "IMPLEMENTAR", lo que indica que hay carencias en todas las áreas del sistema de gestión de calidad. Este proyecto surge de las necesidades de mejorar las condiciones de trabajo, metodología y herramientas considerando el sistema en gestión de calidad como condición fundamental para el trabajo apropiado, sentará las bases para una cultura de calidad sostenible y un crecimiento institucional a largo plazo, alineando los laboratorios con las mejores prácticas internacionales y preparándolos para futuros desafíos en el campo de la ingeniería y la investigación académica.



METODOLOGÍA

Para  el desarrollo  de  este  proyecto se  realizó un  estudio  con  alcance  descriptivo el  cual  consistió  en  detallar  como  son  y  cómo  se  manifiestan  algunos fenómenos,  situaciones  o  contextos dentro y fuera de la empresa; se  pretende  recolectar  información  de manera  independiente  a  través de un diagnóstico, compuesto por  una  serie de  criterios relacionadas con la Norma ISO 9001:2015; para determinar  el  estado  actual  de  implementación de esta en los laboratorios de la Facultad de Ingeniería de la Corporación Universitaria Remington - CUR  y  establecer  un punto de inicio para el Sistema  de Gestión  de  Calidad basado en NTC ISO9001:2015,  con  el  fin  de  mejorar  sus  actividades  y  de  esta  manera asegurar la calidad de servicio ofrecido a las partes interesadas conforme a sus requisitos. Para entender el punto de partida se realiza un análisis DOFA (Debilidades, Oportunidades, Fortalezas, Amenazas) para evaluar factores internos y externos que afectan a la organización; se identificaron las partes interesadas y sus requisitos haciendo uso de una matriz stakeholders internos y externos y se documentaron las necesidades y expectativas de cada grupo. Se definen los recursos (humanos, infraestructura, ambiente de trabajo) necesarios y se crean los perfiles de cargo estableciendo los requisitos y competencias necesarias para el puesto de trabajo. Para la Planificación y Control Operacional se redactó la documentación de productos y servicios ofrecidos, detallando los requisitos específicos de cada producto/servicio, estableciendo los criterios de aceptación e identificando los recursos necesarios para su realización. El desarrollo de documentación operativa que consta de procedimientos de trabajo, instructivos detallados y manuales de operación; dan cumplimiento al ítems 8.5 Producción y provisión del servicio, junto con la caracterización de procesos en la cual se describen las características del producto o servicio, se listan los recursos requeridos, se definen los mecanismos de medición y seguimiento se especifica la infraestructura necesaria y por último se asigna el responsable para  cada actividad.


CONCLUSIONES

Para  el desarrollo  de  este  proyecto se  realizó un  estudio  con  alcance  descriptivo el  cual  consistió  en  detallar  como  son  y  cómo  se  manifiestan  algunos fenómenos,  situaciones  o  contextos dentro y fuera de la empresa; se  pretende  recolectar  información  de manera  independiente  a  través de un diagnóstico, compuesto por  una  serie de  criterios relacionadas con la Norma ISO 9001:2015; para determinar  el  estado  actual  de  implementación de esta en los laboratorios de la Facultad de Ingeniería de la Corporación Universitaria Remington - CUR  y  establecer  un punto de inicio para el Sistema  de Gestión  de  Calidad basado en NTC ISO9001:2015,  con  el  fin  de  mejorar  sus  actividades  y  de  esta  manera asegurar la calidad de servicio ofrecido a las partes interesadas conforme a sus requisitos. Para entender el punto de partida se realiza un análisis DOFA (Debilidades, Oportunidades, Fortalezas, Amenazas) para evaluar factores internos y externos que afectan a la organización; se identificaron las partes interesadas y sus requisitos haciendo uso de una matriz stakeholders internos y externos y se documentaron las necesidades y expectativas de cada grupo. Se definen los recursos (humanos, infraestructura, ambiente de trabajo) necesarios y se crean los perfiles de cargo estableciendo los requisitos y competencias necesarias para el puesto de trabajo. Para la Planificación y Control Operacional se redactó la documentación de productos y servicios ofrecidos, detallando los requisitos específicos de cada producto/servicio, estableciendo los criterios de aceptación e identificando los recursos necesarios para su realización El desarrollo de documentación operativa que consta de procedimientos de trabajo, instructivos detallados y manuales de operación; dan cumplimiento al ítems 8.5 Producción y provisión del servicio, junto con la caracterización de procesos en la cual se describen las características del producto o servicio, se listan los recursos requeridos, se definen los mecanismos de medición y seguimiento se especifica la infraestructura necesaria y por último se asigna el responsable para  cada actividad.
Ortiz Cortes Miguel Angel, Universidad de Manizales
Asesor: Mtra. Silvia Lourdes Vidal Taboada, Universidad Tecnológica del Perú

TRANSFORMACIóN DIGITAL E INTELIGENCIA ARTIFICIAL EN PYMES DEL SECTOR COMERCIAL.


TRANSFORMACIóN DIGITAL E INTELIGENCIA ARTIFICIAL EN PYMES DEL SECTOR COMERCIAL.

Ortiz Cortes Miguel Angel, Universidad de Manizales. Asesor: Mtra. Silvia Lourdes Vidal Taboada, Universidad Tecnológica del Perú



PLANTEAMIENTO DEL PROBLEMA

Esta investigación se centra en el análisis bibliométrico de la literatura existente sobre la adopción de inteligencia artificial (IA) en pequeñas y medianas empresas (PYMES) en el contexto de la transformación digital. A través de una revisión exhaustiva de artículos científicos indexados en la base de datos Scopus, se exploran las tendencias actuales, los desafíos y las oportunidades que enfrentan las PYMES al incorporar la IA en sus operaciones. Los resultados obtenidos revelan un creciente interés en la investigación sobre este tema, evidenciado por el aumento en el número de publicaciones en los últimos años. Se identifican los principales factores que impulsan la adopción de IA en las PYMES, así como las barreras que obstaculizan su implementación. Además, se analizan las diversas aplicaciones de la IA en diferentes sectores y se discuten las implicaciones de esta tecnología para el futuro de las PYMES. Este estudio contribuye a llenar un vacío en la literatura existente y proporciona una visión general del estado actual de la investigación en este campo, ofreciendo valiosas recomendaciones para futuras investigaciones y para el desarrollo de políticas públicas que promuevan la adopción de IA en las PYMES. Palabras clave: Pymes, inteligencia artificial, transformación digital, bibliometría, adopción tecnológica, innovación.



METODOLOGÍA

Con el propósito de Ahondar en la importancia de la transformación digital e IA en PYMES del sector comercial se acudió al método bibliométrico basado en modelos matemáticos y estadísticos como un proceso que permite soportar los datos para llegar a un resultado científico idóneo que admite analizar los resultados con mayor precisión y claridad.


CONCLUSIONES

Se muestra el número de publicaciones por año, evidencia una evolución marcada por la producción científica sobre transformación digital e Inteligencia Artificial (IA) en pequeñas y medianas empresas (pymes) del sector comercial. A partir de un inicio modesto en 1983, la investigación en este campo experimentó cierto estancamiento hasta 2008. Sin embargo, a partir de 2009 se observa un incremento exponencial en la producción de artículos científicos, superando los 10 artículos anuales. Este crecimiento se consolida a partir de 2017, alcanzando un promedio de aproximadamente 20 publicaciones anuales. Se determina que Estados Unidos es el país de mayor impacto y producción científica en el tema de IA. La investigación científica, es una manera importante de cerrar brechas sociales y políticas, tal es el caso de Pakistán y Estados Unidos, dos países que han logrado integrar conocimientos para impactar el mundo desde la producción académica. Los países con mayor participación son India, China, Reino Unido, Estados Unidos y Alemania. Brasil es el único país Latino Americano que tiene participación dentro de los 375 artículos encontrados. 8 instituciones cuentan con 3 publicaciones cada una, destacan la Imam Mohammad Ibn Saud Islamic University de Arabia Saudita y la Jilin University de China, con 4 publicaciones cada una. Los principales hallazgos son los artículos (41.9%) y los papers de conferencia (44.8%) representan la mayor parte de la producción científica, sumando un total de 86.7%. Las instituciones que respaldan sonEngineering and Physical Sciences Research Council, este organismo destaca por su significativo aporte a la producción científica en el tema, con 7 documentos publicados en Scopus. National Natural Science Foundation of China, son las más importantes.  
Ortiz Flores Brandon, Universidad Autónoma del Estado de México
Asesor: Mtro. Armando Méndez Morales, Universidad Tecnológica de La Selva

APP MóVIL PARA EL SEGUIMIENTO DE LA PRODUCCIóN DEL PROGRAMA SEMBRANDO VIDA


APP MóVIL PARA EL SEGUIMIENTO DE LA PRODUCCIóN DEL PROGRAMA SEMBRANDO VIDA

Ortiz Flores Brandon, Universidad Autónoma del Estado de México. Asesor: Mtro. Armando Méndez Morales, Universidad Tecnológica de La Selva



PLANTEAMIENTO DEL PROBLEMA

El personal facilitador y técnico que labora en el programa “Sembrando Vida” en México, dedica una gran cantidad de tiempo al llenado de documentos de forma manual que corresponde a tareas administrativas repetitivas, teniendo que registrar tanto sus actividades llevadas a cabo en el seguimiento de la siembra de los diferentes plantíos de frutales y maderables, como del registro y control de la producción generada, que a la fecha, los beneficiarios/productores escasamente cuentan con esta información porque no están acostumbrados a ello. La acumulación de documentos físicos no solo consume recursos, sino que también impide un análisis profundo y ágil de los datos, dificultando la toma de decisiones basadas en evidencia, afectando la capacidad del Programa para cumplir con sus objetivos. Por ello está en proceso de desarrollo un par de soluciones, entre ellas, una aplicación móvil que llevará a cabo el registro y recopilación de datos del seguimiento que se lleva acabo de las parcelas o predios de los diferentes beneficiarios del programa.



METODOLOGÍA

Para llevar a cabo la transformación digital del programa Sembrando Vida mediante el desarrollo de aplicaciones complementarias a las existentes, se emplearon varias herramientas y métodos. El trabajo se realizó en colaboración con compañeros de la Universidad Tecnológica de la Selva, utilizando GitLab para el control de versiones y su tablero Kanban incluído para llevar a cabo la planificación y seguimiento de las issues del proyecto estructurado en sprints. Se utilizó Android Studio para el desarrollo de la aplicación móvil, la cual ayudará a centralizar la información y eliminar el exceso de papeleo, optimizando así los procesos internos. Esto permitirá una toma de decisiones más ágil y una mejora general en la eficiencia. Al automatizar tareas repetitivas y capturar datos de manera precisa, la aplicación liberará al personal técnico para que puedan centrarse en actividades estratégicas y fortalecer la misión social del programa. Como resultado, se logrará una mayor transparencia en las operaciones y una mejor gestión de los recursos, lo que tendrá un impacto positivo en las comunidades que se benefician del programa.


CONCLUSIONES

Las aplicaciones que están en proceso de desarrollo, permitirán lograr con éxito el objetivo de optimizar los procesos administrativos del Programa Sembrando Vida, al automatizar tareas repetitivas y centralizar la información, permitiendo obtener una mejora significativa en la eficiencia y la precisión de los datos. Se espera que la herramienta sea bien recibida por los interesados del proyecto, quienes valorarán la facilidad de uso y la reducción del tiempo dedicado a tareas burocráticas. Sin embargo, es importante destacar que la implementación de esta solución ha revelado la necesidad de continuar trabajando en la integración con otros sistemas y en la capacitación de los usuarios para maximizar su potencial. Además, se identificó la oportunidad de explorar nuevas funcionalidades, como la generación de reportes personalizados y la integración de inteligencia artificial para mejorar la toma de decisiones. En conclusión, este proyecto representa un paso importante hacia la transformación digital del Programa Sembrando Vida.
Ortiz Gomez Alejandro, Universidad Mexiquense del Bicentenario
Asesor: Dra. Mirna de Jesús Ojeda Arana, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías

EMULACION DE UN COMAL SOSTENIBLE PARA LA COCCION EN SECO DE TORTILLAS


EMULACION DE UN COMAL SOSTENIBLE PARA LA COCCION EN SECO DE TORTILLAS

Ortiz Gomez Alejandro, Universidad Mexiquense del Bicentenario. Asesor: Dra. Mirna de Jesús Ojeda Arana, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías



PLANTEAMIENTO DEL PROBLEMA

El uso de comales en la cocina tradicional es una práctica común en muchas culturas alrededor del mundo. Estos utensilios de cocina son esenciales para la preparación de una variedad de alimentos, especialmente en comunidades rurales y en la cocina tradicional de países como México. Los comales están hechos de diferentes materiales, incluyendo acero inoxidable, que es valorado por su durabilidad y propiedades térmicas. Sin embargo, el conocimiento detallado sobre el comportamiento térmico de los comales de acero inoxidable cuando se calientan con madera es limitado. El calentamiento de comales con madera es una práctica cotidiana en muchas áreas rurales. El acero inoxidable es un material popular debido a su resistencia a la corrosión y facilidad de limpieza, pero las características específicas de su rendimiento térmico en este contexto no están bien documentadas. Saber cómo se comporta térmicamente un comal de acero inoxidable, incluyendo la temperatura máxima que puede alcanzar y cuánto tiempo mantiene su calor, es crucial para optimizar su uso en la cocina y mejorar la eficiencia energética. Problema:El problema radica en la falta de datos empíricos sobre la capacidad del comal de acero inoxidable para alcanzar y mantener altas temperaturas cuando se utiliza madera como combustible. Sin esta información, es difícil establecer parámetros claros para su uso óptimo, lo que puede llevar a prácticas de cocina ineficientes y un uso no óptimo del combustible (madera).



METODOLOGÍA

La investigación que se realizo fue experimental que nos permitio evaluar el comportamiento del comal. Para evaluar el comportamiento térmico del comal de acero inoxidable cuando se calienta con madera, se utilizará una combinación de simulaciones por software y técnicas de inteligencia artificial (IA). Esta metodología permitirá obtener una comprensión detallada y precisa del proceso de calentamiento, la distribución de la temperatura y la eficiencia energética del sistema. El modelado del comal y el sistema de calentamiento comenzará con el diseño del modelo 3D utilizando software CAD como SolidWorks o AutoCAD. Se definirán las propiedades térmicas del acero inoxidable y se desarrollará un modelo del sistema de combustión. Las simulaciones se ejecutarán para diferentes escenarios de combustión, variando la cantidad de madera y la intensidad de la combustión, con el objetivo de determinar la temperatura máxima alcanzada por el comal y su tiempo de enfriamiento. Los resultados de estas simulaciones se utilizarán para crear un conjunto de datos que incluirá variables como la temperatura máxima, el tiempo de enfriamiento y la eficiencia de la transferencia de calor. Los resultados se analizarán para identificar patrones y comportamientos clave en la distribución de la temperatura y la eficiencia energética del comal. El procedimiento experimental incluye la preparación del modelo de simulación, definiendo las propiedades del material y las condiciones, seguido de la configuración y ejecución de simulaciones para diferentes escenarios de combustión y la recopilación de datos sobre la temperatura máxima, distribución de la temperatura y tiempo de enfriamiento. El desarrollo y entrenamiento del modelo de IA implicará la creación del conjunto de datos a partir de los resultados de la simulación, el entrenamiento del modelo utilizando técnicas de aprendizaje supervisado y la validación y ajuste del modelo para mejorar su precisión. El análisis y validación de los resultados incluirá la comparación de las predicciones del modelo de IA con datos experimentales, si están disponibles, y la interpretación de los resultados para proporcionar recomendaciones sobre el uso óptimo del comal. Los alcances o metas de esta investigación incluyen determinar la temperatura máxima que puede alcanzar el comal de acero inoxidable cuando se calienta con una cantidad específica de madera, calcular el tiempo durante el cual el comal mantiene una temperatura elevada útil para la cocción en seco de tortillas de maiz y harina después de alcanzar la temperatura máxima, medir la eficiencia de la transferencia de calor desde la combustión de la madera al comal y utilizar el modelo de IA para hacer predicciones sobre el comportamiento térmico del comal bajo diferentes condiciones de uso y escenarios de combustión.


CONCLUSIONES

Bajo las condiciones dadas y considerando una eficiencia del 20% en la transferencia de calor, el comal de acero inoxidable AISI 316 podría alcanzar un aumento de temperatura aproximado de 897 K (624 °C), más allá de la temperatura inicial ambiente.Este cálculo es una simplificación y las condiciones reales pueden variar debido a múltiples factores como la distribución del calor, las pérdidas por radiación y convección, y la variabilidad en la combustión de la madera. El comal de acero inoxidable AISI 316, después de alcanzar una temperatura de 897 K (624 °C) por encima de la temperatura ambiente, mantendría temperaturas útiles para la cocción (alrededor de 500 a 150 °C) durante aproximadamente 2.22 horas. Este tiempo es una aproximación y puede variar en función de factores adicionales como la corriente de aire y la eficiencia real del sistema de combustión.Viendo estos resultados podemos decir que nuestro comal es suficientemente capas para realizar la tarea de cocción de tortillas de maíz o harina, además tiene la capacidad de cocinar alimentos. El comal de acero ofrece durabilidad y versatilidad.Es un comal con diseño sencillo que es fácil de producir masa, la estructura es sencilla por lo cual es fácil de que cualquier persona lo realice en su hogar.
Ortiz Martínez Jesús Ramón, Universidad de Sonora
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

PRUEBA DE MáXIMA TEMPERATURA DE UN TUBO EVACUADO SIN AGUA DE UN SISTEMA COLECTOR SOLAR


PRUEBA DE MáXIMA TEMPERATURA DE UN TUBO EVACUADO SIN AGUA DE UN SISTEMA COLECTOR SOLAR

Medina Barboza Miguel, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Ortiz Martínez Jesús Ramón, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Sonora es uno de los estados con mayor irradiancia solar a nivel nacional, ubicado geográficamente en el noroeste del país. La estancia de investigación se realizó en su capital, la ciudad de Hermosillo, ubicada en las coordenadas geográficas de 29.072967° de latitud norte y -110.955919° de longitud oeste (GeoHack, n.d.). Para aprovechar el abundante recurso solar de Sonora, se diseñan proyectos como sistemas colectores. Los colectores solares son dispositivos que captan la radiación solar y la transforman en energía térmica. Las temperaturas que alcanzan estos dispositivos son capaces de llegar al punto de ebullición del agua, es decir, alcanzar los 100°C. Existe una problemática social para quienes tienen dispositivos de colectores solares de tubos evacuados, ya que cuando los tubos se quedan sin agua, al reabastecerlos con agua, dichos tubos explotan, en la mayoría de los casos se desconoce el motivo científico de este fenómeno.



METODOLOGÍA

Mediante el estudio de transferencia de calor, se analizó el efecto de radiación sobre la superficie del tubo evacuado, conociendo el DNI de la ubicación. El DNI (Direct Normal Irradiance, por sus siglas en inglés) es la cantidad de energía solar recibida de manera perpendicular sobre una área durante cierto tiempo. Las coordenadas específicas del lugar de experimentación son 29.0273240, -111.1461074. Los días de experimentación fueron el 2 de julio de 2024 (sistema de termopares con tubo de PVC) con un tiempo de experimentación de 01:38:22:287 horas, el 9 de julio de 2024 (sistema de termopares en varilla de madera) con un tiempo de experimentación de 03:36:15:360 horas, el 11 de julio de 2024 (sistema de termopares con tubo Conduit de acero galvanizado) con un tiempo de experimentación de 03:39:44:291 horas y el 22 de julio de 2024 (sistema de termopares con tubo Conduit de acero galvanizado en tiempo climatológico mayormente nublado) con un tiempo de experimentación de 03:32:49:984 horas. La adquisición y tabulación de mediciones de temperatura se realizó utilizando un adquiridor de datos KEYSIGHT 34972A con el software Agilent BenchLink Data Logger 3. Es importante conocer el día y la hora de experimentación, ya que es un factor determinante del DNI y del ángulo de inclinación del tubo evacuado para que la incidencia de radiación solar sea perpendicular a la superficie. Determinado mediante una serie de ecuaciones que ayudan a conocer el ángulo cenital. Se determinó que el ángulo cenital de inclinación promedio es de 6°, alineado con el eje norte-sur, dando dicha inclinación hacia el sur. El ángulo horario es cero debido a que la superficie es un cilindro y no depende de la inclinación horaria. La ecuación del fenómeno por radiación solar desde un estudio de transferencia de calor nos ayuda a determinar las propiedades de la película selectiva de los tubos evacuados, como la emisividad y la absortancia, conociendo la energía por radiación solar recibida sobre la superficie de acuerdo a la base de datos de la estación meteorológica de la Plataforma Solar de Hermosillo, perteneciente a la Universidad de Sonora, ubicada en las mismas coordenadas geográficas de la experimentación.


CONCLUSIONES

Durante el periodo de investigación, se realizaron diversos estudios sobre la temperatura máxima interior en tubos evacuados, encontrando que las películas selectivas son de baja emisividad y alta absorción. Se realizaron 4 pruebas. 02 de julio de 2024 (Sistema de termopares con tubo de PVC) Condición climática: Soleado Temperatura máxima del tubo evacuado: 236°C 09 de julio de 2024 (Sistema de termopares en varilla de madera) Condición climática: Soleado Temperatura máxima del tubo evacuado: 287°C 11 de julio de 2024 (Sistema de termopares con tubo Conduit de acero galvanizado) Condición climática: Soleado Temperatura máxima del tubo evacuado: 270°C 22 de julio de 2024 (Sistema de termopares con tubo Conduit de acero galvanizado) Condición climática: Nublado Temperatura máxima del tubo evacuado: 255°C En conclusión, los diferentes experimentos mostraron que existe un cambio de temperatura significativo cuando los tubos se encuentran vacíos a la intemperie. De manera experimental, para la toma de mediciones, se demostró que la mejor opción es una condición climática soleada; los datos tomados crecen de manera exponencial estable. Resolviendo la problemática, se atribuye al choque térmico entre la temperatura del agua y del interior del tubo evacuado, provocando que exploten. Se recomienda que, una vez que estos tubos se hayan vaciado y queden expuestos a la intemperie, no sean reabastecidos con agua inmediatamente, sino cuando no estén expuestos a la radiación solar.
Ortíz Pérz Eduardo, Universidad Mexiquense del Bicentenario
Asesor: Mg. Andres Yamil Martinez Choles, Universidad de la Guajira

PERSPECTIVAS DE LA IMPLEMENTACIóN DE TECNOLOGíAS LIMPIAS PARA EL TRATAMIENTO DE AGUAS RESIDUALES EN LA FRONTERA NORTE DE COLOMBIA Y MéXICO


PERSPECTIVAS DE LA IMPLEMENTACIóN DE TECNOLOGíAS LIMPIAS PARA EL TRATAMIENTO DE AGUAS RESIDUALES EN LA FRONTERA NORTE DE COLOMBIA Y MéXICO

Hernández Hernández Gilberto, Universidad Mexiquense del Bicentenario. Ortíz Pérz Eduardo, Universidad Mexiquense del Bicentenario. Asesor: Mg. Andres Yamil Martinez Choles, Universidad de la Guajira



PLANTEAMIENTO DEL PROBLEMA

Éste trabajo de investigación tiene como principal tema de estudio el qué tipo de tecnologías se están utilizando actualmente dentro de la frontera norte de Colombia y México. Tomamos la iniciativa de realizar investigación, porque se tomaron en cuenta grandes factores de afectación en diferentes puntos de México, principalmente y de Colombi,  los cuales tienen un impacto, desgraciadamente, muy negativo; tanto en el aprovechamiento de estas tormentas durante ciertas temporadas anuales, tanto del cómo se está lidiando en cada una de nuestras comunidades con este problema que genera no sólo un desaprovechamiento de una fuente de agua natural, sino que a diversas comunidades problemas como inundaciones, exceso de agua en el drenaje, fatiga y ahogamiento de la fauna silvestre o de 1 a controlada. Además, se toma en cuenta el tipo de tecnología que existe actualmente en ambos países, y que no está siendo aprovechada al 100% durante estas temporadas la cual se puede innovar por medio de un diseño bastante moderno y que nos permite dar uso a materiales reciclables y resolver dos situaciones que de igual manera Representan afectaciones a nuestras regiones y dar pie a la modernización de ciertas comunidades dentro de ellas.   Dando pie a la investigación de 1 a de oportunidad en donde con la guía, el desarrollo y cada uno de los antecedentes trabajados de la manera correcta, podemos encontrar no sólo una sino varias soluciones, de acuerdo a todas estas problemáticas que se necesitan abordar para proponer una solución fija aplicable y sobre todo sustentable en cuanto al aspecto económico y ecológico. Siendo esta la principal razón del aprovechamiento tanto del agua pluvial como de los materiales reciclables para la fabricación de estas tecnologías.  Las intenciones de realizar esta investigación sobre el uso de esta tecnología son para ayudar a nuestras comunidades a poco a poco ir aprovechando las cosas que tenemos, es decir los recursos con los que contamos y que pueden resolver los problemas que tiene cada uno de nuestras comunidades. las afecciones directas como las inundaciones o algunas veces el desabasto de agua por el sistema de redes en el que estamos habitando, queremos dar pie a las innovaciones a que cada vez más personas se sumen a realizar proyectos y que este sea un ejemplo de lo que se puede lograr con iniciativa, visión y sobre todo trabajo en equipo.



METODOLOGÍA

Se comenzará analizando el tema de investigación de manera clara, donde los integrantes darán su aportación de lo que sabe cada uno, para tener a grandes rasgos conocimiento de lo que va a tratar la investigación, debatiendo puntos clave donde cada integrante brindará comentarios y posibles aportes, debatir sobre las posibles fuentes de consulta para la indagación de lo que se pide, poniendo en consideración la manera de trabajar, como organizarse en cuanto al tiempo y medio para trabajar de la manera más adecuada posible donde todos los integrantes tengan la posibilidad de coincidir en sus tiempos, considerando un tiempo de siete semanas para la realización de la investigación, realizando una revisión semanal del avance. Después de tener claro el tema de procederá a buscar fuentes de consulta confiables, generando fichas de bibliográficas, donde colocará la fuente, la bibliografía y un resumen del artículo o fuente consultada, esto servirá como base para tener conocimiento más preciso del tema y ayudará a entender de mejor manera lo que la investigación puede llegar a beneficiar y su impacto en la sociedad, una vez que cada integrante tenga sus fichas se procede a juntar todas y verificar que ninguna se repita, teniendo artículos internacionales, nacionales y regionales. Se procede a realizar el llenado del formato correspondiente para el desarrollo de la investigación, donde cada integrante deberá aportar, dividiendo la carga de trabajo, con ayuda de las fichas bibliográficas se procederá a llenar el formato, y de ser necesario se buscará más información para ir completando la investigación, de tal manera que la investigación sea precisa y abarque de manera clara y adecuada el tema de la implementación de tecnologías limpias en zonas fronterizas del norte de Colombia y México, además de buscará los beneficios que las tecnologías limpias tendrán para las comunidades donde se implementaran, y se realizará un análisis donde los integrantes con ayuda de lo recabado darán las posibles soluciones al problema planteado al comienzo, de manera acertada y adecuada siendo críticos en su manera de expresar sus resultados obtenidos durante la investigación, se tendrá un monitoreo constante, además de manera semanal se buscará que se revise el avance hasta ese momento, una vez que sea revisado el avance se dará la observación pertinente y se harán los cambios correspondientes. Con base en lo que se obtuvo en a la investigación, los integrantes realizarán una propuesta donde demuestran todo lo que han recabado, dónde demuestran que lo indagado sirve como base teórica sólida donde buscan dar solución al problema que se planteó, siendo objetivos con lo que se obtuvo, posteriormente al terminar el llenado del formato se realizará la respectiva revisión, para que sea avalado, si es necesario se realizarán los cambios pertinentes del documento de investigación.


CONCLUSIONES

  Llegamos a la conclusión de qué es viable este proyecto siempre y cuando se tenga bien identificado cuál es el punto clave para llegar a una base de estudio concreta, lo cual es de qué manera aprovechamos esta agua y hacia dónde va direccionada, no sólo saber para que no sirve el filtro, si no conocer los beneficios que va a tener aprovechar esta agua y de qué forma va a impactar también a nuestro medio natural. ¨Las cuestiones de salud e higiene han pasado a un plano prioritario en nuestras rutinas y prestamos más atención a los agentes contaminantes que podrían afectar a nuestra salud a largo plazo¨.  (s.f , 2024) Finalizando así, con un producto positivo, de acuerdo a la obtención de datos y nuevos conocimientos que se realizaron durante estas siete semanas.
Ortiz Pico Alejandra Monserrath, Instituto Tecnológico de Morelia
Asesor: Mg. Martha Sofia Carrillo Landazábal, Fundación Universitaria Tecnológico Comfenalco

INGRESO, EGRESO Y TITULACIóN DE ESTUDIANTES MUJERES EN FACULTADES DE INGENIERíA EN LA UNIVERSIDAD MEXICANA EN EL ESTADO DE MORELIA, MICHOACáN. PERíODO 2020-2023


INGRESO, EGRESO Y TITULACIóN DE ESTUDIANTES MUJERES EN FACULTADES DE INGENIERíA EN LA UNIVERSIDAD MEXICANA EN EL ESTADO DE MORELIA, MICHOACáN. PERíODO 2020-2023

Ortiz Pico Alejandra Monserrath, Instituto Tecnológico de Morelia. Asesor: Mg. Martha Sofia Carrillo Landazábal, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

Esta investigación aborda la desigualdad de género en facultades de ingeniería, enfocándose en Michoacán. A pesar del incremento de mujeres en carreras STEM, muchas no completan sus estudios debido a obstáculos como estereotipos de género, falta de modelos femeninos en liderazgo y sesgos inconscientes en evaluación y tutoría. El objetivo es identificar factores que afectan a mujeres en ingeniería y desarrollar estrategias para promover la equidad de género. Los resultados pueden ayudar a crear un entorno inclusivo, maximizando el talento y las perspectivas únicas de las mujeres, impulsando la innovación tecnológica.



METODOLOGÍA

Esta investigación analiza la desigualdad de género en el Instituto Tecnológico de Morelia durante el ciclo escolar 2022-2023. Utilizando datos del Anuario Estadístico de la Población Escolar en Educación Superior (DEPEV, 2023), se observan diferencias significativas entre hombres y mujeres en ingeniería. Se destaca a Katya Echazarreta, ingeniera mexicana que en 2022 se convirtió en la primera mexicana y la americana más joven en viajar al espacio con la misión NS-21 de Blue Origin. La investigación sigue fases de comprensión, recopilación y análisis de datos, culminando con la inspiración de figuras femeninas en STEM.  


CONCLUSIONES

En el periodo 2022-2023 se obtuvo un total de 344 graduadas, 1638 matriculadas y 214 inscritas. En el periodo 2021-2022 fueron 229 graduadas, 1672 matriculadas y 178 inscritas. Convirtiéndose el periodo que presenta el porcentaje mas bajo en mujeres. Para el periodo 2020-2021, había un total de 282 graduadas, 1602 matriculadas y 221 inscritas. En ningún caso se presento mayor número de mujeres sobre los hombres. Después de la pandemia la presencia de mujeres disminuyo, pero ahora se ha ido recuperando.  
Ortiz Soto Jazmin, Universidad de Guadalajara
Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara

DESARROLLO DE NANOCOMPOSITES BASADOS EN ACEITE DE SOYA EPOXIDADO ACRILATADO (AESO) Y NANOFIBRAS DE CELULOSA TEMPO-OXIDADAS/AMINADAS, OBTENIDAS DE RESIDUOS LIGNOCELULóSICOS DE PERSEA AMERICANA MILL.


DESARROLLO DE NANOCOMPOSITES BASADOS EN ACEITE DE SOYA EPOXIDADO ACRILATADO (AESO) Y NANOFIBRAS DE CELULOSA TEMPO-OXIDADAS/AMINADAS, OBTENIDAS DE RESIDUOS LIGNOCELULóSICOS DE PERSEA AMERICANA MILL.

Ortiz Soto Jazmin, Universidad de Guadalajara. Venegas Martínez Fernando, Universidad de Guadalajara. Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El objetivo de este proyecto es obtener nanocelulosa de un espécimen de Persea americana Mill, para utilizarlo como refuerzo en los nanocomposites y/u obtener un nanocomposite amigable con el medio ambiente mientras utilizamos los residuos de la poda de estos árboles. La principal problemática a la que nos enfrentamos es que al cosechar aguacate se hace una poda de las ramas que se creen menos importantes para la producción, generando así residuos que no se utilizan para otras tareas, creando un impacto negativo en el ambiente. México representa más del 30% de la producción de aguacate en el mundo, ocupando el tercer lugar en valor de exportaciones del país, solo superado por el tequila y la cerveza, por lo que utilizar los residuos de la producción de aguacate se convierte en un gran punto de interés ya que se le puede dar una segunda oportunidad de uso.



METODOLOGÍA

El proyecto consiste en varias etapas y subetapas, con diferentes metodologías para llegar al resultado esperado. Para la primera etapa se hizo la valoración y selección de la rama que se usará durante todo el proyecto. Una vez seleccionada, trituramos lo suficiente para obtener la pulpa del espécimen y pasar a la etapa dos. La segunda etapa consiste en varias etapas de blanqueo con diferentes reactivos, entre ellos dióxido de cloro, sosa cáustica y peróxido de hidrógeno a diferentes concentraciones, con una estimación de 7 etapas de blanqueo, pero se logró hacer en 5 y una etapa de extracción de goma. Para definir que ya no se necesitaban más blanqueos, realizamos dos fases de maceración, una entre la cuarta y quinta etapa de blanqueo y otra después de la etapa de extracción de goma. La maceración consiste en hacer la medición de la celulosa alfa, beta y gamma siguiendo el método de Alfa, beta, gamma celulosa en pulpa (T203 cm-99) con el uso de ácido sulfúrico concentrado y una muestra de la pulpa blanqueada, durante esta fase se valora si se debe seguir blanqueando la pulpa hasta obtener un porcentaje de alfa celulosa de 90%. En la tercera etapa se hace uso de la refinación Jokro con el propósito de separar las microfibras de la pulpa y poder hacer la cuarta etapa en donde se hace una oxidación por TEMPO (C9H18NO) llevándola y manteniéndola en un pH de entre 10 y 11. Posteriormente, se dividió y usó la celulosa TEMPO-oxidada en tres etapas diferentes. En la quinta etapa se midió el grado de carboxilaciones siguiendo el método TAPPI T237 cm-98. En la sexta etapa se mezcla parte de la celulosa TEMPO-oxidada con AESO y un fotoiniciador, obteniendo los composites que usaremos para crear figuras en moldes hechos con impresión 3D con forma de hueso y comprobar algunas propiedades físicas. Al mismo tiempo, usaremos la última parte de la celulosa TEMPO-oxidada para la séptima etapa en la que obtendremos nanofibras con ayuda de un microfluidizador, una vez obtenidas pasamos a la octava etapa de modificación con dietrilentriamina para obtener la nanocelulosa utilizada para reforzar los composites y convertirlos en nanocomposites. Un nanocomposite es un composite en el que uno de sus componentes se encuentra en escala nanométrica, en este caso las nanofibras de celulosa (o nanocelulosa).


CONCLUSIONES

Durante la estancia en este verano se adquirieron conocimientos teóricos acerca del proceso de blanqueo de la pulpa, el cálculo de la maceración, refinación de las fibras mediante Jokro, la TEMPO-oxidación de la pulpa y la medición del grado de carboxilaciones presentes en ella. Pusimos en práctica estos conocimientos con pulpa obtenida de ramas de Persea americana Mill, conocida como árbol de aguacate. Sin embargo no fue posible completar la realización del composite (mezcla con AESO) ya que la cantidad resultante no fue suficiente para rellenar los moldes y no se alcanzó a repetir el proceso con otros lotes. Tampoco realizamos la etapa de microfluidización, por tanto no pasamos a la extracción de nanocelulosa, y en consecuencia tampoco a la elaboración de los nanocomposites reforzados con la nanocelulosa.   Sin embargo, nuestra aportación durante la estancia fue útil para establecer datos preliminares sobre la cantidad de reactivos que se necesitan utilizar, las etapas necesarias para obtener un porcentaje adecuado de alfa celulosa, y las concentraciones aproximadas para obtener el grado de carboxilaciones. Se alcanzó un porcentaje adecuado de alfa celulosa con las siguientes etapas de procesamiento. Cada etapa de blanqueo fue considerada a una consistencia del 10%. 1era etapa: 2.75 g de cloro elemental contenidos en dióxido de cloro, por cada 100 gbs. Baño maría a 60°C durante 1 hrs. 2da etapa: 1.65 g de sosa cáustica por cada 100 gbs. Baño maría a 60°C durante 1 hrs. 3era etapa: 1 g de sosa cáustica y 1.5 g de peróxido de hidrógeno por cada 100 gbs. Baño maría a 60°C durante 1 hrs. 4ta etapa: 1 g de sosa cáustica por cada 100 gbs. 45 min a temperatura ambiente. 5ta etapa: 1.5 g de cloro elemental contenidos en dióxido de cloro, por cada 100 gbs. Baño maría a 30°C durante 1 hrs. Etapa de extracción de goma: 1 L de acetona y 1 L de etanol. Aproximadamente 5 hrs. Al completar la etapa de extracción, el porcentaje de alfa celulosa fue de aproximadamente 88.05%, se consideró adecuado y se pasó a la etapa de refinación Jokro. Después de sacar la pulpa del molino observamos en el microscopio el desprendimiento de las microfibrillas, lo cual nos indicó un éxito en la refinación y después TEMPO-oxidamos esa celulosa. Al intentar medir el grado de  carboxilaciones usamos parte de la pulpa TEMPO-oxidada, desgraciadamente no se completó la medición ya que los reactivos reaccionaron instantáneamente y no pudimos registrar el volumen consumido, y no se contaba más pulpa TEMPO-oxidada para repetir el proceso; pero gracias a eso, se sabe que hay que disminuir la concentración de la solución para medir el grado de carboxilaciones. Por último, se hizo una elaboración del composite con AESO pero no se pudo completar. Los resultados preliminares deberían de mostrar una consistencia y resistencia deseables.
Osorio Pérez Iker, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Gabriela Pérez Osorio, Benemérita Universidad Autónoma de Puebla

SíNTESIS Y CARACTERIZACIóN DE NANOMATERIALES Y CATáLISIS AMBIENTAL


SíNTESIS Y CARACTERIZACIóN DE NANOMATERIALES Y CATáLISIS AMBIENTAL

Osorio Pérez Iker, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Gabriela Pérez Osorio, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los cuerpos de agua son un sistema complejo relacionado con una gran cantidad de componentes bióticos y abióticos, por lo que la presencia de un contaminante tiene repercusiones directas en todos los organismos involucrados y estos a su vez llevan a una afectación a otros organismos que interactúen con estos últimos. El desarrollo industrial actual hace que se desechen aguas contaminadas con diferentes químicos, así se ha detectado una gran cantidad de productos farmacéuticos que, según artículos relacionados con procesos de purificación de agua, pueden encontrarse en aguas superficiales y agua potable en todo el mundo, lo que indica su eliminación ineficaz del agua y las aguas residuales utilizando tecnologías de tratamiento convencionales. Estos productos tienen estructuras complejas que no son fácilmente degradables por lo pueden estar presentes en agua potable, lo cual hace necesario darles un tratamiento a estas aguas. Por otro lado, también se encuentran contaminantes generados por la industria textil, los cuales son principalmente colorantes y para su eliminación es igualmente necesario implementar procesos adicionales a los utilizados regularmente.  



METODOLOGÍA

Se preparó una solución de ibuprofeno en agua de concentración de 10 ppm con 5 mg de ibuprofeno en 500 mL y posteriormente diluciones de esta para generar una curva de calibración con concentraciones de 2ppm, 4ppm, 6ppm y 8 ppm en el equipo PerkinElmer, Lambda 25 UV/VIS Spectrometer y el software Lambda. De igual manera se hicieron soluciones de los catalizadores seleccionados en 500 mL de la solución con 10 ppm de ibuprofeno. Finalmente se tuvieron 7 matraces considerando las muestras con su respectivo duplicado y un blanco El primer día se hizo uso de parrillas y pastillas de agitación para mantener los matraces en agitación constante; Inicialmente se hizo una prueba de oscuridad de 9:00 - 11:00 hrs y se tomó una alícuota para poder analizarla y generar conclusiones, posteriormente se empezó con la exposición a incidencia solar de 11:00 - 13:00 hrs y su respectiva alícuota y por último un lapso de exposición de 13:00 - 15:00 hrs y una alícuota. El segundo día se llevó a cabo el mismo procedimiento, pero esta vez, además de la agitación se implementó un sistema de bombeo para inducir oxigenación y poder comparar resultados Por último se llevaron todas las alícuotas al laboratorio para que fueran analizadas mediante espectrofotometría, haciendo uso del mismo equipo equipo.Para finalizar se graficaron los valores obtenidos y se calculó el porcentaje de remoción, el cual nos indica la disminución concentración del medicamento en comparación con la concentración inicial Para el caso del levofloxacino y ciprofloxacino se hicieron 2 disoluciones con una concentración de 50 ppm con 25 mg en 500 ml de agua para cada uno de los antibióticos y al igual que con el fármaco anterior se llevó a cabo una curva de calibración para poder conocer el comportamiento de manera gráfica. Se consideraron las muestras, con su respectivo duplicado y blancos. Al igual que con el ibuprofeno, se sometieron a prueba de oscuridad, exposición a incidencia solar, análisis con espectrofotómetro y se calculó el porcentaje de remoción La siguiente parte consistió en un proceso de adsorción con carbón activado sintetizado a partir de cáscara de cacahuate y cáscara de pistache, para ello, 50 g de cada cáscara de cada uno se agregó a un respectivo vaso de precipitado con 400 mL del agente activante H₃PO₄ concentración 0.2 M y se sometió a agitación constante a una temperatura de 70°C durante 2 horas y después se calcinaron a 550°C por dos horas más y así obtener carbón activado. Fue necesario llevar a cabo un lavado con agua desionizada y registrar un pH de 6 y fue secado a 100°C por dos horas. Como siguiente paso se hicieron las soluciones con los colorantes azul de terasil, el cual se trabajará con el carbón activado a partir de cascara de pistache y anaranjado de metilo que se trabajará con carbón activado a partir de cáscara de cacahuate 5 y 25 ppm respectivamente; cada una fue dividida en 5 vasos de precipitado de 100 ml y se modificó el pH para así verificar el comportamiento de este proceso. El pH de los vasos de precipitado fue de 3, 5, 7, 9 y 11 y a cada uno se le añadieron 2.5 g del carbón activado correspondiente.. Por último, se filtraron todas las muestras y se tomó una muestra de cada una de ellas para ser sometida a un análisis con el espectrofotómetro y así calcular la absorbancia y poder determinar la concentración de colorante restante en cada uno de los casos.  


CONCLUSIONES

En el caso de los fármacos sometidos a fotocatálisis, el mejor catalizador resultó ser el TiO2  pues en el caso del ibuprofeno mostró tener un porcentaje de remoción mayor al 95%, mientras que el SiO2  a pesar de mostrar un porcentaje de remoción, es significativamente menor al ser comparado con el  TiO2  y en el caso de la clinoptilolita no se tuvieron resultados favorables, ya que la clinoptilolita tiene características como adsorbente. A pesar de estos resultados, en el caso de los dos antibióticos con los que se trabajaron, se concluyó que debería repetirse el procedimiento con concentraciones menores, ya que en estos dos casos, al tener una concentración muy alta, los catalizadores no alcanzaron a degradar los contaminantes. En el caso del proceso de adsorción se logró el objetivo con los dos colorantes después de las 48 horas de agitación, esto se comprobó al someter las muestras al espectrofotómetro y comparar la disminución de la banda característica de los colorantes,  es decir 590 nm en el caso del azul de terasil y 465 nm en el caso del anaranjado de metilo, del inicio y  al final de la prueba, aunque en el caso de un vaso de precipitado que se trabajó con el azul de terasil, se obtuvieron resultados no significativos ya que no se llevó a cabo el filtrado correctamente.  
Osuna Aguirre Daniel Hiram, Universidad Autónoma de Sinaloa
Asesor: Dr. Lucio Guadalupe Quirino Rodriguez, Universidad Autónoma de Occidente

EL PAPEL DE KAHOOT COMO HERRAMIENTA DIDACTICA EN ENTORNOS UNIVERSATARIOS


EL PAPEL DE KAHOOT COMO HERRAMIENTA DIDACTICA EN ENTORNOS UNIVERSATARIOS

Osuna Aguirre Daniel Hiram, Universidad Autónoma de Sinaloa. Asesor: Dr. Lucio Guadalupe Quirino Rodriguez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, los estudiantes están más inclinados hacia el juego y la gamificación, lo que ha cambiado significativamente sus preferencias y métodos de aprendizaje, las nuevas estrategias de gamificación, que integran elementos lúdicos en el proceso educativo, han demostrado ser altamente efectivas para captar la atención de los alumnos y mejorar su retención de información, al momento de transformar el aprendizaje en una experiencia interactiva y entretenida, la gamificación no solo aumenta la motivación y el compromiso de los estudiantes, sino que también facilita una comprensión más profunda y duradera de los conceptos o conocimientos adquiridos. La utilización del juego en la enseñanza no es algo nuevo; autores como Vigotsky (1982), Dewey (1997) y Huizinga (2000) investigaron el papel pedagógico del juego en el área de la educación, es por ello que nosotros proponemos en esta investigación el incluir en nuestras enseñanzas el uso de la herramienta hahoot.



METODOLOGÍA

El tipo de análisis corresponde a una investigación cuantitativa, porque el instrumento elaborado nos brindará datos cuantitativos (medibles y contables) estos resultados medirán el nivel de satisfacción de los estudiantes de la Universidad con el uso del programa kahoot en el área de matemáticas discretas y Algebra, como también se podrá visualizar y analizar de manera estadística. De acuerdo a [1] Sarduy (2006), quien explico: La investigación cuantitativa se dedica a recoger, procesar y analizar datos cuantitativos o numéricos sobre variables previamente determinadas. Esto ya lo hace darle una connotación que va más allá de un mero listado de datos organizados como resultado.. La población total de esta investigación está definida por los 88 estudiantes, entre mujeres y hombres donde las edades oscilaban entre los 19 y 21 años de edad, tomado como referencia las asignaturas de Matemáticas discretas y Algebra, ambas del primer semestre de las carreras de Licenciatura en Ingeniería en Sistemas de Información (LISI) y Licenciatura Informática (LI), matriculados en la institución de la facultad de Informática Mazatlán (FIMAZ) de la Universidad Autónoma de Sinaloa.


CONCLUSIONES

La percepción que los estudiantes tienen sobre el uso de kahoot como herramienta didáctica gamificadora en el aula es positiva. Se muestran motivados y hasta entusiasmados cuando saben que se realizará un kahoot para el reforzamiento del tema, es común que incluso ellos mismo soliciten hacer un kahoot como medio de repaso y evaluación.
Ozuna Diaz Ruanet Alejandro, Universidad Politécnica de Sinaloa
Asesor: M.C. Roberto Antonio Martínez Thompson, Universidad Politécnica de Sinaloa

CARRO DE BúSQUEDA LIGHTNINGDRIVE


CARRO DE BúSQUEDA LIGHTNINGDRIVE

Lizarraga Acosta José Yair, Universidad Politécnica de Sinaloa. Montes Villarreal Liliana Guadalupe, Instituto Tecnológico de Tepic. Ozuna Diaz Ruanet Alejandro, Universidad Politécnica de Sinaloa. Ubaldo Sanchez Juan Carlos, Universidad Politécnica de Sinaloa. Asesor: M.C. Roberto Antonio Martínez Thompson, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En caso de desastres naturales la búsqueda y comunicación con las personas atrapadas puedes ser muy difícil,peligrosa y tardada



METODOLOGÍA

Se creará un carrito a control remoto para realizar la búsqueda más rápida y de forma más segura


CONCLUSIONES

Crear un carrito que facilite el buscar a las personas atrapadas en un desastre natural
Pacheco Perez Pedro Tomas, Universidad Nacional Abierta y a Distancia
Asesor: M.C. Ana Claudia Zenteno Vázquez, Benemérita Universidad Autónoma de Puebla

HERRAMIENTAS DE CRACKING DE CONTRASEñAS: MéTODOS, ALGORITMOS Y APLICACIONES PRáCTICAS


HERRAMIENTAS DE CRACKING DE CONTRASEñAS: MéTODOS, ALGORITMOS Y APLICACIONES PRáCTICAS

Pacheco Perez Pedro Tomas, Universidad Nacional Abierta y a Distancia. Asesor: M.C. Ana Claudia Zenteno Vázquez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Este artículo examina herramientas y métodos para el cracking de contraseñas, centrándose en su funcionamiento, eficacia y aplicaciones. Destaca la importancia de tener contraseñas seguras, ya que las contraseñas simples son vulnerables a ataques de diccionario y fuerza bruta.



METODOLOGÍA

Se analizan dos métodos principales, el ataque por fuerza bruta y el ataque por diccionario. El ataque por fuerza bruta es exhaustivo pero lento y dependiente de los recursos computacionales, mientras que el ataque por diccionario, usando archivos como "rockyou.txt", es más eficiente y puede descifrar contraseñas simples en segundos y contraseñas más complejas en horas. En la práctica, se usa John the Ripper para realizar pruebas de cracking en Windows. Se discuten las limitaciones de estos métodos y se ofrecen recomendaciones para mejorar la seguridad de las contraseñas, como utilizar contraseñas robustas, implementar autenticación de doble factor y actualizar las contraseñas periódicamente.


CONCLUSIONES

En conclusión, adoptar prácticas de seguridad sólidas es esencial para proteger la información sensible y defenderse contra ataques de fuerza bruta y diccionario.
Padilla Aguirre Maythe Monserrat, Universidad de Guadalajara
Asesor: M.C. Gregorio Trinidad García, Benemérita Universidad Autónoma de Puebla

SISTEMA DE MONITOREO EN TIEMPO REAL PARA EL CONTROL DE UNA MANO ROBóTICA INCORPORANDO SENSORES FLEX MEDIANTE ESP32


SISTEMA DE MONITOREO EN TIEMPO REAL PARA EL CONTROL DE UNA MANO ROBóTICA INCORPORANDO SENSORES FLEX MEDIANTE ESP32

Cervantes Rodriguez José de Jesús, Instituto Politécnico Nacional. Loranca Gomez Sofia, Benemérita Universidad Autónoma de Puebla. Padilla Aguirre Maythe Monserrat, Universidad de Guadalajara. Asesor: M.C. Gregorio Trinidad García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En diversos campos como la biomédica y robótica se ha buscado una interacción amigable con el ser humano. Provocando una necesidad creciente por desarrollar sistemas robóticos complejos capaces de replicar movimientos humanos, logrando una interacción eficiente e intuitiva. El principal desafío en la creación de sistemas robóticos es el diseño y la implementación de sistemas de procesamiento de señales. Los robots actuales presentan movimientos toscos, simples y con tiempos de respuesta lentos por lo que se propone diseñar un sistema de control eficiente en tiempo real, garantizando la precisión y efectividad del sistema. 



METODOLOGÍA

La creación de una mano robótica presenta dos desafíos principales: diseñar un software para procesar señales de sensores flexores para a su vez mapear el movimiento de los servomotores, además de diseñar un sistema embebido que garantice movilidad y facilidad de uso. El procesamiento de señales, se desarrolló un software en Arduino IDE usando un filtro de media móvil optimizado con hilos, mejorando la estabilidad de los datos y permitiendo el procesamiento paralelo de múltiples sensores. Diseño y desarrollo de filtro  El objetivo del filtro es mantener constante la señal digital de acuerdo con la posición del sensor flexor. Para esto, la señal analógica de los sensores se convierte a digital para ser utilizada por el ESP32. Luego, un filtro de media móvil procesa continuamente 20 valores de la señal, eliminando fluctuaciones no deseadas, proporcionando datos consistentes. La efectividad del filtro se mide por su capacidad para suavizar señales calculando el promedio de un conjunto de datos dentro de una ventana fija. Este proceso reduce la variabilidad causada por el ruido típico en este tipo de señales, logrando una serie de valores estables y confiables. Una vez validada la eficacia del filtro en el entorno de desarrollo, se encapsuló el código en una librería que facilita la llamada a la función del filtro para cada sensor en el código principal, permitiendo manejar las señales de múltiples sensores de manera independiente pero uniforme, asegurando un tratamiento consistente y eficiente de los datos. Para cada sensor, el filtro aplica el mismo proceso de cálculo de media, asegurando un tratamiento coherente de las señales. Esto permite manejar variaciones y ruido de manera uniforme, proporcionando datos consistentes y comparables, facilitando así la integración en un sistema digital como el ESP32 para su análisis y procesamiento. Optimización con hilos para procesamiento paralelo  Una vez obtenidos los valores filtrados de los sensores flexores, se implementaron hilos para controlar eficientemente el flujo del programa y evitar la saturación del microprocesador. Esto mejoró el tiempo de respuesta, rendimiento y manejo de operaciones críticas. Durante el desarrollo del código, se utilizó FreeRTOS para crear multitareas en el microprocesador de doble núcleo Tensilica Xtensa LX6 en la ESP32. El núcleo 0 maneja tareas básicas como Wi-Fi y Bluetooth, esenciales para la conectividad. Antes de implementar los hilos, el sistema tenía una respuesta lenta y con retardo, impidiendo la precisión y el rendimiento deseados. Para solucionar este problema, se utilizó el núcleo 1 para las tareas del proyecto, separando las tareas críticas de conectividad del procesamiento de señales. Cada sensor flexor fue asociado a una tarea independiente para capturar la señal analógica, y con la función ‘xTaskCreatePinnedToCore’ de FreeRTOS se crearon tareas específicas para los servomotores, asignándolas a un núcleo del microprocesador. A cada tarea se le asignó una pila de memoria de 10,000 bytes, asegurando suficiente espacio para las variables locales y un procesamiento eficiente de los datos. Esta implementación no solo mejoró la organización del procesamiento y optimizó los recursos del microcontrolador, sino que también resolvió problemas de lentitud y retardo, permitiendo gestionar múltiples operaciones en paralelo con un tiempo de respuesta casi instantáneo. Hardware En el desarrollo de un sistema de control de mano robótica, el diseño y la implementación física del hardware son fundamentales en el desarrollo de diversas tecnologías. El sistema de control desarrollado en esta investigación abarca varios conceptos para replicar movimiento mediante procesos como la recolección y el procesamiento de señales analógicas. La primera parte consiste en un guante con sensores flexibles que responden a la deformación, obteniendo una resistencia variable. Para asegurar la lectura de datos, se implementan divisores de voltaje, con una configuración específica para los sensores Flex que permite obtener un voltaje de salida compatible con las entradas analógicas del ESP32. La segunda parte incluye una mano robótica con piezas impresas en 3D controlada por servomotores SG90, que replican los movimientos de los dedos según las acciones realizadas con el guante.


CONCLUSIONES

Los resultados durnate verano mostraron un avance significativo en el filtrado de señales y la optimización de recursos. La técnica de filtrado fue útil para obtener señales estables, mientras que la implementación de hilos mejoró el tiempo de respuesta. Este proyecto tiene un impacto notable en la ingeniería biomédica, estableciendo bases para dispositivos médicos y prótesis donde la precisión es crucial. Además, la metodología puede adaptarse y expandirse a otros sensores industriales, abriendo nuevas oportunidades para el desarrollo tecnológico.
Padilla Castillo Sazuri Lizbeth, Universidad de Guadalajara
Asesor: Mg. Lucimio Levis Jiménez Paternina, Corporación Universitaria del Caribe

ANáLISIS DE ESTUDIO SOBRE COMPETITIVIDAD DE CLUSTERS Y CADENA PRODUCTIVA AGROINDUSTRIALES


ANáLISIS DE ESTUDIO SOBRE COMPETITIVIDAD DE CLUSTERS Y CADENA PRODUCTIVA AGROINDUSTRIALES

Padilla Castillo Sazuri Lizbeth, Universidad de Guadalajara. Asesor: Mg. Lucimio Levis Jiménez Paternina, Corporación Universitaria del Caribe



PLANTEAMIENTO DEL PROBLEMA

Los clústers son una pieza fundamental para el crecimiento económico, productivo e industrial, ya que la alianza de diferentes empresas genera beneficios específicos, por lo que facilita las negociaciones de comercio y realiza conexiones comerciales. Colombia es unos de los países con mayor producción agrícola, realizando exportaciones e importaciones importantes, por lo que esta investigación tiene como objetivo realizar una comparación entre los clusters internacionales y los clusters en Colombia, centrándose específicamente en el sector agroindustrial. Se busca entender las diferencias y similitudes en términos de competitividad, estructuras de cadena productiva y estrategias de desarrollo. Esta comparación es relevante debido a la necesidad de Colombia de mejorar su competitividad en el mercado global, aprovechando sus ventajas naturales y climáticas, pero también superando desafíos históricos y estructurales.  



METODOLOGÍA

La metodología de la investigación se basa en un análisis comparativo, utilizando una revisión exhaustiva de literatura y estudios de caso específicos de clusters tanto internacionales como colombianos. Se adoptarán las siguientes etapas:   Revisión de la Literatura: Identificación de conceptos clave como competitividad, cadena productiva y clusters. Selección de autores y teorías relevantes para proporcionar un marco teórico sólido. Estudio de Caso: Selección de clusters agroindustriales representativos a nivel internacional y en Colombia. Recopilación de datos cualitativos y cuantitativos sobre la estructura, estrategias, resultados y desafíos de cada cluster. Análisis Comparativo: Evaluación de los factores de competitividad y estructura de las cadenas productivas. Comparación de las estrategias de innovación, colaboración y crecimiento económico. Conclusiones y Recomendaciones: Identificación de mejores prácticas y lecciones aprendidas de los clusters internacionales que podrían aplicarse en Colombia. Sugerencias para mejorar la competitividad y sostenibilidad de los clusters colombianos.


CONCLUSIONES

A lo largo de la investigación se recopiló información de la cual se pudo analizar la comparativa de los cluster internacionales y colombianos, por lo que se hizo un FODA para analizar la agroindustria, por lo que revela tanto diferencias significativas como similitudes en la forma en que se estructuran y operan. Internacionalmente, se observan clusters altamente tecnológicos y diversificados, como el CAMPAG en España y las innovaciones agrícolas en Alemania y Nueva Zelanda, que se destacan por su avanzada tecnología y prácticas sostenibles. Estos clusters globales tienden a tener un fuerte enfoque en la innovación, colaboración y aprovechamiento de tecnologías avanzadas, lo cual les permite mantenerse competitivos en mercados globales. En contraste, los clusters colombianos, aunque diversificados y estratégicamente ubicados, enfrentan desafíos únicos. Por ejemplo, el Eje Cafetero es conocido mundialmente por su producción de café de alta calidad, mientras que el Valle del Cauca se destaca por su producción de caña de azúcar y otros productos agrícolas. Sin embargo, estos clusters también deben lidiar con obstáculos como la dependencia de mercados específicos, problemas de infraestructura y la necesidad de adoptar estándares de calidad internacionales. A pesar de estos desafíos, los clusters colombianos muestran un gran potencial debido a la rica biodiversidad del país y las iniciativas locales para mejorar la competitividad y la innovación.  
Padilla Guerrero Yasser Daniel, Corporación Universitaria de Ciencias Empresariales, Educación y Salud
Asesor: M.C. Agustín Acevedo Figueroa, Instituto Tecnológico de Iguala

ESTUDIO DE LAS VARIABLES DE DISEñO EXPERIMENTAL EN EL PROCESO DE RECUPERACIóN DE PLATA Y ORO DE LIXIVIADOS MEDIANTE EL USO DE UNA CELDA ELECTROLíTICA


ESTUDIO DE LAS VARIABLES DE DISEñO EXPERIMENTAL EN EL PROCESO DE RECUPERACIóN DE PLATA Y ORO DE LIXIVIADOS MEDIANTE EL USO DE UNA CELDA ELECTROLíTICA

Padilla Guerrero Yasser Daniel, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Torregroza Medina Carlos Daniel, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Asesor: M.C. Agustín Acevedo Figueroa, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

El proceso de recuperación de metales preciosos como la plata y el oro de lixiviados mediante celdas electrolíticas es un método electroquímico utilizado en la minería y en la recuperación de metales. Tradicionalmente, estos metales se recuperan utilizando procedimientos complejos y costosos como la desorción con carbón activado y polvo de zinc. Con el objetivo de optimizar y simplificar este proceso, se propone el uso de una celda electroquímica para la electrodeposición de los metales valiosos contenidos en la solución rica del lixiviado.



METODOLOGÍA

Para la realización correcta de este proceso hay que seguir una serie estructurada de pasos, para que la obtención del material precioso sea la más eficiente posible; lo primero es tener una muestra de mineral con contenido metálico, la cual se prepara triturándola y pulverizándola, la cual, se realizó pasándola por un molino primario (molino casero manual) y luego, por un molino de pulverización (molino de bolas de acero). Esta muestra pulverizada se vierte en un recipiente con agua y cianuro de sodio a una concentración de 5% - 10%, y de esta manera se dio inicio al proceso de lixiviación.   Se dejó la muestra en esta solución durante 3 días, suministrando aire dentro del recipiente y se vigiló constantemente su pH para mantener un pH básico en 12, siendo controlado el mismo con Hidróxido de Calcio. A continuación, posteriormente se realizó un proceso de decantación (vaciar el líquido en otro recipiente), con el objetivo de obtener agua rica, la cual, es el lixiviado y se vertió en la celda electrolítica, la cual tiene unas dimensiones de; 30cm de ancho, 25 cm de largo y 11 cm de fondo. La celda se alimentó con corriente eléctrica mediante un cargador que proporciona una corriente de salida de 3.6 V ~ 600 mA y Corrientes de entrada de 120 V ~ 60 Hz o 0,1 A con lo que se logró depositar en el cátodo los metales valiosos de oro y plata. Posteriormente se limpió con una brocha pequeña, el material depositado en el cátodo de aluminio y se lavó con agua destilada caliente para quitar residuos de cianuro. Se dejó secar el material obtenido y se procedió a realizar el proceso de copelación utilizando para ello una copela hecha de ceniza de hueso y cemento en partes iguales de 2.5 cm de diámetro y 5cm de alto. Se colocó dentro de la mufla y una vez que esta estaba entre 900°C y 1000°C.


CONCLUSIONES

Se obtuvo un botón de metal valioso de peso 0.0823 g. de Ag al 100%. No se realizó la separación vía húmeda para cotejar el porcentaje y su contenido en gramos de plata y oro, solo se agregó ácido nítrico al 10% para comprobar si el botón contenía plata u oro. Finalmente se comprobó que la celda recupera metales valiosos de minerales a usando una celda electrolítica y lixiviando minerales pulverizados.
Padilla Palencia Elba Noemi, Universidad Politécnica de Sinaloa
Asesor: M.C. Alberto Morales Colado, Universidad Politécnica de Sinaloa

DESARROLLO DE MATERIAL DIDáCTICO.


DESARROLLO DE MATERIAL DIDáCTICO.

Avila Carrillo Jorge Armando, Universidad Politécnica de Sinaloa. Flores Reyes Benjamin, Universidad Politécnica de Sinaloa. Larez Nuñez Uziel Isaac, Universidad Politécnica de Sinaloa. Padilla Palencia Elba Noemi, Universidad Politécnica de Sinaloa. Ramos Abel Andres, Universidad Politécnica de Sinaloa. Asesor: M.C. Alberto Morales Colado, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En el mundo actual, las redes de comunicación son esenciales para conectar dispositivos y personas. Con el avance de la tecnología, la complejidad y las necesidades de infraestructura de red han aumentado, lo que requiere un conocimiento profundo de los equipos y las configuraciones necesarias para su funcionamiento eficiente. La demanda de redes confiables y seguras es mayor que nunca, y para satisfacer esta demanda, es fundamental que los profesionales estén bien preparados para enfrentar los desafíos tecnológicos actuales.



METODOLOGÍA

Objetivo 1: Establecer una base sólida de conocimientos sobre la configuración y uso de equipos de red. Durante las primeras semanas se probó el equipo físico, lo que permitió familiarizarse con su configuración y operación. Esta fase incluyó la identificación de las mejores prácticas y los desafíos comunes en la implementación de redes. Se exploraron diferentes modelos de routers y switches, aprendiendo sus características técnicas y cómo aprovecharlas al máximo en distintos entornos. Actividades de la semana 1: - Pruebas iniciales para configuración y reconocimiento de dispositivos. - Documentación de especificaciones técnicas y capacidades del hardware. Objetivo 2: Reforzar conocimientos prácticos mediante prácticas y laboratorios. En la segunda semana, se llevaron a cabo prácticas intensivas para reforzar los conocimientos adquiridos en clases y cursos. Estas prácticas, realizadas bajo la supervisión del profesor, aseguraron la correcta aplicación de los conceptos teóricos. Se emplearon simulaciones de situaciones reales para mejorar las habilidades de resolución de problemas y adaptación a distintos escenarios de red. Actividades de la semana 2: - Realización de prácticas supervisadas por nuestro asesor. - Aplicación de conceptos teóricos en situaciones prácticas. - Evaluación de resultados y ajuste de configuraciones. Objetivo 3: Crear material didáctico para el uso de equipos de red. Durante la tercera y cuarta semana, se centró en la creación de videos tutoriales sobre el uso y configuración de routers y switches. Estos materiales didácticos fueron diseñados para facilitar el aprendizaje y comprensión de las conexiones entre computadoras, switches y routers. Actividades de la semana 3: - Planificación de tutoriales. - Producción de videos sobre configuración de routers. Actividades de la semana 4: - Producción de videos sobre configuración de switches. - Explicación detallada de conexiones entre dispositivos de red. Objetivo 4: Implementar laboratorios avanzados que integren diversos equipos de red. Durante la quinta y sexta semana, se llevaron a cabo laboratorios que involucraron el uso de routers y switches. Se agregó un servidor de prueba en la nube para extender las prácticas y cubrir aspectos adicionales de configuración y administración de redes. Estos laboratorios permitieron a los estudiantes enfrentarse a situaciones complejas y desarrollar habilidades críticas para la gestión de redes modernas. Actividades de la semana 5: - Implementación de laboratorios con routers y switches. - Configuración de topologías de red complejas. - Análisis de rendimiento y resolución de problemas. Actividades de la semana 6: - Extensión de laboratorios con servidores en la nube. - Integración de servicios de red adicionales. - Evaluación de seguridad y eficiencia en las configuraciones de red. Objetivo 5: Realizar prácticas finales que integren todos los conocimientos adquiridos. En la séptima semana, se realizaron prácticas y laboratorios finales que abarcaban todos los temas vistos en las semanas anteriores, consolidando así los conocimientos adquiridos. Estas actividades finales fueron diseñadas para evaluar la capacidad de los estudiantes para aplicar de manera efectiva todos los conceptos aprendidos y resolver problemas complejos de red.   Actividades de la semana 7: - Realización de prácticas integradas y laboratorios finales. - Evaluación de habilidades y conocimientos adquiridos.


CONCLUSIONES

Resultados: Adicionalmente, el trabajo se centró en la creación de material didáctico utilizando Packet Tracer para simular configuraciones y escenarios de red complejos. Esto permitió un aprendizaje interactivo y práctico, facilitando la comprensión de conceptos teóricos aplicados a situaciones del mundo real. Packet Tracer fue una herramienta clave para simular diferentes topologías de red y evaluar el comportamiento de las configuraciones sin necesidad de equipo físico. Conclusiones: Durante el proyecto, se logró una comprensión profunda de la configuración y administración de redes de comunicación. La combinación de prácticas supervisadas, creación de material didáctico y laboratorios avanzados permitió a los estudiantes desarrollar habilidades prácticas esenciales. La integración de un servidor en la nube añadió una dimensión moderna a las prácticas, preparando a los estudiantes para desafíos del mundo real. El uso de Packet Tracer como herramienta de simulación fue fundamental para el éxito del proyecto, permitiendo a los estudiantes experimentar con configuraciones complejas en un entorno controlado. Este proyecto ha demostrado ser un éxito en la preparación de estudiantes para roles en el campo de las redes de comunicación, proporcionando una base sólida de conocimientos y habilidades prácticas necesarias para abordar los desafíos tecnológicos actuales.
Paez Cardeño Juan Sebastian, Universidad Autónoma de Occidente
Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)

ATERRIZAJE AUTóNOMO DE UN DRON


ATERRIZAJE AUTóNOMO DE UN DRON

Arevalo Urueña Michael Steven, Universidad Autónoma de Occidente. Paez Cardeño Juan Sebastian, Universidad Autónoma de Occidente. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Actualmente los drones para su aterrizaje ha de necesitar invercención humana. Al ser todo de manera remota en alturas muy altas, puede provcar perdida de conexión del humano con el dron. Ademas, existe el error humano donde puede provocar accidentes 



METODOLOGÍA

Supervisor:  Michael Arévalo y Juan Páez Calendario para verano delfín: Fase 1: Recopilación de Datos e Información: Investigar literatura. Identificar los requisitos del sistema. Evaluar la percepción usada en otros drones para aterrizaje. Evaluar los algoritmos de navegación autónoma Ardupilot documentación Migración a ROS 2 En esta fase se buscará recopilar información relevante con respecto al tema o afines, tecnologías disponibles, y las necesidades que se encuentran en una plataforma de drones en ardupilot. Esto incluye investigaciones sobre la percepción de drones, sensores disponibles. Fase 2: Diseño de desarrollo Definir los posibles entornos de trabajo. Entender los sensores propioceptivos, exteroceptivos competentes y electrónica para el entorno de trabajo. Seleccionar algoritmos adecuados para el trabajo de aterrizaje y navegación autónoma de un dron En esta fase, se diseñará la propuesta del sistema, incluyendo el esquemático del sistema, la selección de sensores, y la selección de componentes adicionales específicos. Fase 3: Implementación del sistema. Implementar algoritmo que permitan la navegación autónoma del dron Configurar el middleware ROS en la plataforma (si es posible). Implementar algoritmos que permitan la interpretación y análisis de los datos para la toma de decisiones. En esta fase, se implementará el sistema. Esto incluirá la integración de los sensores en la plataforma, la configuración del middleware ROS, y la programación de los algoritmos necesarios para la toma de datos y la autonomía del propio robot de acuerdo con la misión de aterrizaje y navegación autónoma. Fase 4: Validación Realizar pruebas de funcionamiento en condiciones controladas. Realizar pruebas de campo en entornos reales. Analizar los resultados de las pruebas. En esta fase, se realizarán pruebas para validar el correcto funcionamiento del sistema. Esto incluirá pruebas de funcionamiento en condiciones controladas y pruebas de campo en entornos reales y conducción autónoma.


CONCLUSIONES

Para el desarrollo de la problematica se utilizo el firmware ardupilot. Se investigó sobre todo el ecosistema mas famoso para el control de los drones. Resultados obtenidos: Para los resultados, se realizo todo por medio de una Raspberry pi 5, utilizando docker para el control de versiones y evitar errores por ser un sistema nuevo. En el apartado de la percepción y visión computacional se obtuvo la calibración de la camara. También se logró la detección de los codigos Arucu para el aterrizaje del dron En el ecosistema de ardupilot, su comunicación es por medio de Mavlink y existe una librería en python. Antes del proceso al dron real, se realizó todos los codigos en un  Software-in-the-loop. Donde el resultado fue satisfactorío y todo funcionaba Resultados por obtener: En el momento del uso de los comandos en el dron real, la configuración del dron y su armado funciono. Sin embargo, en el momento del vuelo no se logra. Por ende, existe detalles donde el dron no acceda al vuelo. El resultado que se debe obtener mas adelante, es el vuelo del drone de manera autonoma   
Pages Rocha Karla Ciclalit, Instituto Tecnológico de Iztapalapa
Asesor: Dra. Angélica María Ramos Yañez, Universidad Politécnica de Atlautla

COMERCIALIZACIóN DEL CAPULíN (PRUNUS SERóTINA) EN EL MUNICIPIO DE ATLAUTLA DE VICTORIA


COMERCIALIZACIóN DEL CAPULíN (PRUNUS SERóTINA) EN EL MUNICIPIO DE ATLAUTLA DE VICTORIA

Pages Rocha Karla Ciclalit, Instituto Tecnológico de Iztapalapa. Asesor: Dra. Angélica María Ramos Yañez, Universidad Politécnica de Atlautla



PLANTEAMIENTO DEL PROBLEMA

El capulín es utilizado en la alimentación mexicana, posee un alto valor ecológico ya que es una especie que mejora el suelo y puede repoblar y reforestar zonas secas. Entre las problemáticas identificadas se encontraron la falta de información documentada de la producción y comercialización del fruto así como el desinterés de los Atlautenses (INEGI, s.f, párr. 11) por dar continuidad a la comercialización y producción de los árboles de capulín, lo cual genera como consecuencia; la disminución de producción de este fruto, aunque las hectáreas para sembrar son las mismas, el interés por la producción va decayendo y por resultado, el precio y sus derivados se van elevando, consiguiendo así menor demanda del publico hacia el capulín, situación que, en el peor de los casos a podría llevar al abandono de la comercialización de esté. Pero gracias a los productos hechos de capulín en la feria del capulín, se generan ingresos a los habitantes y se da a conocer tanto el fruto como el municipio. Aunque la propaganda no ha alcanzado las dimensiones que se esperaría, ha ayudado a mantener al capulín activo, beneficiando a las familias productoras de este fruto. por lo que durante el presente verano de investigación se realizó una primera parte del estudio que permitirá conocer la comercialización del capulín en el municipio de Atlautla de Victoria, así como el beneficio que genera en la creación de empleo informal, y en la obtención de ingresos a la población.



METODOLOGÍA

La presente investigación utiliza un diseño cuantitativo-descriptivo ya que tiene como finalidad ampliar y precisar el conocimiento sobre los sistemas de comercialización de capulín en Atlautla de Victoria. También se utilizó el método transversal, ya que, se recolectan y analizan datos de diferentes variables sobre una población muestra. Y sobre las hipótesis con las que se trabajó fueron, La comercialización del capulín (prunus serótina) se realiza de forma directa y a través de intermediarios La comercialización se genera directamente del fruto del capulín (prunus serótina) o de alguna variación del fruto Los beneficios que se obtiene de la comercialización son la creación de empleo informal y la generación de ingresos a la población En esta primera fase de la investigación los objetivos planteados fueron: Recolectar datos en fuentes secundarias, a fin de robustecer el marco teórico y el estado del arte de la investigación. Diseñar y validar el instrumento mediante juicio de expertos para la recolección de datos en fuentes directas. El contacto con productores y/o comerciantes de capulín para la recolección de datos en una primera parte de la muestra. Para la recopilación de información estadística a nivel regional y nacional se recurrió a la búsqueda de datos en fuentes secundarias tales como estadísticas sobre la comercialización en el INEGI, en la página web del ayuntamiento de Atlautla, en páginas del gobierno de México, datos sobre los productores de capulín y algunos libros encontrados en la web. Se diseñó un cuestionario estructurado con 61 ítems, en la primera sección incluye preguntas sobre los datos generales de los productores de capulín, para poder determinar cuáles son las características que predominan, como la edad, el sexo, el nivel escolar y el estado civil, las dos siguientes secciones incluyen 23 ítems de opción múltiple, 18 dicotómicos y 12 preguntas abiertas en los cuales se aborda la comercialización y la creación de empleo informal, los canales de comercialización que usualmente utiliza, medio en el que llega al consumidor, la frecuencia con la que comercializa, método de envasado, el tipo de relación que tiene con los empleados y el método de reclutamiento que suelen utilizar, la inversión que podría haber utilizado, y los medios que ocupa para promocionar su producto. El levantamiento de los primeros datos en una primera parte de la muestra, se llevó a cabo entre semana, para poder encontrar con mayor facilidad a los productores, y de manera presencial de forma cara a cara (F2F).


CONCLUSIONES

Los objetivos de esta primera parte de la investigación se alcanzaron: En cuanto a la obtención de la información en fuentes secundarias, se logró identificar estadísticas relevantes en el ámbito internacional, y nacional destacando; la comercialización que había en Ecuador, la forma de venta que hacían los productores desde sus huertos y el precio que se acordaba entre los vendedores del fruto. A nivel local, se logró contactar a la coordinación de turismo del municipio, quien se encuentra preparando datos estadísticos sobre la feria del capulín, mismos que en lo futuro aportará para robustecer la segunda parte de esta investigación.     Respecto al diseño y validación del instrumento, cabe destacar que la validez de contenido del instrumento se realizó mediante el juicio de cuatro expertos. El contacto con productores y la recolección de datos en una primera parte de la muestra arrojó respecto a la comercialización optaban por hacerlo a través de intermediarios, mientras que para la generación de empleo informal 6 de cada 10 personas eran familiares. En cuanto a las hipótesis de trabajo, si bien en esta primera fase de la investigación no se puede concluir la aceptación o rechazo de la mismas, se puede observar que existe una mayor tendencia de la comercialización del fruto de capulín (prunus serótina) de forma directa y la creación de empleos informales beneficia básicamente a los familiares de los productores. Sin embargo, quedan datos pendientes por recolectar y analizar, mismos que se abordarán en una segunda fase de la investigación ya que el tiempo para localizar a los productores y comerciantes de capulín fue una limitación que se enfrentó durante la estancia en el verano de investigación.
Palacios Palacios Saldaña Brian Arath, Universidad Tecnologica de León
Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León

SISTEMA GUíA DE SILLA DE RUEDAS PARA UNA PERSONA CON MOVILIDAD NULA EN EXTREMIDADES SUPERIORES E INFERIORES


SISTEMA GUíA DE SILLA DE RUEDAS PARA UNA PERSONA CON MOVILIDAD NULA EN EXTREMIDADES SUPERIORES E INFERIORES

Mora Peña Luis Alberto, Universidad Autónoma de Nayarit. Palacios Palacios Saldaña Brian Arath, Universidad Tecnologica de León. Sierra Martínez Javier, Universidad Autónoma de Nayarit. Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

Justificación Ética y derechos humanos: Implementar un sistema de guía para sillas de ruedas utilizando un hoverboard y controladores de motores es crucial para garantizar el acceso equitativo a oportunidades educativas y sociales para universitarios con discapacidad motriz severa, mejorando su desarrollo personal y bienestar emocional. Perspectiva práctica: Autonomía y seguridad: Permite moverse autónomamente y de manera segura. Integración social: Facilita la asistencia a clases y actividades, reduciendo la necesidad de asistencia constante. Eficiencia e independencia: Mejora la gestión del tiempo y actividades, aumentando la autoestima y confianza. Sensibilización comunitaria: Promueve la inclusión y accesibilidad. Objetivos Objetivo general: Desarrollar un sistema guía autónomo para sillas de ruedas que mejore la movilidad y autonomía de personas con discapacidades motrices, utilizando tecnologías avanzadas de navegación y detección de obstáculos. Objetivos metodológicos: Identificar necesidades de usuarios mediante encuestas y entrevistas. Seleccionar y programar sensores para detección de obstáculos y navegación. Construir un prototipo funcional y realizar pruebas de campo. Evaluar eficiencia y seguridad del sistema. Documentar el proceso y resultados. Colaboración La estadía se realiza con la Universidad Tecnológica de León y la Universidad Autónoma de Nayarit mediante el Programa Delfín, del 17 de junio al 2 de agosto de 2024, con asesoría de Gilberto López Padilla. Marco Teórico UNAM: Desarrolló sillas de ruedas automatizadas. IPN: Creó una silla de ruedas inteligente con navegación autónoma. Tecnológico de Monterrey: Desarrolló una silla de ruedas autónoma con sistemas avanzados de guía y control.



METODOLOGÍA

Metodología Capítulo 1: Investigación y Planeación Se investigó cómo invertir la polaridad de los motores del hoverboard sin usar el giroscopio, sino mediante un controlador con autoaprendizaje. Se decidió usar un joystick adaptado para controlarlo con la boca, programando el sistema con Arduino. Capítulo 2: Adaptación del Hoverboard a una Silla Motorizada Desmontaje del hoverboard, dejando el armazón. Preparación de la silla, perforando la placa para fijar los componentes del hoverboard. Adaptación de motores y llantas a la placa debajo de la silla. Modificación de la estructura central para evitar interferencias. Reconexión de componentes electrónicos. Reemplazo de aceleradores manuales por potenciómetros y programación del Arduino para un joystick. Conexión final y pruebas del prototipo. Capítulo 3: Pruebas y Evaluaciones del Sistema de Control de Motores Utilizando Arduino Conexión y verificación del funcionamiento del Arduino. Pruebas de velocidad y torque. Evaluación de la dirección y control del movimiento. Comprobación de la resistencia estructural. Análisis de la comodidad del asiento. Evaluación de la durabilidad de la batería. Prueba de respuesta del joystick.


CONCLUSIONES

Resultados Capítulo 1: Investigación y Planeación Los motores de hoverboard no eran viables por su alta potencia y torque, lo que resultaba en un control brusco. No se implementó un freno adicional, ya que la velocidad de la silla permite que la velocidad de frenado del motor sea suficiente. Capítulo 2: Instalación y Modificaciones La estructura de soporte se reforzó y los potenciómetros se reemplazaron por un transistor, adaptando el joystick para ser usado con la boca. Capítulo 3: Pruebas y Evaluaciones Arduino: Respuesta rápida y precisa en el control del acelerador y la dirección. Torque y Dirección: Un motor descompensado afectó ligeramente la dirección. Capacidad de Carga: La silla soportó hasta 150 kg sin afectar la velocidad y el movimiento. Batería: Duró hasta 3 horas y media de uso continuo. Joystick: Respuesta fiable en todas las direcciones. Conclusiones Motores y Control: Los motores de hoverboard no son viables por su alta potencia y torque. El módulo de reversa no es necesario. Freno: No se requiere un freno adicional debido a la baja velocidad de operación (máximo 5 km/h). Estructura y Electrónica: Ajustes en la estructura y componentes electrónicos mejoraron la estabilidad y firmeza. El joystick adaptado para ser usado con la boca fue óptimo. Pruebas y Desempeño: La silla puede soportar hasta 150 kg, la batería dura 3 horas y media, y el joystick responde de manera fiable. Se necesitan mejoras en la consistencia del movimiento y ajustes precisos en componentes electrónicos y mecánicos.
Palacios Perez Naydelin, Instituto Tecnológico Superior de Apatzingán
Asesor: Dra. Katherinne Salas Navarro, Universidad de la Costa

DISEÑO DE UN MODELO DE RUTEO DE VEHÍCULOS CON CAPACIDAD PARA OPTIMIZAR LAS OPERACIONES DE UN CENTRO DE DISTRIBUCIÓN EN MICHOACÁN, MÉXICO.


DISEÑO DE UN MODELO DE RUTEO DE VEHÍCULOS CON CAPACIDAD PARA OPTIMIZAR LAS OPERACIONES DE UN CENTRO DE DISTRIBUCIÓN EN MICHOACÁN, MÉXICO.

Palacios Perez Naydelin, Instituto Tecnológico Superior de Apatzingán. Asesor: Dra. Katherinne Salas Navarro, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La gestión eficiente de las operaciones logísticas es crucial para garantizar la competitividad y rentabilidad del centro de distribución. Uno de los principales desafíos que enfrenta es la planificación y ejecución eficiente de las rutas de distribución de sus vehículos, especialmente en Apatzingán, Pátzcuaro y Uruapan municipios de Michoacán México donde se encuentra operando. Actualmente, el centro de distribución utiliza un sistema de ruteo básico que no considera adecuadamente las capacidades de los vehículos, las ventanas de tiempo de los clientes, ni las restricciones de tráfico y caminos. Esto es un uso ineficiente de los recursos, mayores costos operativos, y una baja satisfacción del cliente debido a entregas tardías o incompletas.  Capacidades de los vehículos: Los vehículos del centro de distribución tienen diferentes capacidades de carga que deben ser utilizadas de manera óptima para minimizar el número de viajes y reducir costos. Restricciones geográficas y de tráfico: Michoacán tiene una geografía variada que incluye áreas urbanas, rurales y montañosas. Las rutas deben considerar las condiciones del tráfico y las restricciones viales para evitar demoras. Optimización de costos: Es necesario minimizar los costos operativos, que incluyen el consumo de combustible, mantenimiento de vehículos y horas de trabajo del personal. Satisfacción del cliente: Las rutas deben ser diseñadas para cumplir con los tiempos de entrega prometidos a los clientes, mejorando así la satisfacción y fidelización.  



METODOLOGÍA

La siguiente investigación tiene un enfoque en la distribución y la optimización de rutas para ello se desarrolló un modelo de ruteo CVRP el cual se implementará en el estado de Michoacán, México.    Con el modelo matemático determinamos los tiempos de las diferentes rutas que abastecemos para relacionar los factores que nos ayuden a realizar las entregas a tiempo y no tengan ningún inconveniente en su trayecto hasta llegar al cliente. Por lo tanto, pondremos en marcha dos métodos el método de minimizar los costos asociados con la red de distribución, mientras que el segundo maximizar el nivel de satisfacción del cliente.  El objetivo principal es minimizar los costos de transporte el cumplimiento en tiempo y forma para los clientes y la optimización de capacidad de carga de los vehículos. Para ello iniciamos con la recolección de datos, comenzando con la demanda de los clientes saber los datos sobre la cantidad de productos que serán entregados las ubicaciones de entrega y los tiempos de entrega. Las características de los vehículos como su capacidad de carga su consumo de combustible y sus respectivos costos de operar cada vehículo. Es importante conocer las condiciones de las rutas para considerar las distancias tiempos de viaje, las condiciones de tráfico y si las áreas a recorrer son rurales o urbanas.   


CONCLUSIONES

El diseño de un modelo de ruteo de vehículos con capacidad para optimizar las operaciones de un centro de distribución en Michoacán, México, es una estrategia esencial para mejorar la eficiencia logística, reducir costos operativos y aumentar la satisfacción del cliente. Al tomar en cuenta las zonas geográficas y de infraestructura del centro de distribución, así como la capacidad de los vehículos y las exigencias de los clientes, este modelo permite un uso más eficiente de los recursos disponibles. Implementar un modelo de ruteo, proporciona soluciones adaptadas a la realidad operativa del centro de distribución. Esto no solo mejora la planificación y ejecución de las rutas, sino que también refuerza la capacidad del centro para responder de manera ágil y efectiva a las fluctuaciones en la demanda y a las condiciones cambiantes del entorno. En conclusión, el desarrollo y la implementación de este modelo de ruteo de vehículos representan una ventaja competitiva para el centro de distribución, promoviendo operaciones más sostenibles, rentables y alineadas con las expectativas de los clientes en Michoacán, México.
Pallares Muñoz Alanis, Corporación Universitaria Americana
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

INTEGRACIóN DE VISIóN ARTIFICIAL PARA LA SEGMENTACIóN E IDENTIFICACIóN DE OBJETOS SOBRE UNA BANDA TRANSPORTADORA


INTEGRACIóN DE VISIóN ARTIFICIAL PARA LA SEGMENTACIóN E IDENTIFICACIóN DE OBJETOS SOBRE UNA BANDA TRANSPORTADORA

Morales Pacheco Liliana, Universidad Veracruzana. Pallares Muñoz Alanis, Corporación Universitaria Americana. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Debido a la creciente necesidad de automatización y monitoreo remoto que se ha generado en los últimos años en la industria se ha llevado al auge en el desarrollo de sistemas avanzados de visión artificial, de entre los cuales una de sus aplicaciones que se pueden encontrar en estos sistemas de detección y clasificación de objetos es el control de calidad llevado a un sistema conectado a una banda transportadora. Sin embargo, los métodos tradicionales basados en la programación de reglas y el procesamiento de imágenes pueden ser limitados en términos de precisión y flexibilidad.



METODOLOGÍA

Se utilizaron materiales como una tarjeta embebida Raspberry Pi 3, debido a su bajo consumo y capacidad de procesamiento para tareas de vision por computadora en tiempo real, además de una cámara compatible con la tarjeta la cual sería de utilidad para las tareas de detección y grabación de  videos en tiempo real. Por otro lado, se instalo el sistema operativo Raspbian, que proporciona un entorno de desarrollo completo para Python, además de contar con un entorno flexible que permitía la instalación de las librerías necesarias para llevar a cabo el proyecto, se decidió trabajar con el lenguaje de programación  Python debido a su sintaxis sencilla, amplia variedad de librerías y gran comunidad. Con esto en mente el primer paso fue realizar la instalación de las  librerías necesarias (OpenCV, NumPy, Tensorflow,etc.) en el sistema operativo de la Raspberry Pi, en la que podemos destacar que OpenCV es una biblioteca de visión por computadora de código abierto, la cual ofrece un conjunto completo de funciones para tareas como detección de objetos, seguimiento de movimiento, reconocimiento de patrones entre otras cosas. Dado que nos encontrábamos trabajando en este caso con cámaras y el propósito es obtener los mejores resultados y  para mejorar el rendimiento de los procedimientos a realizar con la misma era indispensaple hacer la calibración de la cámara, por medio de un método basado en imágenes de la vision por computadora. Por consiguiente se definieron los colores, formas  y parámetros con los que se trabajaría, en los que por medio del rango de colores en HSV (Hue, Saturation, Value) preferiblemente dado que estos poseen un rango similar y mucho más intuitivo dado que se asemeja en demasia a la manera en como el ojo humano percibe los colores a diferencia de los presentados en el modelo del espacio RGB. También, se utilizaron técnicas de detección de contornos para identificar las formas de los objetos requeridos en la imagen. En el caso de los contornos detectados se utilizaron diferentes técnicas para perfeccionar la aproximación de algunos polígonos para obtener sus vértices y calcular características como el área, perímetro y forma. Una vez obtenida la imagen o video requerido para realizar el análizis,  esta se convierte en frasmes y de la misma manera pasa a espacio de color HSV para facilitar la detección de colores, posteriormente se crea una mascara binaria para resaltar los píxeles que corresponden al color seleccionado con la que luego se pretende  encontrar el contorno de las formas y de esta manera realizar el etiquetardo con la forma y el color correspondientes al objeto que se está visualizando. De la misma manera con la detección del objeto previamente obtenida se realizan los métodos determinado para obtener el calculo de la distancia que tenemos entre el objeto y nuestra cámara, con lo que pretendemos tener una buena determinación de donde se encuentran nuestros objetos y que tan precisos son nuestras funciones para la detección de los mismos.


CONCLUSIONES

Durante la  estancia de verano se logramos adquirir conocimientos teóricos de temas relacionado con la vision por computadora, así mismo como la manera en como trabaja a nivel de maquinaria, sus requerimientos, aplicaciones y su funcionamiento. Donde podemos destacar el aprendizaje relacionado a sus utilidades, los mètodos requeridos por la misma, además de las multiples aplicaciones que esta pueda tener a nivel general, teniendo en cuenta que no solo aprendimos la parte aplicada sino también su fundamentación matemática y la representción de las mismas. Por otro lado, también aprendimos acerca del uso que pueden tener las tarjetas embebidas  y sus múltiples aplicaciones como lo fue en nuestro caso con la tarjeta embebida Raspberry Pi3.
Palma Flores Jason Emanuel, Universidad Nacional de Ingeniería
Asesor: Mg. Edgar Dario Obando Paredes, Universidad Cooperativa de Colombia

DESARROLLO Y OPTIMIZACIóN DE MICRORREDES PARA LA EFICIENCIA ENERGéTICA EN COMUNIDADES RURALES


DESARROLLO Y OPTIMIZACIóN DE MICRORREDES PARA LA EFICIENCIA ENERGéTICA EN COMUNIDADES RURALES

Palma Flores Jason Emanuel, Universidad Nacional de Ingeniería. Asesor: Mg. Edgar Dario Obando Paredes, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

Las microrredes eléctricas son sistemas de energía autónomos que pueden funcionar de forma independiente o conectarse a la red principal. Estos son esenciales para mejorar la resiliencia energética y promover el uso de energías renovables. La presente investigación fue elaborada con el objetivo de diseñar y optimizar microrredes autónomas y conectadas, contribuyendo a la confiabilidad y sostenibilidad del suministro eléctrico en áreas urbanas y rurales. En este documento existen pautas para determinar el diseño de microrredes, asimismo con la ayuda de las configuraciones de microrredes utilizando software de simulación, la implementación de un sistema de gestión energético que equilibre oportunamente la generación y la demanda, la validación del rendimiento del sistema mediante datos recopilados de simulación. El diseño y optimización de microrredes autónomas e interconectadas es fundamental para mejorar la confiabilidad y sostenibilidad del suministro de electricidad en comunidades urbanas y rurales. En las zonas urbanas, el despliegue de microrredes interconectadas ha demostrado ser eficaz para aumentar la estabilidad del suministro de energía y reducir los cortes de energía, aumentando así la resiliencia de la infraestructura energética ante eventos adversos.



METODOLOGÍA

Criterios tecnosociales para la selección de comunidades: Para implementar este sistema, es  importante al menos identificar comunidades que sean capaces de absorber nuevas tecnologías e integrarlas a  su sistema sociocultural.  Este es un  proyecto que, por un lado, debe servir de modelo para otras comunidades y, por otro, debe ser autogestionado por la comunidad. Este análisis ayuda a mitigar  factores de riesgo que dependen únicamente de  las características de la comunidad y pueden influir en fallas futuras del sistema. [12] Estudio de viabilidad: En este punto se tienen que considerar tres aspectos primordiales, donde uno es el aspecto económico donde se tiene que evaluar los costos de instalación, operación y mantenimiento, así como el retorno de la inversión. Como segundo aspecto está el análisis técnico donde se tiene que evaluar la disponibilidad y la capacidad de las fuentes de energía (solar, eólica, biomasa, etc.). Y como ultimo aspecto la evaluación y consideración del impacto ambiental Selección de Tecnologías: Se consideran aspectos de tecnologías, sobre todo al tipo de almacenamiento, considerando si es energía proveniente del sol, viento o marea Simulación y modelado: Esta parte es fundamental y comprende 2 aspectos donde: Modelado energético: Se puede predecir el rendimiento del sistema, evaluando como la microrred responde a las variaciones de la demanda y generación de energía Análisis de fiabilidad: Este análisis sirve para evaluar la continuidad del suministro energético y determinar la capacidad de la microrred para suministrar energía de manera ininterrumpida, también se pueden puntos como identificar puntos críticos y vulnerabilidades y optimizar la redundancia y la resiliencia. Diseño detallado de la  microrred: Donde se toman en cuenta la planificación de la infraestructura, detallar planos de instalación y conexión de componentes, especificaciones técnicas y la planificación de la integración. Implementación: Es donde se da la construcción y la instalación y la realización de pruebas Evaluación de pruebas: El monitoreo es crucial para los puntos ya explicados donde se observa y estudia el comportamiento del sistema, donde se recopilan datps de eficiencia y fiabilidad y así mismo para su optimización


CONCLUSIONES

La investigación sobre microrredes eléctricas muestra que estos sistemas de energía autónomos, que pueden funcionar de forma independiente o en conjunto con la red principal, mejoran la resiliencia energética y facilitan el uso de energía renovable. El objetivo de diseñar y optimizar microrredes tanto autónomas como conectadas es garantizar la fiabilidad y sostenibilidad del suministro eléctrico en zonas urbanas y rurales. Este documento proporciona pautas para el diseño de microrredes, incluido el uso de software de simulación para configurar la microrred y los sistemas de gestión de energía para equilibrar la generación y la demanda. Los resultados de la simulación verifican el rendimiento del sistema.La implementación de microrredes interconectadas en áreas urbanas puede ser eficaz para aumentar la estabilidad del suministro de energía, reducir los cortes de energía y, por lo tanto, fortalecer la resiliencia de la infraestructura contra eventos adversos. Por lo tanto, el diseño y la optimización de las microrredes no solo mejoran la confiabilidad de la energía, sino que también promueven un futuro energético más sostenible y resiliente para las comunidades urbanas y rurales que enfrentan eventos adversos.
Palma Pedraza Marilu, Universidad Politécnica de Atlautla
Asesor: Dr. Aurelio Enrique Lopez Barron, Universidad de Guadalajara

EVALUACIóN DEL USO DE LA INTELIGENCIA ARTIFICIAL EN LOS ESTUDIANTES UNIVERSITARIOS DE LA INGENIERíA EN TELEMáTICA


EVALUACIóN DEL USO DE LA INTELIGENCIA ARTIFICIAL EN LOS ESTUDIANTES UNIVERSITARIOS DE LA INGENIERíA EN TELEMáTICA

Ledezma Constantino Mar Andrea, Universidad Politécnica de Atlautla. Palma Pedraza Marilu, Universidad Politécnica de Atlautla. Rosales Carrisoza Daniela Michelle, Universidad Politécnica de Atlautla. Asesor: Dr. Aurelio Enrique Lopez Barron, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La rápida evolución de la IA está transformando diversos sectores, incluyendo el ámbito educativo. La Ingeniería Telemática (ITEL), como campo de estudio que se ocupa del diseño, implementación y gestión de redes de comunicación, no es ajena a esta transformación. Se espera que los futuros ingenieros en telemática posean las competencias necesarias para utilizar la IA de manera efectiva en su práctica profesional. La falta de información sobre la percepción en los estudiantes universitarios de ITEL con relación a cuáles son las IA que conocen, cuál es su percepción de la utilidad de las IA generativas, como consideran su facilidad de uso, su privacidad y seguridad, los riesgos y desafíos y finalmente, como consideran que debe ser el rol del docente con el uso de la IA. Lo anterior, con la finalidad de generar un panorama que sirva de base para la toma de decisiones para así mejorar la formación de los futuros graduados de esta carrera. El creciente avance de la tecnología, y así mismo, el progresivo requerimiento de contar con competencias en IA que plantea retos para la educación superior. Nos lleva a cuestionarnos si los planes de estudio y métodos de enseñanza están preparando adecuadamente a los estudiantes para un buen desarrollo y conocimiento tecnológico actual donde la IA esta dominando. Esta es la problemática principal que esta investigación pretende abordar.



METODOLOGÍA

El diseño de esta investigación es de tipo no experimental mixto. De acuerdo con Cortés (2012) el tipo de diseño de investigación no experimental se realiza sin manipular deliberadamente las variables y donde el investigador no provoca el fenómeno, si no que únicamente lo observa y lo analiza. En cuanto al método mixto de acuerdo con Gómez (2006) se refiere a la integración o combinación entre los enfoques cuantitativo y cualitativo. Ambos enfoques se combinan en todo el proceso de investigación, o al menos, en la mayoría de sus etapas. En resumen, el diseño de investigación mixto en paralelo es el que pretende implementarse en este estudio. Con este diseño de investigación, se pretendió dar respuesta las interrogantes de este estudio combinando los enfoques cualitativos y cuantitativos para la posterior interpretación y análisis de los resultados. Para llevar a cabo el procedimiento de este estudio de evaluación del programa de la Ing. Telemática se planteo lo siguiente: Primera etapa:  Etapa donde se obtuvo la información que dio respuesta a las preguntas de estudio de evaluación del programa educativo de la Ing. Telemática.  El tipo de investigación mixto implementado en esta etapa es la encuesta identificada como cuestionario CUIA. Para la aplicación de este instrumento, se mandó el cuestionario CUIA a la muestra obtenida de estudiantes por medio de correo electrónico junto con la información sobre la investigación y sus objetivos, así como las instrucciones para completar el cuestionario. Para el análisis de datos obtenidos de los ítems de preguntas cerradas del cuestionario CUIA, se aplicó la estadística descriptiva. De acuerdo con Cortés (2012), la estadística descriptiva consiste en describir los datos y los valores para cada variable, es decir resume y organiza los datos obtenidos. Para el procesamiento de estos datos se utilizó en el Software SPSS, versión 18.0. Los datos cuantitativos obtenidos de este instrumento se concentraron en una matriz, con la finalidad de ser procesados estadísticamente calculando la media, la moda y la frecuencia para cada ítem. Con este fin, se utilizó el software SPSS, versión 18.0. Para procesar las respuestas de las preguntas abiertas y las respuestas proporcionadas por el estudiante, donde se les pidió que explicaran su elección de las preguntas cerradas en los cuestionarios CUIA, se implementó también la técnica de análisis de contenido. Este análisis se realizó por medio de la codificación que fue asignada a las unidades relevantes obtenidas del contenido de las respuestas proporcionadas (Hernández, Fernández y Bapista, 2010)


CONCLUSIONES

Durante la estancia de verano de la Investigación Científica y Tecnológica del Pacífico, se pudo concluir que la inteligencia artificial tiene un impacto significativo en la educación universitaria, particularmente en la carrera de Ingeniería en Telemática. La evaluación del uso de inteligencia artificial por parte de los estudiantes de esta disciplina reveló varios aspectos cruciales. Primero, se constató que los estudiantes que integran herramientas de inteligencia artificial en sus estudios y proyectos muestran una mejora considerable en la personalización de su aprendizaje. Estas tecnologías permiten a los estudiantes adaptar los recursos y métodos a sus necesidades individuales, mejorando así la eficiencia y la efectividad del aprendizaje. Además, el uso de la inteligencia artificial facilita la accesibilidad a una vasta cantidad de información y recursos educativos, lo que enriquece el proceso educativo y fomenta una mayor autonomía en el aprendizaje. Los estudiantes se benefician al poder resolver problemas complejos y desarrollar habilidades críticas mediante la aplicación de estas tecnologías.
Palomares García Dayana, Instituto Tecnológico Superior de Puruándiro
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

LAS RESINAS EPóXICAS Y SUS PROPIEDADES.


LAS RESINAS EPóXICAS Y SUS PROPIEDADES.

Palomares García Dayana, Instituto Tecnológico Superior de Puruándiro. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En la construcción de infraestructura, se buscan materiales que puedan mejorar la durabilidad y la resistencia estructural, especialmente en ambientes expuestos a condiciones climáticas extremas y a agentes corrosivos. La resina epóxica es considerada para reforzar estructuras de concreto, pero hay desafíos en términos de costo, aplicabilidad y compatibilidad con otros materiales de construcción. Son usadas también para fabricar componentes automotrices. Además, es crucial evaluar el impacto ambiental del uso de resinas epóxicas en grandes volúmenes. Entre nuestros puntos clave están: · ¿Cómo optimizar la aplicación de resina epóxica en refuerzos de concreto para mejorar la durabilidad sin aumentar significativamente los costos?, ·  ¿Qué métodos de aplicación y preparación de superficies garantizan la mejor adhesión y rendimiento de la resina?, ·  ¿Cómo mitigar el impacto ambiental del uso de resinas epóxicas en la construcción?



METODOLOGÍA

Se realizó una revisión bibliográfica en revistas científicas indexadas, para conocer el Estado-Del-Arte sobre las resinas en general y de manera particular sobre las resinas epóxicas. Por cuestiones de tiempo disponible este resumen de la investigación se refiere analizar lo investigado en las publicaciones mencionadas. A continuación se mencionan los puntos principales que debe contener una investigación sobre resinas: 1.- Definición del problema, y objetivos de la investigación: Identificar el problema Establecer objetivos 2.- Revisión de lecturas: Búsqueda de información Síntesis de la información 3.-Diseño de la investigación: Selección de muestras (Resina epoxi) Análisis de información 4.- Interpretación de resultados Interpretaciones de búsquedas 5.- Conclusiones Síntesis de hallazgos Limitaciones y futuras investigaciones 6.- Referencias


CONCLUSIONES

CONCLUSIONES Interpretaciones sobre lo analizado En la construcción, las resinas epóxicas se emplean para reparar y fortalecer estructuras de concreto, mejorando la durabilidad y resistencia de los edificios. Su fuerte adherencia a diversos materiales y su resistencia al agua y a los químicos las hacen ideales para entornos exigentes como puentes y plantas industriales. Las resinas epóxicas se utilizan en recubrimientos protectores que brindan alta resistencia a la corrosión, los químicos y la abrasión. Son especialmente efectivas en ambientes industriales y marinos para proteger superficies metálicas. Además, estos recubrimientos pueden ser diseñados para ofrecer acabados estéticos de alta calidad. Las resinas epóxicas se usan en la industria automotriz para fabricar componentes ligeros y duraderos. Su alta resistencia mecánica y buena adhesión a diferentes materiales las hacen perfectas para paneles de carrocería y estructuras. Además, su resistencia a la corrosión y a los productos químicos ayuda a prolongar la vida útil de los vehículos. Estas interpretaciones reflejan la versatilidad y las ventajas de las resinas epóxicas en diversas aplicaciones industriales, destacando su capacidad para mejorar la durabilidad, la resistencia y la eficiencia de los producto, a comparación de las otras resinas. Conclusión Las resinas desempeñan un papel crucial en diversas industrias debido a sus propiedades únicas y versatilidad. Las resinas epóxicas, de poliéster y viniléster se destacan por sus características específicas que las hacen adecuadas para una amplia gama de aplicaciones. La elección de la resina adecuada requiere una evaluación cuidadosa de factores como la resistencia mecánica, la adhesión, la resistencia química, el coste y la facilidad de procesamiento. Las resinas epóxicas son ideales para aplicaciones de alta exigencia debido a su combinación superior de propiedades, aunque a un coste más alto. Las resinas de poliéster, más económicas, ofrecen buena resistencia química y son adecuadas para aplicaciones menos exigentes. Las resinas viniléster proporcionan un equilibrio entre coste y desempeño, especialmente en resistencia química y flexibilidad. Comprender las propiedades y limitaciones de cada tipo de resina es esencial para optimizar el rendimiento y la eficiencia en aplicaciones industriales.
Palomares Samano Kevin Brandon, Instituto Tecnológico Superior de Apatzingán
Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios

SISTEMA DE RIEGO AUTOMATIZADO QUE REGISTRA EL MONITOREO DE HUMEDAD MEDIANTE SERVICIOS EN LA NUBE EN CULTIVOS DE LIMóN.


SISTEMA DE RIEGO AUTOMATIZADO QUE REGISTRA EL MONITOREO DE HUMEDAD MEDIANTE SERVICIOS EN LA NUBE EN CULTIVOS DE LIMóN.

Gonzalez Cobarrubias Iran Ramses, Instituto Tecnológico Superior de Apatzingán. Marin Espinosa Juan Eduardo, Instituto Tecnológico Superior de Apatzingán. Palomares Samano Kevin Brandon, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

El problema principal es la dificultad para cultivar limón en la región de Apatzingán, Michoacán, porque la mayoría cuidadores de las huertas desconocen el cuidado adecuado de esta planta, acaban regando los cultivos mucho o menos de lo que se debe y provocan problemas a los árboles cuando pueden causar daños como consecuencia el árbol puede perderse, o el cultivo llega a tener imperfecciones notables. El problema surge desde un tiempo prologado, especialmente después de la época de la pandemia, ya que un gran número de habitantes en busca de una fuente de ingresos, se encontró un gran potencial en este cultivo debido a su extensa variedad de usos, sin embargo, las instrucciones que deben llevarse a cabo para mantener saludable no suelen encontrarse. Los problemas provocados por los cuidados en la actualidad la gran mayoría de las áreas en parcelas de limón realizan el trabajo de manera manual, esto puede ser un problema ya que atrasa actividades que pudieran de mayor prioridad, además de que suele cansar a los trabajadores más aun en la época actual donde las temperaturas promedio son mucho más elevadas. ¿En qué ayuda el implementar tecnologías modernas al cultivado del Limón? A continuación, tenemos las siguientes ventajas que aportan positivamente en el cultivo de limón sobre la implementación de las tecnologías más modernas en la actualidad: Ayuda a la simplificación del trabajo mediante a la automatización la cual hace que la mano de obra humana sea nula. Hace que el cuidado del árbol del limón sea más preciso en el riego según el ambiente de estas huertas. Ayuda a los trabajadores con el ahorro de tiempo de riego para que se enforquen en otros trabajos que sean más necesarios, ya que se encargan de cosechar las frutas.



METODOLOGÍA

En Apatzingán, la producción de limón es crucial para la economía local. La implementación de sistemas de riego automatizado mejora la eficiencia y salud de las huertas, optimizando el uso del agua y ajustándose a las necesidades de las plantas y las condiciones climáticas. Estos sistemas, con sensores y control remoto, permiten un riego preciso y eficiente, promoviendo la sostenibilidad y reduciendo el desperdicio de recursos hídricos. Esto no solo aumenta la productividad y calidad de los limones, sino que también contribuye a la sostenibilidad ambiental y económica de la región. Para implementar un sistema de riego automatizado en las huertas de limón de Apatzingán, se realizaron encuestas para obtener datos sobre los cuidados necesarios para los limoneros. Las respuestas destacaron la importancia de la poda, el control de plagas, la fertilización adecuada, el uso de suelo bien drenado y ligeramente ácido, y el riego por goteo como el método más efectivo. También se mencionaron los riesgos del riego excesivo e insuficiente y la necesidad de ajustar la frecuencia de riego según la temporada. Con esta información, se identificaron los materiales necesarios para el sistema de riego automatizado, que incluye sensores de humedad, mangueras, un ESP32, computadoras, cables, software Thonny, una protoboard, un relay de corriente y un motor de agua sumergible. El funcionamiento físico del sistema implica la instalación de estos componentes y la conversión de los valores de humedad del suelo de analógico a digital para controlar la bomba de agua a través del relay. En cuanto al funcionamiento lógico, se desarrolló una base de datos virtual para almacenar los datos registrados por el sistema. Estos datos se convierten a formato JSON y se envían a la base de datos mediante el protocolo HTTP, permitiendo un monitoreo y control eficiente del riego.


CONCLUSIONES

El análisis de las arquitecturas de software y hardware del sistema de riego automatizado presenta un diseño donde el firmware programado en MicroPython permite que el microcontrolador gestione las funciones asignadas a sus pines de entrada y salida, así como retardos y condicionales. El programa, una vez ejecutado, recoge datos importantes y los convierte en un archivo JSON para su lectura y escritura en una base de datos. Estos datos se ordenan y envían a Firebase, un servicio en la nube de Google, a través de HTTP, aprovechando la conectividad WiFi del microcontrolador. En el hardware, el sistema cuenta con un sensor de humedad que, alimentado por 3.3V a 5V, envía una señal analógica convertida a digital para medir la resistencia y determinar la humedad del suelo. El ESP32, que incluye WiFi y Bluetooth, es clave para la comunicación y el control del sistema, enviando señales a un relay que, a su vez, controla una bomba de agua sumergible para el riego según la humedad detectada. La base de datos no relacional del sistema almacena registros en la tabla "sensor data", con campos como el identificador del registro, el valor del sensor, la humedad, el voltaje y la fecha y hora de cada registro, realizados cada 15 segundos. En la programación del sistema, se desarrollaron rutinas en MicroPython para la lectura de datos, comparación, activación de actuadores y envío de información a la base de datos. El proceso de actualización de datos se realiza cada 20 segundos para permitir el riego adecuado de los cultivos. El uso de tecnologías modernas, como la inteligencia artificial, en tareas de cuidado de cultivos puede tener un impacto significativo y escalable. Este proyecto, inicialmente orientado al cuidado de árboles de limón, puede aplicarse a otros campos más complejos o sencillos. Además, es esencial considerar las leyes internacionales, ya que estas pueden imponer restricciones a largo plazo que afecten el alcance del proyecto. La protección de la información es crucial para evitar la replicación del sistema o la exposición de datos de clientes finales. Un ejemplo notable de aplicación es el cuidado de Bonsáis, donde el ajuste del modelo y microprocesador puede facilitar su mantenimiento. Otro caso es el cultivo de árboles de aguacate, donde las tecnologías modernas podrían identificar condiciones adecuadas de cultivo de manera más precisa, evitando el método de prueba y error.
Paredes Cristancho Isabella, Universidad Cooperativa de Colombia
Asesor: Mg. Fredy Cuervo Lara, Universidad Cooperativa de Colombia

MOVILIDAD SOSTENIBLE EN LA CIUDAD DE SANTA MARTA, COLOMBIA.


MOVILIDAD SOSTENIBLE EN LA CIUDAD DE SANTA MARTA, COLOMBIA.

Paredes Cristancho Isabella, Universidad Cooperativa de Colombia. Asesor: Mg. Fredy Cuervo Lara, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

Según el ministerio de transporte nacional, La movilidad ambientalmente sostenible se refiere a un enfoque que busca minimizar el impacto negativo en el medio ambiente mientras satisface las necesidades de movilidad de las personas y las comunidades. En Santa Marta, la movilidad enfrenta desafíos significativos debido a la falta de infraestructuras adecuadas (Malla vial), el crecimiento del parque automotor y la escasa promoción de alternativas de transporte sostenible. Aún conociendo su importancia, se desconocen cifras, datos y fuentes actualizadas acerca de planes de acción sobre las alternativas y mejoramiento de transporte sostenible dentro de la ciudad. Durante el verano de investigación se recopiló información para tomarlo como un punto de partida con el fin de crear consciencia común sobre este tema. 



METODOLOGÍA

La metodología empleada fue un Análisis documental, donde se tuvieron en cuenta diversos documentos, fuentes textuales y registros como informes, documentos oficiales, artículos académicos, registros históricos nacionales e internacionales, publicaciones de medios de comunicación, entre otros documentos. Sin embargo, también se realizaron encuestas donde se podía tener en cuenta la opinión de los ciudadanos de Santa Marta referente a este tema. Lo que nos mostró un panorama tanto oficial, teniendo en cuenta proyectos nacionales que se quieren implementar, como uno cercano, teniendo en cuenta la opinión de los ciudadanos. 


CONCLUSIONES

El análisis del estado actual de la movilidad sostenible en Santa Marta revela desafíos significativos como la falta de infraestructuras adecuadas y la escasa promoción de transporte sostenible. La recopilación de datos y la opinión ciudadana son esenciales para formular un plan de mejora que contribuya a la calidad de vida de los ciudadanos. Es crucial caracterizar las modalidades de movilidad sostenible y analizar puntos estratégicos para implementar acciones efectivas que fomenten un desarrollo urbano más sostenible. 
Partida Robledo Inri Guadalupe, Instituto Tecnológico de Tepic
Asesor: Dra. Milen Balbis Morejon, Universidad de la Costa

ANáLISIS DEL ESTADO ACTUAL DE LAS POLíTICAS ENERGéTICAS PARA EDIFICACIONES NZEB EN COLOMBIA Y MéXICO


ANáLISIS DEL ESTADO ACTUAL DE LAS POLíTICAS ENERGéTICAS PARA EDIFICACIONES NZEB EN COLOMBIA Y MéXICO

Partida Robledo Inri Guadalupe, Instituto Tecnológico de Tepic. Asesor: Dra. Milen Balbis Morejon, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

El crecimiento de la población y la urbanización han incrementado la demanda energética en los países de América Latina, exacerbando los desafíos relacionados con la sostenibilidad y la eficiencia energética en el sector de la construcción. Las edificaciones de energía casi nula (nZEB) representan una solución innovadora y necesaria para reducir el consumo energético y las emisiones de gases de efecto invernadero. Sin embargo, la adopción y la implementación efectiva de políticas energéticas que promuevan los nZEB enfrentan múltiples obstáculos en la región, particularmente en Colombia y México. Estas barreras incluyen la falta de normativas específicas, el limitado conocimiento y sensibilización sobre esto mismo, y la insuficiencia de incentivos financieros y técnicos. La importancia de esta investigación radica en la necesidad de comprender el estado actual de las políticas energéticas para nZEB en Colombia y México, identificar las fortalezas y debilidades de dichas políticas, y proponer recomendaciones que faciliten la transición hacia edificaciones más sostenibles.



METODOLOGÍA

Para el desarrollo de la investigación, se realizó inicialmente una revisión exhaustiva de la literatura utilizando bases de datos académicas como Scopus, Google Scholar y Web of Science. Se incluyeron estudios científicos, documentos gubernamentales y normativas pertinentes sobre edificaciones de energía casi nula (nZEB) en Colombia y México, enfocándose en publicaciones recientes. Posteriormente, se llevó a cabo un análisis comparativo de las políticas y normativas en ambos países, destacando similitudes y diferencias en objetivos, incentivos, requisitos técnicos y mecanismos de ejecución mediante una tabla comparativa. Se realizaron estudios de caso sobre proyectos específicos de nZEB en cada país, recopilando información detallada sobre diseño, implementación y rendimiento energético, y evaluando los desafíos y logros de dichos proyectos. Además, se examinaron los marcos regulatorios, la adopción de tecnologías renovables y la eficiencia energética de los edificios seleccionados. Se evaluó el impacto económico y social de las políticas nZEB y la capacidad institucional y técnica para su puesta en práctica. La información recopilada se integró y analizó utilizando métodos cualitativos y cuantitativos, generando gráficos y tablas para resumir los hallazgos clave y redactando un informe detallado con los resultados del estudio. El informe fue sometido a revisión por expertos para asegurar su precisión y se realizaron ajustes finales en base a los comentarios recibidos.


CONCLUSIONES

El análisis realizado revela que las políticas energéticas para edificaciones de energía casi nula (nZEB) en Colombia se encuentran en una fase emergente, mientras que en México se trata de un aspecto que va ligeramente más desarrollado,  pero todavía enfrentando considerables desafíos en su implementación efectiva. En comparación con países de primer mundo como Alemania y los Países Bajos, ambos países latinoamericanos presentan rezagos significativos en términos de normativas, incentivos y niveles de implementación. Estos países avanzados disfrutan de marcos regulatorios robustos y programas de incentivos que han facilitado la adopción generalizada de nZEB, complementados por una alta conciencia y formación profesional en el área. Las experiencias y mejores prácticas de estos países pueden servir como referencia para mejorar las políticas en Colombia y México. La investigación resalta varias oportunidades de mejora, tales como el desarrollo de normativas más detalladas, la implementación de programas de capacitación especializados y la promoción de colaboraciones entre el sector público y privado. Asimismo, se han identificado estrategias clave para el avance en este campo, incluyendo la integración de tecnologías renovables emergentes, el desarrollo de materiales de construcción más eficientes y sostenibles, la optimización de sistemas de gestión energética en edificios y la creación de estrategias de financiamiento innovadoras. Estas acciones contribuirán significativamente al desarrollo profesional y a la sostenibilidad energética en ambos países. En particular, una mayor profundización en estos aspectos podría resultar en beneficios significativos, como una notable reducción del consumo energético y de las emisiones de gases de efecto invernadero, ahorro económico a largo plazo mediante la eficiencia energética, y una mejora en la calidad de vida a través de edificaciones más confortables y saludables. Adicionalmente, el establecimiento de estándares y modelos replicables podría posicionar a Colombia y México como líderes regionales en sostenibilidad y eficiencia energética.
Patiño Barrera Laura Daniela, Universidad de Pamplona
Asesor: Dr. Leandro Chaires Martínez, Instituto Tecnológico Superior de Alamo Temapache

SIMPOSIO BIORRESOLUCIONES: UN RECUENTO DE VIVENCIAS MéXICO-COLOMBIA


SIMPOSIO BIORRESOLUCIONES: UN RECUENTO DE VIVENCIAS MéXICO-COLOMBIA

Patiño Barrera Laura Daniela, Universidad de Pamplona. Asesor: Dr. Leandro Chaires Martínez, Instituto Tecnológico Superior de Alamo Temapache



PLANTEAMIENTO DEL PROBLEMA

En el presente verano de investigación científica y tecnológica del pacifico 2024, como proyecto de investigación se planteó la organización del I simposio internacional sobre los temas relacionados con la biorremediación que involucran a los países de México y Colombia. Este simposio busca que se genere un intercambio de conocimientos y experiencias entre ponentes, asistentes y organizadores respecto a las investigaciones llevadas a cabo con el enfoque de la biorremediación, que permitan no solo conocer un poco más sobre esta área de investigación sino generar e incentivar las ganas de aprender e investigar sobre lo relacionado con la biorremediación.



METODOLOGÍA

El simposio lleva por nombre Simposio Biorresoluciones: un recuento de vivencias México-Colombia el cual resalta el objetivo del mismo, es decir, recalca lo que es compartir las experiencias vividas en cuanto a biorremediación en dos países diferentes, que se enfocan en la misma área de investigación, de modo que las conferencias que serán presentadas serán impartidas por ponentes investigadores de ambos países donde se darán a conocer los resultados obtenidos en medio de sus investigaciones sobre este tema.


CONCLUSIONES

El SIBIS 2024 se llevara a cabo los días 26 y 27 de septiembre del presente año y se transmitirá de manera virtual por Facebook Live, además de contar con la participación y asistencia de los interesados vía la plataforma de ZOOM, que se aclara es una convocatoria abierta para quiénes desene participar y estén interesados en el contenido que se presentarán en las mismas, dichos participantes y ponentes contaran con su certificado de participación avalado por la Universidad de Pamplona y el Instituto Tecnológico Superior de Álamo Temapache.
Patiño Cuecuecha Lizette, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Mauricio González Palacio, Universidad de Medellín

SISTEMA DE AUTENTICACIóN E INGRESO A ESPACIOS DE PARQUEO PARA VEHíCULOS HíBRIDOS


SISTEMA DE AUTENTICACIóN E INGRESO A ESPACIOS DE PARQUEO PARA VEHíCULOS HíBRIDOS

Patiño Cuecuecha Lizette, Benemérita Universidad Autónoma de Puebla. Pineda Muñiz Sofía, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dr. Mauricio González Palacio, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

Considerando la situación de contaminación en Colombia, se reconoce que los vehículos representan el 78% de las emisiones de gases de efecto invernadero y el 80% de las emisiones de contaminantes atmosféricos en el país (Diario Occidente). Por otro lado, los automóviles híbridos eléctricos presentan un menor impacto ambiental a lo largo de su ciclo de vida en comparación con los vehículos de combustión interna. Los vehículos híbridos tienden a producir alrededor de un 15% menos de emisiones de gases de efecto invernadero durante su ciclo de vida. Específicamente, los vehículos de combustión interna emiten aproximadamente 200 gramos de CO2 por kilómetro, mientras que los vehículos híbridos emiten alrededor de 170 gramos por kilómetro (Transportation Energy Institute). Este planteamiento del problema se enfoca en desarrollar un sistema de autenticación que no solo facilite el acceso seguro y controlado a los estacionamientos, sino que también contribuya al cuidado del medio ambiente. 



METODOLOGÍA

Este proyecto se enfoca en la administración eficiente de espacios de estacionamiento mediante tecnologías avanzadas como RFID, IoT con MQTT, bases de datos y backend. El sistema autentica y permite el ingreso de vehículos híbridos, asegurando que los espacios no sean ocupados por vehículos de combustión interna. Como primer paso, se utiliza un microcontrolador ESP32-WROOM-32U, siendo esta una placa de desarrollo Wifi y Bluetooth, diseñada para un amplio rango de aplicaciones IoT. Este se conecta al IDE de Thonny, perteneciente a Python 3.10. Con este software se programan los archivos con extensión .py que luego se suben al microcontrolador para realizar las pruebas correspondientes.  Los elementos electrónicos utilizados mediante el microcontrolador fueron: Lector/Escritor RFID MFRC522: Es un sistema de modulación/demodulación. Con una frecuencia de operación de 13.56MHz y un protocolo ISO 14443A. LED RGB con 3 pines de conexión. Servomotor SG90 de bajo consumo, bajo peso y torque de 1.8 kgf·cm. Sensor ultrasónico HC-SR04, permite medir distancias entre 20 mm y 8 m con una precisión de 0,025 mm. El código se programa de tal manera que el lector RFID reciba un identificador numérico y determine si pertenece a un vehículo híbrido o eléctrico. Si el identificador es autorizado, el sistema enciende un LED verde y el servomotor realiza una rotación de 90° para mover la barrera, permitiendo el acceso al espacio de estacionamiento. Si el identificador no es autorizado, el sistema permanece en su estado inicial con un LED rojo encendido y la barrera perpendicular al suelo. El sensor ultrasónico se utiliza para detectar la presencia de un vehículo en el espacio de estacionamiento, protegiendo así al automóvil. Después de implementar el código para esta funcionalidad, se procede a probar el protocolo de comunicación MQTT, utilizando inicialmente un broker de prueba llamado HiveMQ, que no requiere usuario ni contraseña, solo suscripción al tópico "delfin/código_rfid" y publicación en el tópico "delfin/respuesta". En el código de Thonny, se utilizan librerías específicas para esta conexión, configurando la suscripción y publicación en los tópicos mencionados. Esto permite enviar y recibir información entre el broker y el código mediante una conexión a Internet. De este modo, al publicar las palabras "autorizado" o "denegado" desde el broker, el microcontrolador reacciona y ejecuta los comandos preestablecidos. Además, el microcontrolador puede publicar en el broker los identificadores leídos por el lector RFID. Una vez concluidas las pruebas de comunicación con el broker HiveMQ y el código de Thonny, se procede a utilizar MySQL junto con el visor de bases de datos HeidiSQL, Anaconda (Spyder), Paho MQTT y MySQL Connector Python. Se sigue el mismo procedimiento de suscripción y publicación a los tópicos definidos, pero ahora el proceso de autenticación se realiza a través de la base de datos. El identificador se envía a una base de datos para verificar si está registrado. Si el identificador está en la base de datos, el automóvil es autorizado, la barrera se levanta y el vehículo puede estacionarse en el espacio preferente. En caso contrario, la barrera no se levanta. Finalmente, se realiza una simulación en el software de CAD (Diseño Asistido por Computadora) llamado SolidWorks, donde se puede observar gráficamente el funcionamiento del proyecto.  


CONCLUSIONES

Este proyecto se desarrolló con el objetivo de incentivar el uso de vehículos eléctricos mediante el respeto por los espacios preferentes para autos híbridos y eléctricos en estacionamientos, reduciendo la dependencia de combustibles fósiles y promoviendo prácticas más sostenibles. Algunos de los diversos beneficios del uso de autos híbridos, específicamente en Antioquia, Medellín, los conductores pueden estar exentos de la normatividad Pico y Placa, lo que les permite circular el día que lo necesiten. Esta solución contribuye principalmente a los siguientes Objetivos de Desarrollo Sostenible (ODS) de la Agenda 2030: Objetivo 11 (Ciudades y comunidades sostenibles) ya que promueve el uso de vehículos híbridos y eléctricos, reduciendo la contaminación atmosférica y mejorando la calidad del aire en las ciudades. Objetivo 13 (Acción por el clima) ya que al reducir las emisiones de gases de efecto invernadero mediante el fomento del uso de vehículos híbridos y eléctricos, contribuye a los esfuerzos globales para mitigar sus efectos. Objetivo 7 (Energía asequible y no contaminante) fomenta el uso de tecnologías limpias y eficientes en el sector del transporte.. Esta solución puede ser utilizada como una alternativa para establecer lugares personalizados de estacionamiento, promoviendo así una movilidad más sostenible y eficiente.
Patiño Manzo José Guadalupe, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

CARDINALIDAD Y BASES DE DATOS: CLAVES PARA LA EDUCACIóN EN LA ERA DIGITAL


CARDINALIDAD Y BASES DE DATOS: CLAVES PARA LA EDUCACIóN EN LA ERA DIGITAL

Patiño Manzo José Guadalupe, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del Problema En las escuelas de nivel básico y medio superior, existe una notable carencia de clases en materias especializadas. Esta deficiencia limita significativamente las oportunidades de aprendizaje de los estudiantes, especialmente en el área de bases de datos, una disciplina con creciente relevancia en el actual mundo tecnológico. La falta de recursos educativos especializados en estos niveles educativos impide que los estudiantes adquieran conocimientos profundos y prácticos en el campo de las bases de datos. Esta situación no solo afecta su rendimiento académico, sino también su preparación para estudios superiores y futuras oportunidades laborales en un entorno cada vez más digitalizado. Es fundamental reconocer que una introducción temprana a las bases de datos puede ser altamente beneficiosa para los estudiantes que desean orientar sus estudios y carreras hacia las Tecnologías de la Información y la Comunicación (TIC). Equipar a los estudiantes con conocimientos en bases de datos desde una edad temprana les proporciona una ventaja competitiva y los prepara mejor para enfrentar los desafíos de una economía digital. Para abordar esta necesidad, es vital desarrollar y distribuir materiales educativos especializados en bases de datos, escritos en un lenguaje claro y accesible. Esta iniciativa no solo mejorará la calidad de la educación en estos niveles, sino que también proporcionará a los estudiantes herramientas esenciales para su futuro académico y profesional. A través de una educación más robusta en el área de bases de datos, los estudiantes estarán mejor preparados para contribuir de manera efectiva a la sociedad digital en la que vivimos.



METODOLOGÍA

Metodología Para abordar la escasa distribución de material e información sobre conceptos de bases de datos, se desarrolló un libro especializado mediante el siguiente proceso: 1. Identificación de conceptos clave: a. Restricción de cardinalidad b. Relación 1:1 c. Relación 1:M d. Relación M:N 2. Recolección y obtención de datos: Se utilizaron fuentes confiables en línea, la biblioteca institucional y bibliotecas virtuales para reunir información precisa y actualizada sobre los conceptos clave. 3. Elaboración del contenido: La información recopilada se estructuró y desarrolló detalladamente en un documento. Cada concepto se explicó de manera clara y se añadieron ejemplos prácticos para mejorar la comprensión. 4. Producción de materiales adicionales: Se crearon videos explicativos sobre los temas del libro, con el objetivo de reforzar el aprendizaje de los estudiantes. Además, se diseñaron crucigramas y sopas de letras relacionados con los conceptos de bases de datos para hacer el aprendizaje más interactivo. 5. Diseño de presentaciones: Se confeccionaron presentaciones didácticas para facilitar la explicación de los temas en clase. Estas presentaciones fueron diseñadas para ser visualmente atractivas y fáciles de seguir. 6. Evaluación y consolidación del aprendizaje: Se diseñó un breve cuestionario para evaluar la comprensión de los estudiantes y reforzar su aprendizaje.


CONCLUSIONES

Conclusiones El desarrollo del material didáctico y las actividades adicionales se centra en enseñar los conceptos fundamentales de bases de datos de manera clara y accesible. El libro, escrito en un lenguaje sencillo, y los videos interactivos tienen como objetivo mejorar la comprensión y el interés de los estudiantes en esta área esencial. Considerando la importancia de una introducción temprana a las bases de datos y otras tecnologías emergentes para preparar a los estudiantes para una economía digital, ¿qué medidas concretas pueden tomar las instituciones educativas y los responsables políticos para integrar estos conocimientos en los currículos de nivel básico y medio superior? Resultados alcanzados: - Libro educativo accesible: Se creó un libro que presenta los conceptos de bases de datos de manera clara y comprensible, utilizando ejemplos prácticos y un lenguaje sencillo. - Videos educativos complementarios: Los videos, que incluyen explicaciones visuales e interactivas, refuerzan el contenido del libro y facilitan el aprendizaje. Resultados esperados: - Mejorar la comprensión y aplicación de conceptos de bases de datos: Se espera que los estudiantes adquieran una base sólida en los principios de bases de datos, permitiéndoles aplicar este conocimiento en situaciones prácticas. - Incrementar el interés en bases de datos: Al presentar los conceptos de manera atractiva y fácil de entender, se busca despertar un interés duradero en los estudiantes por el campo de las bases de datos, influyendo en sus futuras decisiones académicas y profesionales. - Fomentar el interés en tecnologías emergentes: La meta es inspirar a los estudiantes a explorar áreas en constante desarrollo, como la inteligencia artificial, y comprender cómo estas tecnologías se pueden aplicar en el campo de las bases de datos. Conclusión Personal Mi experiencia durante esta estancia ha sido increíblemente gratificante. Aprendí a fondo sobre bases de datos, adquiriendo una comprensión clara y práctica de los conceptos fundamentales. Además, desarrollé la habilidad de citar de manera efectiva y utilizar herramientas generativas para producir información precisa y útil. El manejo del lenguaje académico también ha sido una parte crucial de mi aprendizaje, permitiéndome comunicar conceptos complejos de una manera accesible y educativa. Por último, el compañerismo con mis colegas ha sido una parte esencial de esta experiencia, enriqueciendo mi desarrollo personal y profesional. Esta estancia no solo ha mejorado mis habilidades técnicas y académicas, sino que también ha fortalecido mi pasión por el campo de las tecnologías y su enseñanza.
Patiño Orozco Arleth Soledad, Instituto Tecnológico de Morelia
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

EFECTO DEL USO DE NANO PARTíCULAS DE SILICIO SOBRE PROPIEDADES DE DURABILIDAD DE MUESTRAS DE CONCRETO REFORZADO.


EFECTO DEL USO DE NANO PARTíCULAS DE SILICIO SOBRE PROPIEDADES DE DURABILIDAD DE MUESTRAS DE CONCRETO REFORZADO.

Patiño Orozco Arleth Soledad, Instituto Tecnológico de Morelia. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

El concreto se ha construido en el material de construcción mas ampliamente utilizado, alrededor del mundo. Con gran resistencia a los esfuerzos de compresión y deficiencia en resistencia a la tracción. El concreto puede definirse como una mezcla de material aglutinante, como Cemento portland, material de relleno, agua, puede contener algún aditivo especial. La necesidad de compensar la deficiencia del concreto a la tracción y el corte, dio como resultado la técnica constructiva del concreto reforzado. Esta consiste en introducir o armar arreglos de acero, en los encofrados, antes del vaciado. De esta forma se logra que los esfuerzos de corte o de tracción sean absorbidos por el acero. La adición de nanopartículas busca incrementar la resistencia a la tracción en el concreto adicionadas en la mezcla en forma de pequeños filamentos de nanopartículas de MCM-41-HDTMS



METODOLOGÍA

Se realizo una revisión bibliográfica de trabajos previos, normas AST y NMX-ONNCCE. El diseño de mezcla se empleó con agregados característicos de la región provenientes de un banco de materiales de Campeche, correspondientes a grava (producto preveniente de trituración de roca caliza propia de la Península de Yucatán); arena (arena de mar previamente lavada), usando Cemento Portland Compuesto (CPC 30R), aditivo reductor de agua, dispersante superfluidizante de fraguado normal de marca comercial DISPERCOL NL-SF Para este proyecto se elaborará un total de 69 muestras con moldes de diferentes volúmenes, teniendo muestras P (de prueba, las de la primer colada), T (testigo) y NM (que corresponden a las que contienen el nanomaterial).  En la dosificación del diseño con un f¨c= 280 kg/cm2 el valor de volumen total se calculo de 0.0803 m3 teniendo 30.44 kg de cemento, 62.75 kg de arena, 66.75 kg de grava, 17.15 L y 0.122 L de aditivo por colada.  Las nanopariculas de MCM-41-HDTMS se obtuvieron mediante el método sol-gel sin ser solubilizadas  Para realizar la colada de las muestras  previamente se limpiaron las caras internas de los moldes y se engrasaron para facilitar el desmolde después de 6 horas de fraguado. Se apretaron correctamente las tuercas para lograr la fijación total de los moldes y evitar fugas. Una vez llenados se colocar en una superficie plana  La elaboración de la mezcla se realizo de manera manual en el laboratorio de concreto del CICOOR de la Universidad Autónoma de Campeche, la mezcla fue realizada con pala metálica, posterior se llenaron los moldes de acero con mezcla, el llenado se realizo con lo establecido de la norma NMX-C-159-ONNCCE- Se llenó en 3 niveles diferentes, cada uno de los niveles se varilló con una varilla de punta redonda en 25 ocasiones, se golpeó el molde externamente con un mazo de hule para eliminar las oquedades producidas por la varilla y expulsar el aire atrapado.  En la colada se llevó a cabo el ensayo de revenido siguiendo las especificaciones de la norma NMX-C-156-ONNCCE-2010. Este ensayo fue útil para determinar la caída o revenimiento del concreto fresco. De acuerdo con la relación agua/cemento obtenido (a/c = 0.56), se obtuvo un revenimiento promedio de 7.5 cm en muestras testigo y 6.47 cm en muestras con nanopartículas. Para las muestras que son preparadas para pruebas electroquímicas se preparan varillas de 20 cm de longitud, cubriendo en cada extremo con cinta dejando un area central de trabajo de 5 cm.   Las muestras elaboradas se procedieron a desmoldar 6 horas después de su fabricación, posterior se colocaron en una solución saturada de Ca(OH)2 para su colado para realizar las pruebas de compresión a los 7, 14, 28 días. La resistencia a la compresión es la medida de la capacidad del concreto para resistir cargas de compresión sin sufrir daño significativo. Se refiere a la fuerza necesaria para romper o aplastar una muestra cilíndrica de concreto a una velocidad especifica, determinando cuando mayor sea la resistencia a la compresión del concreto, mejor será su capacidad para soportar cargas pesadas y resistir la  deformación midiendo entonces: Resistencia a la compresión =  Carga de ruptura/ Área de la sección que resiste a la carga    


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de selección de materiales, concretos, del diseño y elaboración de nanopartículas, así como la importancia de analizar el fenómeno de la corrosión en las estructuras. Además, poner en práctica los procedimientos estandarizados para lograr coladas con resultados esperados y su análisis con pruebas de compresión. Fue posible observar los resultados preliminares en muestras de resistencia a la compresión de 7 y 14 días de las muestras T y los de 7 días de las coladas complementarias, contando con resultados para un análisis inicial para estimar si la presencia de MSN puede favorecer la resistencia del concreto  
Paula Iglesias Abraham, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Juan Jose Bedolla Solano, Instituto Tecnológico de Acapulco

SISTEMA DE GESTIóN DE PROYECTOS ECONóMICOS DEL ESTADO DE GUERRERO


SISTEMA DE GESTIóN DE PROYECTOS ECONóMICOS DEL ESTADO DE GUERRERO

Ahuelican Dorantes Erick Aldair, Instituto Tecnológico de Chilpancingo. Paula Iglesias Abraham, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Juan Jose Bedolla Solano, Instituto Tecnológico de Acapulco



PLANTEAMIENTO DEL PROBLEMA

El desarrollo económico en las comunidades rurales y semiurbanas del Estado de Guerrero enfrenta importantes desafíos que obstaculizan el potencial de crecimiento y la mejora de la calidad de vida de sus habitantes. A pesar de la presencia de emprendedores locales con ideas innovadoras y el deseo de impulsar el desarrollo en sus regiones, la falta de herramientas adecuadas para la gestión de proyectos socioeconómicos limita gravemente sus capacidades. Uno de los principales problemas radica en la dispersión de recursos disponibles para los emprendedores, que a menudo deben buscar financiamiento y apoyo formativo a través de múltiples fuentes. Esta dispersión no solo incrementa la dificultad de acceso a los recursos necesarios, sino que también genera ineficiencias en la gestión y seguimiento de los proyectos. Muchas veces, los emprendedores no logran obtener el apoyo económico necesario debido a la ausencia de una plataforma que centralice la solicitud y gestión de fondos.  El entorno en las áreas rurales y semiurbanas de Guerrero presenta una situación aún más crítica, con una infraestructura limitada y un apoyo técnico deficiente. 



METODOLOGÍA

Análisis Documental e Investigativo Se llevó a cabo un análisis comparativo de plataformas que apoyan a emprendedores, evaluando sus funcionalidades, tecnologías y el impacto que generan. El objetivo fue entender cómo diferentes sistemas abordan las necesidades de los emprendedores y qué tecnologías utilizan. Se realizaron búsquedas exhaustivas para identificar plataformas y programas en México, Chile, Bogotá y Perú, abarcando diversos enfoques y contextos regionales. Se consultaron fuentes académicas, informes y estudios de caso para obtener una visión detallada sobre cada sistema. La información recopilada incluyó: Concepto: Propósito y objetivos de cada plataforma. Lenguaje Utilizado: Tecnologías y lenguajes de programación empleados. Fuente: Publicaciones y estudios que detallan cada sistema. Argumentos: Beneficios y características destacadas. Encuestas Se realizó una encuesta a 171 emprendedores en Guerrero para entender sus características demográficas y educativas, así como su distribución sectorial. Esta información es clave para diseñar políticas y programas que fomenten el desarrollo económico y el emprendimiento en la región. Tecnologías Utilizadas Investigacion aplicada utilizando herramientas modernas La plataforma se desarrolló utilizando una serie de tecnologías modernas que aseguran su funcionamiento eficiente y su capacidad para adaptarse a las necesidades actuales. HTML: Estructura básica de las páginas web. CSS: Diseño y presentación visual. JavaScript: Interactividad del lado del cliente. PHP: Lógica del sistema en el servidor. MySQL: Gestión de bases de datos. phpMyAdmin: Administración de MySQL. Resultados La plataforma diseñada con un enfoque en la usabilidad, facilita el registro, solicitud de financiamiento y acceso a recursos. Su interfaz intuitiva y características como paneles de control personalizados y módulos de ayuda interactiva permiten una gestión eficiente y accesible, independientemente del nivel de experiencia tecnológica del usuario. Recopilación de Datos y Adaptación La plataforma se desarrolló basándose en encuestas a emprendedores locales y análisis de sistemas similares en otras regiones, lo que asegura que se alinee con las necesidades actuales y futuras de los emprendedores. Impacto y Beneficios La plataforma revoluciona la gestión de proyectos económicos en Guerrero, mejorando el acceso a financiamiento y recursos formativos. Ha fomentado la participación en programas de capacitación, mejorado la calidad de los proyectos y contribuido a la creación de empleo y desarrollo económico regional.


CONCLUSIONES

La plataforma de gestión y emprendimiento de proyectos económicos en Guerrero se rige como una herramienta innovadora y esencial para impulsar el desarrollo económico y social de la región. Su diseño integral permite centralizar y simplificar el acceso a una variedad de recursos y opciones de financiamiento, lo que facilita de manera significativa el crecimiento y el éxito de los emprendedores locales. Estos aspectos clave no solo optimizan la eficiencia y la eficacia del sistema, sino que también reducen considerablemente los costos y tiempos asociados para los usuarios y las autoridades involucradas. La plataforma actúa como un catalizador para la innovación y el emprendimiento, proporcionando un entorno propicio para el desarrollo de nuevos proyectos y la expansión de los existentes. Además de su apoyo directo a los emprendedores, el sistema contribuye de manera significativa al desarrollo económico sostenible de Guerrero. Al fomentar una cultura de emprendimiento e innovación, mejora la calidad de vida de sus habitantes y fortalece la resiliencia económica de la región. Este enfoque integral no solo facilita el éxito individual de los emprendedores, sino que también impulsa una dinámica económica positiva que beneficia a toda la comunidad, creando un ecosistema vibrante y autosuficiente que impulsa el progreso y la prosperidad a largo plazo.
Paz Chávez José Eduardo, Instituto Tecnológico de Piedras Negras
Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa

CALIDAD Y SOSTENIBILIDAD EN EL SECTOR AGROINDUSTRIAL. MEJORA CONTINUA Y PRáCTICAS INNOVADORAS PARA UN FUTURO RESPONSABLE.


CALIDAD Y SOSTENIBILIDAD EN EL SECTOR AGROINDUSTRIAL. MEJORA CONTINUA Y PRáCTICAS INNOVADORAS PARA UN FUTURO RESPONSABLE.

Ochoa Nava Fernanda Ximena, Instituto Tecnológico de Piedras Negras. Paz Chávez José Eduardo, Instituto Tecnológico de Piedras Negras. Rodriguez López Hannia Citlaly, Instituto Tecnológico de Piedras Negras. Romero Bobadilla Oscar, Instituto Tecnológico de Piedras Negras. Zerrweck Faz Anacristina, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La agroindustria en Colombia es crucial para la economía del país, abarcando desde la producción agrícola hasta la transformación y comercialización de productos. La diversidad climática permite cultivar una amplia gama de productos como café, banano, flores, cacao y palma de aceite, que no solo abastecen al mercado nacional, sino que también generan ingresos significativos por exportaciones. Sin embargo, el sector enfrenta desafíos como la necesidad de mejorar la infraestructura rural, adaptarse al cambio climático y adoptar tecnologías avanzadas para ser más productivo y sostenible. La calidad es un factor clave para la competitividad de la agroindustria colombiana, siendo fundamental cumplir con estándares rigurosos y obtener certificaciones internacionales como Buenas Prácticas Agrícolas (BPA) e ISO [1]. Además, las certificaciones de comercio justo y orgánicas ayudan a asegurar prácticas comerciales equitativas y sostenibles, lo cual es esencial para acceder a mercados globales exigentes. El apoyo gubernamental y la inversión en investigación y desarrollo son esenciales para fomentar la innovación y fortalecer la cadena de valor agrícola. Programas que promuevan la asociatividad y el acceso a créditos para pequeños y medianos productores son vitales para el crecimiento del sector. En conjunto, el desarrollo sostenible y la responsabilidad social empresarial son fundamentales para asegurar que el avance de la agroindustria beneficie a todos los actores involucrados, desde los agricultores hasta los consumidores.



METODOLOGÍA

Para la realización de esta investigación se inició con la elaboración de un estado del arte de una forma metódica sobre los temas de la agroindustrial, calidad, sostenibilidad, mejora continua y agricultura de precisión para un futuro responsable. Esta investigación está dirigida a los comerciantes, emprendedores y agricultores, para que tengan mayor consciencia sobre los beneficios a largo plazo que se obtienen al hacer uso y aplicación de las tecnologías de precisión aplicada en la agricultura, además de la aplicación de métodos y técnicas sostenibles para asegurar la producción y consumo responsable de los productos y fortalecer la resiliencia y capacidad de adaptación a riesgos relacionados con el clima. Posteriormente, se realizó un estudio mediante encuestas a los comerciantes locales sobre los temas investigados para saber si cuentan con conocimiento sobre estos temas y los beneficios que conlleva la aplicación de estas tecnologías. De igual manera se asistió a conferencias y expos en donde se pudo recabar más información respecto a la Agroindustria. Finalmente, se concluyó con el análisis de la información recabada que podemos tener una visión integral sobre la importancia de implementar tecnologías de precisión y prácticas sostenibles en la agroindustria.


CONCLUSIONES

Las encuestas realizadas fueron de gran ayuda, ya que nos permitieron darnos cuenta de que, aunque la mayoría de las personas cuentan con conocimientos básicos sobre la agricultura de precisión y las tecnologías asociadas, estos conocimientos no siempre cumplen con los estándares de calidad necesarios para aprovechar al máximo dichas tecnologías. Nuestra investigación ha demostrado que es esencial mantenerse en constante mejora e innovación en tecnologías de precisión. La evolución tecnológica es rápida, y para mantenernos competitivos y eficientes, debemos adoptar nuevas herramientas y técnicas que mejoren la precisión y la eficacia en las prácticas agrícolas. Además, la sostenibilidad se ha convertido en un componente crucial de la agricultura moderna. Las prácticas sostenibles no solo ayudan a preservar el medio ambiente, sino que también contribuyen a la salud a largo plazo de los cultivos y del suelo. Esto incluye el uso de tecnologías que permiten un uso más eficiente de los recursos, como el agua y los fertilizantes, y que reducen el impacto ambiental negativo.
Paz Contreras Ana Lilian, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. Yeiny Romero Hernández, Benemérita Universidad Autónoma de Puebla

ESCENARIO DE SIMULACIóN DEL ATAQUE DENEGACIóN DE SERVICIO (DOS) Y DENEGACIóN DE SERVICIO DISTRIBUIDO (DDOS) CON ENFOQUE ACADéMICO ORIENTADO A ESTUDIANTES UNIVERSITARIOS QUE ESTéN FORMáNDOSE EN áREAS DE LA INFORMáTICA.


ESCENARIO DE SIMULACIóN DEL ATAQUE DENEGACIóN DE SERVICIO (DOS) Y DENEGACIóN DE SERVICIO DISTRIBUIDO (DDOS) CON ENFOQUE ACADéMICO ORIENTADO A ESTUDIANTES UNIVERSITARIOS QUE ESTéN FORMáNDOSE EN áREAS DE LA INFORMáTICA.

Paz Contreras Ana Lilian, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Yeiny Romero Hernández, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La ciberseguridad es la práctica de proteger equipos, redes, sistemas y datos contra amenazas digitales, garantizando la confidencialidad y continuidad operativa mediante diversas medidas tecnológicas y procesos. Las organizaciones deben asegurar sus datos para mantener la confianza del cliente y cumplir con la normativa vigente. Se implementan herramientas y estrategias para prevenir y mitigar ciberataques, como virus y ransomware, protegiendo sistemas críticos y redes contra accesos no autorizados. La ciberseguridad abarca personas, procesos y tecnologías, optimizándose mediante defensas digitales integrales. Se enfoca en ramas como Auditoría de Seguridad Digital, Hacking Ético, Informática Forense y Seguridad de Redes Informáticas. En 2023, los principales ataques fueron Denegación de Servicio, Ransomware, Explotación de vulnerabilidades, Ataques por aplicaciones Web, Phishing y Ciberataques con IA. La investigación se centró en Denegación de Servicio (DoS) y Denegación de Servicio Distribuido (DDoS). DoS es una amenaza que sobrecarga los recursos de un sistema desde una única fuente, provocando la degradación o cierre del servicio. Impide que los usuarios legítimos accedan a servicios esenciales, afectando su disponibilidad. Los ataques DoS varían en complejidad, desde el simple PING Flood hasta el sofisticado Ping of Death. DDoS sigue la misma línea, pero con mayor daño, utilizando múltiples sistemas comprometidos para coordinar un ataque masivo, abrumando al objetivo con solicitudes simultáneas, reduciendo el ancho de banda disponible y creando congestión. Los DDoS emplean botnets para enviar tráfico desde múltiples fuentes, complicando la mitigación y el filtrado del tráfico malicioso. Hay múltiples variantes de DoS y DDoS, y se pueden realizar múltiples escenarios de prueba en universidades con fines académicos y éticos para que los estudiantes tomen conciencia e interés en estos ataques. Se han utilizado dos escenarios: el primero propone el uso de DenyHosts en combinación con Fail2ban en sistemas Linux, como medios de monitoreo y mitigación respectivamente.



METODOLOGÍA

Para DenyHosts, la instalación se realiza desde la terminal con privilegio de super usuario: sudo dnf install python3. Una vez instalado, se configuran y habilitan servicios con comandos como sudo systemctl start denyhosts y sudo systemctl enable denyhosts. DenyHosts se habilitó en una máquina ALMA Linux como víctima, mientras que la máquina atacante usó Kali Linux. Se recopiló la IP de cada máquina y se utilizó sendmail desde ALMA Linux para verificar que los correos llegaran al administrador configurado. Para el ataque de inundación por ICMP, se utilizó el comando sudo hping3 --icmp --rand-source --flood -d 1400 192.168.88.147, enviando un flujo continuo de paquetes ICMP de 1400 bytes desde direcciones de origen aleatorias. Esto simula un ataque de denegación de servicio (DoS). La máquina víctima debería tener problemas para acceder a servicios de internet como Google. Se pueden ajustar los bytes para hacer más efectivo el ataque, y se puede usar Wireshark para monitorear la actividad. Para Fail2ban, primero se instala sudo yum install epel-release, luego sudo yum install fail2ban. Se edita el archivo de configuración con sudo nano /etc/fail2ban/jail.local, estableciendo parámetros básicos para pruebas. Fail2ban detectó la actividad sospechosa y baneó la IP de la máquina atacante durante una hora. Se utilizó una máquina Kali Linux para intentar acceder mediante SSH con credenciales incorrectas. El ataque desde Kali Linux sobrepasó el umbral permitido, y la IP quedó baneada.


CONCLUSIONES

Aunque DenyHosts aún no ha comprobado su efectividad en el ataque del escenario de simulaci´pn, se propone continuar la investigación para que las alertas emitidas mediante correo electrónico del administrador estén presentes, permitiendo a los estudiantes montar sus propios escenarios de ataque, monitoreo y mitigación. Fail2ban en ALMA Linux respondió exitosamente al ataque desde Kali Linux, logrando no solo monitorear el umbral permitido sino también banear la IP que excedió los intentos fallidos. En futuras investigaciones, se sugiere complementar DenyHosts y Fail2ban, con DenyHosts emitiendo alertas y registros, y Fail2ban encargándose de banear o bloquear IPs. Por otro lado, este verano de investigación ha sido productivo, enfrentándome de manera práctica a ataques DoS/DDoS, que solo había abordado teóricamente en la universidad.
Pazmiño Ortega Daniel Enrique, Universidad Autónoma de Manizales
Asesor: Dr. Javier Bernardo Cabrera Mejia, Universidad Católica de Cuenca

ACOPLE DE GENERACIóN DISTRIBUIDA (GD) A LA RED DE LA UNIVERSIDAD CATóLICA DE CUENCA - ECUADOR


ACOPLE DE GENERACIóN DISTRIBUIDA (GD) A LA RED DE LA UNIVERSIDAD CATóLICA DE CUENCA - ECUADOR

Pazmiño Ortega Daniel Enrique, Universidad Autónoma de Manizales. Asesor: Dr. Javier Bernardo Cabrera Mejia, Universidad Católica de Cuenca



PLANTEAMIENTO DEL PROBLEMA

La necesidad energética atravesada por Ecuador ha tenido como resultado que se tomen medidas como declarar en emergencia el sector eléctrico, los racionamientos de energía y el acuerdos para la generación de energía adicional para enfrentar las condiciones críticas del estiaje (Ministerio de Energía y Minas de Ecuador, 2023). Por ello dicha investigación tiene como objetivo diseñar un sistema de generación distribuida utilizando tecnología híbrida entre fuentes de energías renovables ya conocidas como la generación solar fotovoltaica y aerogeneracion. 



METODOLOGÍA

La metodología fue dividida en varias etapas: la primera en la obtención y procesamiento de los datos de una estación meteorológica ubicada en la facultad de ingeniería de la universidad Católica de Cuenca en las coordenadas -2.8852082188339367, -79.00541998361287, la segunda en el procesamiento de los datos de la demanda energética de la facultad, la tercera en el diseño y simulación de un sistema híbrido de generación distribuida para esa facultad y por último la implementación del sistema. - Obtención y procesamiento de los datos de la estación meteorológica: En la Universidad Católica de Cuenca, se cuenta con varias estaciones meteorológicas en la ciudad de Cuenca, Ecuador. Se trabajó con datos de la estación ubicada en la facultad de ingeniería, que registra variables como temperatura, humedad, radiación solar, radiación solar difusa, velocidad del viento y ráfagas de viento. Esta estación toma datos cada hora y al final del día registra los valores máximos, mínimos y promedio. Se utilizaron datos del año 2020, procesados en Python con pandas y matplotlib para extraer y graficar los valores diarios de radiación solar, velocidad del viento, ráfagas de viento y temperatura, con el objetivo de analizar tendencias, picos y mínimos, y usar estos datos para la simulación de la tercera etapa. - Procesamiento y análisis de la demanda energética: Se realizó la recopilación del consumo energético mensual de la facultad de ingeniería y de la misma forma que los datos meteorológicos se procesaron con Python obteniendo un gráfico de barras correspondiente al consumo mensual desde enero de 2023 hasta junio de 2024. - Diseño y simulación de una propuesta de un sistema híbrido de generación distribuida: En la universidad se cuenta con un aerogenerador de 600W y paneles solares por lo que se diseñó con estás dos tecnologías un sistema híbrido que inyecta potencia a la red eléctrica de la facultad, además este sistema fue simulado en Simulink de MATLAB usando los datos obtenidos en la estación meteorológica y obtener los resultados más cercanos a la realidad. - Implementación del sistema híbrido: Se implementó un arreglo solar de 720W y un aerogenerador de 600W como se había diseñado en la etapa anterior. 


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos técnicos en los sistemas de generación eléctrica usando energías renovables de tensión media específicamente en sistemas fotovoltaicos y eólicos, el acople del sistema e inyección de energía a la red, además de afianzar conocimientos en data analytics y simulink. Se encontró que la generación fotovoltaica es una opción viable debido a los niveles de radiación encontrados y las temperaturas a las que se encuentra la zona de instalación llegando a un rendimiento diario cerca de 125 KWh, sin embargo el sistema eólico debe ser re ubicado puesto que no cuenta con un flujo constante de viento debido a los obstáculos que existen en las instalaciones. El sistema híbrido genera un ahorro de energía alrededor de los 46 dólares diarios (precio actual de 1 KWh es de $0.37) contando las intermitencias de funcionamiento del sistema eólico, se busca que al reubicar el aerogenerador este ahorro aumente de manera significativa. La generación distribuida es una opción viable para la generación de energía eléctrica y el aporte a las necesidades eléctricas no solo personales sino también del país debido a las crisis energéticas causada por la falta de diversificación de la matriz eléctrica, además de ser más accesibles que otro tipo de tecnologías como la hidráulica u otras renovables cumpliendo con la transición energética relacionada al séptimo objetivo de desarrollo sostenible de la agenda para el 2030 Asegurar el acceso a energías asequibles, fiables, sostenibles y modernas para todos.
Pazmiño Rodriguez Camilo Fernando, Fundación Universitaria Cafam
Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana

ANáLISIS, DISEñO, DESARROLLO E IMPLEMENTACIóN DE CHATBOTS Y HERRAMIENTAS AUTOMATIZADAS DE ATENCIóN AL CLIENTE EN UN SISTEMA WEB DE COMERCIO ELECTRóNICO


ANáLISIS, DISEñO, DESARROLLO E IMPLEMENTACIóN DE CHATBOTS Y HERRAMIENTAS AUTOMATIZADAS DE ATENCIóN AL CLIENTE EN UN SISTEMA WEB DE COMERCIO ELECTRóNICO

Pazmiño Rodriguez Camilo Fernando, Fundación Universitaria Cafam. Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana



PLANTEAMIENTO DEL PROBLEMA

El comercio electrónico enfrenta desafíos significativos, incluyendo la alta competencia, la necesidad de personalización para mejorar la experiencia del cliente y la eficiencia en la gestión del inventario y las operaciones. Muchas pequeñas y medianas empresas (PYMES) carecen de los recursos y conocimientos necesarios para integrar tecnologías avanzadas como la inteligencia artificial (IA) en sus plataformas, lo que resulta en una pérdida de oportunidades de crecimiento y optimización. La falta de integración de IA limita la capacidad de las páginas web para ofrecer recomendaciones personalizadas, gestionar inventarios de manera eficiente y proporcionar soporte al cliente automatizado, entre otras funcionalidades avanzadas.



METODOLOGÍA

Investigación del estado del arte: Revisión de literatura académica y estudios de caso sobre la aplicación de IA en el comercio electrónico. Análisis de tendencias actuales y tecnologías emergentes en IA para comercio electrónico. Desarrollo del prototipo: Diseño de la arquitectura del sistema web con herramientas de IA. Desarrollo inicial y pruebas de módulos de IA para la página web, incluyendo sistemas de recomendación, chatbots y análisis predictivo. Implementación y optimización: Integración de los módulos desarrollados en la plataforma de comercio electrónico. Realización de pruebas exhaustivas para asegurar la funcionalidad y usabilidad de las herramientas de IA. Optimización de los módulos basados en resultados de las pruebas y retroalimentación. Evaluación y documentación: Evaluación de la estabilidad y efectividad de la integración de IA en la página web. Documentación del proceso, resultados y recomendaciones para futuras implementaciones. Presentación de los hallazgos en la Universidad Unicafam.


CONCLUSIONES

La integración de tecnologías de IA, como chatbots y sistemas de recomendación, en sitios web de comercio electrónico mejora significativamente la experiencia del cliente y la eficiencia operativa. El desarrollo y la implementación del prototipo demostraron una mejora notable en la satisfacción del cliente y la optimización de procesos. Las pruebas indicaron que los chatbots manejaron eficientemente consultas sobre información de productos, tiempos de entrega, garantías y compras en volumen, mientras que los sistemas de recomendación personalizaron efectivamente las interacciones del usuario. Estos resultados resaltan el potencial transformador de la IA en el comercio electrónico, proporcionando un modelo práctico para futuras implementaciones en PYMES que buscan competir eficazmente en el mercado digital.
Pedraza Sanchez Veyda Adelith, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Juan Manuel Ramírez Alcaraz, Universidad de Colima

NORMATIVAS LEGALES Y éTICAS PARA USOS Y GENERACIóN DE INTELIGENCIA ARTIFICIAL.


NORMATIVAS LEGALES Y éTICAS PARA USOS Y GENERACIóN DE INTELIGENCIA ARTIFICIAL.

Pedraza Sanchez Veyda Adelith, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Juan Manuel Ramírez Alcaraz, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la inteligencia artificial (IA) es una gran herramienta para ayudarnos en las tareas que regularmente requieren de inteligencia humana, hasta la mejora en la toma de decisiones, así como generación de imágenes y videos. Sin embargo, junto con su rápida evolución tecnológica, también surgen desafíos significativos en términos de normas legales y éticas, estas preocupaciones plantean desafíos los cuales deben de abordarse para garantizar un desarrollo responsable y sostenible de la IA.   El creciente desarrollo de la IA ha incrementado la exposición a una serie de riesgos y desafíos significativos que tienen consecuencias para la sociedad. Existe una carencia de normativas legales y éticas que pueden resultar en uso indebido de información, imagen y decisiones algorítmicas sesgadas o incluso riesgos para la estabilidad social.   Además, el uso de IA para generar y modificar imágenes son basadas en alteraciones de pinturas originales mediante IA y pueden diluir la integridad artística de las obras, plantear cuestiones de propiedad intelectual y afectar la percepción pública del arte, lo que subraya la necesidad urgente de establecer regulaciones claras para proteger tanto a los artistas como al patrimonio cultural.



METODOLOGÍA

La investigación de este problema se abordará a través de una combinación de revisión de artículos, estudios de casos, análisis de normativas legales y ética en la IA.  Introducción a ciberseguridad y la IA: Hemos completado dos cursos uno de ciberseguridad y otro de inteligencia artificial. Revisión de artículos: se realizó una revisión exhaustiva de artículos especializados en ciberseguridad, con un enfoque particular en las publicaciones en ciberseguridad que traten sobre el contexto de IA. Además, se analizaron artículos que abordaron los desafíos éticos asociados con el uso y generación de la IA. Análisis de políticas: Se analizaron las políticas y regulaciones vigentes y la Ética en la IA. Este análisis incluyó revisiones de leyes, normas y directrices emitidas por el gobierno. Desarrollo de artículo de divulgación: Basándose en el análisis de diversos artículos sobre las normativas legales y éticas en IA se elaborará un artículo de divulgación.


CONCLUSIONES

Durante la estancia del programa Delfín, se completaron dos cursos fundamentales: uno sobre ciberseguridad y otro sobre inteligencia artificial (IA). Esta formación proporcionó una base sólida para comprender los desafíos y las oportunidades que presentan estas tecnologías. Además, se llevó a cabo un análisis exhaustivo de aproximadamente 20 artículos académicos, de los cuales 10 se centraron en la ciberseguridad aplicada a la IA y los otros 10 abordaron los aspectos normativos y  éticos de la IA. Este proceso de revisión permitió una visión integral y profunda de los temas tratados.   Es crucial que existan normas legales y éticas para abordar los desafíos que plantea la IA, no solo fomenta la innovación responsable en IA, sino que también proteja los derechos fundamentales y promueva la confianza pública en estas tecnologías emergentes de manera que garantice la seguridad y se utilice de manera que beneficie a toda la sociedad.
Peña Chavarín Jesús Saúl, Universidad de Sonora
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

PIRóLISIS SOLAR COMO PROCESO DE OBTENCIóN DE BIOCHAR


PIRóLISIS SOLAR COMO PROCESO DE OBTENCIóN DE BIOCHAR

Peña Chavarín Jesús Saúl, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Nuestra necesidad instintiva de alimentación nos ha llevado a sobreexplotar métodos de producción de alimentos, como la agricultura. Con el paso del tiempo y el incremento de la población, estas prácticas han agotado los nutrientes del suelo en ciertas regiones. La repetición extensiva de cosechas, el mal mantenimiento y el uso excesivo de fertilizantes químicos han deteriorado la fertilidad de los suelos, convirtiéndolos en áreas áridas y en desuso. Una solución a este problema es el uso de biochar para mejorar la salud y fertilidad del suelo. El biochar, rico en carbono estable, regula el pH del suelo y mejora sus propiedades físicas y químicas. Este producto se obtiene a través de un proceso termoquímico llamado pirólisis, que consiste en calentar una biomasa a alta temperatura en ausencia de oxígeno, lo que acelera su descomposición química y produce residuos gaseosos, líquidos y sólidos, siendo el sólido el biochar. La pirólisis requiere una alta temperatura y una gran cantidad de energía, la cual no es fácil de obtener. Actualmente, se utilizan combustibles fósiles, como gas natural o propano, para generar el calor necesario. Sin embargo, se está comenzando a usar energía solar como una fuente limpia y renovable, derivando en la pirólisis solar. El objetivo del programa de investigación es estudiar el proceso y desarrollo de la pirólisis solar para la producción de biochar.



METODOLOGÍA

Para desarrollar la pirólisis solar, se utilizó un Horno Solar en la Plataforma Solar de Hermosillo (PSH), un laboratorio de energía solar a las afueras de Hermosillo, Sonora. Este laboratorio es uno de los pioneros en la realización de pirólisis solar en México y el mundo. El Horno Solar combina procesos ópticos y mecánicos. Su funcionamiento comienza con un heliostato, un dispositivo que porta espejos de alta emisividad que reflejan los rayos solares hacia un punto específico. Estos espejos siempre apuntan al sol, gracias a un sistema de seguimiento solar que utiliza una cámara termográfica y un sistema de control automatizado. Este sistema, con servomotores que se mueven en el eje cenit y azimut, asegurando que los espejos no pierdan de vista al sol. El objetivo de los heliostatos es dirigir los rayos solares hacia un concentrador solar, un espejo parabólico de alta emisividad y baja absorbancia. Este concentrador potencializa la radiación solar y la redirige a un foco, donde se alcanza la máxima potencia. En estudios realizados en la PSH, comprobamos que un espejo convencional de 2.60 m de largo por 0.11 m de ancho, forzado a tener una geometría parabólica con un foco de 4 m, logró una potencia superior a 50,000 W/m². Al considerar posibles errores del espejo, como limpieza y rugosidad, se estimó una potencia mayor a 40,000 W/m², equivalente a concentrar la potencia de cuarenta soles en un área proyectada de 0.0119 m². Esta eficacia de los concentradores solares es una prueba contundente de su eficiencia. El área de radiación concentrada producida por el horno solar apunta a un spot donde se encuentra un reactor solar, que transforma la radiación solar en energía térmica. Este reactor contiene la biomasa que será sometida al proceso de pirólisis para convertirse en biochar. Aunque parece un proceso altamente automatizado, no lo es del todo. La pirólisis solar, especialmente la lenta, tiene parámetros claros: la rampa de temperatura, o la tasa de aumento de temperatura en el reactor, debe ser menor a 50 °C/min, y el tiempo de residencia, o el tiempo en la temperatura máxima de 400-600 °C, debe ser de 20 a 30 minutos. Primero, se prepara la biomasa, cortando o triturando grandes piezas, para optimizar el proceso e introducir la mayor cantidad posible en el reactor. Luego, se sella el reactor para evitar el oxígeno y no estropear el proceso ni causar accidentes. El reactor se monta en el spot, es decir el área de reflexión, y se opera el horno solar. A pesar de los sistemas de control avanzados, el horno aún depende de un control humano para abrir y cerrar el flujo de rayos solares entre el heliostato y el concentrador solar, mediante un sistema de persianas desarrollado en la PSH se logra controlar. Este flujo controla el aumento y disminución de la temperatura en el reactor. Una vez alcanzada la temperatura esperada, inicia el tiempo de residencia. Después de este tiempo, se retira la potencia y se enfría el reactor. Al enfriarse, se analizan los resultados, calculando la eficiencia y comparándola con experimentos previos.


CONCLUSIONES

Durante nuestra estancia científica, realizamos la pirólisis solar lenta en múltiples ocasiones y con diversas biomasas, como cáscaras de pistache, plantas de sandía y tallos de la planta del maíz. Obtuvimos grandes rendimientos en cuanto a la relación de biomasa y masa final de biochar, alcanzando hasta un 42.42% de rendimiento. Estos resultados abren una gran ventana de posibilidades para explorar en este proceso. Se esperan estudios posteriores sobre los residuos líquidos y sólidos, así como un estudio completo de las propiedades del biochar de cada biomaterial.
Peña Jarro Ana Lucy, Universidad Nacional Abierta y a Distancia
Asesor: Mtro. Marcos Hernández Varilla, Universidad Tecnológica de Huejotzingo

BASES DE LA INOCUIDAD ALIMENTARIA PARA PREVENIR LA CONTAMINACIóN CRUZADA EN PLANTAS ALIMENTARIAS


BASES DE LA INOCUIDAD ALIMENTARIA PARA PREVENIR LA CONTAMINACIóN CRUZADA EN PLANTAS ALIMENTARIAS

Peña Jarro Ana Lucy, Universidad Nacional Abierta y a Distancia. Asesor: Mtro. Marcos Hernández Varilla, Universidad Tecnológica de Huejotzingo



PLANTEAMIENTO DEL PROBLEMA

La contaminación cruzada representa uno de los mayores riesgos para la inocuidad alimentaria en las plantas procesadoras. Este fenómeno ocurre cuando patógenos u otras sustancias nocivas se transfieren de un alimento contaminado a uno limpio, a través de superficies, utensilios o manipuladores de alimentos. Esto puede resultar en enfermedades graves para los consumidores, subrayando la importancia crítica de implementar medidas efectivas de control.



METODOLOGÍA

Evaluación de Riesgos: Identificación de puntos críticos de contaminación cruzada en la planta, considerando diseño de instalaciones, flujo de trabajo y antecedentes de contaminación. Desarrollo del Programa de Control: Elaboración de protocolos detallados para la limpieza y desinfección de superficies y equipos, implementación de prácticas de separación de alimentos crudos y cocidos, y establecimiento de procedimientos de capacitación continua para empleados. Implementación y Monitoreo: Ejecución del programa de control en todas las áreas pertinentes de la planta, con monitoreo regular para verificar la adherencia y efectividad de las medidas implementadas.


CONCLUSIONES

En conclusión, la implementación efectiva de un programa de prevención de contaminación cruzada en plantas alimentarias es fundamental para garantizar la inocuidad de los alimentos. Al integrar prácticas adecuadas de limpieza, desinfección, separación de alimentos y capacitación del personal, las plantas pueden proteger a los consumidores de enfermedades transmitidas por alimentos y cumplir con los estándares reguladores establecidos. Como resultado, se observa una reducción significativa del riesgo de contaminación cruzada en la planta alimentaria, una mejora en la seguridad alimentaria para los consumidores, el cumplimiento con las regulaciones vigentes y el fortalecimiento de las capacidades del personal en prácticas de higiene y seguridad alimentaria.
Peña Ruvalcaba Aryok Joaquin, Universidad de Guadalajara
Asesor: Dr. Dainet Berman Mendoza, Universidad de Sonora

PUNTOS CUANTICOS DE SILICIO PARA RECUBRIMIENTO DE CELDAS SOLARES


PUNTOS CUANTICOS DE SILICIO PARA RECUBRIMIENTO DE CELDAS SOLARES

Peña Ruvalcaba Aryok Joaquin, Universidad de Guadalajara. Asesor: Dr. Dainet Berman Mendoza, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

LINK DEL TRABAJO COMPLETO: file:///Users/Aryok/Downloads/TRABAJO-FINAL,-VERANO-DELFIN-.html​ En este estudio, se propone mejorar la eficiencia de celdas solares mediante el recubrimiento con puntos cuánticos (QD's) de silicio sintetizados por reflujo. Se espera obtener QD's con tamaños entre 1 y 5 nm, caracterizados por espectroscopía UV-Vis, XRD, DLS, AFM y SEM para evaluar su absorción, estructura cristalina, tamaño, morfología y distribución. Con estos datos, se busca determinar el efecto del recubrimiento con QD's de silicio en las celdas solares, con el objetivo de demostrar un incremento en su eficiencia.



METODOLOGÍA

Sintesis  Sintesis de QD’s de silicio  Para obtener Si QD, se agregaron Mg2Si (0,3 g, 4,0 mmol), NH4Cl (0,13 g, 2,4 mmol) y DMF (40 ml) a un matraz Schlenk de 150 ml a temperatura ambiente en una atmósfera de argón. La mezcla de reacción se sometió a reflujo a 170 ºC en una atmósfera de argón con o sin agitación durante 1 a 3 días. El color de la solución cambió a amarillo. Una vez finalizada la reacción, la solución amarilla se filtró para medir PL. Se eliminaron todos los líquidos eliminables y se obtuvo un producto sólido blanco. Caracterizacion  Difraccion de rayos X (XRD) En este buscamos el patron especifico del silicio para confirmar la presencia de que realmente es una estructura cristalina y que realmente cuenta con una red periodica gracias a la interferencia constructiva.La muestra se realizaria con varios planos y un angulo de difraccion gracias a la ecuacion de Bragg.  Espectroscopia UV-Visible  La espectroscopia ultravioleta-visible o espectrofotometría ultravioleta-visible (UV/VIS) es una espectroscopia de emisión de fotones y una espectrofotometría.  La radiación absorbida por las moléculas desde esta región del espectro provoca transiciones electrónicas que pueden ser cuantificadas.Al agregar la muestra se un incremento gradual en la absorción a 400 nm durante las primeras 72 horas, seguido del surgimiento de una nueva banda a 450 nm tras 48 horas. Empleando la ley de Tauc y el espectro de absorción, podemos estimar la energía de banda prohibida de los Si-QD sintetizados. Dispersión de luz dinámica (DLS) Para determinar el tamaño y la distribución de tamaño de partículas en una muestra mediante dispersión de luz dinámica (DLS), seespera realizar el siguiente procedimiento: primero, se preparar una dispersión de las partículas en un solvente adecuado. A continuación, se introducir la muestra en una celda de medición y se ilumina con un láser. La luz dispersada por las partículas es detectada y analizada para obtener la función de autocorrelación. Finalmente, a partir de esta función, se esperar calcular el tamaño de las partículas y su distribución. Microscopia Electronica de Barrido (SEM) El Microscopio electrónico de barrido o SEM (Scanning Electron Microscope), es aquel que utiliza un haz de electrones en lugar de un haz de luz para formar una imagen.Agregamos la muestra de los QD's de silicio en el SEM y mediante el software manipular el haz de electrones para obtener datos de la superfucie y comparar cada muestra dependiendo la cantidad de concentracion, todo esto con el finde ver la superficie de las QD’s de silicio sobre todo en la pelicula. Microscopia de Fuerza Atomica (AFM) Se espera utilizarla para la obtención de imágenes superficiales de alta resolución; así como para obtener información de las propiedades mecánicas de un material. Todo esto para confirmar el tamaño de los QD’s de silicio y que confirme el diametro que se obtuvo en el DLS. Voltaje de corriente Las características de corriente-voltaje de los dispositivos se tienen que medir antes y después del despliegue de los puntos cuánticos de silicio, se tiene que utlizar diferentes muestras con variadas concentraciones. En todos los casos, la utilización de puntos cuánticos de silicio tienen que mejorar el rendimiento de las células solares. Eficiencia cuántica externa La eficiencia cuántica es una cantidad definida para un dispositivo fotosensible como el porcentaje de fotones que chocan con la superficie fotorreactiva que producirá un par electrón-hueco.Se espera buscar que observaciones indican que la respuesta fotovoltaica mejoró en algunos segmentos de longitud de onda del espectro solar y confirmar que fueron responsable del aumento de voltaje corriente. Caracterizacion Electrica de las Celdas Solares con recubrimiento de Nanoparticulas de Silicio  Para la caracterizacion de las celdas solares es depositarlas en un centro de centrifugacion en la celda solar con sus caracteristicas. Para confirmar la mejora en la eficencia de las celdas solares con QD’s. 


CONCLUSIONES

Se espera que los experimentos de espectroscopía UV-Vis revelarán un incremento gradual en la absorción a 400 nm durante las primeras 72 horas, seguido del surgimiento de una nueva banda a 450 nm tras 48 horas. Los análisis de XRD corroborarán la estructura cristalina característica del silicio mediante la identificación de picos de difracción específicos y los correspondientes planos cristalinos. Las técnicas de DLS, AFM y SEM proporcionarán información detallada sobre el tamaño, distribución y morfología de los QD de Si, confirmando su naturaleza nanométrica y la homogeneidad de la muestra. Finalmente, las mediciones eléctricas permitirán determinar el voltaje de circuito abierto, la corriente de cortocircuito y la eficiencia cuántica de los QD de Si cuando se incorporen a una celda solar. LINK DEL TRABAJO COMPLETO: file:///Users/Aryok/Downloads/TRABAJO-FINAL,-VERANO-DELFIN-.html​
Peñaloza Leon Gina Paola, Corporación Universitaria Americana
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

IMPLEMENTACIóN DE SISTEMA DE VISIóN ARTIFICIAL PARA MAPEO Y RECONSTRUCCIóN EN ROBOTS MóVILES


IMPLEMENTACIóN DE SISTEMA DE VISIóN ARTIFICIAL PARA MAPEO Y RECONSTRUCCIóN EN ROBOTS MóVILES

Peñaloza Leon Gina Paola, Corporación Universitaria Americana. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los robots móviles enfrentan el desafío de mapear y reconstruir su entorno de manera precisa y eficiente para operar de forma autónoma en aplicaciones prácticas. La integración de sistemas de visión artificial debe abordar problemas como el procesamiento de imágenes en tiempo real, la detección de objetos relevantes y la adaptación a condiciones variables de iluminación y texturas. Además, es crucial que el sistema pueda realizar cálculos precisos de distancia para una navegación efectiva. Este proyecto busca desarrollar un sistema de visión artificial que permita a un robot móvil crear mapas detallados y precisos, detectar objetos en su entorno, y calcular distancias con precisión, mejorando así su capacidad para navegar y tomar decisiones en entornos dinámicos y diversos.  



METODOLOGÍA

Para desarrollar el sistema de visión artificial en un robot móvil, se utilizó una Raspberry Pi 3 con una cámara de profundidad ASTRA y se configuró el entorno de desarrollo con Raspbian y las librerías necesarias, incluyendo OpenCV. La elección de la Raspberry Pi fue beneficiosa debido a su tamaño compacto, amplia comunidad de soporte, y facilidad de uso. Su capacidad de procesamiento, fue suficiente para las tareas de visión artificial, mientras que sus opciones de conectividad y portabilidad facilitaron la integración con el robot móvil. El software fue programado en Python, implementando técnicas de procesamiento de imágenes para capturar imágenes en tiempo real, detectar objetos y calcular distancias. Python y OpenCV fueron seleccionados por sus ventajas en el desarrollo de visión artificial. Python ofrece una sintaxis clara y un entorno de desarrollo eficiente, mientras que OpenCV proporciona una amplia gama de funciones y algoritmos optimizados para el procesamiento de imágenes y detección de objetos. Juntos, permiten un desarrollo rápido y flexible de técnicas avanzadas en visión por computadora. En el proyecto, se implementaron varias técnicas avanzadas para optimizar el procesamiento de imágenes y mejorar la visión artificial.  Se utilizó la conversión a escala de grises para simplificar las imágenes, permitiendo una detección de bordes más eficiente. Se utilizó el algoritmo de Canny  para identificar los bordes y contornos de los objetos en las imágenes capturadas por la cámara. Primero, se aplicó un filtro Gaussiano para suavizar las imágenes y reducir el ruido que podría interferir en la detección de bordes. Luego, se calculó el gradiente de la imagen para resaltar las áreas con cambios significativos en la intensidad. La supresión de no-máximos ayudó a refinar los bordes, eliminando bordes falsos y dejando solo los bordes más prominentes. Finalmente, se aplicó un proceso de histéresis para distinguir entre bordes verdaderos y bordes débiles. El uso de Canny permitió identificar con precisión las formas y los contornos de los objetos, lo cual es esencial para la navegación autónoma del robot y la correcta interpretación del entorno. Se desarrollaron filtros de blanco y negro, sepia y RGB para modificar y ajustar las imágenes capturadas según los requisitos específicos. Para mejorar la calidad de las imágenes y reducir el ruido no deseado, se aplicaron técnicas de eliminación de ruido sal y pimienta, utilizando filtros medianos y otros métodos de suavizado. Se adoptó el modelo de color HSV (Hue, Saturation, Value) para una detección de colores más precisa y robusta, facilitando la identificación y diferenciación de objetos con diferentes características de color. El cálculo de distancias se realizó midiendo el tamaño real de los objetos en las imágenes y aplicando principios de geometría y trigonometría. Además, se integró un sensor LiDAR (Light Detection and Ranging) para obtener datos de profundidad precisos, complementando las imágenes y mejorando la capacidad del sistema para mapear y reconstruir el entorno con mayor exactitud.  


CONCLUSIONES

Durante el desarrollo del proyecto, adquirí un conocimiento profundo en el procesamiento de imágenes y visión por computadora, utilizando herramientas y técnicas avanzadas. Aprendí a implementar y ajustar diversos filtros y técnicas de procesamiento de imágenes. La experiencia de trabajar con Raspberry Pi 3, Python y OpenCV fue altamente enriquecedora. La Raspberry Pi demostró ser una plataforma versátil y económica para el desarrollo de proyectos de visión por computadora, y la combinación de Python con OpenCV facilitó el diseño y la implementación de algoritmos complejos.  De cara al futuro, espero aplicar y expandir el conocimiento adquirido en este proyecto en aplicaciones más avanzadas de visión por computadora y robótica. Mi objetivo es explorar nuevas técnicas de procesamiento de imágenes y mejorar la capacidad de los sistemas autónomos para interactuar con entornos complejos.  
Peñaloza Lopez Laura Sofia, Universidad del Valle
Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz

EXPERIENCIA EN REALIDAD VIRTUAL PARA REPRESENTAR LA HISTORIA DE UNA MUJER RECONOCIDA EN STEAM


EXPERIENCIA EN REALIDAD VIRTUAL PARA REPRESENTAR LA HISTORIA DE UNA MUJER RECONOCIDA EN STEAM

Peñaloza Lopez Laura Sofia, Universidad del Valle. Pérez Reyes Omar Alejandro, Universidad Politécnica de Victoria. Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

El proyecto tiene como objetivo crear una experiencia educativa e interactiva en realidad virtual (RV) que represente la historia de Ada Lovelace, una figura icónica en el campo de STEAM (Ciencia, Tecnología, Ingeniería, Artes y Matemáticas). Utilizando las gafas Meta Quest 2 y la plataforma Unity 3D, se diseñará un "escape room" con dos escenarios distintos que permitirán a los usuarios explorar y aprender sobre los logros y contribuciones de Ada Lovelace en un entorno inmersivo. Esta iniciativa se alinea con el Objetivo de Desarrollo Sostenible (ODS) 4 de las Naciones Unidas, que busca garantizar una educación de calidad inclusiva y equitativa.



METODOLOGÍA

Semana 1: Capacitación y Comprensión de Unity 3D. Se realizaron los tutoriales "Roll-a-ball" y "Create with VR" proporcionados por Unity para afianzar los conocimientos en el desarrollo de aplicaciones en esta plataforma. Los tutoriales cubrieron conceptos esenciales como colliders, colisiones, movimiento de objetos y animaciones de personajes. Semana 2: Capacitación en Realidad Virtual y Recopilación de Materiales. Se recibió capacitación específica para integrar Unity con las gafas Meta Quest 2. Además, se recopilaron materiales ya existentes en el proyecto y se recabó información destacada sobre Ada Lovelace para su inclusión en la narrativa de la aplicación. Semana 3: Análisis y Mejora del Prototipo. Se analizó la aplicación previamente creada, identificando áreas de mejora tanto en el ambiente como en la narrativa histórica. Se definieron aspectos específicos a modificar para mejorar la experiencia educativa e interactiva de la aplicación. Semana 4: Implementación de Mejoras. Se implementaron las mejoras identificadas en la aplicación de realidad virtual, enfocándose en optimizar el entorno y la narrativa sobre Ada Lovelace. Semana 5: Retroalimentación y Ajustes. Se recibió retroalimentación del investigador y se realizaron los ajustes necesarios en la aplicación para refinar su funcionalidad y contenido. Semana 6: Pruebas del Prototipo. Se realizaron pruebas exhaustivas del prototipo de la aplicación, probándola en diferentes escenarios y con diversos usuarios para identificar y corregir posibles fallos. Semana 7: Presentación y Resumen Final. Se presentó el prototipo final de la aplicación y se elaboró un informe sobre el proceso y los resultados del proyecto.


CONCLUSIONES

El proyecto ha proporcionado una herramienta educativa que combina tecnología con contenido histórico. A través de un "escape room" con dos escenarios distintos, los usuarios pueden interactuar con la historia de Ada Lovelace de una manera inmersiva, fomentando el interés por las disciplinas STEAM y destacando la importancia de una educación de calidad. 
Peñalver Navas David Arturo, Universidad de la Guajira
Asesor: Dr. Juan David Ospina Correa, Corporación Universitaria Remington

UNA APROXIMACIÓN ESTOCÁSTICA PARA ESTABLECER BENEFICIOS AMBIENTALES Y ECONÓMICOS DE UNA ECONOMÍA CIRCULAR PARA LOS RESIDUOS DE CONSTRUCCIÓN Y DEMOLICIÓN


UNA APROXIMACIÓN ESTOCÁSTICA PARA ESTABLECER BENEFICIOS AMBIENTALES Y ECONÓMICOS DE UNA ECONOMÍA CIRCULAR PARA LOS RESIDUOS DE CONSTRUCCIÓN Y DEMOLICIÓN

Peñalver Navas David Arturo, Universidad de la Guajira. Ponce Aguilar Edgar, Tecnológico de Estudios Superiores de Valle de Bravo. Zarza Reyes Kewin, Universidad Tecnológica de Zinacantepec. Asesor: Dr. Juan David Ospina Correa, Corporación Universitaria Remington



PLANTEAMIENTO DEL PROBLEMA

La industria de la construcción produce grandes cantidades de residuos sólidos, lo que exige mejorar su gestión para optimizar la recuperación y reutilización de materiales. Para abordar este desafío, proponemos un modelo de gestión estratégica que combina estadística Bayesianos (a través de árboles de decisión) y solución numérica mediante un método de muestreo Monte Carlo. El método de Monte Carlo permite simular distintos escenarios y determinar el nivel de incertidumbre asociada al proceso, mientras que los modelos Bayesianos mejoran la toma de decisiones bajo riesgo. Esta combinación facilita la transición de los esquemas de recuperación de residuos sólidos hacia una economía circular, la optimización en la predicción de costos, reduciendo el riesgo de sobreestimación, alineándose con los Objetivos de Desarrollo Sostenible (ODS).



METODOLOGÍA

En este estudio, presentamos un enfoque Estocástico Multidimensional mediante la minimización dinámica de riesgos en cadenas de suministro bayesianas para evaluar los beneficios ambientales y económicos de una economía circular en el manejo de Residuos de Construcción y Demolición (RCD). Este enfoque permite una toma de decisiones informada basada en la relevancia de los principios fundamentales de reducir, reutilizar y reciclar. El marco metodológico propuesto facilita la transición hacia una economía circular al permitir la toma de decisiones bajo condiciones de riesgo e incertidumbre. Se destacan las ventajas específicas de este enfoque sobre otras metodologías existentes, lo que facilita su adopción en la industria de la construcción. El éxito de este enfoque se basa en la sustitución de modelos de estimación deterministas por cadenas de Márkov adecuadamente parametrizadas en el espacio de estados. Esta nueva aproximación no sólo mejora la precisión de las estimaciones, sino que también permite el establecimiento de indicadores clave para la detección de anomalías, la ingeniería de procesos, la estimación de costos y la validación logística. La metodología es aplicable a cualquier tipo de edificación, independientemente de su ubicación geográfica.


CONCLUSIONES

Las mejoras alcanzadas se deben principalmente a la sustitución de modelos de estimación deterministas por cadenas de Márkov, que han sido cuidadosamente parametrizadas en el espacio de estados. Esta nueva aproximación permite establecer indicadores precisos para la detección de anomalías, la ingeniería de procesos, la estimación de costos y la validación logística, aplicables a cualquier tipo de edificación en cualquier ubicación geográfica. Los resultados obtenidos se alinean con los Objetivos de Desarrollo del Milenio (ODM), ampliando el enfoque tradicional hacia un paradigma de desarrollo sustentable. Esta evolución no solo se enfoca en el consumo humano, sino que también considera el desarrollo sustentable, integrando tres elementos fundamentales para el bienestar de las personas y las sociedades: crecimiento económico (ODS-9), inclusión social (ODS-11) y protección del medio ambiente (ODS-12). Se estima que el mercado global de Residuos de Construcción y Demolición (RCD) alcanzará un valor de 37.100 millones de dólares para el año 2025. Este mercado incluye materiales diversos como hormigón, ladrillos, piedras, metal y vidrio. La simulación realizada mediante nuestro modelo estocástico respalda estas proyecciones y confirma el potencial de optimización en la gestión de RCDs
Pereyra Cruz David, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Mg. Jasmin del Carmen Herrera de la Barrera, Fundación Universitaria Tecnológico Comfenalco

APLICACIONES Y TENDENCIAS EN HERRAMIENTAS DE MEJORAMIENTO CONTINUO CON VISUALIZACIóN DE DATOS: UNA REVISIóN SISTEMáTICA


APLICACIONES Y TENDENCIAS EN HERRAMIENTAS DE MEJORAMIENTO CONTINUO CON VISUALIZACIóN DE DATOS: UNA REVISIóN SISTEMáTICA

González Becerril Daniel, Tecnológico de Estudios Superiores de Jocotitlán. Pereyra Cruz David, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mg. Jasmin del Carmen Herrera de la Barrera, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

Antecedentes: En la era de la información, las empresas generan enormes cantidades de datos, derivados de sus procesos operativos y atención al cliente. Sin embargo, a pesar de contar la información valiosa, muchas organizaciones enfrentan un desafío significativo: la desarticulación en el uso de herramientas de visualización de datos. Lo que se traduce en una capacidad para gestionar y administrar adecuadamente la información disponible, lo que puede limitar su potencial para análisis, la mejora continua y toma de decisiones estratégicas. Problema: Desarticulación que tiene las empresas en el uso de herramientas de visualización, que las empresas tienen muchos datos originados de sus procesos pero que no utilizan técnicas para gestionar y administrar los datos de tal manera que, de una forma sencilla, practica y visual los puedan utilizar para analizar, mejorar y tomar decisiones. Consecuencias: Decisiones basadas en intuiciones: sin un análisis adecuado de los daos las decisiones se basan en suposiciones o experiencias pasadas, Ineficiencia Operativa: la falta de visibilidad del proceso puede resultar en ineficiencias, y costos innecesarios afectando la rentabilidad. Oportunidades de perdida: Al no poder identificar tendencias y patrones en los datos se puede llegar a la perdida de oportunidades de negocios. Desmotivación: apoyo ineficiente para las herramientas de visualización, explicación o capacitaciones inadecuadas al personal. Preguntas de investigación: ¿Qué países publican más artículos? ¿En qué año se mostró más interés por el tema? ¿Como se aplica la toma de decisiones? ¿Qué herramientas de visualización son más utilizadas? ¿Qué sectores se involucran más en el tema?



METODOLOGÍA

En el marco de la presente investigación, se llevó a cabo una exhaustiva búsqueda en dos bases de datos científicas reconocidas las cuales fueron, Pubmed y Google Schoolar, con objetivo de encontrar artículos confiables, que puedan proporcionar información confiable sobre las aplicaciones y tendencias en herramientas de mejora continua con visualización de datos. Las fechas que se utilizaron para poder recabar los artículos fueron del 2014 al 2024, el idioma por el que optamos fue el Ingles ya que tiene mayor posibilidad Para garantizar la precisión en la recolección de información se seleccionaron palabras clave específicas, las cuales se detallan a continuación: Continuous improvement AND data visualization, Continuous improvement tools y Six Sigma AND Business Intelligence, la cual arrojo un total de 276 documentos afines al tema de interés, de los cuales se eligieron solo los que mencionan las herramientas que utilizan y Se analizará el interés creciente ya que es una técnica que está en tendencia, ¿Cómo se enfoca en la optimización de procesos? ¿Cómo se aplica la toma de decisiones? ¿Cómo se aplican técnicas y metodologías innovadoras?


CONCLUSIONES

Las herramientas de visualización de datos, como gráficos de barras, gráficos de líneas, diagramas de dispersión, mapas de calor y dashboards interactivos, son componentes fundamentales para una gestión eficiente y efectiva en cualquier organización. Para los estudiantes y profesionales, el dominio de estas herramientas es esencial para sobresalir en un entorno cada vez más orientado a los datos. La incorporación de herramientas de visualización de datos logra un significativo ahorro de tiempo, una mayor eficiencia en la gestión de datos y una mejora en la comunicación de la empresa. Además, un fácil acceso a la información para los miembros de la organización, fomentando una cultura de transparencia, y colaboración donde todos los miembros de la empresa pueden contribuir a la toma de decisiones a así lograr objetivos comunes. Además Facilita la comprensión de datos complejos mediante representaciones gráficas, permitiendo a los estudiantes y profesionales captar rápidamente patrones, tendencias y anomalías, simplificando la comunicación de información, ya que una imagen bien diseñada puede ser más efectiva que tablas de datos extensas.
Pérez Campos Ariadna, Universidad Autónoma de Tamaulipas
Asesor: Dra. Fatima Yedith Camacho Sánchez, Universidad Autónoma de Tamaulipas

PRINCIPALES MICROORGANISMOS QUE INFLUYEN EN LA CORROSIóN DE DUCTOS INDUSTRIALES


PRINCIPALES MICROORGANISMOS QUE INFLUYEN EN LA CORROSIóN DE DUCTOS INDUSTRIALES

Pérez Campos Ariadna, Universidad Autónoma de Tamaulipas. Asesor: Dra. Fatima Yedith Camacho Sánchez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Actualmente los microorganismos juegan un papel importante en la corrosión de ductos industriales, ya que representa un desafío significativo para la integridad de la infraestructura. El objetivo de este estudio es identificar y estudiar los principales microorganismos que están presentes en ductos industriales, así como también describir aspectos evolutivos de estos microorganismos, los cuales cada vez son más difíciles de controlar y, por lo tanto, representan un riesgo para las diferentes industrias.  



METODOLOGÍA

A partir de una revisión bibliográfica de estudios enfocados en la identificación de microorganismos en ductos industriales, esta revisión se llevó a cabo en las principales bases de datos como GenBank y BoldSystems, posteriormente se creó en una base de datos en el programa de Microsoft Excel, con las especies identificadas en reportes científicos y al mismo tiempo reportadas en las bases de datos. Paralelamente, se realizó una descarga de secuencias del gen COI de estos microorganismos, estas almacenaron en formato FASTA, después fueron alineadas mediante el software MEGA11, el alineamiento resultante se utilizó en el servidor web de IQTree, para crear un filograma. Finalmente, para visualizar y editar el filograma se utilizó el programa Figtree y posteriormente se almacenó en formato JPEG.


CONCLUSIONES

Se descargaron y analizaron 8 secuencias del gen COI de bacterias del género Desulfovibrio y se obtuvo un tamaño de alineamiento de 541 pb, el filograma se determinó mediante el modelo TPM3u+F+G4, separando que claramente las especies del género en estudio y, que la bacteria del género magneticus presenta una mayor evolución en comparación del resto de los géneros analizados la presencia de estas ha sido reportada en ductos de industrias del aceite, petróleo, gas y agua. El análisis de las secuencias del gen COI de bacterias del género Desulfovibrio, así como la identificación de D. vulgaris como la especie predominante en ductos de industrias de aceite, petróleo, gas y agua. La presencia de estas bacterias en ductos es preocupante debido a su capacidad para contribuir a la corrosión, un fenómeno que puede comprometer la integridad y seguridad de las infraestructuras. Las Desulfovibrio son conocidas por su metabolismo sulfuroso, que puede generar condiciones corrosivas en ambientes anaerobios, lo que se traduce en un riesgo significativo para la longevidad de los ductos. Este estudio preliminar abre la puerta a nuevas investigaciones sobre la necesidad de identificar a los microorganismos, para implementar métodos de mitigación y control de la corrosión, enfatizando la necesidad de implementar estrategias adecuadas para monitorear y manejar la presencia de estas bacterias en entornos industriales. La comprensión de estos microorganismos y su interacción con materiales de construcción es vital para el desarrollo de tecnologías y prácticas que aseguren la funcionalidad y seguridad de las infraestructuras críticas.
Perez Cervantes Alicia Esther, Fundación Universitaria Tecnológico Comfenalco
Asesor: Mtra. Edna Gabriela Ceja Silva, Instituto Tecnológico Superior de Los Reyes

FACTORES DE INFLUENCIA EN LA TECNOLOGÍA 5.0 DE LA AUTOMATIZACIÓN EN LA OPERACIÓN EN LOS CENTROS DE DISTRIBUCIÓN.


FACTORES DE INFLUENCIA EN LA TECNOLOGÍA 5.0 DE LA AUTOMATIZACIÓN EN LA OPERACIÓN EN LOS CENTROS DE DISTRIBUCIÓN.

Cardenas Torres Alexis Ivan, Instituto Tecnológico de Jiquilpan. Flores Cervantes Joceline Inés, Instituto Tecnológico Superior de Los Reyes. Perez Cervantes Alicia Esther, Fundación Universitaria Tecnológico Comfenalco. Asesor: Mtra. Edna Gabriela Ceja Silva, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

Un centro de distribución es una instalación, edificio o construcción de tipo logístico cuya función principal es la de almacenar, recibir y enviar diferentes mercancías. Es un espacio que cumple el papel de intermediario dentro de toda la cadena de suministro, puesto que puede almacenar los paquetes en el momento en el que entran hasta que son expedidos hacia el lugar de destino, bien sea a otro almacén, mayoristas, minoristas, fábricas o destinatarios particulares. Estos centros pueden contar con uno o con varios almacenes en función de los productos que estén destinados a guardar temporalmente y sus necesidades. Los cambios sociales y económicos globales seguirán teniendo un impacto significativo en la industria. La implementación de la tecnología en el centro de distribución conducirá a cambios, desde la realineación de los empleados hasta la gestión, el análisis, la seguridad y el procesamiento de datos. La importancia de la industria 4.0 en los centros de distribución reside en la transformación de los procesos para una cuestión digital, esto conlleva a una necesidad de mantenerse relevantes y con valor entre la competencia. Lo que ofrece exactamente la industria inteligente a los procesos y productos de logística es que reúne un grupo de tecnologías como la ciberseguridad, cloud computing (Computación en la nube), internet de las cosas (IoT), realidad aumentada, gemelos digitales, impresión 3D y otras. En general, la Industria 4.0 y la digitalización conducirán a procesos de producción más flexibles y eficientes. Esto permitirá producir simultáneamente productos personalizados y en masa, generando innovación y contribuyendo a mejorar la competitividad de la industria. La industria 5.0 pretende potenciar la transformación del sector industrial en espacios inteligentes basados en Internet of Things y en computación cognitiva. Se trata de poner la inteligencia artificial al servicio de las personas, uniendo a máquinas y humanos. Considerando las características que traerá consigo la industria 4.0 y la potencialización de los espacios que trae la industria 5.0 se pretende buscar cuales son los factores influencia de ambas industrias en la automatización de operaciones de los centros de distribución.  



METODOLOGÍA

Para esta investigación se implica la búsqueda, recopilación, evaluación y síntesis de información existente sobre el tema de industria 4.0, industria 5.0 y centros de distribución. Se aplica la metodología de revisión de literatura siguiendo un proceso sistemático y estructurado de información existente. Se siguen los siguientes pasos: Definición del tema y objetivos. Se determina qué se espera lograr con la revisión de literatura, así como identificar los objetivos más importantes. Búsqueda de fuentes: Para esta investigación se utilizaron bases de datos académicas, bibliotecas, motores de búsqueda y revistas especializadas, los tópicos y temas de investigación se repartieron por semanas con cada uno de los colaboradores. Selección de fuentes: Se evalúa la relevancia y la calidad de las fuentes encontradas, se procede a seleccionar aquellas que sean más pertinentes y confiables. Análisis crítico: Se lee y se analiza críticamente las fuentes seleccionadas, identificando los puntos clave, teorías, métodos y pensamientos que tengan que ver con la industria 4.0 y 5.0. Organización de la información: Se clasifica y organiza la información recopilada de manera lógica y coherente para cada uno de los participantes y su colaboración en los factores clave de esta investigación. Síntesis y redacción: Se sintetiza la información y se escribe la revisión, destacando las principales contribuciones, se realizan debates y orientaciones en la literatura existente. Este proceso nos ayudó a situar la investigación en el contexto del conocimiento existente y a identificar áreas que requieren más estudio.


CONCLUSIONES

La Industria 5.0 es un nuevo modelo de producción en el que el foco está puesto en la interacción entre humanos y máquinas. Esto constituye la construcción de avances realizados desde la Primera Revolución Industrial, los cuales han resultado en procesos más eficientes. La búsqueda por modelos de negocio que utilizan menos recursos para lograr mejores beneficios ha visto su mayor perfeccionamiento hasta la fábrica 5.0, debido a que el trabajo de mano de obra y máquina colabora para tomar decisiones que resultan en mejores términos económicos para una empresa. Con este análisis en la estancia de verano se logró validar todos los factores de influencia relacionados con la industria 5.0 en la automatización de operaciones en los centros de distribución para conocer algunos antecedentes e influencias sobre el tema y además adquirir conocimientos teóricos, ya que consideramos algunos trabajos ya realizados en este campo y que tienen que ver con los que tienen una estructura definida, y otros muy poco investigados. Al encontrar los factores de influencia encontramos los beneficios que brinda la industria 4.0 y la 5.0 en los centros de distribución y que las acciones de automatización tienen que ver directamente con los beneficios como lo son: • Creación de nuevos modelos económicos. • Integración de operaciones en tiempo real. • Reducción de costos • Ahorro de energía • Sostenibilidad. • Reducción de errores • Aumento de la productividad • Mejora de la eficiencia  
Pérez Cortez Antony Cristopher, Instituto Tecnológico de Querétaro
Asesor: Dr. Esteban Elias Giraldo Salazar, Universidad del Valle

IMPLEMENTAR UN SISTEMA DE REFRIGERACIóN DE CALOR EN COMPUTADORES PORTáTILES MEDIANTE VENTILADOR, UTILIZANDO TARJETAS FPGA CON HERRAMIENTA DE INTELIGENCIA ARTIFICIAL


IMPLEMENTAR UN SISTEMA DE REFRIGERACIóN DE CALOR EN COMPUTADORES PORTáTILES MEDIANTE VENTILADOR, UTILIZANDO TARJETAS FPGA CON HERRAMIENTA DE INTELIGENCIA ARTIFICIAL

Pérez Cortez Antony Cristopher, Instituto Tecnológico de Querétaro. Silva Arvizu Héctor Iván, Instituto Tecnológico de Querétaro. Asesor: Dr. Esteban Elias Giraldo Salazar, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

Actualmente, el uso de computadoras portátiles tiene gran relevancia a nivel mundial. El avance tecnológico ha generado procesadores de alta potencia que, al ser demandados intensamente, “generan una mayor densidad de calor y requieren una mayor disipación del calor, lo que hace que la temperatura de la CPU aumente y provoque una vida útil más corta, un mal funcionamiento y una falla de la CPU [3]”. Aunque los portátiles cuentan con sistemas de refrigeración, “la refrigeración pasiva la proporciona el propio disipador y la activa utiliza un ventilador montado directamente en el disipador para la refrigeración por aire forzado [1]”. A menudo estos sistemas de refrigeración no son lo suficientemente eficaces para mitigar el calor generado al usar los computadores de manera ordinaria dependiendo las necesidades del usuario. Como antecedente en 2009 se logró diseñar un ventilador de bajo consumo para mejorar la eficiencia energética durante la refrigeración, esto con el “uso de un microcontrolador integrado con un sensor de temperatura en chip, un convertidor analógico a digital, un módulo PWM, un transmisor receptor asíncrono universal y un puerto de salida LED integrado en un chip de 8 pines para controlar el ventilador [2]”. En la actualidad se conoce la existencia de pocos proyectos que incorporen técnicas para analizar y optimizar los datos de temperatura de un portátil con el fin de predecir y evitar el sobrecalentamiento, basándose en patrones de uso. A través del procesamiento de estos datos y utilizando inteligencia artificial, se busca prevenir posibles problemas o fallas por exceso de calor. Durante el desarrollo del proyecto, se implementarán técnicas de inteligencia artificial para el análisis y procesamiento de datos, con el objetivo de mejorar la calidad de la refrigeración. El ventilador, controlado mediante la tarjeta FPGA, interpretará la información procesada y ajustará la velocidad en consecuencia, “mediante la  técnica de PWM por sus siglas en inglés Pulse Width Modulation (modulación por ancho de pulso) [4]”. Esta técnica se basa en “la variación del valor promedio de una señal al variar el ciclo de trabajo del pulso [5]". Este enfoque no solo optimiza los sistemas de refrigeración de las computadoras, sino que también mejora el rendimiento general, ya que el sobrecalentamiento puede causar daños a corto o largo plazo. La integración de estas tecnologías promete aumentar la eficiencia y la longevidad de los dispositivos, beneficiando a los usuarios con un funcionamiento más confiable y seguro.  



METODOLOGÍA

Se comenzó con una investigación documental hemerográfica para conocer el estado del arte mediante artículos y ensayos en revistas científicas. La investigación experimental permitió evaluar y comparar la eficiencia del sistema creado con el del fabricante. Esta investigación aplicada incluyó el estudio de FPGA, inteligencia artificial (Lógica Difusa) y varios softwares. En la primera semana, se realizaron intercambios culturales y se estableció un vínculo con el personal de la institución. Se discutió la problemática, la solución propuesta y el plan de trabajo. También se impartieron sesiones teórico-prácticas sobre PLC, tarjetas FPGA y sensores, y se introdujeron conceptos de Inteligencia Artificial. Se realizó una revisión bibliográfica y documental, utilizando palabras clave para filtrar la información relevante. Se resumieron referencias para tener antecedentes del proyecto. En la parte técnica, se tomaron clases de FPGA, abordando temas de electrónica digital y programación en Quartus. Se desarrollaron programas básicos y circuitos secuenciales, esenciales para el proyecto. Se investigó sobre el Control por Modulación de Pulso (PWM) utilizando tarjetas FPGA. Se creó un prototipo para controlar un ventilador, modulando su velocidad según el ciclo de trabajo. El prototipo se ajustó para cambiar la velocidad con solo pulsar un botón. Se utilizó un ventilador NMB 2410ML-09W-B10, un transistor 2N3904 NPN, el circuito integrado 74LS245 y una fuente de poder de 32V. Para obtener y enviar datos de temperatura al programa MATLAB, se enfrentaron retrasos. Con el apoyo de profesores, se exploraron soluciones hasta encontrar un software que visualizaba los datos y poseía un servidor web. Se logró visualizar esta información en MATLAB y se creó una gráfica para monitorear la temperatura en tiempo real. La siguiente etapa se centró en la lógica difusa, estableciendo parámetros para entrenar la red y controlar el ventilador. La IA analizaba la temperatura y, basándose en reglas de inferencia, enviaba la variable de salida a la tarjeta FPGA para controlar el ventilador. Finalmente, se realizaron pruebas para entrenar la red, recopilar y analizar datos, y crear gráficas comparativas entre el sistema de fábrica y el desarrollado durante la estancia. Con el análisis de los gráficos, se llegaron a las conclusiones correspondientes.      


CONCLUSIONES

14Durante la estancia de investigación, se adquirió un aprendizaje técnico significativo en el uso de tarjetas FPGA y el manejo de diversos softwares, como Quartus, MATLAB y LOGISIM. Estos conocimientos  fueron esenciales para la aplicaron e implementaron en el proyecto.A lo largo del proceso, se enfrentaron diversos contratiempos y retrasos, particularmente en la etapa de obtención y procesamiento de datos de temperatura del dispositivo. Sin embargo, estos desafíos fueron superados, permitiendo avanzar hacia la etapa de integración de la lógica difusa para el ingreso de datos y procesamiento de la información, con el objetivo de controlar la velocidad del ventilador. Se espera que la implementación de este sistema ofrezca resultados favorables, mejorando significativamente el comportamiento térmico del dispositivo en comparación con el sistema de fábrica. La propuesta de investigación y los avances alcanzados representan un avance significativo en este ámbito, con el potencial de influir positivamente en el diseño y desarrollo de futuros sistemas de refrigeración para dispositivos electrónicos. 
Pérez Cruz David Leobardo, Universidad Autónoma de Yucatán
Asesor: Mtro. César Primero Huerta, Tecnológico de Estudios Superiores de Valle de Bravo

APLICACIóN WEB PARA EL PRE PROCESAMIENTO DE DATOS ESTRUCTURADOS


APLICACIóN WEB PARA EL PRE PROCESAMIENTO DE DATOS ESTRUCTURADOS

Pérez Cruz David Leobardo, Universidad Autónoma de Yucatán. Asesor: Mtro. César Primero Huerta, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

La violencia contra las mujeres es actualmente uno de los problemas más grandes de la sociedad y uno de los que más atención requiere en México. Mejorar esta situación representa un gran desafío, ya que el país enfrenta una alta incidencia de distintos tipos de abuso, tales como el físico, sexual, psicológico, económico, entre otros, siendo los casos más graves aquellos que terminan en feminicidios. Por ello, es necesario realizar grandes esfuerzos para abordar el problema, dar seguimiento a los casos y preparar los servicios de salud pública para su tratamiento. Según la Organización Mundial de la Salud, el 30% de las mujeres ha sido víctima de abuso por parte de otra persona en algún momento de su vida, siendo una parte significativa de estos actos violentos cometidos por su pareja o expareja (Organización Mundial de la Salud, 2021). El uso de tecnologías emergentes, como el Machine Learning, ofrece una oportunidad para reducir y tratar los casos de violencia contra las mujeres. Por ello, durante el verano de investigación se aplicaron estos conocimientos para la prevención y detección de posibles casos y agravamientos de la violencia de género.



METODOLOGÍA

El proyecto llamado Mujer Segura comenzó hace algunos años con el propósito de brindar un espacio digital a las mujeres que se sienten vulneradas y/o sufren o han sufrido abuso para que puedan hacer saber su situación a través del levantamiento de un reporte. Como parte del programa de investigación se realizaron cambios e implementaciones en partes específicas de la plataforma con el objetivo de mejorar la interacción de los usuarios, brindándoles una mayor confianza y accesibilidad en la navegación, estas implementaciones se llevaron a cabo con el framework con el cual se inició el proyecto: Laravel, además de usar los lenguajes HTML y CSS para la modificación de la estructura y estética del sitio respectivamente. Primeramente, fue necesario un contexto sobre lo que es Mujer Segura, su propósito, y todo lo que involucra en cuestión de lógica de negocio. Para esto, fue necesario una explicación de los asesores, posterior a ello, fue necesario el entendimiento de la parte técnica del sistema, aquí entran aspectos como la arquitectura del proyecto, su estructura y organización de archivos, las herramientas/tecnologías, las dependencias necesarias para poder trabajar con el proyecto, así como la base de datos y su configuración. Posterior a la introducción al proyecto y ya entendiendo cómo funciona, se procedió a la parte de implementación de nuevas características del sistema, entre ellas un mapa interactivo de la república mexicana en donde se muestran las incidencias de violencia de género reportadas, estas incidencias se obtienen de la base de datos que ha sido creada desde el inicio del proyecto, la cual se alimenta de datos introducidos mediante formularios dentro del sitio, por lo que la tarea fue entender cómo se estructura dicha base de datos y cómo está normalizada, así como entender la forma de recopilar los datos a través de los formularios del sitio. Para la implementación del mapa de incidencias, fue necesario investigar qué herramientas facilitarían el trabajo, ya que hallar la herramienta adecuada resulta crucial para entregar un sistema que cumpla con atributos de calidad como la fiabilidad. Se escogió Highcharts para realizar la implementación, por lo que el siguiente paso fue elaborar una consulta compleja para obtener los datos necesarios para mostrar en el mapa dinámico. Además de realizar las mejoras e implementaciones en la página web, se realizó una labor investigativa para ofrecer nuevas perspectivas en el campo de la prevención de la violencia de género. Esta labor consistió en la redacción de un artículo titulado "Machine Learning y Análisis del Lenguaje: Una Nueva Frontera en la Prevención de la Violencia Contra las Mujeres". El título y propósito de este artículo se basó en una amplia revisión de la literatura en artículos sobre el uso de inteligencia artificial (IA) y Machine Learning en la prevención de la violencia, los cuales se buscaron en bases de datos como ScienceDirect y la IEEE a través de estrategias como ecuaciones de búsqueda. La revisión de la literatura incluyó la identificación de varias metodologías y enfoques que habían sido probados, y se evaluaron sus resultados y limitaciones. Posteriormente se recopilaron distintos conjuntos de datos que contenían información relevante sobre incidentes de violencia, tales como características demográficas y otros factores de riesgo que pudieran servir para realizar los experimentos, estos datos se utilizaron para entrenar y evaluar varios modelos matemáticos y algoritmos de Machine Learning. Cada modelo matemático fue evaluado a través de su precisión para identificar patrones y factores de riesgo asociados con la violencia de género.


CONCLUSIONES

La participación en el programa Delfín me permitió fortalecer la comunicación efectiva en el trabajo colaborativo, me permitió adquirir experiencia en la redacción de artículos científicos y me dio la oportunidad de mejorar mis habilidades técnicas a través de la aplicación de conocimientos técnicos en lenguajes de programación y el aprendizaje teórico de Machine Learning para realizar experimentos. Sin embargo, dado que el análisis de patrones aún está en desarrollo, no se tienen resultados definitivos por el momento. No obstante, se espera que los modelos faciliten la detección temprana de señales de violencia, para que puedan mejorar las estrategias de intervención y dar un apoyo más efectivo y personalizado a las víctimas de violencia.
Pérez Cuba Jesús Francisco, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Gustavo Andres Ospina Idarraga, Universidad Pontificia Bolivariana

METODOLOGíAS DE ENSEñANZA INTERACTIVAS PARA EL ANáLISIS ESTRUCTURAL: UN ESTUDIO SOBRE HERRAMIENTAS EDUCATIVAS PARA EL ESTUDIO DE CERCHAS.


METODOLOGíAS DE ENSEñANZA INTERACTIVAS PARA EL ANáLISIS ESTRUCTURAL: UN ESTUDIO SOBRE HERRAMIENTAS EDUCATIVAS PARA EL ESTUDIO DE CERCHAS.

Pérez Cuba Jesús Francisco, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Gustavo Andres Ospina Idarraga, Universidad Pontificia Bolivariana



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de una aplicación de ingeniería estructural enfocada en el diseño de cerchas aborda los desafíos educativos en este campo. Los estudiantes de ingeniería estructural a menudo tienen dificultades para aplicar conceptos teóricos a problemas prácticos, resultando en una alta tasa de reprobación en cursos avanzados. Esta aplicación proporcionará herramientas interactivas para modelar y analizar cerchas, integrando módulos educativos que desglosen conceptos clave y ofrezcan retroalimentación instantánea. Al permitir una práctica más efectiva y corrección automática de errores, se busca mejorar la comprensión y aplicación práctica de los principios estructurales, reduciendo la tasa de fracaso académico. Además, la aplicación innovará en los métodos de enseñanza al incorporar tecnologías modernas como simulaciones interactivas y análisis automatizados, adaptando el aprendizaje a diferentes estilos y mejorando las habilidades blandas. La accesibilidad desde cualquier lugar permitirá a los estudiantes aprender a su propio ritmo, preparándolos mejor para la práctica profesional y promoviendo un enfoque más efectivo en la formación de futuros ingenieros estructurales.



METODOLOGÍA

Desarrollo del Toolbox en MATLAB Se definirá primero los requisitos específicos del toolbox, identificando problemas comunes en el diseño de cerchas como el cálculo de cargas y la estabilidad estructural. Se establecerán requisitos funcionales y no funcionales para garantizar precisión y facilidad de uso. Utilizando MATLAB, se desarrollarán módulos especializados y se integrarán en un toolbox cohesivo con una interfaz de usuario básica utilizando GUIDE o App Designer. Pruebas y Validación en MATLAB El toolbox será probado en diversos escenarios para evaluar su rendimiento y precisión, comparando los resultados con ejemplos teóricos y casos de estudio existentes. Se identificarán y corregirán errores, y se optimizará el toolbox para mejorar su eficiencia, asegurando que cumpla con los requisitos establecidos. Migración a Python y Selección de Herramientas Tras validar el toolbox en MATLAB, se migrará a Python para aprovechar su accesibilidad y flexibilidad. Se evaluarán bibliotecas como NumPy, SciPy y Matplotlib, y se elegirán herramientas para el desarrollo de interfaces gráficas, como Tkinter o PyQt. Adaptaremos los módulos del toolbox a Python, asegurando precisión en las funcionalidades replicadas. Desarrollo del Toolbox en Python Se desarrollará el toolbox en Python utilizando las bibliotecas y frameworks seleccionados, creando una interfaz de usuario dinámica para mejorar la experiencia. Durante el proceso, se realizarán pruebas continuas para verificar el correcto funcionamiento y replicación de funcionalidades. Pruebas y Validación en Python Se llevarán a cabo pruebas exhaustivas con ejercicios similares a los de MATLAB para verificar la consistencia y precisión de los resultados. Se compararán los resultados entre versiones de MATLAB y Python, ajustando y optimizando el toolbox según sea necesario. Integración con Google Colab El toolbox se integrará en Google Colab para facilitar el acceso y la colaboración en la nube. Se adaptarán los módulos para ser compatibles con esta plataforma, creando notebooks para facilitar la interacción del usuario y permitir características colaborativas como la edición en tiempo real y comentarios. Documentación y Capacitación Se creará documentación detallada y material de capacitación, incluyendo guías de usuario y tutoriales para MATLAB, Python y Google Colab. Se organizarán talleres y seminarios web para demostrar el uso del toolbox y proporcionar formación práctica a los usuarios. Evaluación y Mejora Continua Se establecerá un proceso de evaluación y mejora continua, recolectando retroalimentación de los usuarios para identificar áreas de mejora y nuevas funcionalidades. Las actualizaciones periódicas incorporarán nuevas características, corregirán errores y mantendrán el toolbox alineado con las tendencias emergentes en ingeniería estructural.    


CONCLUSIONES

El desarrollo del toolbox de diseño de cerchas ha avanzado a la etapa de migración a Google Colab y verificación. La aplicación facilita la práctica efectiva y retroalimentación instantánea, contribuyendo a una mejor comprensión y aplicación de los conceptos estructurales. Con una enseñanza más accesible y adaptable, la tasa de reprobación se reduce, y se innovan los métodos educativos mediante tecnologías modernas como el análisis automatizado. La migración a Google Colab mejora la accesibilidad y colaboración, mientras que la documentación y mejora continua siguen en proceso. Este enfoque integral promueve una formación sólida y personalizada, preparando mejor a los estudiantes y adaptándose a las necesidades emergentes en ingeniería estructural.
Pérez Delgado Rosario Nallely, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Esp. Angelica Maria Blanco Correa, Institución Universitaria de Envigado

CONDICIONES DE TRABAJO EN SALAS DE BELLEZA Y SPA DE UÑAS DEL MUNICIPIO DE ENVIGADO, ANTIOQUIA- COLOMBIA (2024)


CONDICIONES DE TRABAJO EN SALAS DE BELLEZA Y SPA DE UÑAS DEL MUNICIPIO DE ENVIGADO, ANTIOQUIA- COLOMBIA (2024)

Cuevas Ayala Bibiana Guadalupe, Instituto Tecnológico de Jiquilpan. González Hernández Erick Axel, Instituto Tecnológico de Morelia. Guijosa Hernández Brenda Estefany, Instituto Tecnológico Superior de Ciudad Hidalgo. Martínez Martínez Cecilia Lizbeth, Instituto Tecnológico Superior de Ciudad Hidalgo. Medina Tello Dulce Maria, Instituto Tecnológico Superior de Ciudad Hidalgo. Medina Tello Regina Vianeey, Instituto Tecnológico Superior de Ciudad Hidalgo. Pérez Delgado Rosario Nallely, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Esp. Angelica Maria Blanco Correa, Institución Universitaria de Envigado



PLANTEAMIENTO DEL PROBLEMA

En las salas de belleza y spa de uñas, los colaboradores se exponen a múltiples factores de riesgo que pueden afectar su salud y bienestar. Estos riesgos incluyen exposición a sustancias químicas, radiaciones no ionizantes, ruido, iluminación inadecuada, condiciones de confort térmico deficientes y factores ergonómicos debido a posturas forzadas y movimientos repetitivos. La falta de medidas preventivas específicas y el desconocimiento sobre los riesgos agravan la situación, aumentando la probabilidad de accidentes de trabajo y enfermedades laborales. Los colaboradores de las peluquerías y spa de uñas en Envigado están expuestos a riesgos ocupacionales y ergonómicos que pueden impactar negativamente su salud, y en la mayoría de los casos, no se implementan acciones preventivas adecuadas.



METODOLOGÍA

Diseño del Estudio El estudio se diseñará como una investigación descriptiva y transversal, evaluando los riesgos de higiene ocupacional y ergonómicos en los trabajadores de salas de belleza y spa de uñas en Envigado. Población y Muestra Población: Trabajadores de salas de belleza y spa de uñas en el municipio de Envigado. Muestra: Se seleccionará una muestra representativa de trabajadores de diferentes salas de belleza y spa de uñas en Envigado, utilizando un muestreo aleatorio estratificado. Instrumentos de Recolección de Datos Encuestas y Cuestionarios: Para caracterizar el perfil sociodemográfico y las condiciones de salud y trabajo de los trabajadores. Mediciones Ambientales: Para evaluar niveles de ruido, iluminación, radiación no ionizante y confort térmico en los lugares de trabajo. Análisis de Sustancias Químicas: Para identificar y medir la concentración de sustancias químicas presentes en el ambiente laboral. Evaluaciones Ergonómicas: Para identificar y analizar posturas forzadas y movimientos repetitivos. Procedimiento Recolección de Datos: Aplicación de encuestas y cuestionarios a los trabajadores. Realización de mediciones ambientales y análisis de sustancias químicas en las salas de belleza y spa de uñas. Evaluaciones ergonómicas en los puestos de trabajo. Análisis de Datos: Análisis descriptivo de los datos sociodemográficos, de salud y condiciones de trabajo. Análisis cuantitativo de los niveles de exposición a riesgos higiénicos y ergonómicos. Relación entre los riesgos evaluados y los efectos en la salud reportados por los trabajadores Elaboración de Recomendaciones: Basadas en los resultados obtenidos, se emitirán recomendaciones para mejorar las condiciones de trabajo y reducir la exposición a los riesgos identificados.


CONCLUSIONES

Perfil Sociodemográfico y Condiciones de Salud: Caracterización detallada del perfil sociodemográfico de los trabajadores y sus condiciones de salud, identificando posibles patrones o tendencias relacionadas con la exposición a riesgos. Evaluación de Riesgos: Identificación de los niveles de exposición a ruido, iluminación, radiación no ionizante, confort térmico y sustancias químicas en las salas de belleza y spa de uñas. Evaluación de los riesgos ergonómicos relacionados con posturas forzadas y movimientos repetitivos. Relación entre Riesgos y Salud: Análisis de la relación entre los riesgos ocupacionales y los efectos en la salud reportados por los trabajadores, proporcionando evidencia sobre el impacto de estos riesgos en su bienestar.
Perez Farelas Omar, Universidad Politécnica de Atlautla
Asesor: Dra. Martha Cecilia Méndez Prada, Corporación Universitaria del Caribe

COMPETITIVIDAD TURíSTICA


COMPETITIVIDAD TURíSTICA

Perez Farelas Omar, Universidad Politécnica de Atlautla. Asesor: Dra. Martha Cecilia Méndez Prada, Corporación Universitaria del Caribe



PLANTEAMIENTO DEL PROBLEMA

El sector turístico es altamente sensible a las fluctuaciones económicas. La pandemia de COVID-19 acentuó esta vulnerabilidad, con una caída drástica en los viajes internacionales y locales, llevando al cierre de organizaciones turísticas y pérdida masiva de empleos. La recuperación ha sido desigual y depende en gran medida de los destinos para adaptarse a nuevas normativas sanitarias y a cambios en la demanda de los turistas, quienes ahora valoran más la seguridad y la sostenibilidad (Vieira Posada, 2021). Por otro lado, se identifican debilidades internas en las agencias de viajes, enfocadas principalmente en la planeación estratégica la gestión de datos clientes, el análisis de la información y tendencias, la atención al cliente, la integración de sistemas de reservas con proveedores y la eficiencia en la gestión de los clientes potenciales, cuyas estrategias más significativas apuntan a abordar debilidades enfatizando la necesidad de fortalecer la planeación estratégica, mejorar la gestión de datos de clientes, optimizar la atención al cliente, integrar sistemas de reservas con proveedores y eficientizar la gestión de interesados. Enfrentar estas debilidades contribuirá a mejorar la competitividad y productividad, también permitirá garantizar la continuidad del negocio y proporcionar mejores experiencias a los turistas. Además, estas acciones proporcionarían mayores oportunidades de crecimiento y sostenibilidad en el mercado turístico dinámico (Bracho, E. J., Villasmil, N. L., y Suárez, J. L., 2024)       



METODOLOGÍA

Para llevar a cabo este estudio cualitativo se llevó a cabo una serie de pasos basado en el enfoque sistemático y recopilación de información que se extrajo de la base de datos SCOPUS, para poder completar un estudio bibliométrico acerca de la competitividad turística. Los pasos que se siguieron fueron los siguientes: Definición del Objeto de Estudio: Identificar el área de investigación y definir los objetivos del análisis. Recolección de Datos: Recopilar datos bibliográficos de la base de datos SCOPUS Depuración de Datos: Seleccionar los artículos que van más relacionados al tema que la base de datos arrojó para comenzar con la lectura de los mismos. Análisis de los Datos: Dentro de la base de datos SCOPUS se pueden analizar los resultados de todos los artículos que muestra la misma base, mediante gráficas de las cuales, se realizó un análisis de cada una. Interpretación de Resultados: Se recopilan los resultados del análisis de los datos para un mayor entendimiento de las gráficas. Se realiza una síntesis de los artículos seleccionados.


CONCLUSIONES

La competitividad turística depende de una gestión estratégica que incluya inversión en infraestructura, mejora de servicios, estrategias de marketing efectivas, políticas públicas adecuadas y prácticas sostenibles. Estos elementos combinados pueden ayudar a los destinos a atraer y satisfacer a los turistas, promover el desarrollo económico y social, y asegurar un futuro sostenible para el turismo. La infraestructura y la accesibilidad son cruciales para atraer visitantes y mejorar su experiencia. Los destinos con una infraestructura bien desarrollada y un buen acceso tienen una ventaja significativa (World Economic Forum, 2019). La calidad de los servicios turísticos—incluyendo alojamiento y gastronomía—es igualmente importante para la satisfacción del turista, ya que los destinos que ofrecen servicios de alta calidad pueden diferenciarse de sus competidores (Dwyer y Kim, 2003). El marketing y la promoción efectivos son necesarios para posicionar un destino en la mente de los turistas potenciales. Estrategias de marketing bien elaboradas pueden aumentar la visibilidad y mejorar la imagen del destino (Ritchie y Crouch, 2003). Además, las políticas públicas y la gestión juegan un papel fundamental en la creación de un entorno favorable para el desarrollo turístico. Los gobiernos deben establecer las condiciones necesarias para fomentar la competitividad (Porter, 1990). La sostenibilidad es esencial para mantener la competitividad a largo plazo. Los destinos que gestionan de manera sostenible sus recursos naturales y culturales pueden conservar su atractivo a lo largo del tiempo (Crouch, 2011). Finalmente, la adaptabilidad y resiliencia de un destino para enfrentar cambios en la demanda y crisis, como la pandemia de COVID-19, son cruciales para su sostenibilidad y competitividad (Organización Mundial del Turismo, 2020).
Pérez Font Logan Eduardo, Instituto Politécnico Nacional
Asesor: Dr. Nun Pitalúa Díaz, Universidad de Sonora

PROPUESTA DE GENERADOR EóLICO PARA SERVICIO DE LA SOCIEDAD MEXICANA


PROPUESTA DE GENERADOR EóLICO PARA SERVICIO DE LA SOCIEDAD MEXICANA

Pérez Font Logan Eduardo, Instituto Politécnico Nacional. Asesor: Dr. Nun Pitalúa Díaz, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Actualmente, se tiene la necesidad de crear conciencia sobre la importancia de las energías renovables para abordar los desafíos ambientales, a la vez que promover la transición hacia fuentes más sostenibles, por el cual, queremos promover conocimiento y conciencia pública sobre tecnologías, fotovoltaica y eólica, para beneficio de la sociedad mexicana. Con esto, esperamos transformar la percepción, direccionar la actitud de la sociedad hacia las tecnologías renovables, aumentar la conciencia y la comprensión. Se pretende fomentar la adopción de prácticas sostenibles en el hogar, en la comunidad y en las instituciones que nos rodean.



METODOLOGÍA

Para la realización de este proyecto, se requiere tener una aplicación de lo que queremos promover en su uso dentro de la comunidad, que en este caso son las energías fotovoltaica y eólica. Se realizará un prototipo de escala suficiente que producirá energía para cargar un teléfono celular o dispositivos de uso cotidiano. Esté constará de un panel solar, una turbina tipo Savonius, una batería para tener almacenaje de energía, un anemómetro y un motor integrado a la turbina. El panel solar, al igual que la turbina, estarán conectados a la batería de almacenamiento para mantener cierta cantidad de energía que produzca, y esta batería estará conectada a un motor colocado junto a la turbina para poder impulsar su arranque en caso de que lo requiera. A la par de todo esto, se tendrán un anemómetro y un panel solar que estarán obteniendo datos útiles para evaluar su efectividad. Todos los datos se estarán guardando en un servidor, y sólo ciertas personas tendrán acceso a ellos dentro de una página web. Mi trabajo será realizar una conexión entre el servidor y la página web que también desarrollaré para que ahí se puedan mostrar los datos.


CONCLUSIONES

Las ventajas de haber usado una turbina Savonius son que no requieren una gran inversion económica para su elaboración, y además pueden llegar a tener mas eficiencia en zonas donde no hay un viento constante y en la misma dirección. Actualmente, ya esta realizada la base del prototipo junto a un sistema de engranaje y la turbina, y ya se cuenta con la página donde se empezará a sincronizar con los servidores de la UNISON (Universidad de Sonora). Se seguirá trabajando para comenzar a recibir datos y enviarlos a la página web.
Perez Hernandez Jesus Adonai, Instituto Politécnico Nacional
Asesor: Dr. Leonid Sheremetov, Instituto Mexicano del Petróleo

APLICACIóN DE TéCNICAS DE APRENDIZAJE AUTOMáTICO PARA LA CARACTERIZACIóN ESTáTICA DE YACIMIENTOS PETROLEROS


APLICACIóN DE TéCNICAS DE APRENDIZAJE AUTOMáTICO PARA LA CARACTERIZACIóN ESTáTICA DE YACIMIENTOS PETROLEROS

Perez Hernandez Jesus Adonai, Instituto Politécnico Nacional. Asesor: Dr. Leonid Sheremetov, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

La caracterización precisa y eficiente de yacimientos petroleros es fundamental para la optimización de la explotación de recursos naturales, ya que, a través de la caracterización, se puede seleccionar de mejor manera los métodos de extracción, estimar la cantidad de recursos en el yacimiento y disminuir el impacto ambiental en la zona. En este sentido, mediante el uso de técnicas de análisis de datos y, posteriormente, de aprendizaje automático, es posible mejorar: la forma en que se estudian y exploran los yacimientos petroleros, la caracterización de los yacimientos a través de la precisión de sus propiedades, como la porosidad, la permeabilidad, la saturación del agua y la litología de la roca, asi como optimizando la extracción de petróleo, reduciendo costes operativos e impacto ambiental. Dentro de La Agenda 2030 para el Desarrollo Sostenible aprobada en el 2015, se establecen 17 objetivos con el fin de erradicar la pobreza, proteger el planeta y asegurar la prosperidad para todas las personas. El presente proyecto se alinea estrechamente con varios de estos objetivos, por ejemplo, al maximizar la extracción de petróleo, minimizar el impacto ambiental y el desperdicio del recurso natural, el proyecto apoya el desarrollo de infraestructura sostenible e innovadora, una producción más responsable y la reducción de las emisiones de gases de efecto invernadero asociados a esta actividad, contribuyendo al ODS 9, ODS 12 y ODS 13.  Objetivo: Aplicar técnicas avanzadas de agrupación (K-means) para la caracterización estática de yacimientos petroleros y su visualización gráfica. Asimismo, construir dos clasificadores utilizando una red neuronal perceptrón multicapa (MLP) en Python a partir de un conjunto de mediciones de registros para la clasificación de litofacies con las variables de registros geofísicos de posos, originales e interpretados.



METODOLOGÍA

  Clustering El análisis se realizó con un conjunto de datos (Dataset) en excel, que incluyen varias características/columnas, sin embargo únicamente se trabajó con: DEPTH.m, K.Hz, y PHIE.m3/m3. Se siguieron los siguientes pasos: Procesamiento de datos. Por medio de una limpieza de datos y normalización de la misma a través de la clase MinMaxScaler.   Selección de algoritmo de clustering. Se implemento tanto K-means como DBSCAN, se ajustaron los parámetros de ambos algoritmos, por medio del método del codo se determinaron el número de clusters. Evaluación e interpretación de resultados. Para evaluar la calidad de los clusters formados se implementó el método Silhouette y la visualización, se realizo de manera grafica a través de Matlab. Clasificación Para este modelo de aprendizaje supervisado se implementó un dataset que procede de un pozo con 2053 registros y consiste en un conjunto de variables originales, interpretadas y una clase (facies de roca) para cada vector de datos.Procesamiento de datos. Separar los datos en un conjunto de entrenamiento y prueba en proporción 80/20. Normalizar y estandarizar los datos a través del método MinMaxScaler. Agregar las etiquetas y colores al dataset de entrenamiento. Generar un histograma del número de ejemplos de entrenamiento para cada clase de facies. Usar el método RandomForest para evaluar la importancia de cada variable. Selección de algoritmo de Clasificación.   Implementar Redes Neuronales de Perceptrón Multicapa (MLP) para entrenar y validar los clasificadores. Desarrollar el algoritmo de Gradiente Descendente para la optimización de parámetros que se implementaron en la red neuronal. Evaluación e interpretación de resultados.  Implementar una matriz de confusión y análisis de métricas como precisión, recall, F1-score y exactitud para medir el desempeño del modelo. Por último, se implementó una interfaz gráfica, con todo lo desarrollado en el proyecto, esta interfaz fue desarrollada de manera local usando HTML, JavaScript y CSS.


CONCLUSIONES

Mediante el trabajo realizado durante esta estancia de verano, que finaliza con este documento, se pudo constatar la relevancia de las técnicas de procesamiento automático para procesos formalizados, como lo es la explotación petrolera. Resulta fundamental conocer los distintos tipos de algoritmos que ofrecen ambos tipos de aprendizaje, tanto supervisado como no supervisado, así como seleccionar de manera precisa los parámetros con los que se implementan estos algoritmos, ya que en gran medida los resultados obtenidos no solo dependerán del tipo de algoritmo sino de la exactitud de sus parámetros. El trabajo multidisciplinario de diversas diciplinas como lo es la ciencia de datos, machine learning y la geofísica, brindan la posibilidad de mejorar la manera en que se estudian y exploran los yacimientos petroleros y su impacto en el medio ambiente. Como resultado final se obtuvo una interfaz grafica desarrollada en HTML, JavaScript y Python, a traves de esta plataforma se puede realizar tanto clustering como clasificación, ingresando un dataset en formato excel. 
Perez Mendoza Gabriela, Universidad Tecnológica Fidel Velázquez
Asesor: Dr. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla

IMPLEMENTACION DE UN SEGUIDOR DE PANELES SOLARES


IMPLEMENTACION DE UN SEGUIDOR DE PANELES SOLARES

Perez Mendoza Gabriela, Universidad Tecnológica Fidel Velázquez. Asesor: Dr. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En el año 2,000 el cual se registra como el año en que las energias renovables tuvieron su mayor auge ya que se empezaron a implementar las diferentes formas de captacion de energia solar. Sin imaginar que se enfrentarian a un grave problema el cual era la fuerza que ejercian los vientos sobre los paneles solares ya que se conoce que la eficiencia de los paneles solares depende en gran medida de su orientacion respecto al sol, y que se deben mantener estaticamente, los paneles solares no simpre estan optimizados para que capten el mayor numero de energia durante la trayectoria del sol, lo cual reduce su eficiencia.  Para ello se plantea el uso de un seguidor de paneles solares para ajustar las diferentes posiciones y que estan siempre esten orientadas hacia los rayos del sol. 



METODOLOGÍA

Se investigo sobre un seguidor solar de dos ejes, capaz de agustar la inclinacion, el cual se basa en diferentes sensores principalmente los de luz y que estos a su vez sean automaticos.  Para ser instalados en modulos de paneles solares   


CONCLUSIONES

El seguidor solar capto un 45% mas de energia solar durante el dia en comparacion de uno que es estatico, siendo una propuesta rentable para aquellas comunidades lejanas que no cuentan con un servicio como lo es la luz.  Pensando en una implentacion me di a la tarea de investigar alguna comunidad.  Santa Catarina Villanueva en el municipio de Quecholac Puebla. Puebla.  Una comunidad que cuenta con 2500 habitantes de los cuales 695 personas carecen de este servicio.  Se implementara para abastacer de energia a 140 casas aprox. y una bomba de agua potable para un pozo del cual se sacara agua para los terrenos de riego 
Perez Miguel Diego Emmanuel, Universidad Rosario Castellanos
Asesor: Dra. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional

RECURSO TECNO EDUCATIVO DE REALIDAD MIXTA PARA FORMACIÓN EN INGENIERÍA FERROVIARIA


RECURSO TECNO EDUCATIVO DE REALIDAD MIXTA PARA FORMACIÓN EN INGENIERÍA FERROVIARIA

Perez Miguel Diego Emmanuel, Universidad Rosario Castellanos. Asesor: Dra. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En México, la realidad mixta puede ser una herramienta esencial para la formación de ingenieros ferroviarios, permitiendo la práctica segura y efectiva de habilidades en entornos virtuales. Esto es crucial dado el limitado acceso a instalaciones de práctica y la creciente necesidad de profesionales capacitados en el sector, especialmente con proyectos como el Tren Maya y el Tren Transístmico.



METODOLOGÍA

A partir del proyecto SIP 20232443, el IPN ha desarrollado habilidades para crear recursos educativos digitales avanzados. Este proyecto propone la implementación de recursos basados en realidad mixta para mejorar la formación de ingenieros ferroviarios, dado el reciente inicio de una nueva fase de desarrollo en la infraestructura ferroviaria mexicana. La investigación reveló que solo cuatro instituciones ofrecen programas de ingeniería ferroviaria: dos en México, una en Argentina y una en Suecia, esta última solo a nivel de maestría. Se observó una falta de entrenamiento práctico para la operación de trenes, por lo que se investigaron simuladores como los de la empresa española Lander y el videojuego Zusi 3, aunque este último tiene limitaciones gráficas. Para solucionar estas limitaciones, se propone un sistema de realidad mixta que recrea digitalmente una cabina de tren. Se escaneó una locomotora del proyecto México-Toluca usando el escáner Peel 3D, procesando los datos con Blender y SolidWorks para obtener un modelo digital detallado. Estos modelos se importaron a Unreal Engine para crear un entorno interactivo de realidad mixta, diseñado para entrenar a personal ferroviario de manera inmersiva y sin grandes costos operativos. Todos los resultados están disponibles en: https://drive.google.com/drive/folders/1qmxN7M3eK7dmiE8dg-6OEXhC71T6H4R4?usp=sharing.


CONCLUSIONES

El uso de la realidad mixta puede mejorar significativamente la capacitación de personal en el sector ferroviario, aumentando la eficiencia y reduciendo costos. Se espera que este sistema incremente en un 20% el entrenamiento de personal adecuado. Además, se planea presentar este proyecto en el XXXVII Simposio Internacional de La Sociedad Mexicana de Computación en la Educación, destacando su potencial para abordar el rezago tecnológico educativo en México.
Perez Montelongo Natalia, Universidad Autónoma de Tamaulipas
Asesor: Dra. sofia Alvarado alvarado reyna, Universidad Autónoma de Tamaulipas

REACTOR DE POLIMERIZACIóN AUTOMATIZADO CON INTELIGENCIA ARTIFICIAL Y REALIDAD VIRTUAL


REACTOR DE POLIMERIZACIóN AUTOMATIZADO CON INTELIGENCIA ARTIFICIAL Y REALIDAD VIRTUAL

Perez Montelongo Natalia, Universidad Autónoma de Tamaulipas. Asesor: Dra. sofia Alvarado alvarado reyna, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La industria de polímeros enfrenta desafíos significativos en la producción eficiente y precisa de polímeros debido a la complejidad de las reacciones de polimerización y las variaciones en las condiciones de operación. Los métodos de control tradicionales a menudo no logran adaptarse dinámicamente a estos cambios, resultando en productos de calidad inconsistente y desperdicio de materiales. Para abordar estas limitaciones, este proyecto propone el diseño y desarrollo de un reactor de polimerización automatizado, controlado mediante un sistema robusto de espacio de estados y una red neuronal recurrente (RNN). La integración de estas técnicas avanzadas de control e inteligencia artificial busca mejorar la eficiencia del proceso, garantizar la calidad del producto final y reducir el desperdicio de materiales, optimizando así la producción de polímeros.



METODOLOGÍA

El objetivo de este proyecto es desarrollar un reactor de polimerización automatizado utilizando inteligencia artificial (IA) y realidad virtual (RV). Para ello, se implementó una red neuronal recurrente (RNN) en Python, con el fin de optimizar y controlar diversas variables del proceso. Las variables principales del sistema incluyen la concentración del monómero, temperatura del reactor, temperatura del ambiente, adsorbancia, presión del reactor, tipo de catalizador y tiempo de reacción. La RNN, diseñada con capas de entrada, capas ocultas con Long Short-Term Memory (LSTM) y capas de salida, permite manejar datos secuenciales y temporales para predecir y ajustar estas variables en tiempo real. La implementación se llevó a cabo utilizando librerías como TensorFlow, Keras, NumPy, Pandas, Matplotlib y SciPy. El sistema de control del reactor se basa en un modelo de estado/espacios, donde cada variable representa un estado del sistema. Este enfoque permite mantener condiciones óptimas de operación a través de transiciones de estados basadas en las predicciones de la RNN. La integración de la realidad virtual se realizó mediante el desarrollo de un entorno virtual interactivo, facilitando la visualización y control del proceso en tiempo real. Para validar el sistema, se realizaron simulaciones utilizando datos históricos de polimerización y posteriormente pruebas en un reactor físico. Los resultados demostraron que el sistema automatizado es preciso y confiable, mejorando la eficiencia y el control del proceso de polimerización.


CONCLUSIONES

Se ha conseguido un sistema que no solo automatiza el reactor, sino que también mejora significativamente la eficiencia y precisión del proceso. En las simulaciones realizadas, el sistema demostró una capacidad notable para predecir y ajustar las variables críticas del reactor, como la concentración del monómero, la temperatura del reactor, la temperatura ambiente, la adsorbancia, la presión del reactor, el tipo de catalizador y el tiempo de reacción. Por ejemplo, durante una simulación de 24 horas de operación, la RNN fue capaz de mantener la temperatura del reactor dentro del rango óptimo con una desviación estándar menor del 2%, mientras que la concentración del monómero se mantuvo constante con una variación de menos del 1%. La integración de la RV permitió a los operadores visualizar en tiempo real el estado del reactor y hacer ajustes inmediatos cuando fue necesario. Este entorno interactivo no solo facilitó el monitoreo continuo, sino que también proporcionó una herramienta educativa para comprender mejor el proceso de polimerización y sus variables críticas. En las pruebas realizadas en el reactor físico, los resultados fueron consistentes con las simulaciones. El sistema automatizado logró reducir el tiempo de reacción en un 15% y aumentar la producción de polímeros de alta calidad en un 10%, en comparación con los métodos tradicionales. Además, la capacidad del sistema para ajustar dinámicamente las variables del proceso resultó en una reducción del consumo de energía del reactor en un 8%, contribuyendo a un proceso más sostenible. El desarrollo de este reactor de polimerización automatizado con IA y RV ha demostrado ser una solución eficaz para mejorar la eficiencia, precisión y sostenibilidad del proceso de polimerización. Los resultados obtenidos, tanto en simulaciones como en pruebas reales, indican que este sistema tiene un gran potencial para ser implementado en la industria, ofreciendo beneficios significativos en términos de calidad del producto y optimización de recursos.
Perez Montes Laura, Universidad Católica de Oriente
Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte

AUTOMATIZACIóN DE LOS SISTEMAS DE GESTIóN DE CALIDAD MEDIANTE POWER APPS Y GOOGLE APPS


AUTOMATIZACIóN DE LOS SISTEMAS DE GESTIóN DE CALIDAD MEDIANTE POWER APPS Y GOOGLE APPS

Perez Montes Laura, Universidad Católica de Oriente. Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte



PLANTEAMIENTO DEL PROBLEMA

Mediante uso de herramientas como Power apps se pretende la realizar la automatización de sistemas de gestión



METODOLOGÍA

en primera instancia se realiza un conocimiento previo de la gestión como de normas dentro de este sistema de gestión, continuamente se realiza un conocimiento de Power automate donde finalmente sera aplicado el conocimiento previo.


CONCLUSIONES

con la ayuda de las aplicaciones enseñadas, se logra una creación de un flujo de nube automatizado. El uso de estas aplicaciones permite el disminuir el tiempo de revisiones y descarga de archivos   
Perez Ozuna Marlon Andres, Corporación Universitaria del Caribe
Asesor: Mg. Valentina Ramirez Hernandez, Universidad Pontificia Bolivariana

OPTIMIZACIÓN DE LA ESTRUCTURA DE COSTOS EN EL SECTOR DEL CALZADO EN EL MUNICIPIO DE CHINÚ, CÓRDOBA: UN ENFOQUE HOLOPRÁXICO


OPTIMIZACIÓN DE LA ESTRUCTURA DE COSTOS EN EL SECTOR DEL CALZADO EN EL MUNICIPIO DE CHINÚ, CÓRDOBA: UN ENFOQUE HOLOPRÁXICO

Perez Ozuna Marlon Andres, Corporación Universitaria del Caribe. Asesor: Mg. Valentina Ramirez Hernandez, Universidad Pontificia Bolivariana



PLANTEAMIENTO DEL PROBLEMA

En un mundo interconectado donde la rivalidad es intensa y los gastos de producción no dejan de subir, la industria de calzado tiene retos importantes para conservar su rentabilidad y competitividad. Esta situación se hace especialmente evidente en Chinú, Córdoba, un área que tradicionalmente ha confiado en la fabricación de calzado como principal sustento económico. No obstante, las compañías locales se enfrentan a una situación difícil, donde es más importante que nunca encontrar un equilibrio entre las demandas del mercado global y la necesidad de mejorar su eficiencia en costos. La industria del calzado en Chinú tiene varios desafíos, como el aumento de costos de materiales, mano de obra y logística. La fuerte competencia a nivel mundial agrega un nivel adicional de desafío, forzando a las compañías a encontrar respuestas creativas y planificadas para seguir siendo pertinentes y lucrativas. Aunque existen obstáculos, la falta de información sobre las estrategias de reducción de costos en esta área y su impacto en aumentar la competitividad es evidente. Este estudio se enfoca en abordar esta falta, examinando de forma integral las tácticas y métodos que las compañías de calzado en Chinú pueden utilizar para mejorar su organización de gastos. Al realizar esta acción, se busca crear un marco comprensivo que no solo reconozca las prácticas vigentes, sino que además presente sugerencias fundamentadas en un análisis detallado y contextualizado. El objetivo de la investigación es mejorar la industria local, apoyando a las empresas para que puedan ajustarse eficazmente a las demandas del mercado global y garantizar su viabilidad en el futuro. Esta investigación en el sector del calzado en Chinú busca no solo mejorar la comprensión académica, sino también ofrecer herramientas prácticas para optimizar la estructura de costos y ser utilizadas por los actores locales. Se prevé que los resultados ayuden a mejorar la eficacia de las operaciones y a aumentar la competitividad del sector, lo cual beneficiará a la economía local y tendrá un efecto positivo en la comunidad de Chinú, Córdoba.  



METODOLOGÍA

Para entender de manera más completa la estructura de gastos en la industria del calzado, se empleará en Chinú, Córdoba, un enfoque mixto que integra tanto métodos cuantitativos como cualitativos. Además, se utilizará unos tipos investigación descriptivo, analítico y proyectivo. La investigación analítica buscará identificar motivos y patrones de gastos, mientras que la investigación descriptiva se centrará en la comprensión de la situación actual de los costos de la empresa, y la investigación proyectiva buscará desarrollar recomendaciones específicas para incrementar la eficacia y competitividad del sector. De la misma manera, se elegirán empresas de la industria del calzado en Chinú como unidades de estudio, que hagan parte de pymes del sector del calzado. Igualmente, se obtendrá información numérica sobre costos y gestión recopilando datos a través de encuestas y cuestionarios. Además, se realizarán entrevistas con directivos y especialistas de la industria, así como se observarán directamente los procedimientos de fabricación para recopilar información cualitativa detallada.  Los pasos para seguir abarcarán la creación y confirmación de instrumentos para recabar información, la realización de entrevistas y observaciones, y la evaluación de la información obtenida. En el análisis cuantitativo se utilizarán técnicas estadísticas para descubrir patrones y relaciones, en contraste, el análisis cualitativo se enfocará en la interpretación de información proveniente de entrevistas y observaciones para comprender prácticas y percepciones. Este enfoque hará posible la creación de estrategias eficaces y útiles para reducir costos en la industria del calzado en Chinú.


CONCLUSIONES

Durante el verano de investigación, se propuso optimizar los costos en la industria del calzado en Chinú, Córdoba, para enfrentar los desafíos de rentabilidad y competitividad en el sector. El estudio encontró la importancia de implementar estrategias efectivas para administrar y reducir costos, resaltando la falta de conocimiento sobre las técnicas específicas empleadas por las compañías locales. Además, se calcularon la situación actual de la industria y se encontraron tendencias de costos que impactan en la competitividad. A pesar de que los resultados finales aún no se conocen, se han creado sugerencias prácticas para reducir costos que, al aplicar, se anticipan que aumentarán la rentabilidad y competencia de la industria del calzado en Chinú. Esta propuesta inicial sienta una base sólida para futuras investigaciones y aplicaciones prácticas en la industria.
Pérez Palacios Miguel Ángel, Instituto Politécnico Nacional
Asesor: Dra. Ingrid Mayanin Rodriguez Buenfil, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)

DETERMINACIóN DEL CONTENIDO DE POLIFENOLES TOTALES Y CAPACIDAD ANTIOXIDANTE DEL EXTRACTO DE LA CASCARA DE LA NARANJA AGRIA (CITRUS AURANTIUM) OBTENIDOS POR DOS MéTODOS DE EXTRACCIóN.


DETERMINACIóN DEL CONTENIDO DE POLIFENOLES TOTALES Y CAPACIDAD ANTIOXIDANTE DEL EXTRACTO DE LA CASCARA DE LA NARANJA AGRIA (CITRUS AURANTIUM) OBTENIDOS POR DOS MéTODOS DE EXTRACCIóN.

Pérez Palacios Miguel Ángel, Instituto Politécnico Nacional. Asesor: Dra. Ingrid Mayanin Rodriguez Buenfil, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La industria alimentaria de los cítricos produce subproductos como residuos (cascara y semillas) siendo el 50% del peso total de la fruta. Entre estos cítricos la naranja agria (Citrus aurantium), se utiliza por sus propiedades acidificantes y aromatizantes. El subproducto del procesamiento de este cítrico representa potencialmente una fuente rica de polifenoles naturales, la extracción de estos compuestos por tecnologías verdes genera atención debido a sus beneficios antimicrobianos, antitumorales, antioxidantes y antinflamatorios. Los polifenoles al ser polares, se suelen extraer utilizando disolventes orgánicos como metanol, sin embargo, estos disolventes presentan riesgos en la salud y al medio ambiente debido a su toxicidad, inflamabilidad y no biodegradabilidad, por lo que la extracción con NADES (disolventes eutécticos profundos naturales) surge como una alternativa al tener una baja toxicidad y fácil biodegradabilidad para una extracción más eficaz. Estas técnicas en combinación con la extracción asistida por ultrasonido (UAE) mejora el rendimiento y proceso de extracción de componentes sensibles al calor. En este trabajo se determinó la capacidad antioxidante y el contenido de polifenoles totales (CPT) en extractos obtenidos de la cascara de la naranja agria (subproducto) de la variedad comercial (mercado local) cultivada en la Península de Yucatán, mediante la extracción asistida por ultrasonido utilizando solventes eutécticos profundos naturales y metanol al 80%.



METODOLOGÍA

Pretratamiento de la materia prima La cascara fue retirada/separada de la naranja agria, siendo lavada y troceada, para después ser congelada a -35°C por 24h y liofilizada a -50°C por 72h a 0.2 mBar en un liofilizador (Labconco™, modelo 3510), logrando una humedad inferior al 4%, el subproducto se molió con un molino de café (Braun®, modelo KSM-2) y se tamizó el polvo obtenido con una malla de tamaño de partícula de 500 µm (#35, Fisher Scientific, Boston, MA, EE.UU.) y fue almacenada a temperatura ambiente en una bolsa de plástico forrada con papel aluminio. Preparación del NADES Se utilizó la metodología reportada por Mansinhos et al. (2021) con algunas modificaciones, donde los componentes mezclados fueron 13.96g de cloruro de colina como el aceptor de enlaces de hidrogeno (HBA) y 9g de glucosa como el donador de enlaces de hidrogeno (HBD) correspondiendo a proporción molar 1:0.5. Extracción asistida por ultrasonido de los polifenoles en el subproducto de la naranja amarga con uso de solvente NADES y Metanol al 60% Se utilizó la metodología reportada por Chel-Guerrero et al. (2022) con algunas modificaciones. Evaluación del contenido total de polifenoles (CPT) con solvente NADES y con metanol al 60% Para la evaluación del CPT, se usó la metodología de Folin-Ciocalteu de acuerdo con Singleton et al. (1999) con algunas modificaciones. Evaluación de la capacidad antioxidante del extracto por la metodología DPPH con solvente NADES y con metanol al 80%. Fue de acuerdo con la metodología reportada por Oney-Molntalvo et al. (2018) con algunas modificaciones. Resultados Contenido de polifenoles totales (CPT) y capacidad antioxidante del extracto del subproducto de la naranja agria (Citrus aurantium): Para el caso usando como solvente NADES se obtuvo 66.01± 5.65a mg GAE/100g materia seca en el contenido de polifenoles totales (CPT) y 84.24 ± 0.07a % en el % de inhibición de la capacidad antioxidante por el método DPPH. Mientras que usando metanol al 80% se obtuvo 96.51± 0.63a mg GAE/100g materia seca en el contenido de polifenoles totales (CPT) y 90.54 ± 0.43a % en el % de inhibición de la capacidad antioxidante por el método DPPH Nota: NADES (cloruro de colina: glucosa con 60% de H2O, 1:0.5 molar, dilución 1:10); metanol al 80% (metanol: agua, 80:20, dilución 1:3); los valores son el resultado del promedio de n=2 ± la desviación estándar; los superíndices corresponden a la prueba de grupos homogéneos, donde se realizó un análisis estadístico demostrando que, si hay una diferencia estadísticamente significativa entre ambas determinaciones al usar diferentes solventes para la extracción (p<0.05).


CONCLUSIONES

Los resultados indican que el solvente metanol al 80% para la extracción en la harina de la cascara (subproducto) de naranja agria asistido con UAE presentó el mayor contenido de polifenoles totales (88.70 ± 0.58 mg GAE/100g MS) y la mayor capacidad antioxidante expresada en % de inhibición 90.53± 0.43 %, en comparación con el otro solvente utilizado (NADES). Se permite concluir que el uso de NADES para la extracción de compuestos fenólicos asistida con UAE a partir del subproducto (cascara) de la naranja agria (Citrus aurantium) es una estrategia de tecnología verde alterna que ayuda a la disminución del uso de solventes orgánicos, pero el uso de estos últimos tiene mejores porcentajes/concentraciones a la hora de la extracción, ayudando a la revalorización de los residuos derivados de la industria alimentaria.
Pérez Ponce Dulce Alitzel, Universidad de Guadalajara
Asesor: Dr. Jhon Fredy Narvaez Valderrama, Corporación Universitaria Remington

CALIBRACIóN DE MUESTREO PASIVO POR MEDIO DE DISIPACIóN DE PRC PARA ANáLISIS DE LIXIVIACIóN DE CLORPIRIFOS EN CONDICIONES DE LABORATORIO


CALIBRACIóN DE MUESTREO PASIVO POR MEDIO DE DISIPACIóN DE PRC PARA ANáLISIS DE LIXIVIACIóN DE CLORPIRIFOS EN CONDICIONES DE LABORATORIO

Pérez Ponce Dulce Alitzel, Universidad de Guadalajara. Asesor: Dr. Jhon Fredy Narvaez Valderrama, Corporación Universitaria Remington



PLANTEAMIENTO DEL PROBLEMA

Los plaguicidas son sustancias ampliamente utilizadas en la agricultura para proteger los cultivos de plagas y enfermedades. No obstante, debido a procesos fisicoquímicos, estas sustancias pueden lixiviar desde el punto de aplicación hasta las aguas subterráneas, afectando significativamente la calidad de este recurso vital. La lixiviación de plaguicidas, como el clorpirifos, representa una amenaza para los ecosistemas acuáticos y la salud humana, debido a su potencial de contaminar fuentes de agua potable. La pregunta planteada y que se pretende responder con esta investigación es ¿El muestreo pasivo empleando membranas de silicona puede ser utilizado para estimar la lixiviación de clorpirifos en suelos agrícolas? Responder a esta pregunta permitirá desarrollar una metodología rápida y eficaz para monitorear los procesos de lixiviación de plaguicidas en suelos agrícolas.   



METODOLOGÍA

Materiales e insumos: Para enjuagar las membranas se usó alcohol isopropílico; para la adición  de membranas se realizó con un estándar de Fluoranteno y Pireno que fueron adquiridos en Sigma Aldrich (Pureza >99.5%). Se emplearon 18 frascos ámbar  30 mL para almacenar las muestras y 18 frascos ambar de 60 mL. Se emplearon 12 vasos de precipitado de 200 mL para poder llevar a cabo la calibración de los muestreadores pasivos. Para enjuagar las membranas se empleó agua destilada. Los solventes (hexano y metanol) para limpieza y extracción fueron comprados en Sigma Aldrich (Cromatografía de gases MS SupraSolv®). Finalmente, la columna capilar (30 m, 0.25 mm, 0.15 μm) fue suministrada por Restek Pure Chromatography. El agua Milli-Q fue obtenida a través de un Thermo Scientific® Barnstead 50131217. El caucho de silicona de la hoja de laboratorio AlteSil fue suministrado de forma gratuita por Ian Allan (NIVA-Noruega). Análisis de PRC por GC/MS: La fracción extraída de los estándares PYR y FLU fue analizada por un Thermo Scientific Trace® Ultra acoplado a un detector de masas (ISQ) en modo de Monitoreo de Iones Selectivos (SIM) bajo impacto electrónico (70eV). Los estándares fueron separados en una columna capilar Select PAHs (30 m, 0.25 mm, 0.15 μm) con temperaturas inicial y final de 70°C y 320°C, respectivamente, usando helio como gas portador (2 mL/min). La cuantificación se realizó utilizando siete estándares internos deuterados (ISTD). Acondicionamiento de membranas: Se recortaron 20 membranas de silicón de 2 cm de ancho x 4.6 cm de largo, cubriendo un volumen de 0.46 mL y se pesaron por individual para poder calcular su coeficiente de varianza el cual fue de 5 %. Se lavaron las membranas con jabón neutro dos veces, después se colocaron en un frasco de 200 mL con alcohol isopropílico y se dejaron en agitación toda la noche. Pasado el tiempo, se sacaron las membranas del frasco y se secaron de forma manual agitandolas en el aire una por una, manipulandolas únicamente con unas pinzas de disección simples. Se envolvieron en papel aluminio acomodadas en pilas de 5 membranas y se almacenaron en un frasco de vidrio. Dopaje de membranas por técnica PRC: El procedimiento de adición para las membranas se acondicionó de acuerdo a el protocolo de Foppe Smedes (Directrices para el muestreo pasivo de contaminantes hidrofóbicos en agua utilizando muestreadores de silicona) para 20 membranas. Se colocaron 13.6 mL de metanol en un frasco de 60 mL y se introdujeron las membranas en el mismo. Se agregó una solución stock de estándares de  FLU y PYR (1.17 mL y 0.49 mL respectivamente). El dopaje tuvo una duración de 5 días, en los cuales se le agregó una cantidad de agua destilada de forma gradual obteniendo una proporción final de 50:50 metanol. Una vez pasado el tiempo, se secaran las membranas de frasco y se secaron de forma manual sin tocarlas con las manos. Se volvieron a almacenar en papel aluminio. Calibración de muestreo pasivo en suelos : Se procedió a pesar en 12 vasos de precipitado de 200 mL de vidrio 100 g de suelo muestra y compactar, posterior a eso se colocó una membrana en el centro del vaso y se cubrió con 100 g más de suelo muestra que también fue compactada y se aplicó la técnica de film stacking poniendo pesos de 500 g encima. Cada tiempo establecido (18 h, 24 h, 60 h, 120 h, 240 h, 360 h) se sacaron dos membranas por duplicado de los vasos de precipitado , se enjuagaron una por una con agua destilada, se secaron agitando vigorosamente y se guardaron en un frasco de 30 mL cada una por separado. Se almacenaron en congelación hasta haber obtenido las 12 membranas después de 360 h. Extracción : Las membranas individuales fueron extraídas mediante diálisis con hexano dos veces. Primero, cada membrana fue colocada en pequeños frascos ámbar y se adicionaron 15 mL de hexano cada 24 horas dos veces. La fracción final fue mezclada y el volumen fue inicialmente reducido por rotavapor hasta casi secarse. Finalmente, tres muestras aleatorias de membranas fueron analizadas por GC/MS para establecer la concentración promedio y la recuperación después del procedimiento de adición.  


CONCLUSIONES

Este trabajo tuvo el objetivo de realizar una calibración de suelos contaminados con clorpirifos mediante muestreadores pasivos de membranas de silicona, con el objetivo de estandarizar una nueva metodología para medir la lixiviación de plaguicidas en suelos de producción agrícola. Con esto, se busca ofrecer una solución práctica para un problema ambiental crítico, a su vez, ofrecerá un método de control esencial para prevenir el impacto negativo de los plaguicidas organofosforados, como el clorpirifos, en las aguas subterráneas. Al estandarizar este nuevo método, se podría facilitar la prevención de la contaminación de los mantos acuíferos, protegiendo así tanto el medio ambiente como la salud pública.  
Pérez Reyes Omar Alejandro, Universidad Politécnica de Victoria
Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz

EXPERIENCIA EN REALIDAD VIRTUAL PARA REPRESENTAR LA HISTORIA DE UNA MUJER RECONOCIDA EN STEAM


EXPERIENCIA EN REALIDAD VIRTUAL PARA REPRESENTAR LA HISTORIA DE UNA MUJER RECONOCIDA EN STEAM

Peñaloza Lopez Laura Sofia, Universidad del Valle. Pérez Reyes Omar Alejandro, Universidad Politécnica de Victoria. Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

El proyecto tiene como objetivo crear una experiencia educativa e interactiva en realidad virtual (RV) que represente la historia de Ada Lovelace, una figura icónica en el campo de STEAM (Ciencia, Tecnología, Ingeniería, Artes y Matemáticas). Utilizando las gafas Meta Quest 2 y la plataforma Unity 3D, se diseñará un "escape room" con dos escenarios distintos que permitirán a los usuarios explorar y aprender sobre los logros y contribuciones de Ada Lovelace en un entorno inmersivo. Esta iniciativa se alinea con el Objetivo de Desarrollo Sostenible (ODS) 4 de las Naciones Unidas, que busca garantizar una educación de calidad inclusiva y equitativa.



METODOLOGÍA

Semana 1: Capacitación y Comprensión de Unity 3D. Se realizaron los tutoriales "Roll-a-ball" y "Create with VR" proporcionados por Unity para afianzar los conocimientos en el desarrollo de aplicaciones en esta plataforma. Los tutoriales cubrieron conceptos esenciales como colliders, colisiones, movimiento de objetos y animaciones de personajes. Semana 2: Capacitación en Realidad Virtual y Recopilación de Materiales. Se recibió capacitación específica para integrar Unity con las gafas Meta Quest 2. Además, se recopilaron materiales ya existentes en el proyecto y se recabó información destacada sobre Ada Lovelace para su inclusión en la narrativa de la aplicación. Semana 3: Análisis y Mejora del Prototipo. Se analizó la aplicación previamente creada, identificando áreas de mejora tanto en el ambiente como en la narrativa histórica. Se definieron aspectos específicos a modificar para mejorar la experiencia educativa e interactiva de la aplicación. Semana 4: Implementación de Mejoras. Se implementaron las mejoras identificadas en la aplicación de realidad virtual, enfocándose en optimizar el entorno y la narrativa sobre Ada Lovelace. Semana 5: Retroalimentación y Ajustes. Se recibió retroalimentación del investigador y se realizaron los ajustes necesarios en la aplicación para refinar su funcionalidad y contenido. Semana 6: Pruebas del Prototipo. Se realizaron pruebas exhaustivas del prototipo de la aplicación, probándola en diferentes escenarios y con diversos usuarios para identificar y corregir posibles fallos. Semana 7: Presentación y Resumen Final. Se presentó el prototipo final de la aplicación y se elaboró un informe sobre el proceso y los resultados del proyecto.


CONCLUSIONES

El proyecto ha proporcionado una herramienta educativa que combina tecnología con contenido histórico. A través de un "escape room" con dos escenarios distintos, los usuarios pueden interactuar con la historia de Ada Lovelace de una manera inmersiva, fomentando el interés por las disciplinas STEAM y destacando la importancia de una educación de calidad. 
Pérez Rivera Fernando, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato

BúSQUEDA Y ASEGURAMIENTO DE VULNERABILIDADES (HARDENING) EN RED LAN, PARA SERVIDORES Y CLIENTES (WINDOWS Y LINUX), CON EL USO DE LA METODOLOGíA DE PTES


BúSQUEDA Y ASEGURAMIENTO DE VULNERABILIDADES (HARDENING) EN RED LAN, PARA SERVIDORES Y CLIENTES (WINDOWS Y LINUX), CON EL USO DE LA METODOLOGíA DE PTES

Hernández Murillo José Alejandro, Instituto Tecnológico Superior de Guanajuato. Pérez Rivera Fernando, Instituto Tecnológico Superior de Guanajuato. Ramírez Ramos Geovanni de Jesús, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El uso intensivo de la tecnología, donde todo está conectado a través de la vasta red que es Internet, conlleva a un aumento en los peligros cibernéticos. Por esta razón, es crucial desarrollar esquemas que analicen diferentes escenarios para mitigar o reducir las amenazas que puedan afectar el funcionamiento óptimo de una red empresarial o institucional. Gracias a esta conectividad, se pueden ofrecer servicios como transferencia de archivos, envío de correos electrónicos, mensajería, videollamadas y llamadas IP, entre otros. En este contexto, la implementación del hardening permite crear estrategias y herramientas tecnológicas para mejorar la seguridad de los servidores y proteger la infraestructura tecnológica de la institución. Además, facilita el análisis y la evaluación de la situación actual en términos de vulnerabilidades y buenas prácticas de seguridad para servidores y clientes Windows-Linux. La justificación de este enfoque se basa en los siguientes aspectos de hardening: 1.Hardening del servidor Se centra en implementar medidas de seguridad de los datos a través de protocolos aplicados a nivel de hardware, software y firmware. 2.Hardening de la red Busca identificar y corregir las vulnerabilidades de seguridad que pueden presentarse en los canales y sistemas de comunicación entre servidores, así como en la configuración de los dispositivos. 3.Hardening de las aplicaciones Se enfoca en la protección de las aplicaciones instaladas en el servidor, asegurando que estén adecuadamente configuradas y actualizadas para prevenir posibles ataques. 4.Hardening del sistema operativo Implica la actualización regular del sistema, la identificación y aplicación oportuna de parches para fallas de seguridad, y la eliminación de controladores no deseados.



METODOLOGÍA

La metodología utilizada a lo largo de todo el proyecto de investigación fue la PTES, la cual significa Penetration Testing Execution Standard y la cual consiste en un marco de trabajo diseñado para llevar a cabo pruebas de penetración, también conocidas como ethical hacking, con el objetivo de evaluar la seguridad de sistemas, redes y aplicaciones. PTES está diseñado para ser utilizado por profesionales de la seguridad y de las pruebas de penetración, ofreciendo una metodología clara y organizada para la ejecución de proyectos de seguridad. El marco de trabajo PTES se compone de siete fases, que son: 1.Pre-ataque En esta fase se lleva a cabo la planificación del proyecto de pruebas de penetración, se define el alcance y se establecen los objetivos. Esta etapa es crucial para asegurar que todas las partes involucradas entiendan las expectativas y los límites del proyecto. 2.Recolección de información Se recopila información detallada sobre el objetivo de la prueba de penetración, incluyendo sistemas, redes y aplicaciones, para identificar posibles vulnerabilidades. Esta fase implica el uso de diversas técnicas de reconocimiento y herramientas de escaneo para construir un perfil completo del objetivo. 3.Detección de vulnerabilidades En esta fase se realiza una exploración exhaustiva de los sistemas y aplicaciones para descubrir vulnerabilidades y debilidades. Esto incluye la utilización de herramientas automatizadas y manuales para identificar fallos de seguridad que podrían ser explotados. 4.Explotación Se llevan a cabo intentos de explotación de las vulnerabilidades identificadas en la fase anterior para evaluar la efectividad y precisión de los ataques. Esta etapa permite verificar si las vulnerabilidades pueden ser aprovechadas por un atacante real. 5.Post-explotación Inmediatamente después de explotar una vulnerabilidad, se realiza un análisis de las consecuencias y/o daños causados, buscando obtener el mayor provecho posible de los cambios realizados en el sistema. Esta fase incluye la evaluación de los accesos obtenidos y la identificación de información sensible comprometida. 6.Generación de informes Se prepara un informe completo que documenta los hallazgos, vulnerabilidades y debilidades descubiertas durante el proceso de pruebas de penetración. El informe debe incluir recomendaciones detalladas para mitigar las vulnerabilidades identificadas y mejorar la seguridad general del sistema. 7.Limpieza En esta fase final, se eliminan todas las huellas del ataque y se restaura el sistema a su estado anterior, asegurándose de que no queden rastros de las actividades de prueba de penetración. Este paso es esencial para mantener la integridad del sistema y evitar interrupciones en su funcionamiento normal.


CONCLUSIONES

El proyecto de hardening llevado a cabo con el uso de Kali Linux y firewalls de pfSense ha permitido identificar y mitigar múltiples vulnerabilidades en la infraestructura de una red LAN, que comprende tanto servidores y clientes Windows como Linux. A través de un enfoque sistemático y la implementación de una variedad de técnicas de ataque, se han podido evaluar las debilidades en servicios como Correo, FTP, DNS, Telefonía y Web. Los principales logros alcanzados en este proyecto incluyen la identificación de vulnerabilidades, mitigación de amenazas y mejora de la seguridad. En cuanto a la identificación de vulnerabilidades, se logró detectar varias mediante el uso de herramientas especializadas como CamPhish, Bettercap, Wireshark, Hydra, Zphisher, Social Engineering Toolkit y John the Ripper. Estas herramientas permitieron una evaluación detallada y exhaustiva de los puntos débiles en la infraestructura de red, facilitando una comprensión profunda de las posibles amenazas. En lo que respecta a la mitigación de amenazas, una vez identificadas las vulnerabilidades, se implementaron políticas de seguridad robustas en el firewall pfSense. Estas políticas incluyeron reglas de acceso más estrictas, monitoreo continuo y medidas preventivas que lograron una significativa reducción en la exposición a posibles ataques. Esta fase del proyecto fue crucial para asegurar que las debilidades identificadas no pudieran ser explotadas por actores malintencionados.
Pérez Roldán Juan Felipe, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Ana Claudia Zenteno Vázquez, Benemérita Universidad Autónoma de Puebla

IMPACTO DE LAS HERRAMIENTAS DE ESCANEO Y ENUMERACIóN EN LA SEGURIDAD DE LA INFORMACIóN.


IMPACTO DE LAS HERRAMIENTAS DE ESCANEO Y ENUMERACIóN EN LA SEGURIDAD DE LA INFORMACIóN.

Pérez Roldán Juan Felipe, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Ana Claudia Zenteno Vázquez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Este estudio analiza el impacto de las herramientas de escaneo y enumeración en la seguridad de la información, destacando su importancia en la identificación de vulnerabilidades en redes y sistemas. A través de la simulación de un entorno de red utilizando contenedores Docker, se desplegaron y probaron herramientas como Nmap y Unicornscan para evaluar su efectividad en la recopilación de información crítica.



METODOLOGÍA

Se empleó una metodología que incluyó varias fases clave para evaluar de manera efectiva la infraestructura de red utilizando herramientas de ciberseguridad avanzadas como ping, nmap y unicornscan.  Se utilizó Docker para desplegar un laboratorio de pruebas. Docker permitió la creación de contenedores aislados que simulan una red doméstica o una red pública pequeña. Esto facilitó el despliegue rápido y la gestión eficiente diferentes instancias de servicios y aplicaciones para las pruebas. Con el laboratorio montado, las herramientas Unicornscan y Nmap se utilizaron para realizar escaneos de red. Se profundizó en los servicios y recursos descubiertos durante la fase de escaneo, utilizando técnicas de enumeración para identificar versiones de servicios y configuraciones específicas. Esto permitió un análisis más profundo y detallado de la red.  


CONCLUSIONES

Impacto en la Seguridad de la Información: La utilización de estas herramientas ha tenido un impacto significativo en la seguridad de la información, permitiendo detectar y mitigar vulnerabilidades antes de que puedan ser explotadas por atacantes. Esto contribuye a la protección de datos sensibles y a la integridad de los sistemas, reduciendo el riesgo de brechas de seguridad y pérdidas de información crítica. Eficacia de las Herramientas Combinadas: La integración de ping, nmap y unicornscan ha proporcionado una visión completa de la red. Ping verificó la conectividad, mientras que nmap y unicornscan realizaron escaneos profundos y detallados, revelando información crítica sobre los servicios y posibles puntos de ataque. Identificación de Vulnerabilidades: Estas herramientas permitieron identificar múltiples servicios y puertos abiertos, así como posibles vulnerabilidades en la red, lo que es esencial para fortalecer la seguridad de la infraestructura y prevenir ataques.
Perez Sanchez Ana Karen, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Mg. Nelly Clavijo Clavijo Bustos, Universidad Cooperativa de Colombia

PROYECTO IMPLEMENTACIóN DE UN MODELO DE APROPIACIóN SOCIAL DEL CONOCIMIENTO PARA LA OPTIMIZACIóN DE LOS SISTEMAS PRODUCTIVOS DE CACAO, AGUACATE, LIMóN, ARRACACHA Y CAFé CON LOS PEQUEñOS PRODUCTORES DEL DEPARTAMENTO DEL TOLIMA


PROYECTO IMPLEMENTACIóN DE UN MODELO DE APROPIACIóN SOCIAL DEL CONOCIMIENTO PARA LA OPTIMIZACIóN DE LOS SISTEMAS PRODUCTIVOS DE CACAO, AGUACATE, LIMóN, ARRACACHA Y CAFé CON LOS PEQUEñOS PRODUCTORES DEL DEPARTAMENTO DEL TOLIMA

Cruz Cruz Ricardo, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Perez Sanchez Ana Karen, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Vázquez Zaraos Lizayda, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Mg. Nelly Clavijo Clavijo Bustos, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

El departamento del Tolima en Colombia es una región agrícola diversa y fértil, conocida por la producción de diversos cultivos como cacao, aguacate, limón, arracacha y café. Estos productos representan una fuente crucial de ingresos para los pequeños productores locales y son fundamentales para la economía regional. Sin embargo, los finqueros y agricultores enfrentan serias dificultades para darse a conocer y comercializar sus productos agrícolas, la ausencia de herramientas tecnológicas y plataformas digitales impide que estos productores puedan acceder a un mercado más amplio y variado, limitando así sus oportunidades de venta y exposición. Los métodos tradicionales de venta, como mercados locales y ferias, no son suficientes para satisfacer las necesidades comerciales de los finqueros, lo que conlleva a varios problemas significativos: Los productos agrícolas no alcanzan un público amplio, lo que reduce las oportunidades de venta y genera un ingreso limitado para los finqueros. La falta de un sistema organizado de inventario provoca pérdidas por caducidad y una planificación inadecuada de la producción. Sin una plataforma centralizada, la comunicación con los compradores es dispersa e ineficiente, dificultando la negociación y venta de productos. En un entorno comercial cada vez más digital, la ausencia de una presencia en línea pone a los agricultores locales en desventaja frente a competidores que utilizan herramientas digitales avanzadas.



METODOLOGÍA

Se seleccionaron 6 asociaciones y 35 fincas de los productores con las que se habían firmado convenio anteriormente. A estas fincas se les trabajó, una página web de publicidad y una página web de control de inventario. Además, se realizó un informe detallado en el que se agregan los convenios firmados entre la finca o asociación y la Universidad Cooperativa de Colombia. Se levantó los requerimientos funcionales para cada uno de las páginas web de acuerdo a las especificaciones y necesidades de cada una de las fincas y asociaciones involucradas, dado que cada uno tiene información diferente, la idea fue realizar cada página personalizada con su descripción, misión, visión, productos y datos de contacto. Se   formó grupos de trabajo, para asignar responsabilidades, cada uno de los miembros del programa Delfín, se le asignó una tarea y alumnos pertenecientes del programa de estudio de la Universidad Cooperativa, debido al corto tiempo de la estancia y de la urgencia de los entregables. Se elaboraron informes de cada una de las 35 fincas y 6 asociaciones, para proporcionar una guía integral para el diseño, desarrollo, y gestión de la página web del proyecto, asegurando que todas las áreas importantes sean consideradas y que el resultado final cumpla con los objetivos del proyecto y las necesidades del público objetivo, así mismo para poder completar el informe se hizo una búsqueda de cada uno de los convenios de cada una de las fincas para plasmar el acuerdo que se ha realizado con las fincas y asociaciones. Se desarrolló una página web de publicidad y una página web de sistema de inventario utilizando herramientas digitales como, Visual Studio Code (VSCode), como editor de código fuente, HTML y CSS, para diseñar el frontend, para estructurar y diseñar la interfaz de usuario. PHP y JavaScript, fueron los lenguajes de programación utilizado para el desarrollo del backend y funcionalidades de las páginas web. Se diseñó una página web con una interfaz amigable y responsiva, que permite a los finqueros listar sus productos con detalles como descripción, imágenes de sus productos, agregando un resumen de su finca. Se integró funciones como WhatsApp que permiten a los compradores realizar pedidos directamente a través de la web con los finqueros. Se desarrolló un sistema que permite la entrada y seguimiento de productos agrícolas, incluyendo reportes de entrada y salida de productos. El sistema fue adaptado a las necesidades específicas para fincas, basado en la información recolectada durante la investigación de campo. También, se utilizó un servicio de hosting para que cada uno de los finqueros y asociaciones puedan ver las páginas web en línea. Para ello se configuró un servidor web que permite alojar las páginas web y las bases de datos que se manejó. Para que cada uno de los finqueros sepan cómo funciona las páginas se realizaron manuales prácticos, sencillos y personalizados, de esta manera, aunque ellos no estén familiarizados con las tecnologías ellos entenderán muy fácilmente el funcionamiento de cada una de las páginas que se les crearon. Este sistema pretende proporcionar una solución integral que facilite la gestión del inventario y amplíe el alcance de venta de los productos, permitiendo a los agricultores optimizar sus operaciones y aumentar su competitividad en el mercado.


CONCLUSIONES

Durante la estancia de verano, logramos implementar una página web de publicidad y una página web para un sistema de control de inventario, para cada uno de los 35 finqueros y 6 asociaciones, del departamento del Tolima, Colombia. Esta iniciativa promete ser una solución viable y efectiva para mejorar la comercialización de productos agrícolas. Esperamos que el uso de las herramientas digitales permita a los finqueros alcanzar un mercado más amplio, optimizar la gestión de sus inventarios y fortalecer su competitividad en el sector agrícola.
Pérez Serrano Edmundo Angel, Universidad Autónoma del Estado de México
Asesor: M.C. José Francisco Reinaga Camacho, Universidad de Guadalajara

DESARROLLO DE UNA PAGINA WEB COMO GLOSARIO BOTáNICO DEL CUC COSTA


DESARROLLO DE UNA PAGINA WEB COMO GLOSARIO BOTáNICO DEL CUC COSTA

Díaz Vargas Ximena, Universidad de Guadalajara. Espinoza Torres Karen, Universidad Autónoma del Estado de México. Garcia Martinez Maria Teresa, Universidad de Guadalajara. Pérez Serrano Edmundo Angel, Universidad Autónoma del Estado de México. Asesor: M.C. José Francisco Reinaga Camacho, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En el mundo moderno, la accesibilidad a la información es crucial para satisfacer las necesidades de conocimiento y aprendizaje instantáneo. En este contexto, la creación de una página web dedicada a proporcionar información detallada sobre diversas especies de plantas que se encuentran dentro del CUC costa, facilitada mediante el escaneo de códigos QR a través de Google Lens, se convierte en un proyecto innovador y funcionalmente enriquecedor. Este proyecto tiene como objetivo principal desarrollar una plataforma web intuitiva y accesible que permita a los usuarios explorar y aprender sobre diferentes plantas simplemente utilizando la tecnología de escaneo de QR proporcionada por Google Lens. Al escanear un código QR asociado con una planta específica, los usuarios podrán acceder de manera instantánea a detalles relevantes como características físicas, hábitat natural, frutos y más información útil sobre la planta en cuestión. La página web está diseñada utilizando tecnologías modernas como React para la interfaz de usuario dinámica, MySQL Workbench para la base de datos con la información de cada planta y Node.js para el backend, asegurando así un rendimiento óptimo y una experiencia de usuario fluida tanto en dispositivos móviles como de escritorio. Además, se implementarán funcionalidades adicionales como la capacidad de búsqueda avanzada y filtros para facilitar la navegación dentro del catálogo de plantas, asegurando que los usuarios puedan encontrar fácilmente la información que están buscando. A lo largo de las semanas de desarrollo, nuestro equipo trabajo siguiendo una metodología basada en el Método RUP (Rational Unified Process), lo cual garantizará una planificación estructurada y una implementación iterativa y adaptativa del proyecto. Cada fase, desde la investigación inicial de requisitos hasta las pruebas finales y el despliegue del sitio web, será cuidadosamente gestionada para asegurar la calidad y la efectividad del producto final.



METODOLOGÍA

Metodología RUP para el Proyecto de Desarrollo de una Página Web como glosario del CUC costa Esta metodología RUP fue adaptada para proporcionar una estructura robusta para el desarrollo del proyecto de página web de información de plantas, asegurando una implementación ordenada y eficiente de las funcionalidades requerida Fase de Inicio Investigación y Recopilación de Requisitos: Identificar las necesidades y expectativas de los usuarios al escanear códigos QR de plantas. Definir los requisitos funcionales y no funcionales del sistema. Definición de la Funcionalidad del Escaneo de QR: Detallar cómo interactuará el usuario con el sistema al escanear un código QR. Diseño de la Base de Datos: Especificar la estructura de la base de datos para almacenar información detallada de las plantas (nombre, especificaciones, hábitat, etc.). Fase de Elaboración Desarrollo del Esqueleto de la Página Web: Utilizar React y Node.js para crear la estructura inicial de la página web. Implementar diseño responsivo para asegurar compatibilidad con dispositivos móviles y de escritorio. Configuración Inicial de Google Lens: Crear una cuenta de Google si aún no se tiene. Configurar y verificar la integración con Google Lens para el escaneo de códigos QR. Creación de Páginas y Secciones Iniciales: Desarrollar la página principal, "Inicio", y la sección "Contenido de Plantas". Agregar contenido básico como texto de bienvenida y navegación inicial. Fase de Construcción Configuración del Servidor Web (Node.js): Implementar un servidor web para manejar solicitudes HTTP y servir contenido dinámico. Desarrollo de la Lógica del Backend: Desarrollar la lógica necesaria para consultar y actualizar datos en la base de datos desde el backend. Integración de QR en la Página Web: Seleccionar y configurar un servicio de generación de códigos QR compatible con Google Lens. Generar códigos QR para cada planta y vincularlos a las páginas correspondientes en la web. Implementación de Funciones de Búsqueda y Filtros: Agregar funciones de búsqueda y filtros para facilitar la navegación y la búsqueda de plantas en el catálogo. Fase de Transición Pruebas de Integración y Usabilidad: Realizar pruebas exhaustivas del sitio web para verificar la funcionalidad del escaneo de QR y la navegación. Realizar ajustes en el diseño y contenido según el feedback obtenido de las pruebas. Optimización del Sitio Web: Mejorar el SEO (Optimización para Motores de Búsqueda) y la accesibilidad del sitio web. Fase de Despliegue y Mantenimiento Despliegue del Sitio Web: Configurar el sitio web para ser desplegado públicamente y asegurar su correcto funcionamiento. Documentación y Entrega: Documentar el proceso de desarrollo, incluyendo la gestión y mantenimiento del sitio web. Revisión General del Proyecto: Realizar una revisión final del sitio web y la aplicación de escaneo de QR. Realizar ajustes finales según el feedback final obtenido antes de la entrega del proyecto.


CONCLUSIONES

En conclusión, el desarrollo de la página web para proporcionar información sobre las plantas del CUC Costa representa una integración innovadora de tecnología y educación. Al utilizar códigos QR y Google Lens, el proyecto facilita el acceso instantáneo a detalles botánicos, promoviendo un aprendizaje interactivo y accesible tanto para estudiantes como para visitantes.  Además, esta herramienta no solo enriquecerá el conocimiento sobre la biodiversidad del campus, sino que también contribuirá a la conservación y apreciación de las especies botánicas presentes en el CUC Costa.
Pérez Soto José Saúl, Universidad Tecnologica de León
Asesor: Dr. Edwin Gerardo Acuña Acuña, Universidad Latinoamericana de Ciencia y Tecnología

OPTIMIZATION OF URBAN MOBILITY WITH IOT AND BIG DATA TECHNOLOGY FOR THE INFORMATION AND KNOWLEDGE SOCIETY IN INDUSTRY 5.0


OPTIMIZATION OF URBAN MOBILITY WITH IOT AND BIG DATA TECHNOLOGY FOR THE INFORMATION AND KNOWLEDGE SOCIETY IN INDUSTRY 5.0

Almanza Ferruzca Ana, Instituto Tecnológico de Querétaro. Calderon Rojas Jesus Manuel, Universidad de Investigación y Desarrollo. Garcia Bayona Maria Fernanda, Universidad de Investigación y Desarrollo. Pérez Soto José Saúl, Universidad Tecnologica de León. Rojo Rojo Camilo Nelson, Instituto Tecnológico de Querétaro. Asesor: Dr. Edwin Gerardo Acuña Acuña, Universidad Latinoamericana de Ciencia y Tecnología



PLANTEAMIENTO DEL PROBLEMA

La optimización de la movilidad urbana en el contexto de ciudades inteligentes enfrenta desafíos significativos, particularmente en la gestión eficiente del tráfico y la reducción de la congestión. Según (Yan & Zhao, 2024) y (Aoki, 2024), el aumento de la urbanización y la creciente prevalencia de problemas de tráfico reflejan una crisis global de movilidad urbana, influenciada por la falta de infraestructura adecuada y la gestión ineficaz del tráfico. (Ku, 2024) y (Jones, 2023) señalan que esta situación ejerce una presión considerable sobre los sistemas urbanos, que a menudo carecen de los recursos y tecnología necesarios para proporcionar una gestión del tráfico adecuada. En este contexto, es esencial adoptar estrategias integrales que aborden de manera preventiva y oportuna los problemas de tráfico en el ámbito urbano, especialmente en ciudades inteligentes (Nikkhah, kahanali, & sharyari, 2023). (van der Meij et al., 2023) indican que los primeros síntomas de problemas de movilidad urbana incluyen congestiones recurrentes y tiempos de viaje impredecibles, que pueden evolucionar a condiciones más severas si no se detectan y tratan a tiempo. (Devianto et al., 2023) y (Samadi, Mirnezami, & Torabi Khargh, 2023) subrayan la importancia de implementar herramientas y métodos innovadores que permitan diagnósticos precisos y oportunos para prevenir la evolución de estos problemas. Para enfrentar este desafío en las ciudades inteligentes, es fundamental contar con herramientas tecnológicas que identifiquen y diferencien entre patrones de tráfico normales y anormales. (Tabash et al., 2023) destacan que el uso de tecnologías para la captura y análisis de datos de tráfico desempeña un papel crucial en la detección y diagnóstico temprano de problemas de congestión. Este enfoque innovador no solo elevaría los estándares en el diagnóstico, sino que también impulsaría intervenciones tempranas y personalizadas, mejorando la eficiencia del sistema de transporte urbano.



METODOLOGÍA

El estudio adoptó un enfoque cuantitativo, poniendo a prueba hipótesis mediante la medición numérica y el análisis estadístico para identificar patrones de tráfico y validar teorías (Ibrahim, 2022). Se desarrolló el objeto de investigación buscando regularidades y relaciones entre los componentes del estudio (Mohan, Paunova, & Lee, 2024). Se incluyó una subcategoría descriptiva para identificar las propiedades y características del fenómeno relacionado con las estrategias principales para evaluar la eficiencia del tráfico en intersecciones críticas dentro de ciudades inteligentes (Zhou, 2024). Asimismo, se añadió una subcategoría exploratoria para modelar detalladamente cada factor relevante en el uso de modelos basados en IA para la evaluación del tráfico (Wang, 2023). La muestra seleccionada consistió en 350 intersecciones críticas en el año 2024, donde se recopilaron datos de tráfico con el consentimiento de las autoridades municipales. El tamaño de la muestra se determinó utilizando el modelo de población finita, con una base de datos conocida de las intersecciones al momento del estudio. Los datos fueron recopilados a través de centros urbanos en América Latina, Norteamérica, Asia y Europa, garantizando una variabilidad geográfica y demográfica, y estableciendo una base sólida para el análisis comparativo y la extrapolación de los resultados (Zhou, Liu, & Li, 2024). 


CONCLUSIONES

El estudio demuestra que los sistemas basados en inteligencia artificial (IA) son capaces de detectar problemas de tráfico en intersecciones críticas con un alto nivel de precisión, evidenciado en los resultados obtenidos. Estos sistemas no solo mejoran la precisión, sensibilidad y especificidad en la clasificación de datos de tráfico, sino que también logran una clara discriminación entre condiciones normales y problemáticas.Los resultados del estudio ofrecerán una hoja de ruta para las partes interesadas, promoviendo una estrategia basada en la toma de decisiones informadas y resaltando el papel de la tecnología en la protección de infraestructuras, datos y personas. Desde una perspectiva teórica, las implicaciones incluyen el desarrollo de investigaciones tanto en el ámbito académico como empresarial. Este estudio abre la puerta a nuevos trabajos que exploren la relación entre diversos problemas de tráfico que afectan la eficiencia operativa de las intersecciones y cómo las tecnologías emergentes pueden contribuir a su detección, prevención y resolución.En conclusión, los sistemas basados en IA ofrecen una herramienta poderosa y eficaz para la evaluación y manejo del tráfico en intersecciones críticas, y su integración en ciudades inteligentes promete mejoras significativas en la calidad de vida y la eficiencia operativa de las generaciones futuras.
Pérez Soto Juan Diego, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: M.C. Manuel Pérez Villegas, Universidad Tecnológica de Tecamachalco

MANTENIMIENTO PREDICTIVO EN EL SECTOR INDUSTRIAL


MANTENIMIENTO PREDICTIVO EN EL SECTOR INDUSTRIAL

Martínez Aguilar Saúl Naim, Benemérita Universidad Autónoma de Puebla. Navarrete de Jesus Raul, Tecnológico de Estudios Superiores de Jocotitlán. Pérez Soto Juan Diego, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: M.C. Manuel Pérez Villegas, Universidad Tecnológica de Tecamachalco



PLANTEAMIENTO DEL PROBLEMA

El mantenimiento industrial es un conjunto de actividades destinadas a garantizar que los equipos, maquinarias e instalaciones de una planta funcionen de manera eficiente y segura durante su ciclo de vida útil. Este proceso incluye la inspección, la reparación, la lubricación, el reemplazo de piezas desgastadas y la implementación de mejoras para prevenir averías y maximizar la disponibilidad operativa. Es crucial para asegurar la continuidad de la producción, reducir costos de operación y mantener altos estándares de calidad y seguridad en el entorno industrial. La Universidad Tecnológica de Tecamachalco (UTTECAM) cuenta con diversos equipos industriales en la carrera de Ingeniería en Mantenimiento Industrial, por lo que durante la estancia de investigación se abordaran diferentes técnicas de mantenimiento predictivo, y junto con ello se tomaran cursos para mejor entendimiento.



METODOLOGÍA

Se abordaron diferentes técnicas de mantenimiento predictivo para un sector industrial, las cuales son: Inspección visual: esta técnica permite observar a simple vista si la maquinaria tiene una anomalía, con el fin de indicar fallos superficiales que se manifiestan físicamente mediante grietas, fisuras, desgaste, soltura de elementos de fijación, cambios de color, etc., a nivel industrial lo podemos identificar en los check-list. Líquidos penetrantes: se trata de una inspección no destructiva que se usa para encontrar fisuras superficiales o fallos internos del material que presentan alguna apertura en la superficie. Se aplican tres líquidos a la pieza mediante un spray, utilizándolos de la siguiente manera: el primero de ellos es el PENETRANT el cual funciona para detectar la posible fisura con un tiempo de trabajo de 5-10 minutos, el segundo es el CLEANER funcionando como limpiador de la superficie, posterior a él se aplica el DEVELOPER el cual tendrá un tiempo de trabajo de 10 minutos después de ello se resaltara de un color rojizo la superficie dañada, y por ultimo se vuelve a aplicar el CLEANER para limpiar por completo la pieza. Partículas magnéticas: la técnica consiste en utilizar una herramienta nombrada YUGO ELECTROMAGNÉTICO la cual produce un campo magnético al material ferromagnético y luego usar partículas magnéticas para revelar defectos en la superficie del material, tales defectos alteran el campo magnético, lo que provoca una acumulación de partículas magnéticas en esos puntos, haciéndolos visibles. Análisis termográfico: se utilizan cámaras termográficas para capturar imágenes de la radiación infrarroja emitida por la maquinaria u objeto, permitiendo ver la temperatura en la que se encuentran, y de esta manera, ayudando a detectar posibles anomalías en temperatura que podrían indicar posibles problemas. Análisis de vibraciones; se basa en la medición y evaluación de las vibraciones generadas por máquinas, como consecuencia de holguras mecánicas, desbalanceo dinámico, holguras mecánicas, rozamientos, daños en rodamientos, etc., utilizando un analizador de vibraciones, el cual al colocarlo en el equipo nos permite evaluar mediante espectros de vibración las condiciones en las que se encontraba. Rayos x: esta técnica utiliza radiación electromagnética de alta energía para penetrar materiales y revelar estructuras internas, que nos va a permitir obtener imágenes claras y detalladas de la estructura interna de los componentes, de igual forma nos facilita la inspección sin necesidad de desmantelar o mover el equipo. Ultrasonido: utiliza ondas acústicas de alta frecuencia para detectar y analizar defectos en materiales y componentes, la técnica mide el tiempo que tarda una onda en viajar a través de un objeto y regresar, proporcionando información sobre la estructura interna y posibles defectos, estos datos son proporcionados mediante un analizador ultrasónico, el cual manda espectros para saber el estado actual de la maquinaria.  Existen equipos para medir espesores de materiales y defectos en soldaduras, así como equipos enfocados en la detección de fugas. Análisis de lubricantes: técnica enfocada en el análisis físico-químico de muestras de aceite en servicio y el análisis de partículas de desgaste contenidas en el aceite para determinar el desgaste interno de los equipos y tomar acciones preventivas. Prueba hidrostática: la cual consiste en aplicar agua, a un equipo o sistema a una presión 1.3 veces superior a la operativa, durante un periodo mínimo de 1 hora, para detectar posibles fugas, deformaciones o debilidades en la estructura.  La presión de prueba y los tiempos de aplicación deben hacerse de acuerdo a las normas vigentes. Prueba neumática: utiliza gases, como aire comprimido o nitrógeno, para realizar la prueba, pero se aplica en sistemas donde el uso de líquidos no es práctico o seguro. Los cursos que se abordaron son:​ Energías Renovables (energía solar fotovoltaica) Soldadura Torneado Neumática Pantallas HMI CNC Programación de robot


CONCLUSIONES

En conclusión, el mantenimiento predictivo se ha consolidado como una estrategia fundamental en la gestión de activos industriales, ofreciendo ventajas significativas frente a los enfoques tradicionales. Al utilizar estas técnicas junto con tecnologías avanzadas para monitorear y analizar el estado de los equipos nos permite anticipar fallos y realizar intervenciones precisas, lo que resulta en una reducción de costos operativos y un incremento en la eficiencia de las operaciones. El sector industrial es cada vez más competitivo, y la implementación efectiva del mantenimiento predictivo en las áreas, se traduce como una ventaja estratégica crucial para mantener la continuidad y la sostenibilidad de las operaciones, siendo clave para el éxito a largo plazo de la empresa.
Pesqueira Borbón José Arturo, Instituto Tecnológico Superior de Cananea
Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle

SISTEMA DE IDENTIFICACIóN DE POSICIONAMIENTO ESTELAR POR MEDIO DE PATRONES DE IMáGENES EN EL CINTURóN DE ORIóN.


SISTEMA DE IDENTIFICACIóN DE POSICIONAMIENTO ESTELAR POR MEDIO DE PATRONES DE IMáGENES EN EL CINTURóN DE ORIóN.

Pesqueira Borbón José Arturo, Instituto Tecnológico Superior de Cananea. Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

El estudio de la astronomía presenta grandes desafíos a nuestra sociedad moderna, pues aún con los avances tecnológicos actuales se nos dificulta tener un contacto directo con el análisis de la astrografía y la cartografía estelar. El presente proyecto propone como solución implementar un sistema de reconocimiento de imágenes por medio de reconocimiento de patrones considerando un modelo funcional que ayude a la identificación de estrellas en cúmulos estelares dentro del Cinturón de Orión optimizando el procesamiento computacional y tiempo de la obtención de resultados de los datos de cartas estelares o imágenes espaciales.



METODOLOGÍA

Al diseñar software para sistemas complejos, como lo es el tratar de reconocer patrones en cartas estelares, los desarrolladores buscamos flexibilidad, rapidez y la posibilidad de introducir mejoras en nuestro código. Siguiendo los pasos a lo largo de la "V" del modelo propuesto, el desarrollo comienza con el diseño en el extremo superior izquierdo, continúa hasta la implementación en el punto inferior de la "V" y termina con las pruebas finales en el extremo superior derecho. Esto nos permitirá mantener un detallado esquema de procesos con el fin de minimizar fallos y maximizar resultados.


CONCLUSIONES

La implementación de este Proyecto nos permite tener una mejor y más personal perspectiva a un pasado y a un futuro determinado por los astros. Nos permite incorporar la innovación que presenta la inteligencia artificial, a su vez, nos permite a nosotros, como investigadores, acortar pasos entre los principios de Giordano Bruno y aquellos Principios Copernicanos dejados por el pensador astrólogo Nicolás Copérnico.
Piceno Reyes Guillermo Eduardo, Instituto Tecnológico de La Piedad
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

ESTACIóN NIMBUS, SISTEMA DE MONITOREO AMBIENTAL


ESTACIóN NIMBUS, SISTEMA DE MONITOREO AMBIENTAL

Cortes Facio Juan Diego, Instituto Tecnológico de Morelia. de Jesús Martínez Carlos Alberto, Instituto Politécnico Nacional. Feliciano Pioquinto Jorge Osvaldo, Instituto Tecnológico Superior de Ciudad Hidalgo. Piceno Reyes Guillermo Eduardo, Instituto Tecnológico de La Piedad. Pineda Ibarra Alexandra, Instituto Tecnológico Superior de Ciudad Hidalgo. Rosales Gómez Adrian, Instituto Politécnico Nacional. Vargas Castro Jonathan Antonio, Instituto Tecnológico de Morelia. Vidal Gómez Yessica Gisel, Instituto Politécnico Nacional. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la región de los Valles, Jalisco, la agricultura enfrenta desafíos significativos debido a la variabilidad climática y la falta de datos meteorológicos precisos y actualizados. Estos problemas afectan la planificación de cultivos y la gestión de recursos hídricos, esenciales para la producción agrícola sostenible. Según el Instituto Nacional de Estadística y Geografía (INEGI), la región de Jalisco ha experimentado fluctuaciones en temperatura y precipitaciones que impactan directamente en la productividad agrícola. La falta de estaciones meteorológicas eficientes en la región agrava esta situación, limitando la capacidad de los agricultores para tomar decisiones informadas y oportunas. La problemática principal está en el ingenio azucarero de la región, estos desafíos son particularmente pronunciados. La producción de caña de azúcar requiere condiciones climáticas específicas y una gestión adecuada del agua. La falta de datos precisos dificulta la planificación y optimización de las actividades agrícolas, resultando en pérdidas económicas y una menor eficiencia en la producción.



METODOLOGÍA

Para el desarrollo de la estación de monitoreo ambiental, se siguió un proceso sistemático que involucró diversas fases de diseño, implementación y pruebas. A continuación, se detallan los pasos específicos llevados a cabo: Fase de Diseños Selección de Sensores: Se eligieron sensores adecuados para medir temperatura, humedad, precipitación pluvial, altitud, presión atmosférica, velocidad y dirección del viento, índice UV, calidad de aire (partículas), luminosidad, CO2. Los sensores seleccionados fueron DHT11 para temperatura y humedad, BMP180 para presión atmosférica, y anemómetros y veletas para medir velocidad y dirección del viento. Diseño de la estructura: Utilizando SolidWorks, se diseñaron los soportes y la carcasa para los sensores y las placas electrónicas Raspberry Pi y la Arduino Nano. Se realizaron varias iteraciones del diseño para asegurar estabilidad y protección contra condiciones climáticas adversas. FORTALECIMIENTO DE LA Fase de Implementación Montaje de Hardware: Los componentes físicos fueron hechos utilizando una impresora 3D con filamento PLA. Los sensores fueron montados en sus respectivos soportes y conectados a la Raspberry Pi y Arduino Nano. Configuración de la Raspberry Pi: Se configuró la Raspberry Pi con Raspbian OS y se instalaron las bibliotecas necesarias para la lectura de los sensores (Adafruit_DHT, BMP180, y PySerial para el anemómetro y la veleta). Así mismo con la Nano. Desarrollo de la Interfaz: Se desarrolló una interfaz de usuario utilizando Flask, un microframework de Python, para permitir la visualización en tiempo real de los datos recopilados. La interfaz incluye gráficos y alertas para condiciones climáticas extremas. Fase de Pruebas. Pruebas en Campo: La estación de monitoreo ambiental fue instalada en el Centro Universitario de los Valles de la Universidad de Guadalajara, ya que está rodeado de zonas agrícolas. Se realizaron pruebas durante un periodo de tres semanas para recolectar datos y ajustar la calibración de los sensores. Validación de Datos: Los datos recolectados fueron comparados con los registros de estaciones meteorológicas oficiales para validar la precisión de las mediciones. Se encontraron discrepancias menores que fueron ajustadas mediante calibración adicional.


CONCLUSIONES

Durante el desarrollo de la estación de monitoreo ambiental, se logró adquirir conocimientos teóricos y prácticos en el diseño e implementación de sistemas de monitoreo medio ambientales utilizando tecnologías accesibles como la Raspberry Pi, Ardunio Nano y la impresión 3D. La integración de sensores y el desarrollo de una interfaz de usuario intuitiva permitieron la recolección y visualización de datos meteorológicos en tiempo real. Los resultados obtenidos durante el periodo de pruebas demostraron que la estación de monitoreo ambiental proporciona datos precisos y confiables, la cual contribuirá esencialmente para la planificación agrícola en región de los Valles, Jalisco. La comparación de los datos recolectados con los registros de estaciones meteorológicas oficiales validó la precisión de las mediciones, y los ajustes realizados mejoraron aún más su exactitud. En el contexto del ingenio azucarero, la estación de monitoreo ambiental permitiría ajustar las prácticas de riego y manejo de cultivos, mejorando la eficiencia y reduciendo pérdidas. Esto subraya la importancia de contar con datos climáticos precisos para optimizar la producción agrícola y enfrentar los desafíos específicos de la región. A pesar de los avances logrados, el proyecto aún se encuentra en fases de prototipado. Se espera continuar con la recolección de datos a largo plazo para analizar patrones climáticos y su impacto en la agricultura local. Futuras mejoras en la calibración de sensores y la expansión de la red de estaciones de monitoreo ambiental podrían proporcionar una cobertura más amplia y datos aún más precisos. Además, se prevé que el uso continuo de esta tecnología contribuirá a incrementar la sostenibilidad y productividad agrícola en la región. El conocimiento adquirido y las técnicas desarrolladas pueden ser aplicadas en otros contextos y regiones, proporcionando una herramienta valiosa para enfrentar los desafíos del cambio climático y la variabilidad meteorológica en la agricultura. Desarrollo del proyecto "ESTACIÓN NIMBUS” Video: https://drive.google.com/file/d/1awq5EhNIY7j6gRyHKIEVdf6mNa2rBiaP/view?usp=sharing  
Piña Armas Roberto Carlos, Instituto Tecnológico Superior de Uruapan
Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato

ACCIDENTES VIALES DE GUANAJUATO


ACCIDENTES VIALES DE GUANAJUATO

Guzman Venegas Javier Eduardo, Instituto Tecnológico de Tepic. Piña Armas Roberto Carlos, Instituto Tecnológico Superior de Uruapan. Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

En Guanajuato la seguridad vial es un problema creciente a medida que aumenta el número de accidentes viales, afectando negativamente la vida de los ciudadanos y la eficiencia del transporte. La falta de datos precisos y la comprensión limitada de los patrones de estos incidentes dificultan la implementación de medidas efectivas para mejorar la seguridad vial. A pesar de los esfuerzos por reducir los accidentes, estos no han estado suficientemente enfocados y apoyados en un análisis detallado y sistemático de los puntos críticos. Es urgente identificar y analizar la distribución espacial de los accidentes de tránsito en todos los municipios de Guanajuato. Para desarrollar estrategias de prevención y corrección, es importante comprender dónde y por qué ocurren estos accidentes. Este proyecto busca satisfacer esta necesidad proporcionando un análisis integral de las escenas de accidentes utilizando técnicas de geolocalización y categorización de incidentes y presentando los datos en forma de mapas detallados. La información obtenida será crucial para las autoridades locales y los responsables de la seguridad vial, permitiéndoles tomar decisiones informadas y efectivas para reducir la frecuencia de accidentes y mejorar la seguridad vial en todo el estado de Guanajuato.



METODOLOGÍA

La metodología que llevamos fue la siguiente a través de la plataforma de transparencia de México solicitamos a todos lo municipios de Guanajuato que nos proporcionaran toda su información de accidentes de tráfico registrados en el 2023, a partir de estos datos se procedió al curado de la información que es filtras la información y ver solo los accidentes que nos sirven teniendo todos estos se realizó un código en colab a través del lenguaje de phyton en el cual se generaron archivos html de todos los puntos de accidentes por cada municipio filtrando aun más los patrones y áreas de accidentes. posteriormente con un programa Qgis se realizó un mapa con capas los cuales nos daban una vista de todos lo accidentes de tráfico de Guanajuato además en un archivo de Excel se realizaron las estadísticas de cada municipio que nos indicaba los patrones de tendencia entre los días las estaciones, horas y temporadas de mayores accidentes por cada 100000 habitantes y vehículos lo que da paso al diseño de un algoritmo de predicción de accidentes de tráfico.


CONCLUSIONES

En conclusión, el análisis de la distribución de los accidentes viales en Guanajuato ha revelado patrones críticos que pueden ayudar a mejorar la seguridad vial en el estado. La geolocalización y categorización de estos incidentes, representados en mapas detallados, proporciona una herramienta poderosa para las autoridades y planificadores urbanos. Estos hallazgos permiten la implementación de medidas preventivas y correctivas específicas, dirigidas a las áreas con mayor incidencia de accidentes. Al utilizar estos datos para formular estrategias y metas concretas, es posible reducir significativamente la tasa de accidentes y crear un entorno vial más seguro. Este proyecto no solo contribuye al bienestar de los habitantes de Guanajuato, sino que también establece una base sólida para futuros estudios y políticas de seguridad vial en la región.
Pineda Ibarra Alexandra, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

ESTACIóN NIMBUS, SISTEMA DE MONITOREO AMBIENTAL


ESTACIóN NIMBUS, SISTEMA DE MONITOREO AMBIENTAL

Cortes Facio Juan Diego, Instituto Tecnológico de Morelia. de Jesús Martínez Carlos Alberto, Instituto Politécnico Nacional. Feliciano Pioquinto Jorge Osvaldo, Instituto Tecnológico Superior de Ciudad Hidalgo. Piceno Reyes Guillermo Eduardo, Instituto Tecnológico de La Piedad. Pineda Ibarra Alexandra, Instituto Tecnológico Superior de Ciudad Hidalgo. Rosales Gómez Adrian, Instituto Politécnico Nacional. Vargas Castro Jonathan Antonio, Instituto Tecnológico de Morelia. Vidal Gómez Yessica Gisel, Instituto Politécnico Nacional. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la región de los Valles, Jalisco, la agricultura enfrenta desafíos significativos debido a la variabilidad climática y la falta de datos meteorológicos precisos y actualizados. Estos problemas afectan la planificación de cultivos y la gestión de recursos hídricos, esenciales para la producción agrícola sostenible. Según el Instituto Nacional de Estadística y Geografía (INEGI), la región de Jalisco ha experimentado fluctuaciones en temperatura y precipitaciones que impactan directamente en la productividad agrícola. La falta de estaciones meteorológicas eficientes en la región agrava esta situación, limitando la capacidad de los agricultores para tomar decisiones informadas y oportunas. La problemática principal está en el ingenio azucarero de la región, estos desafíos son particularmente pronunciados. La producción de caña de azúcar requiere condiciones climáticas específicas y una gestión adecuada del agua. La falta de datos precisos dificulta la planificación y optimización de las actividades agrícolas, resultando en pérdidas económicas y una menor eficiencia en la producción.



METODOLOGÍA

Para el desarrollo de la estación de monitoreo ambiental, se siguió un proceso sistemático que involucró diversas fases de diseño, implementación y pruebas. A continuación, se detallan los pasos específicos llevados a cabo: Fase de Diseños Selección de Sensores: Se eligieron sensores adecuados para medir temperatura, humedad, precipitación pluvial, altitud, presión atmosférica, velocidad y dirección del viento, índice UV, calidad de aire (partículas), luminosidad, CO2. Los sensores seleccionados fueron DHT11 para temperatura y humedad, BMP180 para presión atmosférica, y anemómetros y veletas para medir velocidad y dirección del viento. Diseño de la estructura: Utilizando SolidWorks, se diseñaron los soportes y la carcasa para los sensores y las placas electrónicas Raspberry Pi y la Arduino Nano. Se realizaron varias iteraciones del diseño para asegurar estabilidad y protección contra condiciones climáticas adversas. FORTALECIMIENTO DE LA Fase de Implementación Montaje de Hardware: Los componentes físicos fueron hechos utilizando una impresora 3D con filamento PLA. Los sensores fueron montados en sus respectivos soportes y conectados a la Raspberry Pi y Arduino Nano. Configuración de la Raspberry Pi: Se configuró la Raspberry Pi con Raspbian OS y se instalaron las bibliotecas necesarias para la lectura de los sensores (Adafruit_DHT, BMP180, y PySerial para el anemómetro y la veleta). Así mismo con la Nano. Desarrollo de la Interfaz: Se desarrolló una interfaz de usuario utilizando Flask, un microframework de Python, para permitir la visualización en tiempo real de los datos recopilados. La interfaz incluye gráficos y alertas para condiciones climáticas extremas. Fase de Pruebas. Pruebas en Campo: La estación de monitoreo ambiental fue instalada en el Centro Universitario de los Valles de la Universidad de Guadalajara, ya que está rodeado de zonas agrícolas. Se realizaron pruebas durante un periodo de tres semanas para recolectar datos y ajustar la calibración de los sensores. Validación de Datos: Los datos recolectados fueron comparados con los registros de estaciones meteorológicas oficiales para validar la precisión de las mediciones. Se encontraron discrepancias menores que fueron ajustadas mediante calibración adicional.


CONCLUSIONES

Durante el desarrollo de la estación de monitoreo ambiental, se logró adquirir conocimientos teóricos y prácticos en el diseño e implementación de sistemas de monitoreo medio ambientales utilizando tecnologías accesibles como la Raspberry Pi, Ardunio Nano y la impresión 3D. La integración de sensores y el desarrollo de una interfaz de usuario intuitiva permitieron la recolección y visualización de datos meteorológicos en tiempo real. Los resultados obtenidos durante el periodo de pruebas demostraron que la estación de monitoreo ambiental proporciona datos precisos y confiables, la cual contribuirá esencialmente para la planificación agrícola en región de los Valles, Jalisco. La comparación de los datos recolectados con los registros de estaciones meteorológicas oficiales validó la precisión de las mediciones, y los ajustes realizados mejoraron aún más su exactitud. En el contexto del ingenio azucarero, la estación de monitoreo ambiental permitiría ajustar las prácticas de riego y manejo de cultivos, mejorando la eficiencia y reduciendo pérdidas. Esto subraya la importancia de contar con datos climáticos precisos para optimizar la producción agrícola y enfrentar los desafíos específicos de la región. A pesar de los avances logrados, el proyecto aún se encuentra en fases de prototipado. Se espera continuar con la recolección de datos a largo plazo para analizar patrones climáticos y su impacto en la agricultura local. Futuras mejoras en la calibración de sensores y la expansión de la red de estaciones de monitoreo ambiental podrían proporcionar una cobertura más amplia y datos aún más precisos. Además, se prevé que el uso continuo de esta tecnología contribuirá a incrementar la sostenibilidad y productividad agrícola en la región. El conocimiento adquirido y las técnicas desarrolladas pueden ser aplicadas en otros contextos y regiones, proporcionando una herramienta valiosa para enfrentar los desafíos del cambio climático y la variabilidad meteorológica en la agricultura. Desarrollo del proyecto "ESTACIÓN NIMBUS” Video: https://drive.google.com/file/d/1awq5EhNIY7j6gRyHKIEVdf6mNa2rBiaP/view?usp=sharing  
Pineda Montero Ezli, Tecnológico de Estudios Superiores de Villa Guerrero
Asesor: Dr. Dainet Berman Mendoza, Universidad de Sonora

SENSOR DE GLUCOSA


SENSOR DE GLUCOSA

Pineda Montero Ezli, Tecnológico de Estudios Superiores de Villa Guerrero. Asesor: Dr. Dainet Berman Mendoza, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El seguimiento constante y preciso de los niveles de azúcar en sangre es esencial para controlar la diabetes, una enfermedad que afecta a millones de personas. Los métodos tradicionales de medición de azúcar, como los sensores enzimáticos, tienen limitaciones en términos de durabilidad, vida útil y precisión. Por lo tanto, se busca alternativas más confiables y eficientes, lo que ha llevado a explorar materiales avanzados y técnicas de fabricación innovadoras. En este sentido, las nanopartículas de silicio (SiNPs) ofrecen una opción prometedora debido a sus características únicas, como una gran superficie y capacidad de emitir luz. Sin embargo, producir estas nanopartículas de manera controlada y reproducible sigue siendo un desafío. El método Sol-Gel, conocido por su flexibilidad y precisión, puede ser una solución para sintetizar SiNPs decuadas para sensores de azúcar. Este estudio tiene como objetivo investigar teóricamente la viabilidad de crear sensores de azúcar utilizando SiNPs producidas por el método Sol-Gel, abordando las limitaciones actuales y proponiendo mejoras significativas en la tecnología de detección de azúcar.



METODOLOGÍA

Iniciamos nuestra investigación revisando en profundidad el método Sol-Gel, conocido por su capacidad para controlar las propiedades estructurales y químicas de los materiales sintetizados. Este método incluye las etapas de hidrólisis y condensación para formar una red tridimensional de óxidos. Nos enfocamos en comprender estos principios básicos debido a su versatilidad y precisión en la formación de nanopartículas. Luego, exploramos cómo aplicar el método Sol-Gel específicamente para la síntesis de SiNPs. Identificamos el tetrametil ortosilicato (TMOS) como un precursor adecuado por su disponibilidad y eficacia. Investigamos el proceso desde la disolución del TMOS en etanol, la adición de agua y un catalizador ácido para iniciar la reacción, hasta la formación del gel y su posterior envejecimiento y secado. Este método permite un control preciso sobre el tamaño y la morfología de las nanopartículas, esenciales para su uso en sensores. Las SiNPs, una vez funcionalizadas con moléculas específicas, pueden ser integradas en un dispositivo sensor que detecte las variaciones en la concentración de glucosa mediante cambios en las propiedades ópticas o eléctricas de las nanopartículas.


CONCLUSIONES

Aunque no se presentan resultados experimentales en este trabajo, se espera que las SiNPs sintetizadas mediante el método Sol-Gel muestren propiedades ópticas y eléctricas mejoradas para su uso en sensores de glucosa. Futuras investigaciones se centrarán en optimizar el proceso de síntesis y funcionalización para mejorar la eficacia de los sensores.  
Pineda Muñiz Sofía, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Dr. Mauricio González Palacio, Universidad de Medellín

SISTEMA DE AUTENTICACIóN E INGRESO A ESPACIOS DE PARQUEO PARA VEHíCULOS HíBRIDOS


SISTEMA DE AUTENTICACIóN E INGRESO A ESPACIOS DE PARQUEO PARA VEHíCULOS HíBRIDOS

Patiño Cuecuecha Lizette, Benemérita Universidad Autónoma de Puebla. Pineda Muñiz Sofía, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dr. Mauricio González Palacio, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

Considerando la situación de contaminación en Colombia, se reconoce que los vehículos representan el 78% de las emisiones de gases de efecto invernadero y el 80% de las emisiones de contaminantes atmosféricos en el país (Diario Occidente). Por otro lado, los automóviles híbridos eléctricos presentan un menor impacto ambiental a lo largo de su ciclo de vida en comparación con los vehículos de combustión interna. Los vehículos híbridos tienden a producir alrededor de un 15% menos de emisiones de gases de efecto invernadero durante su ciclo de vida. Específicamente, los vehículos de combustión interna emiten aproximadamente 200 gramos de CO2 por kilómetro, mientras que los vehículos híbridos emiten alrededor de 170 gramos por kilómetro (Transportation Energy Institute). Este planteamiento del problema se enfoca en desarrollar un sistema de autenticación que no solo facilite el acceso seguro y controlado a los estacionamientos, sino que también contribuya al cuidado del medio ambiente. 



METODOLOGÍA

Este proyecto se enfoca en la administración eficiente de espacios de estacionamiento mediante tecnologías avanzadas como RFID, IoT con MQTT, bases de datos y backend. El sistema autentica y permite el ingreso de vehículos híbridos, asegurando que los espacios no sean ocupados por vehículos de combustión interna. Como primer paso, se utiliza un microcontrolador ESP32-WROOM-32U, siendo esta una placa de desarrollo Wifi y Bluetooth, diseñada para un amplio rango de aplicaciones IoT. Este se conecta al IDE de Thonny, perteneciente a Python 3.10. Con este software se programan los archivos con extensión .py que luego se suben al microcontrolador para realizar las pruebas correspondientes.  Los elementos electrónicos utilizados mediante el microcontrolador fueron: Lector/Escritor RFID MFRC522: Es un sistema de modulación/demodulación. Con una frecuencia de operación de 13.56MHz y un protocolo ISO 14443A. LED RGB con 3 pines de conexión. Servomotor SG90 de bajo consumo, bajo peso y torque de 1.8 kgf·cm. Sensor ultrasónico HC-SR04, permite medir distancias entre 20 mm y 8 m con una precisión de 0,025 mm. El código se programa de tal manera que el lector RFID reciba un identificador numérico y determine si pertenece a un vehículo híbrido o eléctrico. Si el identificador es autorizado, el sistema enciende un LED verde y el servomotor realiza una rotación de 90° para mover la barrera, permitiendo el acceso al espacio de estacionamiento. Si el identificador no es autorizado, el sistema permanece en su estado inicial con un LED rojo encendido y la barrera perpendicular al suelo. El sensor ultrasónico se utiliza para detectar la presencia de un vehículo en el espacio de estacionamiento, protegiendo así al automóvil. Después de implementar el código para esta funcionalidad, se procede a probar el protocolo de comunicación MQTT, utilizando inicialmente un broker de prueba llamado HiveMQ, que no requiere usuario ni contraseña, solo suscripción al tópico "delfin/código_rfid" y publicación en el tópico "delfin/respuesta". En el código de Thonny, se utilizan librerías específicas para esta conexión, configurando la suscripción y publicación en los tópicos mencionados. Esto permite enviar y recibir información entre el broker y el código mediante una conexión a Internet. De este modo, al publicar las palabras "autorizado" o "denegado" desde el broker, el microcontrolador reacciona y ejecuta los comandos preestablecidos. Además, el microcontrolador puede publicar en el broker los identificadores leídos por el lector RFID. Una vez concluidas las pruebas de comunicación con el broker HiveMQ y el código de Thonny, se procede a utilizar MySQL junto con el visor de bases de datos HeidiSQL, Anaconda (Spyder), Paho MQTT y MySQL Connector Python. Se sigue el mismo procedimiento de suscripción y publicación a los tópicos definidos, pero ahora el proceso de autenticación se realiza a través de la base de datos. El identificador se envía a una base de datos para verificar si está registrado. Si el identificador está en la base de datos, el automóvil es autorizado, la barrera se levanta y el vehículo puede estacionarse en el espacio preferente. En caso contrario, la barrera no se levanta. Finalmente, se realiza una simulación en el software de CAD (Diseño Asistido por Computadora) llamado SolidWorks, donde se puede observar gráficamente el funcionamiento del proyecto.  


CONCLUSIONES

Este proyecto se desarrolló con el objetivo de incentivar el uso de vehículos eléctricos mediante el respeto por los espacios preferentes para autos híbridos y eléctricos en estacionamientos, reduciendo la dependencia de combustibles fósiles y promoviendo prácticas más sostenibles. Algunos de los diversos beneficios del uso de autos híbridos, específicamente en Antioquia, Medellín, los conductores pueden estar exentos de la normatividad Pico y Placa, lo que les permite circular el día que lo necesiten. Esta solución contribuye principalmente a los siguientes Objetivos de Desarrollo Sostenible (ODS) de la Agenda 2030: Objetivo 11 (Ciudades y comunidades sostenibles) ya que promueve el uso de vehículos híbridos y eléctricos, reduciendo la contaminación atmosférica y mejorando la calidad del aire en las ciudades. Objetivo 13 (Acción por el clima) ya que al reducir las emisiones de gases de efecto invernadero mediante el fomento del uso de vehículos híbridos y eléctricos, contribuye a los esfuerzos globales para mitigar sus efectos. Objetivo 7 (Energía asequible y no contaminante) fomenta el uso de tecnologías limpias y eficientes en el sector del transporte.. Esta solución puede ser utilizada como una alternativa para establecer lugares personalizados de estacionamiento, promoviendo así una movilidad más sostenible y eficiente.
Piñeres Quinto Maria Jose, Universidad Cooperativa de Colombia
Asesor: Dra. Alma Delia Cuevas Rasgado, Universidad Autónoma del Estado de México

IMPLEMENTACIóN DE LA ENCUESTA DE DEPRESIóN DE BECK (BAI) PARA EL ESTUDIO DE ESTRéS DE LOS ESTUDIANTES USANDO PYTHON


IMPLEMENTACIóN DE LA ENCUESTA DE DEPRESIóN DE BECK (BAI) PARA EL ESTUDIO DE ESTRéS DE LOS ESTUDIANTES USANDO PYTHON

Piñeres Quinto Maria Jose, Universidad Cooperativa de Colombia. Asesor: Dra. Alma Delia Cuevas Rasgado, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

El estrés y la ansiedad son problemas prevalentes que afectan a diversos grupos poblacionales, teniendo un impacto significativo en su bienestar y funcionamiento diario [1]. Se pretende realizar un estudio dirigido a los jóvenes universitarios para medir la ansiedad y el estrés por medio del cuestionario de BECK.  Abordar esta problemática, permitirá que con esta metodología especifica, los estudiantes de la Universidad Autónoma del Estado de México y la Universidad Nacional Autónoma De Nicaragua puedan medir sus sentimientos con relación a sus emociones. A pesar de la existencia de herramientas y cuestionarios estandarizados, como el cuestionario de BECK, la implementación de tecnologías avanzadas puede mejorar la precisión y accesibilidad de estas mediciones. En este contexto, se propone el desarrollo de una herramienta utilizando Python para automatizar y facilitar la medición de la ansiedad y el estrés en los jóvenes. Esta herramienta no solo permitirá la recolección y análisis de datos de manera más eficiente, sino que también proporcionará retroalimentación inmediata a los estudiantes sobre su estado emocional.



METODOLOGÍA

Para iniciar, es necesario conocer commo funciona el Inventario de Depresion de Beck, ya que este consta de 21 preguntas en las cuáles el usuario va a responder de manera de un rango que va de 0 a 3, en donde 0 siginifca "En absoluto", 1 significa "levemente", 2 siginifica "moderadamente" y por último 3 significa "severamente". Al empezar a implementar este sistema en Python, se crean las variables de las diferentes respuestas que va a seleccionar el usuario. Luego, en el código se les muestra una a una las preguntas pertenecientes al BAI para que este pueda ir respondiendo cada una de estas. Este código va a tener un una condición For para la variable de respuesta porque los resultados solo están destinados a ser 0, 1, 2 y 3, de lo contrario, el mismo código lanzará un error. Si las respuestas son válidas, estas mismas se irán almacenando en una lista vacia en donde se irán sumando respectivamente y al final lanzará el puntaje correspondiente y medirá el estado de estres. Este código, tiene un espacio adicional en donde el usuario podrá describir (si lo desea) como se siente emocionalmente. La descripción del usuario se estudiará por medio del Analisis de sentimientos (especificamente utilizando vader_lexicon) y como resultado obtendremos si ese comentario pertenece a un valor positivo, negativo o neutro. Al final se le brindará recomendaciones al usuario dependiendo sus resultados.


CONCLUSIONES

Al integrar el cuestionario digital del BAI en una plataforma programada en Python, se facilita una evaluación sistemática y eficiente de los síntomas depresivos que los estudiantes pueden experimentar, reflejando directamente su nivel de estrés. La capacidad del código para gestionar y procesar respuestas permite una evaluación precisa y automatizada de los niveles de depresión, mejorando la accesibilidad y la eficiencia del proceso de evaluación. Además, la incorporación del análisis de sentimientos en el programa amplía significativamente el alcance de la evaluación al proporcionar una dimensión adicional de entendimiento emocional. Mediante el uso de bibliotecas de procesamiento de lenguaje natural y análisis de sentimientos, como VADER, el programa puede analizar el tono y el contexto emocional de las respuestas de los estudiantes, detectando no solo las manifestaciones explícitas de estrés, sino también los matices emocionales subyacentes. Esto permite una comprensión más profunda de cómo se siente el usuario, y ofrece un perfil más completo y contextualizado de su estado emocional.    Referencia: [1] Calatayud-Mendoza, A. P., Apaza-Mamani, E., Huaquisto-Ramos, E., Belizario-Quispe, G. y Inquilla-Mamani, J. (2022). Estrés como factor de riesgo en el rendimiento académico en el estudiantado universitario (Puno, Perú). Revista Educación, 46(2). http://doi.org/10.15517/revedu.v46i2.47551
Pintor Fulgencio Andrea, Instituto Tecnológico de Morelia
Asesor: Dr. José Luis Monroy Morales, Instituto Tecnológico de Morelia

DESARROLLO Y PROGRAMACIóN DE UNA INTERFAZ DIDáCTICA PARA MOSTRAR EL EFECTO DE LAS CORRIENTES ARMóNICAS EN SISTEMAS ELéCTRICOS DE POTENCIA.


DESARROLLO Y PROGRAMACIóN DE UNA INTERFAZ DIDáCTICA PARA MOSTRAR EL EFECTO DE LAS CORRIENTES ARMóNICAS EN SISTEMAS ELéCTRICOS DE POTENCIA.

Pintor Fulgencio Andrea, Instituto Tecnológico de Morelia. Asesor: Dr. José Luis Monroy Morales, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La calidad de la energía eléctrica se refiere a la entrega de energía que cumple con las expectativas de los usuarios en cuanto a voltaje, frecuencia, forma de onda y ausencia de perturbaciones. Mantener un buen nivel de calidad energética es crucial para asegurar la eficiencia y durabilidad de los dispositivos eléctricos, reduciendo el riesgo de mal funcionamiento y pérdida de datos, y proporcionando un entorno seguro y confiable. Los armónicos, que son múltiplos de la frecuencia fundamental generados por cargas no lineales, pueden distorsionar la forma de onda eléctrica y afectar el rendimiento de los dispositivos conectados a la red. La comprensión y medición de los armónicos es compleja debido a su naturaleza técnica y la falta de representaciones visuales intuitivas, lo que dificulta la evaluación y corrección efectiva de estos problemas. Este trabajo presenta el desarrollo de una interfaz que facilita la medición y visualización de los armónicos.



METODOLOGÍA

El desarrollo del proyecto se llevó a cabo en varias etapas para crear una interfaz didáctica. En primer lugar, se realizó una investigación sobre los conceptos fundamentales de los armónicos y se investigaron ejemplos de interfaces similares. Se revisaron artículos y se analizaron herramientas disponibles para el desarrollo de interfaces didácticas. Con esta información, se definieron los objetivos del proyecto y se elaboró un cronograma detallado para guiar el proceso de desarrollo.  Se diseñó la estructura de la interfaz. Se creó un esquema detallado que incluía la disposición de botones, cuadros de texto, gráficos y otras secciones clave. Se identificaron los conceptos esenciales sobre los armónicos que debían incluirse y se validó el contenido con expertos en la materia para garantizar su precisión y relevancia. Con el diseño establecido, se procedió al desarrollo de la interfaz inicial. Se seleccionaron las herramientas de desarrollo adecuadas y se construyó la estructura básica de la interfaz. Se implementaron las funciones necesarias para la navegación entre secciones y se desarrollaron los primeros módulos de contenido, estableciendo así la base para el desarrollo de funcionalidades más avanzadas. En la etapa de implementación de funcionalidades, se añadieron gráficos y simulaciones que permiten a los usuarios observar el efecto de los armónicos en la forma de onda. Se incorporaron controles interactivos, como sliders, que permiten ajustar las magnitudes de los armónicos y visualizar los cambios en tiempo real. También se implementaron indicadores de Total Harmonic Distortion (THD), representados por luces de colores (verde, amarilla y roja), que muestran el nivel de distorsión. Finalmente, se llevaron a cabo pruebas para validar la precisión y funcionalidad de la interfaz. Se realizaron pruebas con usuarios expertos para confirmar que la herramienta cumpliera con los objetivos. La retroalimentación obtenida permitió hacer ajustes necesarios para resolver problemas identificados y mejorar la precisión de las simulaciones y visualizaciones. Al finalizar, se preparó una presentación que destacaba los objetivos del proyecto, el proceso de desarrollo y los resultados obtenidos, y se elaboró un reporte final que documenta el trabajo realizado y las lecciones aprendidas a lo largo del proyecto.


CONCLUSIONES

La interfaz desarrollada permite a los usuarios ingresar manualmente o ajustar mediante sliders las magnitudes de los diferentes armónicos. La interfaz muestra un gráfico de la forma de onda distorsionada en comparación con la fundamental, lo que permite observar cómo cambia la forma de onda. Además, incluye un apartado para mostrar el Total Harmonic Distortion (THD) con indicadores de estado representados por luces de colores (verde, amarilla y roja), que varían según la aceptabilidad de la distorsión de la forma de onda. Esta interfaz está diseñada para abordar la complejidad técnica de los armónicos de manera didáctica, ofreciendo una representación visual clara que facilita la comprensión y experimentación. Con los resultados obtenidos hasta ahora, se espera que esta herramienta sea útil para estudiantes y profesionales del área de ingeniería eléctrica, proporcionando una plataforma intuitiva y práctica para el estudio y análisis de los armónicos en sistemas eléctricos.
Pinzón Giraldo Gabriela, Universidad del Quindío
Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso

DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE


DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE

Cardona Arango Laura Camila, Universidad del Quindío. Mendoza Pérez Esther Valeria, Instituto Politécnico Nacional. Pinzón Giraldo Gabriela, Universidad del Quindío. Romero Alcantara Regina, Instituto Politécnico Nacional. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

La rápida urbanización y el aumento poblacional en México han intensificado el uso de recursos naturales y la producción de residuos, agravando los problemas ambientales. San Felipe del Progreso, con características rurales y semiurbanas, enfrenta desafíos específicos en sostenibilidad. Las casas tradicionales en la región dependen de energías no renovables y carecen de sistemas eficaces para la gestión del agua y los residuos, contribuyendo a emisiones de CO₂ y contaminación ambiental. La sobreexplotación de acuíferos y la gestión inadecuada de residuos sólidos son problemas críticos. La construcción de viviendas ecológicas autosustentables en San Felipe del Progreso puede abordar estos problemas a través de soluciones sostenibles. La adopción de energías renovables, como paneles solares, y sistemas de riego para huertos, así como el diseño bioclimático y el uso de materiales sostenibles, mejoran la eficiencia energética y reducen la dependencia de fuentes de energía no renovables. La recolección de agua de lluvia y la reutilización de aguas grises optimizan el uso del agua, mientras que los sistemas de compostaje y reciclaje disminuyen la generación de residuos.  Este enfoque no solo mejora la calidad de vida en la región, sino que también puede servir como modelo replicable para otras comunidades en México, alineándose con los objetivos de desarrollo sostenible de la Agenda 2030 de la ONU.



METODOLOGÍA

Para desarrollar una casa ecológica autosustentable en San Felipe del Progreso en siete semanas, se siguió una metodología estructurada con herramientas tecnológicas y visitas académicas. El docente investigador proporcionó un cronograma detallado de tareas y objetivos semanales, y se utilizó la plataforma Classroom para gestionar recursos y facilitar la comunicación. Se brindaron asesorías diarias y se proporcionó literatura adicional para enriquecer el aprendizaje. Se realizaron tres visitas académicas clave: a una casa ecológica en San Juan Coajomulco, a la ecoaldea "Los Carrizos" en San Miguel de Allende, y al Instituto Mexicano de la Tecnología del Agua en Jiutepec. Para recopilar datos climáticos, gráficos y planos, se usaron diversas plataformas como Weather Spark, Climate Consultant, AutoCAD, inventor de Autodesk y PvSyst. En las que se hicieron estudios y simulaciones que aseguraban el correcto diseño y permitieron analizar diversos procesos para mejorarlos y anticipar soluciones enfocadas a la optimización de los mismos. Se encuestó a los estudiantes del Tecnológico de Estudios Superiores de San Felipe del Progreso para obtener información sobre las necesidades de la comunidad. Con estos datos, se diseñó y construyó la casa, optimizando la orientación para maximizar la luz solar y la eficiencia energética, e implementando un sistema de climatización pasiva. Se realizaron evaluaciones periódicas y se ajustó el diseño según la retroalimentación del asesor. Las condiciones climáticas y otros factores ambientales fueron esenciales para adaptar la vivienda al entorno local. Las encuestas a la comunidad proporcionaron datos valiosos que guiaron el diseño para responder efectivamente a las necesidades locales.


CONCLUSIONES

La casa en San Felipe del Progreso fue diseñada para maximizar la captación de luz solar y mejorar la eficiencia energética, considerando la trayectoria del sol a lo largo del año. Se implementó un sistema de climatización pasiva con aislamiento adecuado, ventilación cruzada y materiales térmicamente eficientes, reduciendo la necesidad de calefacción y refrigeración artificiales. Se integraron diversas estrategias de diseño pasivo, como la optimización de la orientación y el uso de materiales de construcción eficientes. Se realizó un levantamiento exhaustivo de cargas eléctricas y servicios necesarios para dimensionar adecuadamente los sistemas energéticos y de recursos. Se diseñó e implementó un sistema de generación de energía renovable basado en paneles solares, permitiendo la autosuficiencia energética y la interconexión con la red de la Comisión Federal de Electricidad (CFE). También se instaló un sistema de iluminación eficiente con tecnología LED y un solario e invernadero para la producción de alimentos y confort térmico. Se seleccionaron materiales de construcción ecológicos para un excelente aislamiento térmico y acústico. Los baños secos reducen el consumo de agua y facilitan el reciclaje de nutrientes. Un calentador solar suministra agua caliente, mejorando la autosuficiencia energética. Se construyeron cisternas subterráneas para la recolección y almacenamiento de agua de lluvia, y se implementó un sistema completo de recolección y tratamiento de aguas pluviales para diversos usos, mejorando la sostenibilidad hídrica. El sistema de tratamiento de aguas grises diseñado permite su reutilización en el riego de áreas verdes y otros usos no potables, contribuyendo a la eficiencia y sostenibilidad del agua. De esta manera buscamos trasformar la forma en la que las viviendas son edificadas. Promover el conocimiento y hacerlo accesible a todo aquel involucrado. Las viviendas sustentables representan una solución integral a las nuevas necesidades consecuentes de la crisis climática. Nuestro proyecto proporciona las bases teóricas para la aplicación práctica en diseño y construcción de una casa ecológica autosustentable, con estas es posible cambiar los criterios utilizados actualmente en la toma de decisiones de edificaciones; este proyecto representa una propuesta ambiciosa para un futuro sostenible, sustentable y accesible, fácilmente replicable en todo el mundo.
Pinzon Huaza Nicolas, Universidad Cooperativa de Colombia
Asesor: Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez

APLICACIóN AVANZADA DE IA PARA LA PREDICCIóN PRECISA DE TIEMPOS EN COMPETENCIAS DE ATLETISMO


APLICACIóN AVANZADA DE IA PARA LA PREDICCIóN PRECISA DE TIEMPOS EN COMPETENCIAS DE ATLETISMO

Aguilar Aviles Sharon Guadalupe, Instituto Tecnológico Superior de Guasave. Pinzon Huaza Nicolas, Universidad Cooperativa de Colombia. Asesor: Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Uno de los principales problemas en las competencias de velocidad en el atletismo es la falta de un enfoque sistemático y basado en datos para optimizar el entrenamiento de los atletas. A pesar de que los Juegos Olímpicos de Verano son un evento que atrae a millones de espectadores y a numerosos apostadores en las pruebas de velocidad, muchos programas de entrenamiento no logran maximizar las capacidades físico-atléticas de los corredores. Los tiempos de los ganadores en estas competencias han mostrado una tendencia a disminuir de forma exponencial, lo que hace que la victoria sea cada vez más difícil sin un sistema avanzado de análisis de información. Investigaciones actuales en el ámbito del aprendizaje automático (Machine Learning) han demostrado que estos sistemas pueden proporcionar un entrenamiento óptimo para los atletas, permitiéndoles mejorar significativamente sus habilidades. Sin embargo, hasta ahora, muchos entrenadores y equipos no han adoptado completamente estas tecnologías. La falta de implementación de sistemas basados en machine learning limita la capacidad de los atletas para predecir y alcanzar los tiempos necesarios para clasificarse en las finales o ganar competencias de alto rendimiento. La ausencia de un sistema de análisis de información eficaz impide que los atletas determinen con precisión los tiempos objetivos que deben alcanzar para tener éxito en sus carreras. Esto subraya la necesidad de integrar tecnologías avanzadas en el entrenamiento de velocidad para ayudar a los atletas a mejorar sus rendimientos y aumentar sus posibilidades de subir al podio en los eventos más prestigiosos del mundo.



METODOLOGÍA

En este estudio, se propuso recopilar los datos para las pruebas de 100, 200 y 400 metros planos de los Juegos Olímpicos de Verano, abarcando el período desde 1968 hasta 2021 (ya que a partir de 1968 se comenzaron a registrar los tiempos con cronómetros digitales). Estos datos se obtuvieron de la página oficial de los Juegos Olímpicos y, mediante una investigación de las bases de datos proporcionadas por dicho sitio, se permitió recopilar información que incluye tiempos, años, sedes, entre otros, obteniendo un conjunto de tiempos digitales que se utilizaron para el análisis y la aplicación de modelos predictivos. Posteriormente, se realizó el tratamiento de los datos. Los tiempos recolectados se dividieron en dos categorías: femenino y masculino. A su vez, los datos se organizaron por el tipo de medalla (oro, plata y bronce), y se estructuraron en cuatro columnas: año, tiempo oro, plata y bronce, dependiendo de la distancia en metros. Toda esta información se transfirió de Excel a CSV, separado por comas, y se graficó un histograma para visualizar la distribución de los tiempos. Para analizar los datos CSV, se utilizaron varios modelos predictivos supervisados, incluidos el Random Forest, K-Nearest Neighbors (KNN), el Árbol de Decisión y la Regresión Lineal. Se cargaron las bibliotecas necesarias, como pandas, numpy y sklearn, y se leyó un archivo CSV que contenía diferentes datos de tiempo. Se extrajo 'X' como variable característica y los tiempos de medalla de oro, plata y bronce como variables objetivo (y_gold, y_silver, y_bronze). Para garantizar una evaluación precisa, se dividieron los datos en conjuntos de entrenamiento y validación con una proporción 80-20. Para cada tipo de medalla, se definieron y entrenaron modelos específicos. Estos modelos se evaluaron utilizando métricas como el error cuadrático medio (MSE), el error absoluto medio (MAE) y el coeficiente de determinación R2. Dentro de la representación visual de los resultados y el desempeño de los modelos utilizados, se consideraron varias gráficas. La gráfica de dispersión se empleó para representar el modelo de Bosque Aleatorio, permitiendo observar la distribución de los datos y las predicciones realizadas por este algoritmo. Por otro lado, se utilizó el gráfico de caja, la matriz de confusión y el gráfico de barrera de decisión para el modelo K-Nearest Neighbors (KNN), proporcionando una visión detallada de la dispersión de los datos, la precisión de las predicciones y las zonas de decisión del modelo. Finalmente, los modelos de Regresión Lineal y Árbol de Decisión se representaron visualmente mediante un árbol de decisión, facilitando la interpretación de las decisiones tomadas por estos algoritmos y su relación con las variables predictoras. Además, se calcularon estadísticas descriptivas, incluyendo la media, la desviación estándar y los intervalos de confianza, para los tiempos asociados con cada medalla.


CONCLUSIONES

En esta investigación, se desarrolló un modelo de inteligencia artificial para predecir los tiempos de los atletas en las pruebas de velocidad de 100, 200 y 400 metros en las próximas Olimpiadas de Verano. Utilizando datos históricos de los Juegos Olímpicos desde 1968 hasta 2021, se entrenaron cuatro algoritmos supervisados (Random Forest, K-Nearest Neighbors, árbol de decisión y regresión lineal) para estimar los tiempos de los ganadores. La precisión de los modelos se benefició del uso de cronómetros digitales, introducidos en 1968, lo que permitió minimizar errores humanos en la medición de los tiempos. En la construcción de un modelo predictivo para las pruebas de 100, 200 y 400 metros planos masculinas y femeninas, se utilizó Google Colab para facilitar la experimentación con diferentes algoritmos. Para las pruebas masculinas, la Regresión Lineal fue la mejor opción para 100 y 200 metros, mientras que Random Forest se destacó en los 400 metros. En las pruebas femeninas, K-Nearest Neighbors (KNN) fue más preciso para 100 y 400 metros, y Random Forest para 200 metros. La precisión de estos modelos fue validada usando métricas como MSE, MAE y R², destacando que Random Forest ofreció un rendimiento excepcional hasta considerarse el mas adecuado.
Pioquinto Martha Adan, Universidad Autónoma de Guerrero
Asesor: Dra. Adriana Hernández Sánchez, Benemérita Universidad Autónoma de Puebla

ARQUITECTURA COMO REFERENTE DE DIVERSIDAD Y RESIGNIFICACIóN DEL ESPACIO A TRAVéS DE LA ELABORACIóN DE MAQUETAS HABTICáS Y TALLERES DE ADOBE EN CONTEXTOS PATRIMONIALES


ARQUITECTURA COMO REFERENTE DE DIVERSIDAD Y RESIGNIFICACIóN DEL ESPACIO A TRAVéS DE LA ELABORACIóN DE MAQUETAS HABTICáS Y TALLERES DE ADOBE EN CONTEXTOS PATRIMONIALES

Echeverría Blanco Geny Alejandra, Universidad Autónoma de Yucatán. Espinoza Valdez Daniela Fernanda Karina, Instituto Tecnológico de Tepic. Mondragón Hernández Octavio, Instituto Tecnológico de Tepic. Pioquinto Martha Adan, Universidad Autónoma de Guerrero. Asesor: Dra. Adriana Hernández Sánchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Durante la estancia comprendida del 17 de junio hasta el 2 de agosto, en el marco del XXIX Verano de la Investigación Científica y Tecnológica del Pacífico, se llevó a cabo la estancia de investigación del Verano Delfín en la Facultad de Arquitectura de la Benemérita Universidad Autónoma de Puebla (BUAP). El objetivo principal del programa fue fortalecer las capacidades investigativas de los estudiantes participantes, al tiempo que se daba continuidad a investigaciones previamente iniciadas. Para ello, los estudiantes se sumergieron en dos líneas de investigación clave relacionadas con el patrimonio arquitectónico y cultural de la ciudad de Puebla: "Accesibilidad, inclusión social y proyectos educativos en el espacio público y el patrimonio" y "Accesibilidad al patrimonio para débiles visuales y ciegos en el centro histórico de Puebla IV". Este trabajo se llevó a cabo bajo la experta guía del Dr. Christian Enrique de la Torre Sánchez y la Dra. Adriana Hernández Sánchez, quienes han liderado estas investigaciones en años anteriores y poseen una amplia trayectoria en estudios relacionados con el patrimonio cultural de Puebla. El grupo de participantes estuvo conformado por estudiantes de las carreras de arquitectura y ciencias de la educación, provenientes de diversas instituciones tanto de México como de Colombia. Esta diversidad académica y cultural dio lugar a un equipo multidisciplinario y eficiente, capaz de abordar de manera integral los desafíos planteados en las investigaciones.



METODOLOGÍA

Se implementó una metodología estructurada que combinó el estudio teórico con la investigación de campo, la colaboración interdisciplinaria y la participación comunitaria. Enfoque y Diseño de la Investigación: La metodología adoptó un enfoque cualitativo con un diseño de investigación-acción, que permitió a los estudiantes no solo analizar y comprender las problemáticas relacionadas con la conservación del patrimonio, sino también intervenir de manera práctica a través de talleres y propuestas de diseño. Procedimientos y Actividades: El programa fue organizado en una serie de actividades distribuidas a lo largo de las siete semanas, siguiendo un esquema flexible que permitió ajustes según las necesidades y contratiempos que surgieron. A continuación, se detalla el desarrollo semanal: Semana 1: Los estudiantes fueron introducidos a las temáticas de investigación y al contexto histórico de Puebla mediante recorridos guiados por el Centro Histórico y visitas a instituciones clave como el Laboratorio de Arqueología Urbana de la BUAP y el Archivo Histórico Municipal. Semana 2: Se presentaron los proyectos de investigación de los profesores anfitriones, se realizaron recorridos por los barrios de La Luz y Xanenetla para identificar actores relevantes, y se invitó a los vecinos a participar en talleres comunitarios. Además, se exploraron proyectos de investigación sobre la arquitectura tradicional en la región. Semana 3: Se elaboraron los planes de trabajo para los talleres de vivienda con niños en los barrios de Xanenetla y La Luz. También se realizó un levantamiento arquitectónico y diagnóstico de daños en un comedor comunitario de la parroquia de Analco, como parte de una solicitud de la comunidad local. Semana 4: Se llevaron a cabo entrevistas con la Asociación Leyers Puebla sobre la creación de maquetas táctiles y se continuó la búsqueda de información en archivos históricos. Además, se organizaron y ejecutaron talleres de adobe en el barrio de Analco, enfocados en la recuperación de saberes tradicionales. Semana 5: El equipo trabajó en colaboración con la Asociación Leyers Puebla en proyectos de maquetas táctiles y participó en un diseño repentino de mobiliario urbano para el Parque Jerusalem, en colaboración con estudiantes de arquitectura de la BUAP. Semana 6: Se realizaron sesiones de trabajo para la presentación de resultados preliminares tanto a la Asociación Leyers como a la comunidad académica de la BUAP. Se continuó con el levantamiento de deterioros en el comedor comunitario de Analco. Semana 7: Se revisaron los reportes finales y se concluyó el programa con un convivio. Análisis de Datos y Resultados: Los datos recolectados a lo largo de la estancia fueron analizados utilizando un enfoque cualitativo. Las observaciones de campo, fueron sistematizadas para identificar patrones y temas recurrentes relacionados con la accesibilidad, la inclusión social y la preservación del patrimonio. Estos hallazgos fueron presentados y discutidos en sesiones de trabajo, donde se generaron propuestas concretas para la mejora y preservación de los espacios estudiados.


CONCLUSIONES

La estancia permitió a los participantes enfrentar importantes desafíos y contribuir efectivamente a la preservación del patrimonio de Puebla. Un logro destacado fue la creación de maquetas hápticas para mejorar la accesibilidad del patrimonio para personas con discapacidad visual, que demostraron la capacidad de los estudiantes para aplicar conocimientos teóricos y ofrecieron soluciones innovadoras con un impacto duradero. Las pruebas confirmaron la eficacia de estas maquetas en hacer el patrimonio más inclusivo. Asimismo, la realización de talleres infantiles y actividades educativas en los barrios fundacionales de Puebla promovió la socialización del patrimonio y la recuperación de saberes tradicionales, ofreciendo a los estudiantes una valiosa experiencia práctica en investigación y conservación. La metodología combinó investigación teórica y práctica con colaboración interdisciplinaria, permitiendo a los estudiantes desarrollar competencias avanzadas. La flexibilidad y adaptación del equipo fueron clave para superar desafíos y cumplir con los objetivos del programa. En resumen, el programa avanzó significativamente en la preservación del patrimonio y brindó a los estudiantes un aprendizaje valioso, evidenciando el éxito y la importancia de continuar con iniciativas similares.
Pita Pérez Erika, Instituto Tecnológico de Morelia
Asesor: Mtro. Héctor Alejandro Galvez López, Universidad de Guadalajara

ACTUALIZACIóN DEL ARTíCULO CIENTíFICO LLAMADO "A SURVEY ON UNMANNED AND AUTOMATED VEHICLES IN WAREHOUSE ON INDOOR INVENTORY AND LOCALIZATION"


ACTUALIZACIóN DEL ARTíCULO CIENTíFICO LLAMADO "A SURVEY ON UNMANNED AND AUTOMATED VEHICLES IN WAREHOUSE ON INDOOR INVENTORY AND LOCALIZATION"

Pita Pérez Erika, Instituto Tecnológico de Morelia. Sánchez Guerrero María Alejandra, Instituto Tecnológico de Morelia. Asesor: Mtro. Héctor Alejandro Galvez López, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la gestión de la cadena de suministro, el almacenamiento de artículos presenta varios desafíos significativos, especialmente en lo que respecta a la gestión del inventario en almacenes. Es fundamental considerar aspectos como la clasificación de artículos entrantes, almacenados y salientes, así como prestar atención a las áreas, dimensiones, metodología de almacenamiento y tamaño de los artículos para optimizar la eficiencia. Para los artículos almacenados, es importante considerar la metodología de almacenamiento adecuada según sus características. Esto implica utilizar sistemas de almacenamiento que maximicen el uso del espacio y faciliten la accesibilidad. La organización debe ser tal que permita una fácil localización y recuperación de los productos, utilizando herramientas tecnológicas como sistemas GPS y software de gestión de almacenes para mejorar la precisión y eficiencia en la gestión del inventario.  



METODOLOGÍA

Para llevar a cabo la actualización del artículo científico enfocado en el manejo de inventario y la localización de artículos en almacenes mediante vehículos autónomos, se adoptó una metodología sistemática y rigurosa. El primer paso consistió en una lectura exhaustiva del artículo original para identificar las áreas específicas que requerían actualización y mejora. Este análisis inicial permitió establecer una hoja de ruta clara sobre los temas centrales y los puntos donde la información necesitaba ser reforzada o actualizada con datos y estudios más recientes. Posteriormente, se realizó una búsqueda exhaustiva de fuentes formales y académicas que trataran los temas abordados en el artículo original. Utilizando bases de datos científicas, revistas especializadas y publicaciones recientes, se recopilaron artículos, estudios de caso y revisiones de literatura relevantes. El objetivo fue obtener una visión amplia y actualizada sobre las últimas investigaciones y avances tecnológicos en el manejo de inventario y el uso de vehículos autónomos en almacenes. Con la información recopilada, se procedió a la integración de los nuevos datos en el texto original. Para ello, se revisaron y reescribieron las secciones del artículo que trataban sobre metodologías de manejo de inventario, tecnologías de localización y el papel de los vehículos autónomos en la optimización de procesos logísticos. Cada actualización fue respaldada con citas y referencias a los estudios y artículos más recientes, asegurando que el texto no solo reflejara las últimas tendencias y descubrimientos, sino que también mantuviera un alto nivel de rigor científico. Como último, se dio formato al nuevo texto, asegurando coherencia y cohesión en la redacción. Se cuidaron los aspectos formales del documento, como la estructura, el estilo académico y la correcta citación de las fuentes utilizadas. Este proceso culminó en una versión actualizada del artículo, enriquecida con información contemporánea y respaldada por una sólida base de datos, lo que garantiza su relevancia y utilidad para investigadores y profesionales encargados en el área de la automatización en almacenes.  


CONCLUSIONES

La actualización de un artículo científico sobre el manejo de inventario y la localización de artículos en almacenes mediante vehículos autónomos ofrece múltiples aprendizajes y beneficios. En primer lugar, permite adquirir un conocimiento profundo y actualizado sobre los últimos avances tecnológicos y metodológicos en el campo de la logística y la gestión de inventarios. Este proceso facilita la comprensión de cómo las innovaciones, como los vehículos autónomos, están transformando las operaciones en los almacenes, mejorando la eficiencia y reduciendo los costos operativos. Además, trabajar en la actualización de un artículo científico refuerza las habilidades de investigación y análisis crítico. Al buscar y evaluar fuentes formales, se desarrollan competencias para identificar información relevante y de alta calidad, así como para integrar de manera coherente y precisa nuevos datos en un texto preexistente. Este ejercicio también fomenta la capacidad de síntesis, al combinar información de diversas fuentes para crear un documento cohesionado y bien fundamentado. Otro aprendizaje significativo es la mejora en las habilidades de redacción académica y la familiarización con los estándares de citación y referencia. Al actualizar el artículo, se practica la escritura clara y precisa, adaptada al estilo académico, lo que es esencial para comunicar de manera efectiva los hallazgos y contribuciones científicas. La correcta citación de las fuentes también es crucial para mantener la integridad y credibilidad del trabajo. Finalmente, la experiencia de actualizar un artículo científico destaca la importancia de la colaboración y el intercambio de conocimientos entre la comunidad científica. Este proceso no solo contribuye al crecimiento personal y profesional del investigador, sino que también enriquece el campo de estudio, proporcionando información actualizada y relevante que puede ser utilizada por otros investigadores y profesionales. En resumen, actualizar un artículo científico es un ejercicio valioso que amplía el conocimiento, refuerza habilidades clave y promueve el avance de la ciencia.  
Plata Contreras Adriana, Instituto Tecnológico de Morelia
Asesor: Dr. Ricardo Orozco Cruz, Universidad Veracruzana

ESTUDIO ELECTROQUíMICO DE LA PISTIA STRATIOTES, UNA PLANTA ACUáTICA INVASORA, Y LA CUSCUTA JALAPENSIS UNA PLANTA PARASITA, COMO FUENTES DE INHIBIDORES VERDES DE CORROSIóN EN MEDIO SALINO


ESTUDIO ELECTROQUíMICO DE LA PISTIA STRATIOTES, UNA PLANTA ACUáTICA INVASORA, Y LA CUSCUTA JALAPENSIS UNA PLANTA PARASITA, COMO FUENTES DE INHIBIDORES VERDES DE CORROSIóN EN MEDIO SALINO

Plata Contreras Adriana, Instituto Tecnológico de Morelia. Asesor: Dr. Ricardo Orozco Cruz, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

La corrosión es un proceso natural en el que los metales se descomponen debido a reacciones electroquímicas con su entorno. Este fenómeno no solo tiene un impacto en la durabilidad de los equipos y estructuras, sino que también tiene un impacto económico significativo debido a los costos de mantenimiento y reparación. Los inhibidores naturales han surgido como una opción prometedora en la búsqueda de soluciones sostenibles y eficaces para proteger contra la corrosión. Estos inhibidores se encuentran en la naturaleza y pueden provenir de plantas, animales marinos, microorganismos y minerales. En contraste con los inhibidores sintéticos tradicionales que pueden ser perjudiciales para el medio ambiente, su potencial radica en su biodegradabilidad, baja toxicidad y renovabilidad.



METODOLOGÍA

Los extractos que se utilizaron para las soluciones, se nos otorgaron ya preparados, la concentración empleada de los extractos es de 0, 100, 200, 400, 600 y 1000 ppm. Materiales y solución de prueba. Los metales bajo estudio son un acero al carbono dulce A36 y un acero inoxidable AISI 304. La composición química nominal en porcentaje en peso (wt%) para cada uno de los aceros es la siguiente: A36 (0.25% C, 0.2% Cu, 0.1% Mn, 0.28% Si, 0.04% P, 0.05% S y el resto Fe) y AISI 304 (0.12% C, 9.5% Ni, 18.4% Cr, 1.4% Mn, 0.8% Si y el resto Fe). Los especímenes del acero se encapsularon con resina polimérica con el objetivo de delimitar un área de 1cm2 de exposición.   El electrolito de prueba es una solución al 3.5% de NaCl, una solución típica para simular la corrosividad del agua de mar. La concentración empleada de los extractos es de 0, 100, 200, 400, 600 y 1000 ppm.   Pruebas electroquímicas. Antes de las mediciones electroquímicas, los especímenes se preparan de acuerdo con la norma ASTM G1- 90. La superficie del metal se desbasta con papel de SiC de grado 220, 400 y 600, posteriormente esta se desengrasa con acetona y se enjuaga con agua destilada y se seca con aire caliente Las 32 pruebas electroquímicas se realizan en un potenciostato/galvanostato, utilizando una celda electroquímica con un arreglo típico de tres electrodos, donde el electrodo de trabajo (WE) son los especímenes del acero al carbono y acero inoxidable, como electrodo auxiliar (AE) se emplea una barra de grafito y como electrodo de referencia (RE) un electrodo de Ag/AgCl. Inicialmente se mide el potencial de circuito abierto (OCP) o potencial de corrosión (Ecorr) entre el WE y el RE durante 60 minutos, el cual debe de mantener un valor estable antes de que se apliquen las pruebas electroquímicas. A continuación, se describen los parámetros necesarios para llevar a cabo cada una de las pruebas. •          Curvas de polarización potenciodinámicas (CP): Además de determinar la velocidad de corrosión del material, las CPs permiten clasificar al compuesto evaluado como un inhibidor anódico, catódico o mixto. Se aplica un sobrepotencial de ±300 mV con respecto al potencial de corrosion (Ecorr) con una velocidad de barrido de potencial de 1mV/s. •          Resistencia a la Polarización Lineal (RPL): Se aplica un pequeño sobrepotencial de ±20 mV a partir del Ecorr, con una velocidad de barrido de potencial de 1mV/s. •          Espectroscopia de impedancia electroquímica (EIS): Técnica de corriente alterna. El rango de frecuencia utilizado es de 10000 a 0.01 Hz con una amplitud de perturbación de 10 mV vs Ecorr, tomando como lectura 10 puntos por cada década de frecuencia.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos acerca de las pruebas electroquímicas, gracias a los conocimientos adquiridos pudimos, determinar el tipo de comportamiento que tubo cada extracto, asi como la resistencia a la corrosión que tiene con cada concentración. Sin embargo al ser un trabajo extenso no se logró terminar con las pruebas, por lo tanto a las conclusiones que se pudieron llegar con las pruebas corridas son las siguientes: En el caso del inhibidor de la planta cuscuta:  Tuvo mejor comportamiento en el acero al carbón con respecto al acero inoxidable pues aumenta la resistencia a la corrosión en ambos aceros  Es necesario superar la concentración del inhibidor a 100ppm pues antes tiende a promover la velocidad de corrosión.  Se comporta como un inhibidor catódico En el caso de la planta Pistia stratiotes  De igual manera se comporta como un inhibidor catódico  La resistencia a la corrosión es menor con respecto a la cuscuta
Platt Lugo Elsa Gabriela, Universidad Vizcaya de las Américas
Asesor: Mg. Ever Ángel Fuentes Rojas, Universidad Libre

SISTEMA DE INFORMACIóN TURíSTICA PARA EL MUNICIPIO DE JENESANO Y TIBANá


SISTEMA DE INFORMACIóN TURíSTICA PARA EL MUNICIPIO DE JENESANO Y TIBANá

Platt Lugo Elsa Gabriela, Universidad Vizcaya de las Américas. Asesor: Mg. Ever Ángel Fuentes Rojas, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

Jenesano es un municipio ubicado en la provincia de Márquez departamento de Boyacá en Colombia, conocido por sus fiestas, gastronomía y paisajes. Fundado en honor al municipio italiano de Genazzano, que significa pueblo sano. En 1999 Jenesano es declarado por el Fondo Mixto de Cultura de Boyacá como el pueblo más lindo de Boyacá. Entre los 38 municipios inscritos, Jenesano fue elegido porque reunió sus condiciones de conservación arquitectónica, belleza, orden y limpieza exigidos por el jurado para otorgar la distinción. Tibaná viene de la lengua muisca que significa capitán, en donde habitaba la tribu de los tibanaes, cuyo cacique era tributario del cacique de Tunja. En la economía, Tibaná fue la cuna de la ganadería y actualmente es un fuerte productor de pera y manzana. También es conocido por producir artesanías como canastos en chusque y gaita. La señora Magdalena es una reconocida artesanía del municipio, se especializa en la elaboración de diversos tipos de artesanías con materiales como paja blanca de paramo y fique. Aunque todo esto es algo muy bueno para los municipios, son poco reconocidos, por lo que afecta en su desarrollo turístico. La poca promoción turística y la poca información en redes es difícil para el turista saber lo que puede encontrar en el municipio como actividades o lugares para visitar. La nula existencia de alguna plataforma que proporcione dicha información siendo clara y detallada, afecta considerablemente el turismo en los municipios.



METODOLOGÍA

Para crear este sistema de información turística, se realizaron investigaciones documentales tanto de los municipios como el turismo en otros países, como lo manejan y que actividades sugieren. Así también, se realizaron visitas a los municipios para documentar las actividades que se pueden hacer en estos e investigar la historia, costumbres y tradiciones para tener más información sobre estos. Así también analizar unas encuestas realizadas con anterioridad a turistas, habitantes y operadores turísticos de la zona. Con estos documentos se pudo recaudar información para el sistema de información turístico y para saber las necesidades tanto de habitantes, turistas y operadores turísticos. Después de la visita a los municipios, se realizaron reportes donde se describe información de los municipios con base a la experiencia de la investigadora en su visita a los municipios. Siendo de gran ayuda, ya que al experimentar los municipios como un turista visitándolos, da entrada a ponerse en el lugar del turista y vivir tanto lo bueno como lo malo de cada municipio, lo que se necesita mejorar y/o promocionar. Se creo, también. una investigación documental sobre cada municipio para tener un panorama más amplio de estos y así también saber cuánta información se puede recaudar de las páginas del gobierno y la facilidad para acceder a esta. Teniendo la investigación de campo, documental y experimental, se realizaron prototipos de los sistemas de información turísticos, así también, áreas de descanso para los recorridos de ecoturismo y turismo aventura. Proponiendo actividades para toda la familia o para ciertos sectores, recorridos por los páramos, el municipio o restaurantes de la zona.


CONCLUSIONES

Durante la estancia, se logro adquirir conocimientos tanto teóricos como prácticos para fomentar el turismo en los municipios de Jenesano y Tibaná, como incrementar las visitas de turistas, como mejorar su calidad, las actividades y recorridos que se pueden realizar. Ambos municipios tienen el potencial que se requiere para ser turísticamente atractivos, solo falta promocionarlos correctamente para que las personas puedan tener información y los aliente a visitar tanto Jenesano y Tibaná como los municipios circunvecinos de la zona. Incrementando el turismo en estos municipios, personas como la señora Magdalena, eleva la economía en la zona y se generan empleos para sus habitantes. Así también, un municipio cuidado, aparte de ser visitado, se busca la forma de proteger sus zonas importantes y naturales. Creando paginas o redes sociales donde se comuniquen las fiestas y eventos de los municipios, así como actividades que se pueden realizar se logran atraer turistas. Darles capacitación a los habitantes o a los que prestan algún servicio de hotelería, restaurantes o actividades que requieren de alguna persona que este en contacto con el turista, para mejorar el servicio al cliente y la calidad de las visitas de extranjeros.
Plaza Carrizales Laila Celeste, Universidad Veracruzana
Asesor: Dra. Ana Cecilia Borbón Almada, Universidad de Sonora

APLICACIóN DE PLACA DE POLIESTIRENO EXTRUIDO COMO AISLANTE TéRMICO EN MURO DE TABIQUE ROJO RECOCIDO


APLICACIóN DE PLACA DE POLIESTIRENO EXTRUIDO COMO AISLANTE TéRMICO EN MURO DE TABIQUE ROJO RECOCIDO

Plaza Carrizales Laila Celeste, Universidad Veracruzana. Asesor: Dra. Ana Cecilia Borbón Almada, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El tabique rojo recocido es uno de los materiales más tradicionales y ampliamente utilizados en la construcción de muros en muchas partes del mundo, este material se obtiene mediante la cocción de arcilla a altas temperaturas, lo que le confiere su característica coloración rojiza y su resistencia. El sistema constructivo de muro de tabique rojo recocido ofrece múltiples ventajas en términos de resistencia, durabilidad, y estética, convirtiéndolo en una opción popular y confiable en la construcción, empleando una correcta aplicación se pueden obtener edificaciones confortables, eficientes y de larga duración. En esta investigación se realizó un cálculo de un muro de tabique rojo recocido proponiendo una placa de poliestireno extruido Termofoam, empleandola como un aislante térmico para este sistema constructivo, con los datos obtenidos se realizó un poster educativo.



METODOLOGÍA

La normativa que se empleó para conocer la conductividad térmica y lograr obtener la resistencia térmica de cada capa que compone al sistema constructivo son: NMX-C-460-ONNCCE-2009. NOM-020-ENER-2011. NOM-018-ENER-2011. NMX-C-181-ONNCCE-2010. Ficha técnica placa Termofoam proporcionada por el proveedor Acerored.


CONCLUSIONES

 Capas del sistema constructivo Aplanado mortero cemento - arena 1:2 Espesor (m): 0.010 Conductividad Térmica (W/m*K): 0.630 Resistencia térmica (m2K/W): 0.0159 Tabique de barro rojo recocido 7 x 14 x 28 Espesor (m): 0.140 Conductividad Térmica (W/m*K): 0.768 Resistencia térmica (m2K/W): 0.1823 Placa de poliestireno extruido de 1" Espesor (m): 0.0254 Conductividad Térmica (W/m*K): 0.0267 Resistencia térmica (m2K/W): 0.9513 Aplanado mortero cemento - arena 1:2 Espesor (m): 0.010 Conductividad Térmica (W/m*K): 0.630 Resistencia térmica (m2K/W): 0.0159 Resistencia aire exterior Espesor (m): 1.000 Conductividad Térmica (W/m*K): 13.00 Resistencia térmica (m2K/W): 0.0769 Resistencia aire interior Espesor (m): 1.000 Conductividad Térmica (W/m*K): 8.10 Resistencia térmica (m2K/W): 0.1235 Total resistencia térmica en un muro de tabique recocido con placa de poliestireno extruido Resistencia térmica (m2K/W): 1.3657 Con los datos obtenidos podemos llegar a la conclusión que construir un muro de tabique rojo recocido no es una buena opción si estamos residiendo en un lugar con temperaturas muy altas o extremas, ya que este sistema no es muy aislante por el tipo de materiales que lo constituyen, como por ejemplo, el tabique empleado tiene una conductividad térmica relativamente alta, lo que significa que puede transferir calor más fácilmente en comparación con otros materiales de construcción, por lo cual podemos observar una mayor pérdida de calor en invierno y una ganancia de calor en verano, haciendo que los edificios de tabique sean menos eficientes energéticamente.
Pola Marquez Ariel Alonso, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Nestor Antonio Morales Navarro, Instituto Tecnológico de Tuxtla Gutiérrez

ROBOT DIDACTICO PARA LA ENSEñANZA DE PROGRAMACION A NIVEL PRIMARIA


ROBOT DIDACTICO PARA LA ENSEñANZA DE PROGRAMACION A NIVEL PRIMARIA

Gomez Morales Bryan, Instituto Politécnico Nacional. Pola Marquez Ariel Alonso, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Nestor Antonio Morales Navarro, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

La educación es el punto donde los niños comienzan a formarse y a comprender como funciona la sociedad, la tecnología y la vida, aprender sobre todos los temas es necesario. Si bien no todos los niños tienen los mismos sueños y mucho menos apuntan a lo mismo, es importante proveerles educación de calidad y que se sientan atraídos por la ciencia y tecnología. A todos nos emociona saber que sucederá en el futuro y que mejor que los niños empiecen a tener las bases para construirlo. Datos otorgados por la SEP indican que durante el ciclo escolar 2019-2020 y 2020-2021, Chiapas registró una alta deserción escolar y baja de matrícula de 45 mil 725 estudiantes: 29 mil 305 de ellos alumnos de escuelas públicas y 16 mil 420 alumnos de escuelas privadas. Una de las problemáticas a las que se enfrenta la educación es la falta de interés por los estudiantes, en este caso niños, pues desde muy temprana edad no se interesan por nada, pues solo se les explica y que ellos lo manejen con su propia interpretación, por que no es lo mismo hablar sobre robots que trabajar directamente con uno, y eso es lo que queremos lograr, que desde niños, vean como es la vida fuera de su cabeza, que lo que imaginan lo pueden lograr.



METODOLOGÍA

Mediante el uso del lenguaje de programación Python, una tarjeta Raspberry 4, y un robot tipo tanque, se decidió enfocar el trabajo hacía el desarrollo y comprensión de la lógica en los niños. Para ellos, nos cuestionamos ¿cómo podríamos hacer que los niños entiendan esta misma lógica y parte de la codificación sin la necesidad de entender tantos tecnicismos? Nuestra metodología comprende lo siguiente: 1.- Armar el robot omnidireccional 2.- Implementar algoritmos de visión artificial para detección de objetos de color rojo 3.- Implementar algoritmos para realizar los movimientos del robot (Adelante, Izquierda, Derecha, Reversa) 3.- Adaptar los algoritmos de visión para interactuar con los movimientos del robot, para realizar el seguimiento de objetivos 4.- Establecer una estrategia por bloques para que el niño pueda dar instrucciones al robot y este los ejecute de manera secuencial. Desarrollo de la metodología Por lo tanto, nosotros empezamos de manera sencilla a realizar códigos encapsulados los cuales nos permitan reconocer distintos colores, ya sea mediante una imagen directamente o también con la cámara de la computadora, esto lo hicimos principalmente para pensar en cómo podríamos llevarlo hacia el tanque y que podríamos hacer con él, por lo que optamos en que una buena idea seria que, dependiendo de los colores que se muestren en la cámara, el robot haga distintas acciones tales como avanzar, detenerse, girar, etc. Una vez obtenida la idea, pasamos a la obtención del robot, el cual tuvimos que armar desde 0, ya que al momento de conseguirlo, este venia totalmente desarmado y tuvimos que montarlo, una vez que lo logramos, nos pusimos en marcha con la realización de todo el trabajo, encontrar la lógica para el trabajo no es algo tan sencillo como parece, mientras para un humano le es fácil identificar ciertos patrones y colores, para una computadora es totalmente distinto, nos gustaría añadir la frase que nos compartió el Dr. Néstor y es que, cuando uno llega a una casa vacía suele decir Aquí no hay nadie por lo que nosotros como humanos percibimos y captamos el mensaje en forma de que ese lugar está vacío, no contiene nada, por que esa es la lógica con la que hemos trabajado y entendido toda nuestra vida, y aunque técnicamente nosotros entendemos que ese lugar no contiene nada, para una computadora no es así, la lógica correcta dentro del Aquí no hay nadie sería Aquí hay nada/nadie, si tratamos de pasar este mensaje hacia una computadora, esta entenderá que Aquí no hay nadie quiere decir que realmente hay algo, que es la nada sino la ausencia de algo, y al decir No hay nadie se está diciendo explícitamente que ahí hay algo, al no haber ausencia, se da a entender que ese lugar contiene algo, por lo que la lógica que nosotros percibimos como humanos es un poco distinta a la lógica que percibe la computadora pero a su vez, la más razonable. Una vez que logramos realizar el código de detección de colores, detección de movimiento, de distancia y de patrones, nos tocó combinarlos y hacerlos funcionar en conjunto, se trabajaron de manera aislada para que no genere problemas, una vez realizados todos los códigos, es un poco mas sencillo encontrar la secuencia y lógica para combinarlos. Ya combinados, realizamos distintas pruebas de ejecución y logramos ver que funcionaba en la computadora, ahora lo que nos tocaba realizar era montarlo sobre la tarjeta raspberry, la cual es la mini computadora que hará trabajar al robot tanque. Nos resultó un poco mas tedioso trabajar sobre la minicomputadora ya que se maneja sobre entornos Linux y no estamos tan acostumbrados a trabajar sobre la misma, por lo que la ejecución de comandos y el manejo del sistema operativo nos costó un poco, pero al paso de los días nos fuimos acoplando. Obtenidos los códigos anteriormente mencionados, los montamos sobre el IDE de Thonny (el cual nos sirve para programar en lenguaje Python) para ver como funcionaba y si todo se encontraba en orden, afortunadamente todo salió bien después de tantas pruebas y errores, al fin lo habíamos logrado, el robot ya sabia diferenciar colores y que hacer para la detección de cada color, si encontraba el color rojo, marchaba hacia atrás, si encontraba el color verde, marchaba hacia adelante, logramos hacerlo así hasta con 6 colores.


CONCLUSIONES

Durante la estancia realizada en el periodo Junio-Julio, logramos adquirir distintos conocimientos en distintas áreas tales como robótica, ética y programación, dentro de esta rama se tocan distintos temas, esperamos que la realización de esta investigación se siga trabajando y que los gobiernos opten por mejorar sus planes de estudios e inculcar desde temprana edad la lógica programacional y se sientan atraídos por la creación de un mejor futuro.
Polanco Cortes Johan Oswaldo, Universidad Tecnológica de Nayarit
Asesor: Dr. Jorge Luis Bacca Acosta, Fundación Universitaria Konrad Lorenz

APLICACIóN MULTIUSUARIO EN REALIDAD VIRTUAL PARA GAFAS META QUEST 2 ACERCA DE LA HISTORIA DE MIGRACIóN DE KARINA.


APLICACIóN MULTIUSUARIO EN REALIDAD VIRTUAL PARA GAFAS META QUEST 2 ACERCA DE LA HISTORIA DE MIGRACIóN DE KARINA.

Polanco Cortes Johan Oswaldo, Universidad Tecnológica de Nayarit. Urenda Garay Luis Alonso, Universidad Tecnológica de Nayarit. Asesor: Dr. Jorge Luis Bacca Acosta, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

Desde hace varios años Colombia ha experimentado una significativa afluencia de migrantes venezolanos debido a la crisis política, económica y social en Venezuela. Según datos del Gobierno colombiano y de organizaciones internacionales, millones de venezolanos han cruzado la frontera en busca de mejores oportunidades, seguridad y estabilidad.   Este movimiento masivo ha generado diversos desafíos tanto para los migrantes como para las comunidades receptoras. Entre estos desafíos se encuentran la integración socioeconómica, el acceso a servicios básicos y la aceptación social de los migrantes. A pesar de los esfuerzos gubernamentales y de organizaciones no gubernamentales para atender las necesidades de los migrantes, persisten prejuicios y actitudes discriminatorias en algunas partes de la sociedad colombiana.   La falta de concientización y sensibilización en la población colombiana respecto a la situación de los migrantes venezolanos ha generado estigmatización, discriminación y, en algunos casos, xenofobia. Este problema afecta negativamente la integración de los migrantes y la cohesión social en las comunidades receptoras.



METODOLOGÍA

El proyecto de concientización sobre las personas venezolanas en Colombia comenzó con una entrevista realizada anteriormente a una migrante venezolana. La entrevista se complementó con representaciones gráficas, a través de dibujos, de los puntos más destacados de su historia. Estas imágenes gráficas proporcionaron una representación visual poderosa de su experiencia, sirviendo como base para el desarrollo del proyecto. Primero, se consolidaron los conocimientos en desarrollo de aplicaciones en Unity completando el curso Create with VR, enfocado en el desarrollo de experiencias de realidad virtual, incluyendo la configuración de VR, uso de controladores de movimiento y optimización del rendimiento, además de realizar pruebas y capacitación para el uso de las gafas de realidad virtual Meta Quest 2, asegurando un uso correcto y efectivo de las mismas. Con los conocimientos adquiridos, se inició la construcción de un prototipo de aplicación multiusuario con realidad virtual, pudiendo añadir una gran cantidad de personajes en escena. Integrar elementos 3D que ayuden a contar la historia de migración basada en las representaciones gráficas de la entrevista. Luego, se realizaron pruebas exhaustivas del prototipo de la aplicación con realidad virtual para identificar oportunidades de mejora. Basándose en los resultados de estas pruebas, se aplicaron las mejoras necesarias para perfeccionar la aplicación. Finalmente, se redactó un informe detallado documentando todo el proceso, desde la concepción y desarrollo del proyecto hasta las pruebas finales y los ajustes realizados. Para gestionar el proyecto, se utilizó una metodología ágil como SCRUM para manejar el progreso de las tareas y mantener la transparencia y colaboración entre los miembros del equipo. La implementación de esta metodología en el proyecto permitió una gestión efectiva y un desarrollo organizado, asegurando que el equipo pudiera adaptarse a cambios y entregar resultados de valor de manera continua. A través de un ciclo estructurado de capacitación, desarrollo, optimización, pruebas y documentación, se logró una campaña efectiva que promueve la integración y aceptación de los migrantes en la sociedad colombiana.


CONCLUSIONES

Durante la estancia de verano logramos obtener una percepción más amplia sobre el tema social que implica la migración de las personas venezolanas en Colombia además se adquirieron conocimientos en desarrollo de aplicaciones de realidad virtual a través del curso Create with VR y la capacitación en el uso de las gafas Meta Quest 2. Se creó un prototipo de aplicación multiusuario en realidad virtual, integrando elementos 3D basados en la historia de una migrante venezolana. El proyecto avanzó con la optimización y ajuste del prototipo, así como pruebas para identificar y aplicar mejoras, se espera que este proyecto brinde una herramienta efectiva para la concientización y la integración de los migrantes venezolanos en la sociedad colombiana.
Ponce Aguilar Edgar, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Juan David Ospina Correa, Corporación Universitaria Remington

UNA APROXIMACIÓN ESTOCÁSTICA PARA ESTABLECER BENEFICIOS AMBIENTALES Y ECONÓMICOS DE UNA ECONOMÍA CIRCULAR PARA LOS RESIDUOS DE CONSTRUCCIÓN Y DEMOLICIÓN


UNA APROXIMACIÓN ESTOCÁSTICA PARA ESTABLECER BENEFICIOS AMBIENTALES Y ECONÓMICOS DE UNA ECONOMÍA CIRCULAR PARA LOS RESIDUOS DE CONSTRUCCIÓN Y DEMOLICIÓN

Peñalver Navas David Arturo, Universidad de la Guajira. Ponce Aguilar Edgar, Tecnológico de Estudios Superiores de Valle de Bravo. Zarza Reyes Kewin, Universidad Tecnológica de Zinacantepec. Asesor: Dr. Juan David Ospina Correa, Corporación Universitaria Remington



PLANTEAMIENTO DEL PROBLEMA

La industria de la construcción produce grandes cantidades de residuos sólidos, lo que exige mejorar su gestión para optimizar la recuperación y reutilización de materiales. Para abordar este desafío, proponemos un modelo de gestión estratégica que combina estadística Bayesianos (a través de árboles de decisión) y solución numérica mediante un método de muestreo Monte Carlo. El método de Monte Carlo permite simular distintos escenarios y determinar el nivel de incertidumbre asociada al proceso, mientras que los modelos Bayesianos mejoran la toma de decisiones bajo riesgo. Esta combinación facilita la transición de los esquemas de recuperación de residuos sólidos hacia una economía circular, la optimización en la predicción de costos, reduciendo el riesgo de sobreestimación, alineándose con los Objetivos de Desarrollo Sostenible (ODS).



METODOLOGÍA

En este estudio, presentamos un enfoque Estocástico Multidimensional mediante la minimización dinámica de riesgos en cadenas de suministro bayesianas para evaluar los beneficios ambientales y económicos de una economía circular en el manejo de Residuos de Construcción y Demolición (RCD). Este enfoque permite una toma de decisiones informada basada en la relevancia de los principios fundamentales de reducir, reutilizar y reciclar. El marco metodológico propuesto facilita la transición hacia una economía circular al permitir la toma de decisiones bajo condiciones de riesgo e incertidumbre. Se destacan las ventajas específicas de este enfoque sobre otras metodologías existentes, lo que facilita su adopción en la industria de la construcción. El éxito de este enfoque se basa en la sustitución de modelos de estimación deterministas por cadenas de Márkov adecuadamente parametrizadas en el espacio de estados. Esta nueva aproximación no sólo mejora la precisión de las estimaciones, sino que también permite el establecimiento de indicadores clave para la detección de anomalías, la ingeniería de procesos, la estimación de costos y la validación logística. La metodología es aplicable a cualquier tipo de edificación, independientemente de su ubicación geográfica.


CONCLUSIONES

Las mejoras alcanzadas se deben principalmente a la sustitución de modelos de estimación deterministas por cadenas de Márkov, que han sido cuidadosamente parametrizadas en el espacio de estados. Esta nueva aproximación permite establecer indicadores precisos para la detección de anomalías, la ingeniería de procesos, la estimación de costos y la validación logística, aplicables a cualquier tipo de edificación en cualquier ubicación geográfica. Los resultados obtenidos se alinean con los Objetivos de Desarrollo del Milenio (ODM), ampliando el enfoque tradicional hacia un paradigma de desarrollo sustentable. Esta evolución no solo se enfoca en el consumo humano, sino que también considera el desarrollo sustentable, integrando tres elementos fundamentales para el bienestar de las personas y las sociedades: crecimiento económico (ODS-9), inclusión social (ODS-11) y protección del medio ambiente (ODS-12). Se estima que el mercado global de Residuos de Construcción y Demolición (RCD) alcanzará un valor de 37.100 millones de dólares para el año 2025. Este mercado incluye materiales diversos como hormigón, ladrillos, piedras, metal y vidrio. La simulación realizada mediante nuestro modelo estocástico respalda estas proyecciones y confirma el potencial de optimización en la gestión de RCDs
Ponce González Melissa Guadalupe, Universidad de Guadalajara
Asesor: Dra. Margarita Sanchez Dominguez, Centro de Investigación en Materiales Avanzados (CONACYT)

SíNTESIS VERDE DE NANOPARTíCULAS DE ORO UTILIZANDO GOMA DE MEZQUITE Y POLIETILENIMINA RAMIFICADA.


SíNTESIS VERDE DE NANOPARTíCULAS DE ORO UTILIZANDO GOMA DE MEZQUITE Y POLIETILENIMINA RAMIFICADA.

Ponce González Melissa Guadalupe, Universidad de Guadalajara. Asesor: Dra. Margarita Sanchez Dominguez, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las enfermedades oncológicas son una de las principales causas de mortalidad a nivel mundial, afectan a millones de personas, incluyendo México, donde el cáncer es la tercera causa de muerte según el INEGI. En la búsqueda de tratamientos más eficaces, la nanotecnología ha surgido como una herramienta prometedora. Un enfoque innovador es la síntesis de nanopartículas de oro utilizando goma de mezquite y polietilenimina. Este método ecológico y sostenible permite obtener nanopartículas con propiedades controladas, esenciales para aplicaciones biomédicas. Las nanopartículas de oro sintetizadas de esta manera pueden dirigirse específicamente a las células cancerosas, mejorando la eficacia del tratamiento y reduciendo los efectos secundarios. Actualmente se está estudiando la síntesis de estas nanopartículas y sus posibles aplicaciones en tratamientos contra el cáncer, con el objetivo de desarrollar terapias más eficaces y personalizadas. Este enfoque promete mejorar notablemente los tratamientos contra el cáncer y la calidad de vida de los pacientes.



METODOLOGÍA

Para la realización de síntesis de las nanopartículas de oro, primeramente, se realizó la carboximetilación de la goma de mezquite utilizando goma de mezquite con hidróxido de sodio y dejándose en agitación constante ajustando su temperatura, para posteriormente hacer lavados en centrifuga y liofilizando el sólido durante un tiempo determinado. Posteriormente se realizó la modificación de la polietilenimina ramificada, utilizando la goma de mezquite carboximetilada (CBX-MG), añadiéndola a una solución MES Buffer, junto con agente reductores EDC (1-etil-3(3-dimetil aminopropil) carbodiimina) y NHS (N-hidroxisuccinimida), ajustando el producto a un pH biológico y dejando en agitación constante por un tiempo determinado, una vez finalizado se agregó una solución de polietilenimina (b-PEI) y se continuo con la agitación constante. Pasado su tiempo se procedió a una diálisis, en la cual se realizó la preparación de membranas, donde se realizaron lavados con el fin de hidratar las membranas. Una vez hidratadas las membranas, se procedió a la diálisis a la CBX-MG-b-PEI durante 24 horas y finalmente el producto dentro de las membranas se liofilizó. Síntesis de nanopartículas de nanopartículas de oro (AuNPs). Una vez liofilizado el copolímero (CBX-MG-b-PEI) se continuo con la síntesis de nanopartículas de oro, en la cual se prepararon 6 muestras a una relación 1:20, oro: copolímero, utilizando como precursor de oro ácido tetracloroaurico trihidratado (AuCl4H*3H2O), utilizando como volumen final 1 ml. Las muestras se calentaron en un baño de temperatura a diferentes tiempos (35, 40, 45, 50, 55 y 60 minutos) con el fin de observar el comportamiento del tamaño en función del tiempo. Una vez finalizada la síntesis, se midió UV-vis, DLS y Potencial zeta a cada una de nuestras muestras, estos para reafirmar presencia de oro en las muestras, para obtener tamaño de las nanopartículas y su carga superficial (potencial zeta). Capacidad de amortiguamiento. Se midieron las capacidades de amortiguamiento de la goma de mezquite, la goma de mezquite carboximetilada, la polietilenimina y la goma de mezquite carboximetilada con la polietilenimina. Donde consistía en medir sus cambios de pH al añadir pequeñas cantidades de ácido. Esto con el fin de determinar la capacidad amortiguadora de las muestras y como el copolímero es capaz de mantener dicha propiedad perteneciente de la polietilenimina ramificada.


CONCLUSIONES

En este verano se adquirieron los conocimientos de nuevos métodos de síntesis a base de plantas, así como también su función y beneficios en el área biomédica. Se utilizó el razonamiento para determinar la relevancia de los materiales y reactivos utilizados, así como las condiciones de reacción y el papel que jugaban en la síntesis de las nanopartículas. Se espera que la investigación futura sea utilizada para aplicaciones en los tratamientos de cáncer.
Ponce Rico Magaly, Instituto Tecnológico Superior de Tacámbaro
Asesor: Dr. Omar Guzmán Quevedo, Instituto Tecnológico Superior de Tacámbaro

DETERMINACIóN DEL GRADO DE INFLUENCIA DEL ETIQUETADO FRONTAL DE LOS ALIMENTOS EN LA ELECCIóN DEL CONSUMIDOR EN TACáMBARO


DETERMINACIóN DEL GRADO DE INFLUENCIA DEL ETIQUETADO FRONTAL DE LOS ALIMENTOS EN LA ELECCIóN DEL CONSUMIDOR EN TACáMBARO

Ponce Rico Magaly, Instituto Tecnológico Superior de Tacámbaro. Asesor: Dr. Omar Guzmán Quevedo, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Las enfermedades crónicas no transmisibles (ECNT) representan la principal causa de mortalidad a nivel global. Muchas de estas enfermedades están vinculadas con la alimentación, un factor que se puede modificar, permitiendo así su prevención o la disminución de su riesgo. En México, se estima que más del 70% de las muertes en adultos se deben a ECNT. En los últimos años, se ha presentado una tendencia creciente en el consumo de energía per cápita entre la población mexicana. Este aumento se debe: 1) al mayor consumo de alimentos procesados y altamente calóricos, 2) al acceso a nuevas tecnologías alimentarias (como alimentos envasados, supermercados modernos y marketing de alimentos), 3) a cambios en el sistema alimentario y 4) al crecimiento económico del país. De acuerdo con ENSANUT 2016, la prevalencia de hipertensión en la población masculina es del 24.9%, mientras que en la femenina es ligeramente superior, alcanzando el 26.10%. En cuanto a la diabetes, un 12% de los hombres en la población mexicana padecen esta enfermedad, en comparación con un 15% de las mujeres. El principal factor de riesgo para el desarrollo de la hipertensión y la diabetes es la obesidad y el sobrepeso, un problema significativo en México, pues para este apartado se obtuvo que, para las mujeres, el 34.30% padecen sobrepeso, 40.10% obesidad y 85.60% obesidad abdominal, en el caso de los hombres, un 42.70% padecen sobrepeso, 26.60% obesidad y 65.30% obesidad abdominal. Globalmente, lo anterior presenta un panorama alarmante, por lo que los hábitos alimentarios necesitan ser readaptados hacia una nueva alimentación más saludable. Entre las políticas y acciones identificadas como potenciales medidas para el control de la obesidad y las enfermedades crónicas no transmisibles (ECNT) en la población, se incluye la orientación sobre la elección de alimentos saludables mediante el sistema de etiquetado frontal de alimentos y bebidas (SEFAB). El SEFAB resalta el alto contenido de azúcares, grasas, valorías, sodio y contenido de grasas trans. La implementación del SEFAB ha sido una de las diversas políticas puestas en práctica para contrarrestar la epidemia de obesidad, junto con otras medidas como la regulación de la publicidad de alimentos y el impuesto a las bebidas azucaradas. La implementación en México de este etiquetado en alimentos y bebidas se dio a partir de octubre 2020. Sin embargo, hay pocos estudios que investiguen el impacto del SEFAB, sobre las preferencias de los consumidores. Este proyecto pretendió determinar a través de encuestas el nivel de influencia de estos sellos en los consumidores a la hora de la elección de los alimentos que compran. La información puede ayudar a determinar si el etiquetado frontal realmente cumple su función.



METODOLOGÍA

El estudio de la investigación fue dirigido a la comunidad de Tacámbaro, que cuenta con un número de 79,540 habitantes (INEGI 2022). Para este estudio, se diseñó una encuesta de 14 preguntas que aborda hábitos alimenticios, preferencias de consumo y percepciones del etiquetado frontal en alimentos. La encuesta se distribuyó entre diferentes grupos de edad, incluyendo a participantes desde los 18 hasta los mayores de 50 años de edad. En este primer tiempo, la muestra consistió de 107 encuestados como prueba piloto. Sin embargo, el estudio continuará hasta alcanzar el tamaño de muestra que resultó de utilizar la fórmula necesaria en estudios descriptivos: n=(z^2*p*q)/e^2 Donde: n= tamaño de muestra buscado z= 1.96 (nivel de confianza 95%) e=0.05 (margen de error) p= 0.10 (probabilidad de éxito) q= (1-p) (probabilidad de fracaso) Las encuestas se distribuyeron de manera física y digital, con el propósito de no centrarnos en un nicho de mercado especifico, también se cuidó de presentar dichas encuestas en el lugar y momento adecuado, con el propósito de obtener las respuestas mas completas y acertadas posibles


CONCLUSIONES

La investigación ha revelado hasta el momento una serie de resultados interesantes. Primeramente, se pudo conocer que los productos lácteos y carnes procesadas son los más comprados, seguidos por snacks, bebidas y cereales. El sabor es el factor más influyente en las decisiones de sus compras, seguido por el precio y la marca. El valor nutricional y los sellos de advertencia son factores menos decisivos. Cabe señalar que, aunque una pequeña parte de los encuestados no estaba segura del propósito de los sellos, la mayoría los considera al menos algo importantes en como advertencia de riesgo. Afortunadamente, existe una disposición general a reducir el consumo de alimentos con etiquetado frontal. También, una mayoría de los encuestados apoya restricciones publicitarias para alimentos con etiquetas "alto en", reflejando la preocupación por las consecuencias de estos productos. Los encuestados también expresaron una alta preocupación por el desarrollo de enfermedades crónicas relacionadas con una mala alimentación, esto se puede asociar a que la mayor parte de los participantes convive con alguien o padece una enfermedad crónica, lo que subraya la importancia para ellos acerca de este tema. De manera general, el etiquetado frontal no tiene un efecto considerable en la elección de los alimentos de los encuestados. Sin embargo, la mayoría era consciente de la advertencia de riesgo que transmite el etiquetado. Dicho esto, es necesario tomar medidas complementarias para poder reducir el consumo de dichos productos. Esta investigación contribuyó significativamente al Objetivo de Desarrollo Sostenible 3: Salud y Bienestar, al ofrecer una comprensión más profunda de los factores que influyen en las decisiones de compra de alimentos y su impacto en la salud. Al destacar la importancia del etiquetado de alimentos y la percepción del consumidor, los resultados obtenidos pueden ser utilizados para desarrollar en un futuro programas que promuevan hábitos alimenticios más saludables. Esto, a su vez, ayudaría a reducir la prevalencia de enfermedades crónicas relacionadas con la alimentación, mejorando el bienestar general de la población.
Porras Delgado Mariana, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Everardo Mares Mares, Instituto Tecnológico Superior de Guanajuato

INNOVACIóN Y DESARROLLO DE TOTOPOS SALUDABLES A BASE DE LA DIETA DE MILPA LIBRE DE GRASAS SATURADAS-TRANS


INNOVACIóN Y DESARROLLO DE TOTOPOS SALUDABLES A BASE DE LA DIETA DE MILPA LIBRE DE GRASAS SATURADAS-TRANS

Martínez Cruces Fernanda Zurysadai, Instituto Tecnológico Superior de Guanajuato. Porras Delgado Mariana, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Everardo Mares Mares, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Hay informes que reportan que en México de 1990 a 1998, disminuyo significativamente el consumo de frutas y verduras en un 23.33% y por contraparte, aumento la ingesta de bebidas azucaradas y alimentos procesados hipercalóricos en un 37.21% por otro lado debido al aumento del índice de obesidad, desnutrición e hipertensión en la población mexicana de acuerdo con la Encuesta Nacional de Salud y Nutrición en 2016 (ENSANUT) [1]. Se requieren del desarrollo e incorporación de nuevas alternativas alimentarias en la dieta de la población mexicana como el modelo de la dieta de la milpa que nos provee la facilidad de regular la alimentación con un balance de macronutrientes en alimentos como la calabaza, el maíz, el chile y el frijol. La dieta de la milpa es un modelo de alimentación tradicional, sustentable, accesible, asequible, saludable y culturalmente pertinente, desarrollado y presentado por la secretaria de salud de México ya que rescata conocimientos culinarios y nutricionales cuyos alimentos principales son el frijol, el maíz, la calabaza y el chile;  la milpa juega un papel muy importante en la atención tradicional, es un método de cultivo más sensato, pertinente y productivo, debido a su amigabilidad con el medio ambiente permitiendo seguridad alimentaria para la población que mejora el equilibrio de ácidos grasos antiinflamatorios, lo cual es importante para disminuir el riesgo de las enfermedades crónicas no transmisibles que representan una problemática nacional. Por eso se proponen desarrollar un totopo con base en los ingredientes de la milpa y que, por su naturaleza en el procesamiento de freído, contenga una reducción y/o eliminación de ácidos grasos saturados y trans para cumplir con estricto apego a la nueva ley de grasas saturadas y trans, que establece Diario Oficial de la Federación que publicó la aprobación del pleno de la Cámara de Diputados sobre el artículo 216 Bis a la Ley General de Salud[2].Pero también basándonos en la NOM-187-SSA1/SCFI-2002, para determinar el proceso y métodos de prueba garantizando un alimento saludable, balanceado, legal e inocuo



METODOLOGÍA

Esta investigación adopta un enfoque cuantitativo y analítico, ya que se investigarán los métodos para la elaboración del totopo que sean más convenientes, apegándonos a los lineamientos de contenido de grasas trans y saturadas, la cual nos indica que para el caso de los totopos deben tener un porcentaje de 90% de maíz nixtamalizado y el otro 10% de ingredientes opcionales. Siendo estos puntos las bases para partir de la investigación. Se realizaron varias pruebas de tiempo de freído a distintas temperaturas:  Prueba 1: 160°C a 40 minutos textura crocante pero color desfavorable. Prueba 2: 120°C a 30 minutos se aplico el uso de aceite en spray lo cual dio un color mucho mas llamativo y una textura mas buena en cuanto al tostado. Prueba 3: 95°C a 40 minutos. Esta prueba nos dio un color y textura muy palidos dando como referencia a que estaban crudos.  Prueba 4: Se hizo un cambio en la formulación con el objetivo de tener un sabor uniforme del chile en todo el producto dado que sobresalia en unas partes pero no en todo el producto, se intento realizando una molienda del frijol, chile y calabaza y integrandolos a la harina del maíz, sin embargo no fue el resultado que esperabamos, debido a que se perdieron todos los sabores de los demas ingredientes. Por lo que se descarto esta prueba. Prueba 5: Se realizo uma molienda unicamente del chile y integrandolo a la masa con los demas ingredientes, esto fue lo que hizo el sabor del picante mas uniforme. Prueba 6: 150°C a 40 minutos: Esta prueba dio como resultado un totopo mas llamativo en el color pero un tostado mas duro. Prueba 7: 180°C a 30 minutos: Esta prueba dio como resultado un totopo mas crocante sin ser tan duro y un color llamativo. Técnicas por utilizar: se hizo una evaluación sensorial con 10 jueces no entrenados para valorar color, olor, sabor, textura (crujiente) y aceptación general de los totopos.  Se realizo el PDCAAS que es una prueba que realizamos con el fin de conocer la utilización de los AA digeribles del producto para comprovar que realmente es sano y le sacamos el mayor provecho nutrimentalmente hablando. 


CONCLUSIONES

Utilizando un diseño de experimentos completamente al azar con un nivel de confianza del 95% se determino que a mayor temperatura pero a tiempo medio tiene un efecto significativo en el color, sabor, textura y aroma de los totopos. Por lo que podemos concluir que la formula 7 con mayor temperatura pero con un tiempo de hormeado no tan largo ejerce un efecto de interaccion sobre la variable de respuesta en el efecto del color, sabor, textura y aroma de los totopos. 
Portilla Linares Naomi Anaid, Universidad Veracruzana
Asesor: Dra. Alexandra Cerón Vivas, Universidad Pontificia Bolivariana

ADSORCIóN DE FóSFORO EMPLEANDO LODOS ALUMBRADOS


ADSORCIóN DE FóSFORO EMPLEANDO LODOS ALUMBRADOS

Mejia Zavaleta Eduardo, Universidad Veracruzana. Portilla Linares Naomi Anaid, Universidad Veracruzana. Zevallos de la Flor Dennis Angel, Universidad Nacional José María Arguedas. Asesor: Dra. Alexandra Cerón Vivas, Universidad Pontificia Bolivariana



PLANTEAMIENTO DEL PROBLEMA

El fósforo (P) es un nutriente crucial, frecuentemente limitante, para el desarrollo de organismos en la mayoría de los ecosistemas y también es un componente vital para diversas industrias. Sin embargo, con el aumento de la población global y la intensificación de la industrialización, se liberan cantidades excesivas de nitrógeno (N) y fosforo (P), lo que resulta en una serie de problemas ambientales, incluyendo la eutrofización y el agotamiento del oxígeno, que tienen un impacto significativo en el equilibrio ecológico e incluso en la salud pública. En la investigación actual, se está estudiando la eliminación de fósforo de las aguas residuales, ya que se considera que cuando el nivel de nitrógeno supera los 0,2 mg/L y el de fósforo supera los 0,02 mg/L, el agua se convierte eutrófica. 



METODOLOGÍA

Para el desarrollo de la metodología fue necesario visitar la Planta de Tratamiento de Lodos, que recientemente fue incorporada a la Planta de Tratamiento de Agua Potable Bosconia (PTAP-B), para el tratamiento de los lodos generados por su operación. La primera actividad dentro del laboratorio consistió en reducir la cantidad de agua presente en el lodo, debido a lo complejo que era manipularlo, para lo cual se sometió por 2 hrs al horno a 110 °C. Una vez que el lodo se enfrió hasta llegar a temperatura ambiente, se realizaron esferas de dicho lodo con un peso aproximado de 1.2 grs cada una, además, que, debido a la naturaleza de las pruebas a realizar, fue necesario elaborar una gran cantidad de dichas esferas. El siguiente proceso fue llevar a cabo el secado de las anteriores, con lo cual, la primera parte fue sometida a la mufla a 400 °C por 10 minutos, para posteriormente elevar la temperatura a 600 °C por 5 minutos. Por otro lado, para la segunda mitad, solamente se dejaron secar al aire libre por 48 hrs. Fue necesario realizar una solución de fosfato monobásico de potasio con una concentración de 50 mg/L, de la cual se depositaron 200 ml en un balón 1000 ml, el cual más tarde fue aforado con agua destilada, para obtener una concentración de 10mg/l. Cabe mencionar, que dicho proceso fue repetido con un segundo balón de 1000 ml, para posteriormente ser neutralizados en el rango de pH de 6.5-7.0. Se realizaron dos distintas pruebas entre la solución de fósforo y el material de ambos tipos, la primera bajo el nombre de cinética adsorción, consistió en verter 100 ml de los balones neutralizados en un matraz Erlenmeyer de 100 ml y agregar 3 esferas de lodo (aproximadamente de 0.6 grs cada una). Este proceso fue replicado en 9 matraces más, con el objetivo de hacer 5 muestras por duplicado, las cuales variarían con 30 minutos, una hora, dos horas, cuatro horas y ocho horas de agitación en un shaker a 300 rpm. Mientras que la segunda prueba se realizó bajo el nombre de isoterma de adsorción, la cual consistió en 5 matraces Erlenmeyer de 100 ml por duplicado, con concentraciones en mg/L de 1, 5, 10, 15 y 20, terminando el aforo con agua destilada. A diferencia de la anterior, en esta no se varió el tiempo de agitación, sino la concentración de fósforo en la solución. Los 10 matraces pertenecientes a la prueba fueron sometidos a agitación continua por 48 hrs, lo cual implicó reprogramaciones constantes del shaker. Una vez que cada uno de los matraces de cada prueba cumplían su tiempo, estos eran sacados del agitador, retirando las esferas de lodo y almacenadas en el refrigerador para su próximo análisis en el cromatógrafo. Para lograr identificar al compuesto en cada una de las concentraciones en el rango de lectura del cromatógrafo, fueron necesarias realizar disoluciones por 4 y 8 veces, con lo cual fueron analizadas las muestras.  


CONCLUSIONES

A pesar de que las pruebas arrojaron algunos valores que no concuerdan con la curva de adsorción, de manera general se observó una retención de fósforo por parte de las esferas, obteniendo mejores resultados con el material secado a la mufla, por lo que con ambas pruebas se logra identificar el potencial al usar lodos alumbrados como material adsorbente de fósforo. Próximamente se gestionará una serie de análisis a las esferas mediante un laboratorio externo a la universidad, con lo cual quedan pendientes más resultados de dicho trabajo, además que nuestro trabajo cumple la función de conocer si es posible el objetivo, por lo tanto, se continuará estudiando en el futuro.
Portillo Núñez Naifer Enrique, Corporación Universitaria de Ciencias Empresariales, Educación y Salud
Asesor: Dra. María Teresa Flores Sotelo, Benemérita Universidad Autónoma de Puebla

EVALUACIÓN DE LA VIABILIDAD DEL USO DE ENERGÍA SOLAR EN LA REGIÓN CARIBE COLOMBIANA: ANÁLISIS DEL ESTADO ACTUAL


EVALUACIÓN DE LA VIABILIDAD DEL USO DE ENERGÍA SOLAR EN LA REGIÓN CARIBE COLOMBIANA: ANÁLISIS DEL ESTADO ACTUAL

Portillo Núñez Naifer Enrique, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Asesor: Dra. María Teresa Flores Sotelo, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

A pesar del potencial de la energía solar en la Región Caribe Colombiana, se determinó que existe un potencial de generación solar en el rango de 270 - 290 kWh/año/m2 en las ciudades capitales de la región (Mejía García, 2021, p. 5). La adopción de esta tecnología sigue siendo limitada por diversos obstáculos, incluyendo la falta de infraestructura adecuada y dificultades en el acceso a financiamiento. Esta situación plantea la necesidad de un análisis del estado actual y el potencial de la energía solar en la región para identificar las principales barreras y oportunidades, para soluciones que permitan aprovechar plenamente esta fuente de energía limpia y sostenible.



METODOLOGÍA

Recolección de datos: Datos secundarios: revisión bibliográfica en publicaciones de tesis, artículos científicos y de divulgación, en referencia a la energía solar. Análisis del estado actual: Identificación de proyectos: investigación acerca de proyectos de energía solar en la región Caribe Colombiana.  


CONCLUSIONES

En esta investigación se pretende analizar el aprovechamiento de la energía solar en la Región Caribe Colombiana y el potencial de energía solar en el área de estudio. El proyecto identificará los obstáculos y las oportunidades para su uso. Con esta información, se realizarán recomendaciones para impulsar el uso de energía solar, lo que contribuirá a reducir la contaminación y mejorar la calidad de vida de las personas en la región.
Pozos Cabrera Karina, Instituto Politécnico Nacional
Asesor: Dr. Christian Xavier Navarro Cota, Universidad Autónoma de Baja California

ANÁLISIS Y EVALUACIÓN DE APLICACIONES TECNOLÓGICAS PARA NIÑOS CON TRASTORNO DEL ESPECTRO AUTISTA (TEA)


ANÁLISIS Y EVALUACIÓN DE APLICACIONES TECNOLÓGICAS PARA NIÑOS CON TRASTORNO DEL ESPECTRO AUTISTA (TEA)

Pozos Cabrera Karina, Instituto Politécnico Nacional. Asesor: Dr. Christian Xavier Navarro Cota, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El Trastorno del Espectro Autista (TEA) es una afección del desarrollo cerebral que impacta significativamente la manera en que una persona percibe y socializa con los demás, lo que resulta en problemas de interacción social y comunicación. Esta condición suele manifestarse en los primeros dos a tres años de vida y presenta una amplia variabilidad en las habilidades de los niños afectados. Es crucial enseñar a los niños con TEA a mejorar sus habilidades de comunicación para que puedan alcanzar su máximo potencial. Sin embargo, dada la variabilidad en el desarrollo del habla y del lenguaje verbal, es igualmente importante explorar y promover otras formas de comunicación. Para aquellos niños que quizá nunca desarrollen habilidades del habla, la meta puede ser aprender a comunicarse mediante gestos, como el lenguaje de señas, o a través de sistemas de símbolos, utilizando dibujos para expresar ideas y necesidades.En respuesta a esta necesidad, la Universidad Autónoma de Baja California (UABC) y el Hospital Infantil de las Californias (HIC) han identificado un requerimiento crucial de tecnología para apoyar a los niños con autismo que presentan discapacidades del habla. Este proyecto busca desarrollar e implementar herramientas tecnológicas que faciliten y mejoren la comunicación de estos niños, permitiéndoles expresar sus pensamientos y necesidades de manera efectiva y, en consecuencia, mejorar su calidad de vida.En el caso específico de los niños con TEA, es esencial desarrollar tecnología que les permita comunicarse de manera efectiva y que sea fácil de usar. La interacción debe ser amigable y adaptarse a las capacidades de estos niños, quienes pueden tener una amplia gama de habilidades y niveles de desarrollo del lenguaje.



METODOLOGÍA

Durante este verano de investigación, el trabajo se dividió en tres actividades principales. La primera actividad fue investigar aplicaciones útiles para niños con Trastorno del Espectro Autista (TEA), dadas las numerosas opciones disponibles. En la segunda actividad, se identificaron las características clave de las aplicaciones seleccionadas. Finalmente, se eligieron y evaluaron dos aplicaciones específicas basándose en los resultados previos, lo que resultó en la elaboración de casos de uso. En la primera actividad, se identificaron cinco aplicaciones diseñadas para apoyar a niños con TEA: Proloquo, Visuals2Go, Avaz AAC, Choiceworks y Otsimo. Estas aplicaciones fueron evaluadas bajo criterios como el tipo de sistema operativo, dispositivos compatibles, espacio requerido, funcionamiento básico, edad recomendada e idioma. A partir de esta evaluación, se seleccionaron las aplicaciones Otsimo y Avaz AAC para una evaluación más exhaustiva debido a su cumplimiento con los criterios establecidos. La evaluación de estas aplicaciones consideró aspectos de interacción humano-computadora, analizando la respuesta del sistema ante ciertas acciones del usuario. La información se organizó en varios casos de uso. Por ejemplo, un caso de uso detallado fue el proceso de creación de una cuenta, realizado por los padres. Este caso incluye un flujo de éxito básico, donde se detallan las acciones del usuario y las respuestas del sistema, así como un caso de fracaso al ingresar datos incorrectos. Otro caso de uso se enfocó en el actor comunicador (niño) y su interacción para formular oraciones. Este flujo tiene dos variantes de éxito: la selección correcta de tarjetas y la escritura correcta de la oración. En la primera variante, el niño selecciona tarjetas y el sistema pronuncia su contenido, colocando las tarjetas en una barra contenedora. En la segunda variante, el niño usa un teclado para escribir la oración, y el sistema coloca las imágenes correspondientes en la barra contenedora y ofrece opciones para formular la oración. Finalmente, el sistema pronuncia la oración completa, y el niño puede borrar las palabras y tarjetas utilizadas. Este trabajo exhaustivo permitió evaluar y comprender mejor las aplicaciones seleccionadas y su impacto en la interacción de los niños con TEA, proporcionando una base sólida para futuras investigaciones y desarrollos en esta área. 


CONCLUSIONES

En resumen, el estudio se enfocó en comprender y evaluar aplicaciones que mejoran la comunicación en niños con TEA, con el objetivo de crear una aplicación que satisfaga los requisitos de usabilidad y facilite una interacción efectiva, considerando las necesidades y habilidades específicas de los usuarios atípicos. Los próximos pasos incluyen implementar las mejoras y ajustes necesarios para optimizar la utilidad y accesibilidad de la aplicación para los niños con TEA y sus familias.  (Los resultados los completos se pueden visualizar en el siguiente link https://drive.google.com/file/d/1ARNpeo2Ti4jI0XEPnWX3ikECZKrQjfa6/view?usp=drive_link)
Prado Larios Montserrat, Instituto Tecnológico de Jiquilpan
Asesor: Mg. Daniela Gutierrez Carmona, Institución Universitaria de Envigado

CONDICIONES DE TRABAJO EN SALAS DE BELLEZA Y SPA DE UÑAS DEL MUNICIPIO DE ENVIGADO, ANTIOQUIA- COLOMBIA (2024)


CONDICIONES DE TRABAJO EN SALAS DE BELLEZA Y SPA DE UÑAS DEL MUNICIPIO DE ENVIGADO, ANTIOQUIA- COLOMBIA (2024)

Prado Larios Montserrat, Instituto Tecnológico de Jiquilpan. Asesor: Mg. Daniela Gutierrez Carmona, Institución Universitaria de Envigado



PLANTEAMIENTO DEL PROBLEMA

En las salas de belleza y spa de uñas, los colaboradores se exponen a múltiples factores de riesgo que pueden afectar su salud y bienestar. Estos riesgos incluyen exposición a sustancias químicas, radiaciones no ionizantes, ruido, iluminación inadecuada, condiciones de confort térmico deficientes y factores ergonómicos debido a posturas forzadas y movimientos repetitivos. La falta de medidas preventivas específicas y el desconocimiento sobre los riesgos agravan la situación, aumentando la probabilidad de accidentes de trabajo y enfermedades laborales. Los colaboradores de las peluquerías y spa de uñas en Envigado están expuestos a riesgos ocupacionales y ergonómicos que pueden impactar negativamente su salud, y en la mayoría de los casos, no se implementan acciones preventivas adecuadas.



METODOLOGÍA

Diseño del Estudio   El estudio se diseñará como una investigación descriptiva y transversal, evaluando los riesgos de higiene ocupacional y ergonómicos en los trabajadores de salas de belleza y spa de uñas en Envigado.   Población y Muestra   Población: Trabajadores de salas de belleza y spa de uñas en el municipio de Envigado. Muestra: Se seleccionará una muestra representativa de trabajadores de diferentes salas de belleza y spa de uñas en Envigado, utilizando un muestreo aleatorio estratificado. Instrumentos de Recolección de Datos   Encuestas y Cuestionarios: Para caracterizar el perfil sociodemográfico y las condiciones de salud y trabajo de los trabajadores. Mediciones Ambientales: Para evaluar niveles de ruido, iluminación, radiación no ionizante y confort térmico en los lugares de trabajo. Análisis de Sustancias Químicas: Para identificar y medir la concentración de sustancias químicas presentes en el ambiente laboral. Evaluaciones Ergonómicas: Para identificar y analizar posturas forzadas y movimientos repetitivos. Procedimiento   Recolección de Datos:   Aplicación de encuestas y cuestionarios a los trabajadores. Realización de mediciones ambientales y análisis de sustancias químicas en las salas de belleza y spa de uñas. Evaluaciones ergonómicas en los puestos de trabajo. Análisis de Datos:   Análisis descriptivo de los datos sociodemográficos, de salud y condiciones de trabajo. Análisis cuantitativo de los niveles de exposición a riesgos higiénicos y ergonómicos. Relación entre los riesgos evaluados y los efectos en la salud reportados por los trabajadores Elaboración de Recomendaciones: Basadas en los resultados obtenidos, se emitirán recomendaciones para mejorar las condiciones de trabajo y reducir la exposición a los riesgos identificados.


CONCLUSIONES

Perfil Sociodemográfico y Condiciones de Salud:   Caracterización detallada del perfil sociodemográfico de los trabajadores y sus condiciones de salud, identificando posibles patrones o tendencias relacionadas con la exposición a riesgos. Evaluación de Riesgos:   Identificación de los niveles de exposición a ruido, iluminación, radiación no ionizante, confort térmico y sustancias químicas en las salas de belleza y spa de uñas. Evaluación de los riesgos ergonómicos relacionados con posturas forzadas y movimientos repetitivos. Relación entre Riesgos y Salud:   Análisis de la relación entre los riesgos ocupacionales y los efectos en la salud reportados por los trabajadores, proporcionando evidencia sobre el impacto de estos riesgos en su bienestar.
Proa Arias Alejandro, Instituto Tecnológico de Culiacán
Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional

APRENDIZAJE AUTOMáTICO PARA ANALIZAR EL COMPORTAMIENTO DEL MERCADO FINANCIERO.


APRENDIZAJE AUTOMáTICO PARA ANALIZAR EL COMPORTAMIENTO DEL MERCADO FINANCIERO.

Arredondo Armenta Luis Alberto, Instituto Tecnológico de Culiacán. Escobar Candelaria Francisco Damián, Universidad Autónoma de Chiapas. Proa Arias Alejandro, Instituto Tecnológico de Culiacán. Tapia Pérez Fernando, Instituto Tecnológico de Culiacán. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el mundo moderno, los temas financieros tienen una importancia crucial; las inversiones representan una gran oportunidad para quienes poseen los conocimientos adecuados. Sin embargo, en México, estos son poco explorados y la población muestra escaso interés en aprender siquiera las bases de este ámbito. Por ello, consideramos que este proyecto es una excelente oportunidad para aumentar su visibilidad y fomentar el interés por aprender más sobre ellos entre un mayor número de personas. Asimismo, actualmente el uso del aprendizaje automático se encuentra en su mayor auge, permitiendo realizar procesos sin la intervención directa de una persona. Nuestro proyecto se propone integrar ambos aspectos: la educación financiera y el aprendizaje automático; siendo sus principales objetivos resaltar la importancia de ambos, y demostrar cómo su combinación puede generar un proyecto de muy alta relevancia. El objetivo es desarrollar herramientas y métodos avanzados de predicción aplicados a la bolsa de valores para estimar los valores que tomará en el futuro y ser capaces de llevar a cabo recomendaciones de inversiones. Esto último siendo valioso tanto para usuarios experimentados como para principiantes, fomentando la cultura de la inversión, como medio de crecimiento financiero paralelo.



METODOLOGÍA

Se utilizó la biblioteca de funciones Yfinance para descargar los datos históricos de las acciones de Apple© desde 1980 hasta 2024 con el objetivo de usarlos como datos de entrenamiento para la red neuronal. Del conjunto de datos presentados anteriormente se utilizó únicamente la columna High, que representa los valores más altos que alcanzaron sus acciones cada día. Se hicieron dos subdivisiones para ajustar la red neuronal: Desde 1980 hasta el 2019 para los datos de entrenamiento y desde 2020 hasta 2024 para hacer predicciones. Desde 1980 hasta el 2021 para los datos de entrenamiento y desde 2022 hasta 2024 para hacer predicciones. La primera esperando probar su funcionamiento ante la cambiante situación de la bolsa de valores en la pandemia, y la segunda para el entorno posterior a esta. Primero que nada, se hace un preprocesamiento de los datos primero haciendo una normalización de 0 a 1 para que la función de activación pueda usar los datos de mejor manera y después de esto se mide la longitud de los datos para hacer secuencias de entrenamiento y con estos mismos entrenar la red neuronal, por último, se remoldan los datos para que así sean más compatibles con el modelo de red neuronal recurrente o en este caso con el modelo LSTM. Posteriormente se diseñó una red neuronal de 1 entrada, 1 capa de 50 neuronas y 1 salida, entrenando a la red por 100 épocas con un tamaño de lote de 32. Finalmente, se utilizaron los datos destinados a realizar predicciones para este mismo propósito, con el fin de verificar la precisión y la eficiencia de la red neuronal, obteniendo una serie de resultados que intentaron predecir los valores de la acción en ambos periodos de tiempo, dados sus datos de entrenamiento; estos resultados fueron utilizados para calcular su error cuadrático medio, y a su vez fueron graficados con relación a los valores reales para su comparación visual.


CONCLUSIONES

Al desarrollar la metodología de nuestro proyecto se obtuvieron un par de gráficas en la que se observó que la predicción de nuestra red neuronal es muy parecida al precio real, únicamente presentando un leve desfase por usar solo el valor más alto de el set de datos de entrenamiento y no tomar en cuenta las fechas de estos precios, por lo que después de sacar el error cuadrático medio, y comparando la predicción con el valor real, obtuvimos que nuestra red neuronal tiene una eficiencia de alrededor de 78.79%, siendo un valor bastante positivo para nuestro objetivo, ya que es capaz de dar una noción de los valores que la acción tomará en el futuro, algo que le brinda una cualidad de consejero en el área de las inversiones. Es así como se logró desarrollar una versión temprana del proyecto, la cual consiste en un sistema que utiliza una red neuronal entrenada con datos históricos de la empresa Apple©. Este sistema predice los futuros movimientos financieros de la empresa en la bolsa de valores. La predicción se presenta en una gráfica para facilitar su visualización por parte del usuario. La precisión de la predicción es bastante buena dentro de lo posible, aunque no es perfecta debido a la complejidad y volatilidad del mercado bursátil. No obstante, es capaz de ofrecer al usuario una orientación sobre qué empresas podrían experimentar subidas o bajadas en su valor. Se tiene previsto que en futuras versiones del proyecto se desarrolle una interfaz de usuario, algo que permitirá que la herramienta sea utilizada como una aplicación en diferentes dispositivos. De este modo, tras las exhaustivas investigaciones realizadas por el equipo para llevar a cabo este proyecto, se ha adquirido un conocimiento considerable sobre el mercado de las inversiones y el aprendizaje automático. Dado que los miembros del equipo no contaban con formación profesional en finanzas ni en el uso de inteligencia artificial, todos han adquirido nuevos conocimientos en estas áreas. Estos conocimientos serán valiosos no solo para continuar con este, sino también para futuros proyectos, y potencialmente, para quienes decidan adentrarse en el campo de las finanzas o la inteligencia artificial.
Puente Puente Enrique, Instituto Tecnológico Superior de Guasave
Asesor: M.C. Rommel Arel Leal Palomares, Instituto Tecnológico Superior de Guasave

DISEñO MECáNICO SUSTENTABLE DE UN MóDULO DE PRáCTICAS PARA EQUILIBRIO DE LA PARTICULA


DISEñO MECáNICO SUSTENTABLE DE UN MóDULO DE PRáCTICAS PARA EQUILIBRIO DE LA PARTICULA

Puente Puente Enrique, Instituto Tecnológico Superior de Guasave. Asesor: M.C. Rommel Arel Leal Palomares, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

En el campo de la ingeniería mecánica, el estudio de la estática es fundamental para comprender el comportamiento de los cuerpos en equilibrio. Un aspecto clave de esta disciplina es el análisis y la resolución de problemas relacionados con el equilibrio de partículas y cuerpos rígidos, lo cual es esencial para diseñar estructuras y mecanismos seguros y eficientes. Según Montijo-Valenzuela E. E., et al. (2019), la didáctica es relevante para la gestión del conocimiento, especialmente dentro del aula. Como disciplina teórica, la didáctica estudia la acción pedagógica y tiene la misión de describir, explicar y fundamentar las prácticas de enseñanza, proponiendo normas para resolver los problemas que enfrentan los profesores. Es por eso que uno de los desafíos recurrentes en la educación y la práctica de la estática es la falta de herramientas didácticas que permitan a los estudiantes visualizar y comprender de manera tangible los conceptos teóricos. Las mesas de fuerzas, también conocidas como mesas de equilibrio, son dispositivos que permiten estudiar el equilibrio de una partícula bajo la acción de múltiples fuerzas, proporcionando una experiencia práctica y visual del comportamiento estático. En muchas instituciones educativas, las mesas de fuerzas disponibles son limitadas en número y en capacidad de ilustrar situaciones complejas, lo que dificulta el aprendizaje efectivo. Además, la precisión y la capacidad de ajustar fuerzas y direcciones en estas mesas no siempre es óptima, lo que puede llevar a errores en la comprensión y aplicación de los principios estáticos. En la actualidad, también es crucial considerar la sostenibilidad y el impacto ambiental de los materiales utilizados en la fabricación de equipos didácticos. El ecodiseño se presenta como una estrategia esencial para reducir la huella de carbono y promover prácticas más sostenibles en la ingeniería. La elección de materiales como la madera puede contribuir significativamente a este objetivo, ya que los árboles, a través de la fotosíntesis, fijan dióxido de carbono y lo transforman en energía y materia vegetal (madera). Este proyecto propone diseñar y construir una mesa de fuerzas ecoamigable, equipada con lo necesario para hacer un ajuste preciso y una visualización clara de las fuerzas y sus efectos. Además, se priorizará el uso de materiales sostenibles, en este caso la madera, para reducir el impacto ambiental. Aunado a esto, se harán sugerencias sobre la manufactura, pues durante la elaboración puede o no generarse carbono, dependiendo de los métodos empleados. La mesa de fuerzas se utilizará para el equilibrio de la partícula, facilitando la comprensión de conceptos fundamentales en la materia de estática de Ingeniería Mecánica. Se espera que este dispositivo pueda ser reproducido de manera responsable con el medio ambiente y no solo mejore la calidad de la enseñanza en esta materia, sino que también contribuya a la investigación y desarrollo de nuevos métodos de análisis estático en aplicaciones prácticas de ingeniería, todo mientras se promueven prácticas más sostenibles y responsables con el medio ambiente.



METODOLOGÍA

En las primeras sesiones se realizó una revisión exhaustiva de la literatura existente ecodiseño y el uso de materiales sostenibles en diseño de elementos mecánicos, en arquitectura y en ingeniería civil. Para el diseño de elementos mecánicos se encontró el uso de muchos bioplásticos, el ácido poliláctico o PLA es un derivado de la fermentación de los almidones como el maíz y el arroz, es ampliamente utilizado en la elaboración de piezas mecánicas en manufactura aditiva o por medio de moldes de inyección, se descartó debido a que los procesos industriales del PLA son bastante contaminantes desde su manufactura, distribución, venta y la aplicación final en las impresoras 3D pues es bien sabido que son tiempos elevados los que toma elaborar sólidos con estas máquinas a las que no cualquiera tiene acceso. En ingeniería civil y arquitectura destacó el uso de la madera así que al final se decidió para que fuera el material ecoamigable por excelencia. Se hizo el análisis exhaustivo de los elementos de un prototipo elaborado por una compañera algunas generaciones atrás, con esto se determinaron ciertos cambios en piezas específicas del modelo para poder aumentar la precisión y sensibilidad del sistema. Muchas de las demás piezas pueden ser elaboradas con madera y se determinó que para las necesidades del equipo no habrá mayor problema en la resistencia de las piezas que la componen. En varias de las sesiones con el investigador se abordaron los temas referente a los aspectos que son más importantes en las mesas de fuerza, así como los detalles por los que no es necesario preocuparse tanto en el diseño. Con las piezas de la versión original elaborada por la compañera, se determinó que solo una de ellas necesitaba un rediseño para permitir al hilo que soporta la carga correr libremente a un eje y así no presente alguna fricción que perturbe el experimento. A futuro, se debe realizar una evaluación del ciclo de vida para medir el impacto ambiental de los materiales y los procesos seleccionados.


CONCLUSIONES

A través del diseño y la elaboración de una mesa de fuerzas ecoamigable, he fortalecido habilidades técnicas como el uso de software de diseño asistido por computadora (CAD) y simulaciones del impacto ambiental de los modelos, con lo que se sensibiliza al estudiante sobre la relevancia de la ingeniería sostenible en el contexto actual. En lo personal, participar en proyectos de investigación no solo enriquece el aprendizaje académico, sino que también prepara al estudiante para enfrentar desafíos profesionales y fortalecer su compromiso con la sostenibilidad y la innovación. Este tipo de experiencias transformadoras son cruciales para formar ingenieros competentes y responsables en un mundo que demanda soluciones cada vez más complejas, sostenibles y eficientes.
Puentes López David, Universidad Católica de Pereira
Asesor: Mg. Andrés Felipe Ramirez Correa, CIAF Educación Superior

CATáLOGO PATRONES DE DISEñO EN PYTHON


CATáLOGO PATRONES DE DISEñO EN PYTHON

Alzate Hincapié Juan David, Universidad Católica de Pereira. Puentes López David, Universidad Católica de Pereira. Asesor: Mg. Andrés Felipe Ramirez Correa, CIAF Educación Superior



PLANTEAMIENTO DEL PROBLEMA

Catálogo de Patrones de Diseño en Python   Dentro del mundo de la programación orientada a objetos, y en la programación en general, los desarrolladores experimentados hacen lo posible por no resolver cada problema desde cero enfrentados a cada pequeña particularidad que se encuentran en el proceso de desarrollo, sino que utilizan soluciones que ya se han utilizado en el pasado para resolver problemas cuyo núcleo principal se repite de forma regular, y que lo único que deben hacer es adaptarlo para las necesidades específicas de la situación.   Es por esto que en el presente trabajo se muestran algunos de los patrones de diseño más comunes en la industria, así como una breve descripción de su funcionamiento.  



METODOLOGÍA

Para la creación de este catálogo, se siguió una metodología rigurosa que incluyó: Identificación y clasificación: Cada patrón fue identificado y clasificado según su categoría (creacional, estructural o comportamental). Análisis en profundidad: Se estudió a fondo el propósito, la motivación, la estructura y las colaboraciones de cada patrón. Ejemplos prácticos: Se proporcionaron ejemplos de código en Python para ilustrar la implementación de cada patrón en escenarios reales. Consideración de ventajas y limitaciones: Se analizaron tanto los beneficios como los desafíos asociados con cada patrón. Los 5 Patrones de Diseño Destacados Singleton: Garantiza que una clase tenga una única instancia y proporciona un punto de acceso global a esa instancia. Es ideal para gestionar recursos compartidos o configuraciones globales.    Factory Method: Delega la creación de objetos a subclases, permitiendo una mayor flexibilidad en la creación de objetos y facilitando la extensión del sistema. Observer: Define una relación uno-a-muchos entre objetos, permitiendo que múltiples objetos sean notificados automáticamente cuando cambia el estado de otro objeto. Es útil para implementar sistemas de eventos y notificaciones. Strategy: Encapsula una familia de algoritmos, permitiendo que el algoritmo varíe independientemente de los clientes que lo utilizan. Es ideal para cambiar comportamientos en tiempo de ejecución. Decorator: Permite agregar responsabilidades a un objeto de manera dinámica, sin alterar la estructura de las clases existentes. Es útil para agregar funcionalidades adicionales a objetos sin crear nuevas subclases.


CONCLUSIONES

Catálogo de patrones como referencia: Un catálogo de patrones de diseño actúa como una enciclopedia de soluciones probadas para problemas comunes en el desarrollo de software. Al tener un catálogo a mano, los desarrolladores pueden buscar rápidamente la solución más adecuada para un problema específico, ahorrando tiempo y esfuerzo en la fase de diseño. Esto se debe a que al reutilizar soluciones existentes, los desarrolladores pueden acelerar el proceso de desarrollo de nuevas aplicaciones. Esto es especialmente útil en proyectos con plazos ajustados. Es posible afirmar que el uso de los catálogos promueven la adopción de buenas prácticas de desarrollo de software. Al documentar los patrones de diseño y sus aplicaciones, se establece un estándar de calidad y consistencia en los proyectos. El hecho de tener un catálogo común proporciona un lenguaje compartido entre los miembros de un equipo de desarrollo, falicitando la comunicación y la colaboración, ya que todos entienden y utilizan los mismos conceptos. El uso de patrones de diseño hace que el código sea más legible, comprensible y mantenible a largo plazo, ya que estos proporcionan una estructura clara y organizada al código, lo cual es de vital importancia en proyectos que requieren varios programadores. Y finalmente, aunque los patrones de diseño son soluciones probadas, también pueden servir como base para la creación de nuevos patrones o variaciones de los existentes. Esto fomenta la innovación y la mejora continua en el desarrollo de software.
Pugliese Cervantes Jesus Steven, Corporación Universitaria Latinoamericana
Asesor: M.C. Daniel Alejandro Peréz de la Mora, Universidad Iberoamericana, Ciudad de México

INTERFAZ Y PROGRAMACION DEL SIMULADOR DE LABORATORIO DE ENERGIA INTELIGENTE. DASHBOARD Y RED DE SENSORES LORAWAN.


INTERFAZ Y PROGRAMACION DEL SIMULADOR DE LABORATORIO DE ENERGIA INTELIGENTE. DASHBOARD Y RED DE SENSORES LORAWAN.

Díaz Berdugo Manuel Jose, Corporación Universitaria Latinoamericana. Pugliese Cervantes Jesus Steven, Corporación Universitaria Latinoamericana. Asesor: M.C. Daniel Alejandro Peréz de la Mora, Universidad Iberoamericana, Ciudad de México



PLANTEAMIENTO DEL PROBLEMA

Desarrolllo de la interfaz para controlar un simulador solar. Conexión de una red de sensores LoRaWAN.



METODOLOGÍA

Se utilizó un dispositivo Keysight E4360A como simulador de un panel solar, y dispositivos Victron, como el MPPT 100 para optimizar la eficiencia de los paneles solares en sistemas de energía renovable y un inversor Victron MultiPlus para convertir la corriente continua en corriente alterna de alta calidad para alimentar dispositivos eléctricos. Se utilizó Python a través de Visual Studio Code para el desarrollo de la interfaz para controlar el simulador. Utilizamos las siguientes librerías: ​import os import sys import tkinter as tk from PIL import Image, ImageTk import math import random import matplotlib.pyplot as plt from matplotlib.backends.backend_tkagg import FigureCanvasTkAgg import numpy as np from conf_val import VOLTAGE_MAX, CURRENT_MAX, verificar_valores_maximos import signal import requests from datetime import datetime, timedelta import pytz import pyvisa import threading. Se implementaron 10 sensores Dragino LHT65 de temperatura y humedad LoRaWAN y un SenseCap M2, que ayudaba a que los sensores recibieran wifi. Los sensores se conectaron a través de The Things Network, que actuaba como un puente para que los sensores y la red pudieran comunicarse. Por medio de The Things Network, utilizamos la integración webhook para conectarnos con Ubidots y crear un dashboard que servía para monitorear los datos de temperatura y humedad ambiente y también la humedad de la tierra.


CONCLUSIONES

Se desarrolló una interfaz gráfica para controlar el simulador Keysight E4360A y un dashboard para monitorear la temperatura y humedad de los sensores.
Pulido Citlaly, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Juan Manuel Ramírez Alcaraz, Universidad de Colima

LA INTELIGENCIA ARTIFICIAL UTILIZADA COMO APOYO EN CIBERATAQUES


LA INTELIGENCIA ARTIFICIAL UTILIZADA COMO APOYO EN CIBERATAQUES

Pulido Citlaly, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Juan Manuel Ramírez Alcaraz, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial (IA) está redefiniendo el panorama de los ciberataques, no solo al facilitar su ejecución, sino también al permitir la creación de amenazas más sofisticadas y personalizadas. La IA, lejos de ser una mera herramienta defensiva, se ha convertido en un recurso clave para la generación y perfeccionamiento de ciberataques como el phishing, ransomware, y deepfakes, entre otros. Este planteamiento se centra en cómo la IA está siendo utilizada para potenciar estas amenazas y en cómo se generan estos ataques de manera más efectiva con su ayuda. Phishing Potenciado por IA. La IA permite a los atacantes crear correos electrónicos y mensajes de phishing altamente personalizados que imitan de manera convincente la comunicación legítima de empresas o individuos. Utilizando algoritmos avanzados de procesamiento de lenguaje natural (NLP) y análisis de datos, la IA puede generar mensajes que se adaptan al estilo y comportamiento de las víctimas, aumentando la probabilidad de que caigan en la trampa. Por ejemplo, un atacante podría utilizar IA para analizar el historial de correos electrónicos de una persona y generar un mensaje que imita perfectamente la forma en que se comunica con sus colegas o clientes.        Deepfakes y Suplantación de Identidad. La IA también ha revolucionado la creación de deepfakes, permitiendo la generación de videos, audios e imágenes falsificadas con un realismo inquietante. Estos deepfakes pueden ser utilizados para suplantar la identidad de figuras públicas o privadas, engañando a las personas para que crean en la autenticidad de la manipulación. Por ejemplo, un deepfake podría ser creado para mostrar a un CEO anunciando un cambio de política de la empresa, lo que podría influir en el mercado de valores o en la percepción pública, todo sin que el evento haya ocurrido realmente. Ransomware Inteligente. En el ámbito del ransomware, la IA permite a los atacantes identificar y priorizar los activos más valiosos dentro de una organización, asegurando que el ataque cause el mayor daño posible. Además, la IA puede automatizar el proceso de negociación, ajustando las demandas de rescate en función de la capacidad financiera de la víctima. Por ejemplo, un ataque de ransomware podría utilizar IA para analizar las finanzas de una empresa y ajustar la cantidad del rescate para maximizar la probabilidad de pago. Ciberataques Potenciados por IA. Además de los ataques mencionados, la IA está siendo utilizada en otras formas de ciberataques. En los ataques distribuidos de denegación de servicio (DDoS), la IA puede analizar en tiempo real el tráfico de red y ajustar los patrones de ataque para maximizar el impacto. En la ingeniería social avanzada, la IA recopila y analiza grandes volúmenes de datos personales para crear perfiles detallados de las víctimas, lo que permite a los atacantes diseñar ataques más precisos y personalizados. Además, la IA puede ser utilizada en la creación de malware adaptable, que puede modificar su código para evadir las defensas de seguridad y aumentar su efectividad. Generación de Ciberataques con IA. Un ejemplo concreto del uso de IA en la generación de ciberataques es la creación de un video deepfake en el que un político parece hacer declaraciones controvertidas, lo que podría ser utilizado para manipular la opinión pública o incitar disturbios. Otro ejemplo es un ataque de phishing que emplea IA para analizar las preferencias de compra de una víctima y enviarle un correo electrónico de phishing que parece ser de su tienda en línea favorita, pidiéndole que actualice su información de pago en un enlace falso.



METODOLOGÍA

Para abordar este problema, se llevó a cabo una investigación, utilizando una combinación de toma de cursos especializados, revisiones bibliográficas, análisis de casos y experimentos prácticos: Toma de cursos especializados: Como primer paso, se tomaron dos cursos clave para establecer una base sólida de conocimientos, uno sobre: Introducción a la ciberseguridad y otro sobre Los elementos de la inteligencia artificial.  Revisión Bibliográfica: Se revisaron varios artículos académicos y publicaciones recientes sobre el uso de la IA en la ciberseguridad y la prevención del phishing. Además, se analizaron estudios sobre deep fakes y su impacto en la seguridad digital.    Análisis de Casos: Se examinaron ejemplos específicos de phishing y deep fakes, incluyendo incidentes documentados y estudios de casos de videos de deep fake, como los de Claudia Sheinbaum y Barack Obama. Experimentación: Se utilizaron herramientas de IA para desarrollar y probar la generación de phishing, ransomware y deep fakes. 


CONCLUSIONES

Durante el verano Delfín, se realizó una investigación en la cual se abordó cómo la inteligencia artificial no sólo apoya, sino que amplifica y perfecciona la generación de ciberataques. Desde la creación de mensajes de phishing altamente personalizados hasta la producción de deepfakes realistas y la planificación estratégica de ataques de ransomware, la IA está siendo instrumental en la evolución del cibercrimen. Este impacto de la IA en la generación de ciberataques representa un desafío significativo en el campo de la ciberseguridad, que requiere una comprensión profunda de su potencial destructivo. 
Pulido Sanchez Edgar, Instituto Tecnológico Superior de Coalcomán
Asesor: Mg. Gabriel Dario Piñeres Espitia, Universidad de la Costa

METODOLOGíA PARA VISUALIZAR EN LA NUBE LOS DATOS OBTENIDOS POR UN SISTEMA DE MONITOREO AGRíCOLA BASADO EN EL SUMIDERO DLOS8


METODOLOGíA PARA VISUALIZAR EN LA NUBE LOS DATOS OBTENIDOS POR UN SISTEMA DE MONITOREO AGRíCOLA BASADO EN EL SUMIDERO DLOS8

Cabrera Gomez Elfego, Instituto Tecnológico Superior de Coalcomán. Pulido Sanchez Edgar, Instituto Tecnológico Superior de Coalcomán. Asesor: Mg. Gabriel Dario Piñeres Espitia, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La agricultura enfrenta el desafío crítico de optimizar la producción y la salud de los cultivos mediante el monitoreo en tiempo real de las condiciones del suelo. La falta de datos precisos sobre temperatura, humedad y conductividad del suelo impide a los agricultores tomar decisiones informadas, lo que puede llevar a un uso ineficiente de recursos como el agua y fertilizantes. Monitorear las condiciones del suelo es crucial para controlar los sistemas de riego y aprovechar mejor el agua, un recurso cada vez más escaso. El riego excesivo o insuficiente no solo desperdicia agua, sino que también puede dañar los cultivos y reducir el rendimiento agrícola. Implementar sistemas de monitoreo avanzados permite ajustar las prácticas de riego según las condiciones reales del suelo, mejorando la eficiencia en el uso del agua y contribuyendo a la sostenibilidad y productividad agrícola.



METODOLOGÍA

Fase 1: Identificar la Arquitectura y Funcionamiento El sistema de monitoreo agrícola consta de: Nodos de Sensores: Capturan datos de temperatura, humedad y conductividad del suelo. Sumidero DLOS8: Recibe datos de los nodos de sensores y los transmite a la nube. TTN (The Things Network): Plataforma para la transmisión y almacenamiento de datos IoT. Herramienta en la Nube: Alternativa a TTN para la visualización y análisis de datos, como Mosquitto con MQTT Explorer. Datacake: Plataforma IoT para la visualización y gestión de datos en tiempo real. Fase 2: Revisión de la Literatura Se realizó una revisión bibliográfica para identificar mejores prácticas y desafíos comunes en el uso del sumidero DLOS8 y herramientas asociadas como Mosquitto, TTN y MQTT Explorer. Se utilizaron bases de datos académicas como Google Scholar, IEEE Xplore, SpringerLink y ScienceDirect. Fase 3: Configuraciones y Requerimientos Configuraciones Iniciales del Sumidero DLOS8: Conexión Física: Conectar el sumidero DLOS8 a la fuente de alimentación y asegurarse de que los sensores estén correctamente conectados. Configuración de Red: Acceder a la interfaz de configuración del DLOS8 y configurar los parámetros de red. Configuración de Protocolo: Seleccionar el protocolo LoRaWAN y configurar los parámetros de comunicación. Integración con TTN: Registrar el dispositivo en la consola de TTN y configurar DevEUI, AppEUI y AppKey en el DLOS8. Configuraciones de la Herramienta TTN: Registro en TTN: Crear una cuenta y acceder a la consola de TTN. Creación de Aplicación: Configurar una nueva aplicación en TTN. Registro del Dispositivo: Añadir un nuevo dispositivo y configurar DevEUI, AppEUI y AppKey. Configuración de Integraciones: Configurar integraciones para enviar datos a Mosquitto con MQTT Explorer. Visualización de Datos: MQTT Broker (Mosquitto): Configurar un broker MQTT utilizando Mosquitto. MQTT Explorer: Utilizar MQTT Explorer para suscribirse a los topics del broker. Dashboards y Gráficos: Crear dashboards personalizados en Datacake para visualizar los datos de temperatura, humedad y conductividad. Uso de Datacake: Registro en Datacake: Registrarse en Datacake.io. Agregar Dispositivo: Agregar y configurar el sumidero DLOS8 en Datacake. Integración con TTN: Configurar una integración HTTP en TTN y ajustar los métodos de autenticación. Creación de Dashboards: Crear dashboards y agregar widgets para visualizar los datos. Monitoreo y Visualización: Configurar alertas y monitorear los datos en tiempo real.


CONCLUSIONES

En resumen, el proyecto ha logrado establecer una metodología robusta y efectiva, permitiendo la integración y visualización de datos críticos para la agricultura moderna y proporcionando una herramienta valiosa para mejorar la toma de decisiones y la productividad en el campo. Se ha proporcionado una guía completa que no solo aborda los desafíos técnicos, sino que también ofrece una solución práctica y escalable para agricultores y profesionales del sector. A través de tres fases, se abordaron aspectos clave del proyecto: la identificación de la arquitectura y el funcionamiento del sistema, la revisión exhaustiva de la literatura para identificar mejores prácticas y desafíos comunes, y la definición y documentación detallada de los pasos para configurar el sumidero DLOS8 y la herramienta en la nube. Esta metodología optimiza el monitoreo en tiempo real de las condiciones agrícolas, mejorando la gestión de recursos y contribuyendo a la sostenibilidad y eficiencia de las operaciones agrícolas, permitiendo la integración y visualización de datos críticos para mejorar la toma de decisiones y la productividad en el campo.
Pulido Sebastián Allizon Sherlin, Instituto Tecnológico Superior Purépecha
Asesor: Mg. Manuel Hernando Franco Arias, Universidad Autónoma de Bucaramanga

DISEÑO DE UNA HERRAMIENTA COMPUTACIONAL BASADA EN INTELIGENCIA ARTIFICIAL PARA LA IDENTIFICACIÓN DE RETINOPATÍA DIABÉTICA


DISEÑO DE UNA HERRAMIENTA COMPUTACIONAL BASADA EN INTELIGENCIA ARTIFICIAL PARA LA IDENTIFICACIÓN DE RETINOPATÍA DIABÉTICA

Pulido Sebastián Allizon Sherlin, Instituto Tecnológico Superior Purépecha. Vázquez Espino Martha Paola, Instituto Tecnológico Superior Purépecha. Asesor: Mg. Manuel Hernando Franco Arias, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

PLANTEAMIENTO DEL PROBLEMA   La retinopatía diabética es una complicación ocular de la diabetes que afecta los vasos sanguíneos de la retina. A medida que la enfermedad progresa, pueden aparecer diversas anomalías que pueden ser clasificadas en diferentes etapas. La retinopatía diabética es la causa más importante de ceguera en muchos países según la organización Mundial de la Salud, la misma estima que la retinopatía diabética produce casi 5% de los 37 millones de ciegos del mundo, ahora bien en América Latina, hasta un 40% de los pacientes diabéticos tiene algún grado de RD Uno de los problemas cruciales es la detección de cada anomalía, siendo que en la retinopatía diabética se encuentran 8 anomalías. Lo que provoca un retraso en el diagnóstico, aún más si el paciente tiene 3 o más anomalías. La inteligencia artificial ha revolucionado en el campo de la medicina especialmente en la detección y el diagnóstico de enfermedades, como lo es, la retinopatía diabética. Esta enfermedad ocular causada por la diabetes no solo puede llevar a daños irreversibles en la retina si no se detecta a tiempo. Por tal motivo se pensó en una herramienta que pueda agilizar el proceso de la detección de ellas, de una manera eficaz, en el verano trabajamos en la creación de una herramienta computacional basándonos en una inteligencia artificial, dando así una mejora al detectar patologías de retinopatía diabética. 



METODOLOGÍA

METODOLOGÍA Se creó un código donde al meter imágenes con anomalías de retinopatía diabética nos mostraba la imagen a color, a escala de grises e invertidas, esto para identificar con cuál de las tres tonalidades (rojo, verde y azul) se podían identificar mejor cada  una de las anomalías. Depende de cada anomalía se realizó un desglose dando a un resultado para agilizar el proceso de un diagnóstico fácil, rápido y eficaz. Como resultados en este código se obtuvo que en los micoaneurismas el RGB que identifica mejor la anomalía es la roja, en la anomalía de hemorragia la capa que agiliza su detección es la roja y verde descartando la capa azul, para los exudados la capa verde es la que favorece su detección, en los edemas maculares la capa verde nos facilita su detección, en desprendimiento la capara verde nos ayuda a agilizar su localización. Al tener los resultados, de cual tonalidad resaltaba más la anomalía, procedimos a realizar el cambio de brillo de la imagen con la capa que favoreció más la detección de la anomalía, esto para resaltar aún más el contorno de la anomalía, dándonos esto al paso al siguiente, donde ahí se identifican los parámetros, es decir donde se encuentra exactamente la anomalía dentro de la retina, esto para obtener su área y el porcentaje que abarca dentro de la misma, al tener los resultados se realizó otro código para generar una imagen en binario y resaltar únicamente el o las anomalías, por consiguiente lo pasamos a un código que su función es filtrar la imagen y quitar los ruidos que nos generen, estos ruidos son identificaciones no patológicas, por ultimo resaltamos los bordes dándonos el porciento de la retina. Sí una imagen de retina tiene 3 anomalías a cada una de la anomalía se saca su porcentaje y área para dar el resultado de cuantas anomalía tiene y dar un diagnostico eficaz, rápido y conciso al completar esto la herramienta no solo agiliza el proceso del diagnóstico, sino que también mejora la precisión y reduce errores. Esta herramienta detecta cuantas anomalías hay dentro de la retina de los pacientes con retinopatía diabética, así como también da como resultado que porcentaje de la retina está afectada y que área tiene cada anomalía dentro de la retina. Aunado a esto, facilita la detección temprana a las enfermedades u anomalías, lo que es crucial para intervenir a tiempo y prevenir complicaciones graves A su vez está transformando radicalmente la manera en que se aborda y trata la retinopatía diabética, promoviendo a los médicos una herramienta con atención más eficaz y personalizada para los pacientes. Las fotos con las cuales se hicieron las pruebas fueron otorgadas por el investigador y el laboratorio de biomédica en el edificio de ingenierías de la Universidad Autónoma de Bucaramanga. 


CONCLUSIONES

CONCLUSIONES   A largo de esta estadía, se logró concluir con las estipulaciones de la investigación, generando un conocimiento grato y sumamente enriquecedor tanto teórico como practico, adquirir conocimientos afondo de cada patología de la retinopatía diabética así como el proceso de la creación de una herramienta con sus métodos de programación y su procesamiento de señales para su detección, gracias al acompañamiento del investigador se alcanzaron los objetivos de la investigación.
Que Rivera Erik Said, Instituto Tecnológico Superior de Los Ríos
Asesor: Mg. Daniel José González Tristancho, Escuela Colombiana de Ingeniería Julio Garavito

DISEñO DE UN PROTOTIPO DE SEGUIMIENTO DE DOS EJES PARA OPTIMIZAR LA PRODUCCIóN DE ENERGíA EN UN SISTEMA SOLAR FOTOVOLTAICO


DISEñO DE UN PROTOTIPO DE SEGUIMIENTO DE DOS EJES PARA OPTIMIZAR LA PRODUCCIóN DE ENERGíA EN UN SISTEMA SOLAR FOTOVOLTAICO

Lopez Leyva Arbin Jose, Instituto Tecnológico Superior de Los Ríos. Que Rivera Erik Said, Instituto Tecnológico Superior de Los Ríos. Asesor: Mg. Daniel José González Tristancho, Escuela Colombiana de Ingeniería Julio Garavito



PLANTEAMIENTO DEL PROBLEMA

Las energías convencionales son más confiables y son una tecnología madura que controla la generación de energía, aunque produzcan mucho C02 dañino para el planeta en algunos casos según la matriz energética de cada país. Por otro lado las energías limpias como la solar tienen poca confiabilidad ya que la producción de energía procedente de un panel está ligada a las horas que esté en presencia del sol y la inclinación en la que llegan los rayos solares, por esto se busca ampliar la producción de energía durante el día para lograr que la tecnología fotoeléctrica sea más viable y eficiente.Bogotá posee un clima caracterizado por una alta frecuencia de nubosidad y lluvias. Los sistemas de un solo eje no pueden adaptarse tan eficientemente a las variaciones en la intensidad y la dirección de la luz solar causadas por las nubes.( Laso, E., Fernández, E., & Martín, G. (2017). Diseño y evaluación de un seguidor solar de dos ejes para un sistema fotovoltaico. Avances en Energías Renovables y Medio Ambiente).  



METODOLOGÍA

1 revisar las características técnicas del sistema solar fotovoltaico a utilizar con el fin de adaptarle un sistema de seguimiento de dos ejes:Se revisaron las características del panel solar para poder seguir con el prototipo funcional, también se realizó sus mediciones físicas, por otra parte se verificaron  las especificaciones de los servomotores los cuales fueron seleccionados el (MG5010,TD-8120MG), porque cumplen con la fuerza necesaria para el movimiento del panel y su estructura, la siguiente especificación fue un motorreductor de 12V, de 10 A, de tal manera que se fueran útil para el prototipo funcional, de igual manera las características de los Arduino (Uno), es por ello que las fotorresistencias se le hicieron pruebas de revisar sus características. 2 Diseñar el prototipo preliminar de la estructura para el sistema de seguimiento de dos ejes del panel: Se realiza de manera preliminar el prototipo del sistema solar de seguimiento de dos ejes del panel en el software SolidWorks, tomando en cada una de ella las especificaciones obtenidas del panel solar como los demás elementos a utilizar ya mencionados, de igual forma se realizaron en 3D, 2D, para poder realizar los planos adecuados y empezar a realizarlo de manera física. 3 Diseñar el prototipo preliminar de la estructura que emulara el movimiento del sol: Se realiza el prototipo de la estructura que emula el movimiento del sol en el Software SolidWorks, tomando en cuenta las especificaciones y características establecidas en el diseño, de manera que se establecieron medidas para poder realizar el diseño y de esta manera que cumpliera con lo establecido. 4 implementar el prototipo preliminar de la estructura del sistema de seguimiento de dos ejes para el panel y la estructura que emulara el movimiento del sol: Se realizaron y analizaron cada una de las medidas necesarias para poder realizar la fabricación de las piezas que se utilizaron en de manera concreta y siguiendo cada una de las especificaciones, de manera que se realizan las piezas, después de todo se revisa cada una de las piezas diseñadas para poder seguir con el prototipo y ensamblar cada una de ellas. 5 evaluar el sistema de seguimiento de dos ejes para diferentes condiciones del movimiento del sol con el fin de optimizar la producción de energía: Se realizo el monitoreo y análisis  de la producción de energía de un sistema sin el  seguimiento, por lo que se reviso tablas de resultados anteriores y resultados actuales y se realizo comparaciones con la producción de energía de un sistema con el seguimiento de un eje y también la producción de energía de un sistema con el seguimiento de dos ejes, es por ello que se verifica bien la producción de estos tres diferentes sistemas, con lo que se utiliza sistemas adecuados para poder analizar cada uno de ellos y por la zona geográfica que este se presenta en cada una de las partes, por tal manera que se analizó que el sistema de seguimiento de dos ejes es el mayor aprovechamiento en la energía y se observo que se tiene que mantener en diferentes ángulos mediante pasa los meses o se dividan las estaciones del año. 6 Comparar la producción energética del prototipo de seguimiento de dos ejes mediante un modelado en PVSOL: Se definió el prototipo de sistema de seguimiento solar de dos ejes, incluyendo sus especificaciones técnicas y diseño estructural. Este sistema permite que los paneles solares se orienten tanto en el eje horizontal como en el vertical para maximizar la captación de luz solar a lo largo del día y el año, se obtuvieron datos meteorológicos precisos del sitio donde se instalaría el prototipo. Estos datos incluyen irradiación solar, temperatura, velocidad del viento y otros factores ambientales que afectan la producción de energía solar. Utilizando el software PVSOL, se creó un modelo digital del prototipo. PVSOL es un programa especializado en la simulación y análisis de sistemas fotovoltaicos.


CONCLUSIONES

Durante la estancia de verano se logro adquirir conocimientos enriquecedores lo cual en la parte práctica y teórica.  A partir de las características de cada uno de los componentes analizados: panel solar, servomotores, fotorresistencias, Arduino, motorreductores, y el uso de herramientas de cómputo como SolidWorks, se logró diseñar un prototipo de seguimiento de dos ejes para un sistema solar fotovoltaico, donde se logra optimizar la producción de energía.A través de la caracterización de los componentes se establecieron las medidas necesarias para ensamblar las piezas y que el prototipo fuera funcional, se creó una estructura para un panel solar fotovoltaico que permite un movimiento azimutal y de rotación, donde a partir de las pruebas, se determinó que permite un seguimiento correcto del sol. Como complemento al sistema de seguimiento, se diseñó una estructura que emula el movimiento del sol a lo largo del día, que permite también un ajuste del comportamiento a lo largo del año, para una emulación más completa permitiendo el análisis en los dos semestres importantes para países que no superen los 40 grados con respecto a la línea del ecuador.
Quezada Espinoza Oscar Omar, Universidad Autónoma de Sinaloa
Asesor: Dr. Alfonso Talavera López, Universidad Autónoma de Zacatecas

DESHIDROGENACIóN OXIDATIVA DE PROPANO CON CATALIZADORES DE SILICATOS MESOPOROSOS DOPADOS CON VANADIO UTILIZANDO CO2 COMO AGENTE OXIDANTE.


DESHIDROGENACIóN OXIDATIVA DE PROPANO CON CATALIZADORES DE SILICATOS MESOPOROSOS DOPADOS CON VANADIO UTILIZANDO CO2 COMO AGENTE OXIDANTE.

Moreno Heredia Alicia Guadalupe, Universidad Autónoma de Sinaloa. Quezada Espinoza Oscar Omar, Universidad Autónoma de Sinaloa. Asesor: Dr. Alfonso Talavera López, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

La deshidrogenación oxidativa de propano a propileno enfrenta desafíos debido a la emisión de CO y CO2, y a la combustión de hidrocarburos que deteriora la calidad del aire y reduce el rendimiento del propileno. Aunque el óxido nitroso (N2O) y el dióxido de azufre (SO2) son opciones viables, sus reacciones tóxicas son un problema. El dióxido de carbono (CO2) es una alternativa viable pero depende del catalizador utilizado. Los catalizadores comerciales actuales, basados en platino (Pt) y óxido de cromo (CrOx), son costosos, tóxicos y propensos a la desactivación. Los catalizadores metálicos, como los óxidos de vanadio (VOx), son una alternativa prometedora, pero la química superficial de VOx puede ser afectada por el soporte, resultando en baja selectividad y conversión.



METODOLOGÍA

En el proyecto, se emplearon dos metodologías distintas para la incorporación de óxido de vanadio en matrices mesoporosas de sílice. Para el SBA-16, se utilizó un enfoque que combina el método hidrotermal directo con un ajuste de pH. El procedimiento incluyó el uso del tensoactivo de copolímero tribloque no iónico Pluronic F127 y butanol (BuOH) como agente estructurante. El ortosilicato de tetraetilo (TEOS) sirvió como fuente de sílice, mientras que el metavanadato de amonio (NH4VO3) proporcionó el vanadio. El ajuste del pH se realizó mediante la adición de amoniaco acuoso en un medio ácido clorhídrico (HCl). Para la incorporación de óxido de vanadio en KIT-6, se aplicó un método similar, combinando el método hidrotermal directo con el ajuste de pH. En este caso, se empleó el tensoactivo de copolímero tribloque no iónico Pluronic P123 y butanol (BuOH) como mezcla directriz. Al igual que en el método para SBA-16, se utilizó TEOS como fuente de sílice y metavanadato de amonio (NH4VO3) como fuente de vanadio. El pH se ajustó utilizando amoniaco acuoso en un medio ácido clorhídrico (HCl).


CONCLUSIONES

Como resultado de la síntesis de los catalizadores con MCM-41, KIT-6 y SBA-16 se obtuvieron polvos de color amarillo que, según la literatura, dicho color se debe a la presencia de V2O5. Sin embargo, dos de los catalizadores, correspondientes a KIT-6 y SBA-16 con el método impregnación húmeda incipiente fueron de color anaranjado/amarillento. Debido al tiempo disponible no fue posible probar los catalizadores en el sistema de reacción, sin embargo, se esperaba una mejor conversión de los catalizadores a partir de SBA-16, la peor conversión de MCM-41 y como punto medio los catalizadores con KIT-6 como soporte.  Esto ya que, según la literatura los catalizadores con MCM-41 como soporte, tienen poca resistencia mecánica, lo que hace colapsar las paredes interiores impregnadas con fase activa. Y de acuerdo a resultados experimentales anteriores, los catalizadores a partir de SBA-16 presentan una mejor conversión y estabilidad con respecto a los de KIT-6.
Quezada Ramírez Irving Ernesto, Universidad Veracruzana
Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla

DE PIXELES A PATRONES: APRENDIZAJE AUTOSUPERVISADO PARA LA DETECCIóN DE DEFECTOS EN EL ACERO


DE PIXELES A PATRONES: APRENDIZAJE AUTOSUPERVISADO PARA LA DETECCIóN DE DEFECTOS EN EL ACERO

Quezada Ramírez Irving Ernesto, Universidad Veracruzana. Asesor: Mtra. Gabriela Yáñez Pérez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La detección de defectos en láminas de acero es un proceso crítico en la industria metalúrgica que tradicionalmente ha requerido inspección visual humana o sistemas de visión por computadora altamente supervisados. Sin embargo, estos métodos presentan limitaciones significativas: La inspección humana es propensa a errores, subjetiva y costosa en términos de tiempo y recursos. Los sistemas supervisados requieren grandes cantidades de datos etiquetados manualmente, lo cual es costoso y consume mucho tiempo. La variabilidad en los tipos de defectos y las condiciones de producción dificulta la generalización de los modelos tradicionales. Este proyecto aborda estas limitaciones mediante el uso de técnicas de aprendizaje autosupervisado, específicamente el modelo SimCLR, para desarrollar un sistema de detección de defectos más robusto y adaptable, capaz de aprender representaciones útiles de las imágenes de acero sin necesidad de etiquetado manual extensivo.



METODOLOGÍA

Preprocesamiento de datos: Se utilizó un conjunto de datos de imágenes de láminas de acero de la empresa Severstal, disponible en Kaggle. Las imágenes se redimensionaron a 224x224 píxeles y se normalizaron. Se implementó aumento de datos para mejorar la generalización del modelo. Implementación del modelo SimCLR: Se utilizó ResNet-50 como codificador base. Se realizaron experimentos con 50 y 100 épocas de entrenamiento. Se empleó un tamaño de lote de 32 y el optimizador AdamW con una tasa de aprendizaje de 0.424. Se aplicó aumento de datos y pérdida contrastiva durante el entrenamiento. Clustering y clasificación: Se extrajeron representaciones de características de las imágenes utilizando el modelo SimCLR entrenado. Se aplicó clustering K-means a estas representaciones. Se entrenó un clasificador Random Forest utilizando las características extraídas y las etiquetas de defectos conocidos. Evaluación: Se evaluó la calidad del clustering mediante el puntaje de silueta. Se midió el rendimiento del clasificador utilizando métricas como precisión, recall y F1-score. Se realizó una visualización t-SNE de los clusters para análisis cualitativo.


CONCLUSIONES

El enfoque de aprendizaje autosupervisado utilizando SimCLR ha demostrado ser altamente efectivo para aprender representaciones útiles de imágenes de acero con diversos tipos de defectos, sin necesidad de etiquetado manual extensivo. Esto es crucial en un contexto industrial donde la obtención de grandes cantidades de datos etiquetados es costosa y consume mucho tiempo. El modelo SimCLR entrenado durante 50 épocas mostró resultados superiores en comparación con el entrenamiento de 100 épocas. La pérdida se redujo de 2.96 a 2.73 en 50 épocas, mientras que en 100 épocas alcanzó 2.48. Sin embargo, el rendimiento en la tarea de detección de defectos con K-means y random forest fue mejor con 50 épocas, lo que sugiere que un entrenamiento más prolongado puede llevar a un sobreajuste en características no necesariamente relevantes para la detección de defectos. El clustering K-means con 2 clústeres, aplicado a las representaciones aprendidas por SimCLR, produjo una agrupación coherente y significativa. El puntaje de silueta de 0.71 indica una buena separación entre los clústeres y cohesión dentro de los mismos, sugiriendo que las características aprendidas son discriminativas para la tarea de detección de defectos sin necesidad de supervisión explícita. La visualización t-SNE de los clústeres reveló una clara separación entre dos grupos principales, lo que respalda la eficacia del enfoque de clustering no supervisado y la calidad de las representaciones aprendidas por SimCLR. El clasificador Random Forest, entrenado con las representaciones extraídas y aplicado sobre los clústeres obtenidos, alcanzó una precisión del 100% en la detección de defectos conocidos en el conjunto de prueba. Esto demuestra que las características aprendidas de manera autosupervisada son altamente informativas para la tarea de clasificación, incluso con mínima supervisión. El recall del 80.05% en el conjunto de prueba sugiere que el modelo tiene una tendencia a clasificar erróneamente algunas imágenes con defectos como no defectuosas. Esto indica que hay margen de mejora en la sensibilidad del modelo sin comprometer la precisión. Aproximadamente el 84% de las imágenes fueron clasificadas como defectuosas, lo cual es coherente con la naturaleza del dataset de Kaggle, que se centra en imágenes con defectos. Sin embargo, esto también señala la necesidad de validar el modelo con un conjunto de datos más equilibrado que incluya explícitamente imágenes sin defectos. La falta de anotaciones para imágenes sin defectos limita nuestra capacidad para evaluar completamente el rendimiento del modelo en un escenario de producción real. No obstante, el enfoque autosupervisado demuestra su potencial para aprender características relevantes incluso en ausencia de estas etiquetas. El uso de una batch size de 32, aunque menor que la recomendada en el paper original de SimCLR, fue una adaptación necesaria debido a las limitaciones de hardware. A pesar de esta modificación, el modelo fue capaz de aprender representaciones útiles, demostrando la robustez del enfoque autosupervisado. Este estudio demuestra que es posible desarrollar sistemas efectivos de detección de defectos en acero con mínima intervención humana en el etiquetado, lo cual tiene implicaciones significativas para la automatización y eficiencia en la industria metalúrgica. Estas conclusiones resaltan el éxito del enfoque autosupervisado y la minimización del uso de información anotada manualmente, al tiempo que identifican áreas de mejora y futuros trabajos para refinar aún más el modelo y su aplicabilidad en escenarios industriales reales.
Quintana Frías Alina Rocío, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Elias Alberto Bedoya Marrugo, Fundación Universitaria Tecnológico Comfenalco

ACCIDENTALIDAD EN EL SECTOR INDUSTRIAL Y/O GENERAL EN LA PERIFERIA DE UNA CIUDAD CAPITAL


ACCIDENTALIDAD EN EL SECTOR INDUSTRIAL Y/O GENERAL EN LA PERIFERIA DE UNA CIUDAD CAPITAL

Quintana Frías Alina Rocío, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Elias Alberto Bedoya Marrugo, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

ESTRATEGIAS PARA LA SEGURIDAD LABORAL Las estrategias para mejorar la seguridad e higiene laboral en México haciendo implementaciones y estrategias para mejorar la seguridad laboral incluyen, Implementación de normas internacionales adaptando estándares de seguridad internacionales de seguridad, como los establecidos en la organización internacional del trabajo (OIT) ayudando a mejorar las condiciones laborales, promoviendo un entorno de trabajo seguro, el fortalecimiento de la inspección y supervisión es importante al realizar inspecciones constantes y rigurosas para cumplir con las normativas de seguridad, estudios indican que una supervisión eficaz puede prevenir muchos accidentes laborales; fomentando la participación de los trabajadores que involucra que los trabajadores participen en la identificación de riesgos y la creación de soluciones teniendo voz mejorando la seguridad laboral, llegando a una solución en conjunto (Vázquez & Martínez, 2022)



METODOLOGÍA

Metodología La investigación sobre la accidentalidad en el sector industrial de la periferia de Cartagena se caracteriza por ser descriptiva y exploratoria, con un enfoque mixto que combina métodos cualitativos y cuantitativos para ofrecer una visión completa del problema. El enfoque descriptivo se centra en detallar las características y causas de los accidentes laborales mediante el análisis de datos, mientras que el enfoque exploratorio busca identificar patrones y factores menos evidentes que contribuyen a la accidentalidad. La metodología mixta permite un entendimiento integral al combinar estadísticas descriptivas y análisis temáticos para examinar tanto la frecuencia y causas de los accidentes como las percepciones y experiencias de los trabajadores. La población de estudio incluye empleados, supervisores y expertos en seguridad laboral del sector industrial en la periferia de Cartagena. Se seleccionará una muestra representativa de cada grupo para asegurar una cobertura adecuada de las diferentes perspectivas y experiencias. La muestra se determinará utilizando técnicas de muestreo estratificado para garantizar la inclusión de todos los sectores relevantes y grupos de interés dentro del ámbito industrial.    


CONCLUSIONES

  El estadístico R-Cuadrada indica que el modelo ajustado explica 1.3357% de la variabilidad en EDAD.  El coeficiente de correlación es igual a -0.115573, indicando una relación relativamente débil entre las variables.  El error estándar del estimado indica que la desviación estándar de los residuos es 10.1542.  Este valor puede usarse para construir límites de predicción para nuevas observaciones, seleccionando la  opción de Pronósticos del menú de texto.   El error absoluto medio (MAE) de 8.56106 es el valor promedio de los residuos.  El estadístico de Durbin-Watson (DW) examina los residuos para determinar si hay alguna correlación significativa basada en el orden en el que se presentan en el archivo de datos.  Puesto que el valor-P es menor que 0.05, hay indicación de una posible correlación serial con un nivel de confianza del 95.0%.  Grafique los residuos versus el número de fila para ver si hay algún patrón que pueda detectarse.   
Quintero Contreras Cristian Johan, Universidad de Pamplona
Asesor: Dr. Sebastián Roa Prada, Universidad Autónoma de Bucaramanga

DESARROLLO DE LA METODOLOGíA PARA LA CREACIóN DE UN SOTF SENSOR DE MEDICIóN MULTIFáSICA A PARTIR DE ALGORITMOS DE APRENDIZAJE AUTOMáTICO Y TéCNICAS DE SOTF COMPUTING PARA PROCESOS EN LA INDUSTRIA NACIONAL DE PETRóLEO Y GAS


DESARROLLO DE LA METODOLOGíA PARA LA CREACIóN DE UN SOTF SENSOR DE MEDICIóN MULTIFáSICA A PARTIR DE ALGORITMOS DE APRENDIZAJE AUTOMáTICO Y TéCNICAS DE SOTF COMPUTING PARA PROCESOS EN LA INDUSTRIA NACIONAL DE PETRóLEO Y GAS

Quintero Contreras Cristian Johan, Universidad de Pamplona. Asesor: Dr. Sebastián Roa Prada, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

Dado el creciente apogeo de las nuevas formas de obtención de energía, más amigables, más limpias, es común pensar en el hecho de que las formas tradicionales de obtención de energía como las fósiles, llegaron a su fin. La respuesta corta, no es así, ahora más que nunca este tipo de energías son optimizadas; nos encontramos ante una transición energética, una transición que pretende encontrar nuevas formas, optimas y limpias de energía, con la dificultad del tiempo que estas requieren para suplir completamente las riendas energéticas.



METODOLOGÍA

Medidor Multifásico El diseño metodológico comienza comprendiendo el resultado y replicando modelos físicos en modelos virtuales. Esto implica entender cómo funciona un medidor multifásico, compuesto por transductores que captan fenómenos físicos y generan señales para determinar las fases de agua, gas y petróleo sin necesidad de separar el fluido. Aunque menos robusto y más costoso, un medidor multifásico ofrece ventajas en eficiencia, velocidad y capacidad de muestreo en tiempo real. Leskens et al. (2008) señalan que estos medidores son inexactos o inadecuados para condiciones extremas. Para mejorar la robustez y medición en tiempo real, se propone un medidor multifásico tipo soft sensor. Patrones de Flujo Multifásico En el análisis de fluidos multifásicos, es común encontrar diferentes comportamientos de las tres fases que pueden alterar la medición del flujo. Es crucial analizar estos patrones y sus efectos. El comportamiento del fluido puede mejorar o empeorar la medición y depende de la geometría del oleoducto y la velocidad de los fluidos. Dadas las características de extracción y transporte, contener las tres fases sin mezclarse es impráctico. Las fases transportadas tienen distintas propiedades, como densidad y viscosidad, que influyen en el comportamiento del flujo multifásico. Herramientas de Computación Blanda Las herramientas matemáticas o algoritmos a usar condicionan la calidad del sensor blando a obtener, por ello es vital analizar los distintos modelos y encontrar el que más se adapte a nuestros requerimientos. Métodos de detección suave: para estimar lo no medido. Basadas en la teoría de probabilidad: Filtro de Kalman (KF): lineales sujeto a ruido blanco gaussiano. Filtro de Kalman extendido (EKF): No lineales (Jaswinski, 1970). Filtro de Kalman de conjunto (EnKF) (Evensen, 2003). Filtro de Kalman sin perfume (UKF) (del inglés "unscented") (Julier et al., 2000). Filtro de partículas (Gordon et al.). Basados en la optimización numérica: Trabajan mejor la no linealidad, mayores recursos computacionales. Estimador de horizonte móvil (Robertson y Lee, 1995). Diagnóstico del Problema Para obtener un sensor blando que mida flujo multifásico con variables económicas y robustas, se analizaron soluciones existentes y se propusieron mejoras. Leskens et al. (2008) sugieren usar sensores de presión y temperatura, que son más robustos y precisos, junto con métodos probabilísticos como el filtro de Kalman. Sin embargo, la medición de flujo no era observable solo con presión y temperatura, aunque el sistema podía estimar el flujo sin perturbaciones. Bajo perturbaciones, el sistema fallaba, indicando un problema de observabilidad. Se decidió usar el diseño del estimador de estados de Leskens et al. (2008), que separa el fluido pesado del liviano mediante fuerza centrífuga, mejorando la medición. Esta alteración se simula en SolidWorks. Escalada (2021) sugiere que el patrón de flujo anular es óptimo para la medición multifásica. El uso de codos puede cambiar el comportamiento del flujo, mejorando la medición, mientras que las T conservan el flujo. Se modelarán configuraciones geométricas para alterar los patrones de flujo y se evaluarán con SolidWorks.


CONCLUSIONES

La metodología del Sotf sensor parte con la extracción del crudo, donde este fluido compuesto por gas, petróleo y agua , pasa al oleoducto donde sus patrones de flujo son modificados por la geometría del sistema, mediante estimación de estados usando filtros de Kalman no lineales, con los estados base de temperatura y presión y con un observador en base a la dinámica del sistema se pretende , mejorar la estimación del flujo multifásico expuesta por  Leskens, M., de Kruif, B., Belfroid, S., Smeulers, J., & Gryzlov, A. (2008). La estimación de estados permite realizar mediciones precisas de forma indirecta, a partir de variables o estados que son más comunes o factibles de medir. Esta optimización podría satisfacer la necesidad de medir el flujo multifásico en la industria del petróleo y gas, sin la necesidad de adquirir medidores multifásicos. Resolver el problema desde la perspectiva de la teoría de control podría acotar el área de estudio o descartar la metodología de usar observadores. La integración de diseños CAD en la metodología tiene como objetivo someter al sistema a patrones de flujo más estables y fáciles de medir, con el fin de resolver o disminuir las perturbaciones entrantes al sistema. Cabe resaltar que otra metodología con los mismos materiales de estudio, sería la de mediante una regresión de observabilidad, estimar las variables de estado para el flujo multifásico. Donde las problemáticas de esta metodología serian la de llegar a variables no óptimas para nuestra problemática en términos de robustez y precisión, además de que algunas variables asociadas podrían ser muy costosas de medir.
Quintero Garcia Oliver Israel, Universidad de Guadalajara
Asesor: Ing. Alejandro Amaro Flores, Instituto Tecnológico de Morelia

SISTEMA WEB HíBRIDO PARA GESTIóN DE ENCUESTAS INSTITUCIONALES EN EL INSTITUTO TECNOLóGICO DE MORELIA: CUMPLIMIENTO DE NOM151-SCFI-2016 E ISO/IEC 25010:2011


SISTEMA WEB HíBRIDO PARA GESTIóN DE ENCUESTAS INSTITUCIONALES EN EL INSTITUTO TECNOLóGICO DE MORELIA: CUMPLIMIENTO DE NOM151-SCFI-2016 E ISO/IEC 25010:2011

Coronado Cabrera Bryan Axl, Universidad de Guadalajara. Diaz Angel, Universidad de Guadalajara. Martinez Hernandez Jesus Eduardo, Universidad de Guadalajara. Medina Guerrero Manuel Fernando, Universidad de Guadalajara. Mendoza Garcia Miguel Angel, Universidad de Guadalajara. Quintero Garcia Oliver Israel, Universidad de Guadalajara. Asesor: Ing. Alejandro Amaro Flores, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En el Tecnológico Nacional de México Campus Morelia, la gestión de encuestas dirigidas a los miembros de la institución presenta varios desafíos significativos. Actualmente, las encuestas no están homologadas ni integradas, lo que genera fragmentación y falta de consistencia en la recolección de datos. Algunas encuestas se administran a través del sistema escolar vigente, mientras que otras utilizan plataformas comerciales como Microsoft y Google. Esta diversidad de plataformas dificulta la centralización y el acceso a los resultados para todos los involucrados en los procesos de toma de decisiones. Además, muchas de estas encuestas no se han actualizado en más de una década, aunque las necesidades y circunstancias de la institución evolucionaron mucho en ese tiempo. Esta falta de actualización limita la relevancia y efectividad de las encuestas para abordar las necesidades actuales de estudiantes, docentes y administrativos. En consecuencia, la institución carece de un sistema unificado y moderno que permita una gestión eficiente y un análisis integral de los datos recolectados, afectando la capacidad para tomar decisiones informadas y mejorar continuamente la calidad educativa.



METODOLOGÍA

1. Análisis de Requerimientos Identificación de los requisitos funcionales y no funcionales. Estudio de la base de datos existente para integración con la tabla de usuarios. Determinación de roles y permisos necesarios para el acceso al sistema. 2. Diseño del Sistema · Arquitectura del Sistema: o MVC-Componentes. o Framework Laravel con Livewire. o Base de datos relacional PostgreSQL para la gestión de áreas, roles, permisos, usuarios y encuestas.   · Diseño de la Base de Datos: o Tablas para almacenar encuestas, preguntas, respuestas y resultados. o Integración con la tabla de usuarios existente. Interfaces de Usuario: Formularios para la creación y administración de encuestas. Interfaces para la participación de encuestas por parte de estudiantes, docentes y administrativos. Panel de administración para jefes de área con acceso a resultados y generación de reportes. 3. Desarrollo del Sistema: Desarrollo de formularios dinámicos para la creación de encuestas. Implementación de mecanismos de autenticación y autorización basados en roles. Interfaces amigables para la participación de encuestas. Lógica de negocio para la asignación de encuestas a roles específicos. Generación de reportes en PDF utilizando bibliotecas como DomPDF o jsPDF (JavaScript). 4. Pruebas: Pruebas Unitarias: Verificación de la funcionalidad individual de los componentes del sistema. Pruebas de Integración: Aseguramiento de la correcta interacción entre los componentes del sistema. Pruebas de Usuario: Evaluación de la usabilidad y efectividad del sistema mediante pruebas con usuarios finales. 5. Implementación y Despliegue: Despliegue del sistema en un entorno de producción. Capacitación a los usuarios (jefes de área) para la administración de encuestas y análisis de resultados. 6. Mantenimiento y Actualización: Monitoreo continuo del sistema para identificar y corregir errores. Actualización del sistema con nuevas funcionalidades según las necesidades de los usuarios. Resultados Esperados Sistema web funcional y seguro para la gestión de encuestas en la institución. Mejora en la eficiencia de recolección y análisis de datos. Facilidad para la evaluación individual de docentes y administrativos. Generación de reportes detallados en PDF para la toma de decisiones.


CONCLUSIONES

La implementación de este sistema web proporcionará una herramienta eficiente y robusta para la creación y gestión de encuestas dentro de la institución educativa. Facilitará la recolección de datos, mejorará la toma de decisiones y permitirá una evaluación más detallada de los docentes y administrativos, contribuyendo al desarrollo continuo de la calidad educativa.
Quintero Lopez Oscar Eduardo, Universidad Tecnológica de Nayarit
Asesor: Mtro. Héctor Alejandro Galvez López, Universidad de Guadalajara

ANáLISIS DE DATOS DE DISPOSITIVOS IOT PARA LA DETECCIóN Y MEJORA DE LA CALIDAD DEL AIRE EN ESPACIOS CERRADOS.


ANáLISIS DE DATOS DE DISPOSITIVOS IOT PARA LA DETECCIóN Y MEJORA DE LA CALIDAD DEL AIRE EN ESPACIOS CERRADOS.

Quintero Lopez Oscar Eduardo, Universidad Tecnológica de Nayarit. Ramírez Silva Milton, Universidad Tecnológica de Nayarit. Asesor: Mtro. Héctor Alejandro Galvez López, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La calidad del aire en espacios cerrados es crucial para la salud y bienestar de las personas, ya que la presencia de contaminantes y una ventilación deficiente pueden causar graves problemas de salud. Los dispositivos IoT permiten una monitorización continua y en tiempo real de la calidad del aire, pero la falta de análisis adecuado de estos datos impide una rápida detección de problemas y la toma de medidas correctivas. Este estudio busca desarrollar un sistema de análisis de datos de IoT utilizando técnicas de Machine Learning para identificar patrones de contaminación y proporcionar recomendaciones basadas en datos, mejorando así la calidad del aire interior y reduciendo los riesgos para la salud.  



METODOLOGÍA

Requisitos: Áreas de oportunidad: Identificar problemas y áreas de oportunidad. Problemática: Definir claramente la problemática. Objetivos: Establecer los objetivos del estudio. Diseño: Estructura del protocolo: Diseñar la estructura general del protocolo. Requerimientos del protocolo: Especificar recursos, tiempo y personal necesario. Estado del Arte y Antecedentes: Estado del arte: Revisar la literatura existente. Tabla comparativa de antecedentes: Crear una tabla con estudios previos relevantes. Búsqueda y Organización de Literatura: Tecnologías: Identificar tecnologías necesarias. Búsqueda de literatura: Buscar artículos y estudios relacionados. Organización de literatura: Organizar y filtrar la información relevante. Desarrollo del Marco Teórico: Marco teórico: Desarrollar el marco teórico basado en la literatura revisada. Redacción del Protocolo: Redacción del protocolo: Escribir el protocolo siguiendo la estructura y el marco teórico. Verificación (Revisión y Edición del Protocolo): Revisión y edición del protocolo: Revisar y editar para corregir errores y mejorar claridad. Implementación (Finalización del Protocolo): Finalización del protocolo: Asegurar que el protocolo esté listo para presentación. Revisión final: Realizar una última revisión para asegurar calidad y completitud.


CONCLUSIONES

En esta etapa inicial, hemos construido una base sólida para nuestro proyecto de análisis de datos de dispositivos IoT. La investigación exhaustiva, la comparación de plataformas, la organización detallada de la información y la elaboración de un protocolo bien estructurado nos han preparado para avanzar con confianza en nuestra meta de mejorar la calidad del aire en espacios cerrados utilizando tecnologías IoT. Esperamos culminar exitosamente la creación del protocolo para la calidad del aire. Hasta ahora, todas las actividades se han llevado a cabo satisfactoriamente, lo que nos da una perspectiva positiva para los próximos pasos del proyecto.  
Quintero Rojas Maria Alix, Universidad de Investigación y Desarrollo
Asesor: Mtro. Gaston Vertiz Camaron, Universidad Autónoma del Estado de México

DISEÑO Y CREACION DE MODELOS DE REGRESIÓN LOGÍSTICA PARA IDENTIFICAR LOS FACTORES DE AFECTACION ANTE UNA EVACUACIÓN EN DESASTRES NATURALES


DISEÑO Y CREACION DE MODELOS DE REGRESIÓN LOGÍSTICA PARA IDENTIFICAR LOS FACTORES DE AFECTACION ANTE UNA EVACUACIÓN EN DESASTRES NATURALES

Alvarado Osorio Diego Alejandro, Universidad de Investigación y Desarrollo. Quintero Rojas Maria Alix, Universidad de Investigación y Desarrollo. Asesor: Mtro. Gaston Vertiz Camaron, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

La amenaza de desastres naturales, que abarca fenómenos como terremotos, inundaciones, huracanes e incendios forestales, representa un riesgo significativo para comunidades en todo el mundo. La evacuación efectiva y rápida en respuesta a estos eventos puede ser un factor decisivo entre la vida y la muerte (Alexander, 2000). Sin embargo, la decisión de evacuar se basa en una compleja interacción de factores que incluyen características demográficas, socioeconómicas, psicológicas, experiencias previas y preparación para desastres (Lindell & Prater, 2003). El principal desafío en la investigación de evacuaciones durante desastres naturales es entender cómo diversos factores impactan la probabilidad de evacuación. Un modelo de  regresión logística ofrece una herramienta valiosa para abordar esta cuestión. Este enfoque permite analizar y predecir qué variables influyen como: ubicación geográfica, características demográficas, factores socioeconómicos, y la disponibilidad de rutas de evacuación se consideran en la decisión de evacuar (Becker et al., 2013; Lindell & Perry, 2004).  



METODOLOGÍA

Se diseñó una encuesta para ser respondida en línea, con el objetivo de recopilar datos sobre las decisiones de autoprotección de las personas, durante la evacuación debido a desastres naturales. Este método fue seleccionado por sus múltiples beneficios, tales como: (1) Acceso a una población diversa, (2) Comodidad para los participantes, (3) Alto poder estadístico y (4) Simulación segura de amenazas. Cabe señalar que encuesta consideró diversas variables, tales como: edad, género, nivel educativo, ingresos y exposición previa a desastres naturales. Dicha encuesta incluía preguntas diseñadas para evaluar la percepción de riesgo y las decisiones de autoprotección que, los participantes tomarían en respuesta a diferentes escenarios de desastres naturales.


CONCLUSIONES

Se llevó a cabo un análisis de regresión logística multivariado para evaluar cómo diversas variables afectan la experiencia de las mujeres frente a desastres naturales, así como su relación con el género. Durante el proceso, se eliminaron variables redundantes para optimizar el modelo, lo que resultó en un enfoque final que, resalta la frecuencia de fenómenos naturales como un predictor clave. Además, se desarrollaron modelos específicos para predecir el género, la residencia en diferentes países, el tipo de desastre, la tenencia de mascotas y la participación en simulacros de evacuación. Los hallazgos indican que factores como el apoyo social, la exposición a desastres y la participación en simulacros son determinantes en la probabilidad de ser mujer, residir en ciertos países y poseer mascotas. Por último, se concluye que las intervenciones destinadas a aumentar la participación en simulacros de evacuación deben centrarse en aquellos individuos con baja participación previa, así como en comprender las barreras que pueden estar relacionadas con el estado civil. Esto permitirá diseñar estrategias más efectivas para mejorar la preparación ante desastres naturales.
Quiroz Trelles Karen Alejandra, Universidad de Guadalajara
Asesor: Dra. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla

BIOPOLIMEROS "ELABORACIóN DE UN HIDROGEL A BASE DE CMC ADICIONADO CON ACEITE DE ROMERO DE RAPIDA ABSORCIóN CON FINES DE USO TERAPEUTICO EN LA CAPA TRANSDERMICA".


BIOPOLIMEROS "ELABORACIóN DE UN HIDROGEL A BASE DE CMC ADICIONADO CON ACEITE DE ROMERO DE RAPIDA ABSORCIóN CON FINES DE USO TERAPEUTICO EN LA CAPA TRANSDERMICA".

Melendez Salinas Kevin Daniel, Instituto Tecnológico de Matamoros. Quiroz Trelles Karen Alejandra, Universidad de Guadalajara. Rodríguez Cuevas Karely Estefanía, Instituto Tecnológico de Colima. Asesor: Dra. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En México, las lesiones musculares y contusiones representan un problema de salud significativo, afectando a una amplia gama de personas, desde deportistas hasta trabajadores manuales y personas de la tercera edad. Estas lesiones resultan en dolor, inflamación y disminución de la movilidad, impactando negativamente la calidad de vida de los afectados y generando costos económicos tanto directos como indirectos debido a tratamientos médicos y pérdida de productividad. México es un país rico en biodiversidad y conocimientos tradicionales sobre el uso de plantas medicinales. Entre estas, el romero (Rosmarinus officinalis) se destaca por sus propiedades antiinflamatorias, analgésicas y relajantes. A pesar de esto, la mayoría de los productos naturales basados en plantas medicinales creados en México no han logrado una aplicación comercial significativa ni han sido desarrollados de manera que maximicen su efectividad terapéutica. Frente a esta problemática, se plantea la necesidad de desarrollar nuevas soluciones terapéuticas que sean eficaces, accesibles y que puedan ser comercializadas para aprovechar los beneficios de los productos naturales mexicanos. En este contexto, la creación de un biopolímero en forma de hidrogel con aceite de romero encapsulado presenta una oportunidad innovadora. Este hidrogel tiene el potencial de liberar de manera controlada los compuestos activos del romero, proporcionando un tratamiento eficaz para golpes y heridas musculares.



METODOLOGÍA

Para la obtención del hidrogel en el "Experimento Control", se hidrató 2 g de carboximetilcelulosa en 30 ml de agua destilada. Se calentaron 70 ml de agua destilada a 80°C en una placa de calentamiento. Una vez alcanzada la temperatura, se añadió la carboximetilcelulosa hidratada al agua caliente y se agitó a 150 rpm con un caframo, sin retirar la mezcla de la placa. Cuando la mezcla se homogeneizó, se retiró de la placa y se reservó. Simultáneamente, se calentaron 80 ml de agua destilada a 80°C en la placa de calentamiento. Se disolvieron 12 g de fécula de papa en 30 ml de agua y 5 g de glicerina en 9 ml de agua. Cuando el agua alcanzó los 80°C, se añadió la fécula de papa disuelta y se agitó a 150 rpm durante 5 minutos, hasta que la fécula se transparentó, sin retirar de la placa. Posteriormente, se añadió la glicerina diluida. Después de 5 minutos, se incorporó la carboximetilcelulosa previamente preparada y se agitó durante 10 minutos o hasta que la mezcla se homogenizó bien. Finalmente, se diluyó 1 g de tetraborato de sodio en 30 ml de agua destilada y se añadió 1 ml de hidróxido de sodio, calentando para asegurar la disolución completa. Esta solución se mezcló con la mezcla de hidrogel, se apagó la placa de calentamiento y se dejó agitar durante 10 minutos. Se llevaron a cabo cuatro experimentos adicionales para ajustar la consistencia del hidrogel. En el Experimento #1, se siguieron los mismos pasos hasta el paso 10, pero se usaron 28 ml de agua para disolver el bórax en lugar de 30 ml y se añadieron 2 ml de lignina a una concentración de 0.04 g/ml. En el Experimento #2, se replicó el procedimiento del #1, pero se añadieron 4 ml de lignina en lugar de 2 ml. En el Experimento #3, también se siguió el procedimiento previo, pero se incorporaron 6 ml de lignina. Finalmente, en el Experimento #4, se evitó el uso del bórax para observar el comportamiento viscoso sin él. Para la obtención de la emulsión, se prepararon dos soluciones. En la Solución 1, se calentaron 40 ml de agua a 80°C y se hidrató 0.75 g de alginato de sodio en 20 ml de agua. Una vez alcanzada la temperatura, se añadió el alginato hidratado al agua caliente y se agitó hasta obtener una mezcla homogénea. En la Solución 2, se añadieron 4 g de aceite de romero y 2.5 g de emulsificante a 40 ml de agua. Esta mezcla se agitó durante 20 minutos hasta lograr una emulsión homogénea. Después de elaborar ambas soluciones, se mezclaron durante 20 minutos a una velocidad óptima para evitar la ruptura de la emulsión. Para la encapsulación, se utilizó una solución de carbonato de calcio en un vaso de precipitados con agitación magnética. La emulsión de aceite de romero se goteó utilizando una jeringa. En la medición de la viscosidad, se empleó un viscosímetro digital con aguja LV-04 para los hidrogeles viscosos y LV-02 para el Experimento 4 y el control, a 50 rpm. En cuanto a la medición del tamaño de las partículas de las cápsulas, se utilizó un microscopio digital de 100x. Para analizar las muestras, se cuarteó la primera muestra 4 veces, obteniendo 64 submuestras y se analizó el 25% de estas. La segunda muestra se cuarteó 2 veces, resultando en 8 submuestras, y se analizó el 50% para obtener una mayor precisión en el análisis.


CONCLUSIONES

En esta investigación, se realizaron cinco experimentos con hidrogeles variando la cantidad de lignina. Se observó que a mayor contenido de lignina, los hidrogeles se volvían más viscosos y oscuros. El hidrogel óptimo, con 4 ml de lignina, mostró una viscosidad de 3690 cp y una densidad de 1.00628 gr/ml, cumpliendo en gran medida con los intervalos terapéuticos deseados de 4000-5000 cp y 0.9-1.2 gr/ml. Para el encapsulado de oleato de romero, se realizaron varias pruebas con diferentes cantidades de alginato de sodio. Se encontró que 0.75 gr de alginato de sodio producía encapsulados con una capa lo suficientemente gruesa para mantenerse íntegros y lo suficientemente delgada para disolverse al frotarse en la piel. Sin embargo, al mezclar el hidrogel con los encapsulados y dejar la mezcla a temperatura ambiente, los encapsulados se disolvieron en el gel. Esto indica la necesidad de buscar un método de encapsulación más estable y aditivos que prevengan el deterioro de la mezcla a temperatura ambiente. En conclusión, aunque se identificaron las proporciones óptimas de lignina y alginato de sodio, se requiere mejorar la estabilidad del encapsulado y la formulación del gel para asegurar su eficacia y durabilidad en condiciones normales de uso.
Ramirez Alonso Araceli Esmeralda, Instituto Tecnológico de Acapulco
Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

MANEJO DE GRANDES CANTIDADES DE DATOS HETEROGÉNEOS EN IOT MEDIANTE TÉCNICAS DE INTELIGENCIA ARTIFICIAL Y OPTIMIZACIÓN.


MANEJO DE GRANDES CANTIDADES DE DATOS HETEROGÉNEOS EN IOT MEDIANTE TÉCNICAS DE INTELIGENCIA ARTIFICIAL Y OPTIMIZACIÓN.

Ramirez Alonso Araceli Esmeralda, Instituto Tecnológico de Acapulco. Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En el contexto del Internet de las Cosas (IoT) aplicado a entornos de salud, la detección precisa y eficiente de actividades maliciosas es crucial para garantizar la seguridad de los pacientes y la integridad de los sistemas. Sin embargo, manejar grandes cantidades de datos heterogéneos y asegurar que los modelos de clasificación sean robustos y generalizables presenta desafíos significativos. Este estudio aborda estos problemas mediante la implementación y evaluación de diversas técnicas de preprocesamiento y modelos de clasificación optimizados. Problemas Identificados: Identificación y Corrección de Datos Erróneos: El dataset puede contener valores faltantes, mixtos o erróneos que pueden afectar negativamente el rendimiento de los modelos de clasificación si no se manejan adecuadamente. Conversión de Datos Categóricos a Valores Numéricos: Las columnas con datos categóricos deben ser convertidas a valores numéricos para ser procesadas por los algoritmos de clasificación. Esto incluye el uso de técnicas como Label Encoding. Optimización de Modelos de Clasificación:  Evaluar y comparar múltiples modelos de clasificación para determinar cuál ofrece el mejor rendimiento en términos de precisión, recall y accuracy. Aplicación de Técnicas de Optimización: Implementación de técnicas avanzadas de optimización como el Algoritmo Genético (GA) para mejorar la efectividad de los modelos de clasificación. Objetivos: Preprocesar y Limpiar los Datos: Identificar y corregir valores faltantes, mixtos o erróneos en los datasets. Convertir datos categóricos a valores numéricos utilizando técnicas adecuadas. Identificar la Variable Objetivo: Determinar la variable objetivo en el dataset de Ataques para su uso en el entrenamiento de modelos de clasificación. Implementar y Evaluar Modelos de Clasificación: Utilizar técnicas como Árboles de Decisión (DT) y Random Forest (RF). Evaluar el rendimiento de los modelos utilizando métricas de precisión, recall y accuracy. Optimizar los Modelos: Aplicar técnicas de optimización como GA para mejorar el rendimiento de los modelos de clasificación. Analizar y Comparar Resultados: Evaluar el rendimiento de los modelos en los datasets combinados y específicos, destacando la efectividad de las técnicas de preprocesamiento y optimización aplicadas.



METODOLOGÍA

1. Preparación y Descripción de los Datasets: Para este análisis, se utilizaron cuatro conjuntos de datos específicos: Monitoreo Ambiental, Ataques, Merged, y Patient Monitoring. La preparación de los datos incluyó la lectura de los archivos CSV y la observación de las filas y columnas para identificar cualquier dato erróneo o faltante. Monitoreo Ambiental: Contiene registros de datos capturados en un entorno de monitoreo ambiental, etiquetados como normal. Ataques: Incluye registros de datos asociados a actividades maliciosas o ataques, etiquetados como ataques. Merged: Este dataset es una fusión de los datos de Monitoreo Ambiental y Ataques, lo cual puede llevar a una pérdida de información. Patient Monitoring: Contiene datos relacionados con el monitoreo de pacientes en un entorno de salud. 2. Preprocesamiento de los Datos: El preprocesamiento es crucial para garantizar que los datos sean adecuados para el análisis y la construcción de modelos. Se llevaron a cabo los siguientes pasos: Verificación de Datos Erróneos: Se utilizó código para leer las filas y columnas de los datasets Conversión de Datos Problemáticos a Valores Numéricos: Se aplicaron técnicas como el Label Encoding para convertir las columnas con datos problemáticos a valores numéricos. Conversión de Valores Mixtos a Datos Numéricos: Se identificaron y convirtieron valores mixtos (categóricos y numéricos) en los datasets a un formato numérico uniforme. 3. Identificación de la Variable Objetivo: Para poder identificar el ataque o no ataque en el dataset. 4. Implementación de Modelos de Clasificación: Se evaluaron y compararon modelos de clasificación utilizando técnicas avanzadas: Técnicas Utilizadas: Árboles de Decisión (DT) Random Forest (RF) Optimización de Modelos: Genetic Algorithm (GA) 5. Evaluación del Rendimiento del Modelo: Las métricas de evaluación utilizadas fueron: Accuracy Precision Recall


CONCLUSIONES

En este proyecto, se evaluaron y compararon modelos de clasificación utilizando los datos de los datasets: Ataques, Monitoreo Ambiental, Merged y Patient Monitoring. Los datasets fueron entrenados y evaluados utilizando técnicas de optimización, y métricas como Accuracy, Recall y Precision. El estudio aborda los desafíos de manejar grandes cantidades de datos heterogéneos en IoT mediante técnicas avanzadas de inteligencia artificial y optimización. Los resultados muestran un alto rendimiento de los modelos entrenados, destacando la importancia de un preprocesamiento adecuado y la aplicación de técnicas de optimización para mejorar la robustez y precisión de los modelos de clasificación en entornos de salud IoT.  
Ramirez Angel Axel Yahir, Universidad de Guadalajara
Asesor: Dr. Álvaro David Orjuela Cañón, Universidad del Rosario

RED NEURONAL PARA LA DETECCIóN DE TUBERCULOSIS EN RAYOS-X DE PECHO


RED NEURONAL PARA LA DETECCIóN DE TUBERCULOSIS EN RAYOS-X DE PECHO

Jimenez Fernandez Ruben Saul, Universidad de Guadalajara. Ramirez Angel Axel Yahir, Universidad de Guadalajara. Asesor: Dr. Álvaro David Orjuela Cañón, Universidad del Rosario



PLANTEAMIENTO DEL PROBLEMA

La medicina ha avanzado a lo largo de los años, buscando la erradicación de diversas enfermedades y, aunque ya se ha logrado con unas cuantas, la tuberculosis (TB) sigue siendo una enfermedad infecciosa que representa un problema de salud pública a nivel mundial. Las radiografías de pecho son una herramienta comúnmente utilizada para el diagnóstico de la TB, aunque su interpretación sigue siendo subjetiva y requiere experiencia. La implementación de una red neuronal para la clasificación de TB en imágenes representa un avance significativo para reducir esa subjetividad, además de aligerar la carga de trabajo para los médicos y ofrecer una interpretación más accesible y precisa de las radiografías de pecho a un mayor número de personas.



METODOLOGÍA

1. Obtención de Datos **Dataset Utilizado:** Utilizamos un conjunto de datos de rayos X de tórax, descargado de Kaggle, que ya estaba preprocesado, etiquetado, escalado en RGB y separado en conjuntos de entrenamiento, prueba y validación para la detección de tuberculosis. Este dataset incluye imágenes clasificadas como positivas y negativas para TB. 2. Preprocesamiento de Datos **Normalización de Imágenes:** Aseguramos que las imágenes estaban escaladas a un rango de valores entre 0 y 1. **Redimensionamiento:** Todas las imágenes fueron redimensionadas a un tamaño uniforme (por ejemplo, 224x224 píxeles) para asegurar la compatibilidad con las diversas arquitecturas de red neuronal que utilizamos. 3. División de Datos **Entrenamiento, Validación y Prueba:** El dataset ya estaba dividido en conjuntos de entrenamiento, validación y prueba, lo que facilitó la organización y evaluación del rendimiento del modelo en cada etapa del proceso. 4. Arquitecturas de la Red Neuronal **Modelos Utilizados:** - **MobileNet:** Una red ligera y eficiente en términos de computación, ideal para dispositivos móviles. - **ResNet:** Una red profunda con conexiones residuales, conocida por su alta precisión en tareas de clasificación de imágenes. - **Secuencial:** Un modelo personalizado utilizando la API Sequential de Keras, permitiéndonos experimentar con diferentes configuraciones de capas. **Configuración del Modelo:** - **Capas Convolucionales:** Utilizamos varias capas convolucionales para extraer características relevantes de las imágenes. - **Capas de Pooling:** Incluimos capas de max-pooling para reducir dimensionalidad y capturar características esenciales. - **Capas Densas:** Implementamos capas completamente conectadas para la toma de decisiones basada en las características extraídas. - **Función de Activación:** ReLU para capas internas y softmax para la capa de salida. 5. Entrenamiento del Modelo **Configuración de Hiperparámetros:** - **Épocas:** Entrenamos los modelos durante 10 o 50 épocas dependiendo el modelo. - **Tamaño del Lote:** Utilizamos diferentes tamaños de lote para cada modelo, buscando la configuración que diera mejores resultados. - **Tasa de Aprendizaje:** Establecimos una tasa de aprendizaje inicial de 0.001. - **Optimización:** Utilizamos el optimizador Adam debido a su eficacia y popularidad en problemas de visión por computadora. - **Pérdida:** Empleamos la función de pérdida binary cross-entropy para las tareas de clasificación binaria. 6. Evaluación del Modelo Métricas de Evaluación: - Precisión: Medimos la proporción de predicciones correctas. - Recall: Evaluamos la capacidad del modelo para detectar correctamente los casos positivos. - F1-Score: Balanceamos precisión y recall. - *7. Implementación y Validación Final Evaluación en Conjunto de Prueba: Evaluamos el modelo final en el conjunto de prueba para obtener una medida imparcial de su rendimiento. Visualización de Resultados: Generamos matrices de confusión, reportes de clasificación y gráficos que evaluaban la precisión y pérdida de entrenamiento y validación para visualizar el desempeño del modelo.


CONCLUSIONES

  En este trabajo de investigación, se evaluaron tres arquitecturas de redes neuronales (Secuencial, ResNet y MobileNet) para la detección de tuberculosis en rayos X de pecho, comparando su rendimiento cuando se entrenaron con imágenes preprocesadas y sin procesar. Los resultados muestran variaciones significativas en la precisión de las redes dependiendo del tipo de procesamiento de las imágenes. La arquitectura Secuencial obtuvo una precisión del 95% con datos crudos y del 96% con datos preprocesados, lo que sugiere una ligera mejora en la precisión al aplicar técnicas de preprocesamiento. Por otro lado, la arquitectura ResNet presentó una precisión notablemente superior con datos crudos (99%) en comparación con los datos preprocesados (94%). Esto indica que ResNet puede estar extrayendo características relevantes de manera más efectiva de las imágenes sin procesar. En contraste, MobileNet mostró una precisión relativamente baja en ambas condiciones, con un 86% para datos crudos y un 88% para datos preprocesados, indicando una leve mejora con el preprocesamiento pero, en general, un rendimiento inferior en comparación con las otras arquitecturas. Estos resultados sugieren que el impacto del preprocesamiento de imágenes puede variar significativamente según la arquitectura de la red neuronal utilizada. Mientras que el preprocesamiento parece beneficiar ligeramente a la red Secuencial y MobileNet, ResNet demostró un rendimiento superior con imágenes sin procesar. Por lo tanto, es esencial considerar tanto la elección de la arquitectura como la necesidad de preprocesamiento en el diseño de sistemas de detección automática de tuberculosis en imágenes de rayos X. En futuras investigaciones, sería beneficioso explorar las razones detrás del mejor rendimiento de ResNet con datos crudos y si hay posibles mejoras en las técnicas de preprocesamiento que podrían optimizar el rendimiento de todas las arquitecturas estudiadas.
Ramírez Avila Ricardo Axel, Instituto Tecnológico de Tlalnepantla
Asesor: Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia

MERCADOS DE ELECTRICIDAD Y SERVICIOS AUXILIARES.


MERCADOS DE ELECTRICIDAD Y SERVICIOS AUXILIARES.

Ramírez Avila Ricardo Axel, Instituto Tecnológico de Tlalnepantla. Asesor: Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La programación de la generación y reservas en mercados eléctricos co-optimizados se basa en modelos deterministas que incluyen restricciones de seguridad: pérdida de generadores y líneas de transmisión.  Se tienen varias incertidumbres como la variabilidad de demanda, fallos en componentes del sistema y precios en el mercado; estas complican la planificación y operación eficiente de los sistemas eléctricos, ya que se toman decisiones sin tener certeza de las condiciones futuras.  En esta estancia, el problema se resuelve mediante optimización robusta ajustable (ARO) para determinar las peores k contingencias, con el objetivo de garantizar que las reservas asignadas se puedan desplegar de una manera óptima y económica.



METODOLOGÍA

Se revisó la formulación de flujos de potencias para la representación de la red eléctrica en el problema de la programación de energía y reservas en mercados eléctricos co-optimizados, con restricciones de seguridad.  Se revisó la formulación del problema de la programación de energía y reservas. Su implementación se desarrolló en el lenguaje de programación Julia y su solución mediante Gurobi.  Se realizó una serie de simulaciones con diferentes sistemas eléctricos de potencia con el fin de determinar si la formulación identifica las peores contingencias.  Una vez completadas las simulaciones, los resultados se analizaban y tabulaban con el objetivo de realizar una comparativa de modelos y asegurarnos de que se identificara efectivamente la peor contingencia.


CONCLUSIONES

La formulación ARO efectivamente encuentra la programación óptima de energía y reserva en presencia de las peores k contingencias, permitiendo que el sistema opere de forma segura y garantizando la continuidad del sistema. Como trabajos futuros, se recomienda incluir otra fuente de incertidumbres, como puede ser la incertidumbre en generación renovable no convencional, como la eólica y fotovoltaica. Esto para acercarnos más a la realidad donde este tipo de incertidumbres ya existen.
Ramirez Castro Ana Georgina, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

KAIZEN EN LA GESTIÓN DE PROYECTOS DE INNOVACIÓN


KAIZEN EN LA GESTIÓN DE PROYECTOS DE INNOVACIÓN

Ramirez Castro Ana Georgina, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Se detecto una ineficiencia en el pegado de una cinta en la pieza "galleta" afectando el tiempo de ciclo dentro del tiempo de producción y la sugerencia de crear un diseño de estación de trabajo ergonómica para la comodidad del operador, reducir la fatiga y mejorar la productividad.



METODOLOGÍA

Dentro de la empresa se detectaron dos áreas de oportunidad. En el área de producción: Optimizar el proceso de pegado de la pieza galleta y diseñar una mesa de trabajo ergonómica.   Definir: Se identificó el proceso de producción de la pieza galleta y el modo de uso de la mesa de trabajo. Medir: Se realizó una observación de cómo funcionaba el proceso de pegado de la pieza. Para el funcionamiento de la mesa se realizó un estudio RULA para revisar la situación actual. El resumen del análisis  realizado en el informe se identificó que las posturas adoptadas por los usuarios no cumplen con las recomendaciones ergonómicas lo que puede resultar un aumento de problemas musculo esqueléticos, lo que puede afectar en la productividad del operador. Haciendo el análisis con el método RULA se obtuvo una puntuación final de 7, con un nivel de actuación del 4 muy alto, se requiere hacer cambios urgentes en la tarea. Dentro del valor de la puntuación final es mayor, cuanto mayor es el riesgo para el trabajador. Mejorar: Se realizaron las propuestas de mejora. Un molde que tenga 9 secciones cada uno con un relieve del tamaño exacto de la cinta, en ese relieve se colocara la cinta lista para ser pegada a la pieza, después cada pieza será puesta en su sección. Esto hará que la cinta quede pegada a la pieza. Al momento que la prensa baje, y haga una presión en las piezas con la cinta, el relieve bajara y se alineara. Haciendo que la pieza no quede marcada con este relieve. Y pasa la mesa se realizó un diseño de una mesa con un componente hidráulico que pueda subir y bajar para adecuarse al tamaño del operador, una sección donde se puedan colocar los materiales de trabajo, y otra sección por debajo donde se puedan colocar sus cosas personales, con luz por la parte de arriba respetando la NOM-025-STPS-2008, Condiciones de iluminación en los centros de trabajo que rige los lineamientos básicos para la iluminación en los sitios de trabajo y algunos relieves para que las piezas que se trabajan no caigan al suelo. Controlar: En este paso se pretende que se les de una capacitación de los métodos uso de las nuevas mejoras implementadas y llevar una constante revisión y mantenimiento.


CONCLUSIONES

En conclusión se realizaron las propuestas de mejora, analizando la situación actual de las dos áreas de oportunidad, teniendo en cuenta las necesidades del operador en caso de la mesa y adaptándola a sus sugerencias para así poder hacer que el operador sea más productivo y reducir su cansancio durante sus horas de trabajo y en la pieza tratando de optimizar el proceso de pegado en la pieza galleta, haciendo que opere de una manera más rápida y así poder reducir el tiempo de ciclo de este proceso.
Ramirez Chávez Ari Emmanuel, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Lilia Marcela Zaldumbide Carrillo, Instituto Tecnológico Superior de Guanajuato

INVESTIGACIóN, DISEñO Y CONSTRUCCIóN DE ROBOT PARA RESOLVER LABERINTOS


INVESTIGACIóN, DISEñO Y CONSTRUCCIóN DE ROBOT PARA RESOLVER LABERINTOS

Mendiola Mendoza Alan Mauricio, Instituto Tecnológico Superior de Guanajuato. Ortega Gómez Rodrigo Yael, Instituto Tecnológico Superior de Guanajuato. Ramirez Chávez Ari Emmanuel, Instituto Tecnológico Superior de Guanajuato. Rangel Cruz Citlally Monserrat, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Lilia Marcela Zaldumbide Carrillo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Un robot resolutor de laberintos es un proyecto interesante que combina inteligencia artificial, robótica y algoritmos de resolución de problemas. Título: Investigación, diseño y construcción de robot para resolver laberintos Objetivo: Diseñar y construir un robot capaz de navegar y resolver laberintos de manera autónoma utilizando algoritmos de búsqueda y sensores para detectar paredes y esquinas.



METODOLOGÍA

Requisitos: - Robot móvil con capacidad de movimiento en dos dimensiones (adelante, atrás, izquierda, derecha) - Sensores de detección de paredes y esquinas (infrarrojos, ultrasonidos, etc.) - Algoritmo de resolución de laberintos (Wall Follower, Depth-First Search, Breadth-First Search, etc.) - Programación del robot utilizando un lenguaje de programación adecuado (C++, Python, etc.) Funcionamiento básico: 1. El robot se coloca en la entrada del laberinto. 2. Utiliza sus sensores para detectar las paredes y esquinas del laberinto. 3. Se aplica el algoritmo de resolución de laberintos para determinar la ruta óptima hacia la salida. 4. Se desplaza según la ruta calculada, utilizando sus sensores para corregir su trayectoria si es necesario. 5. El robot llega a la salida del laberinto. Algoritmos de resolución de laberintos: - Wall Follower: el robot sigue la pared del laberinto hasta encontrar la salida. - Depth-First Search: el robot explora el laberinto de manera profunda, retrocediendo cuando llega a un callejón sin salida. - Breadth-First Search: el robot explora el laberinto de manera amplia, examinando todas las posibles rutas antes de elegir la siguiente dirección.


CONCLUSIONES

Consideraciones adicionales: - La complejidad del laberinto puede afectar la eficiencia del algoritmo de resolución. *Conclusión:* El desarrollo de un robot resolutor de laberintos será un proyecto prometedor que demostrará la capacidad de la inteligencia artificial y la robótica para resolver problemas complejos de navegación y búsqueda. El robot diseñado en este proyecto es capaz de navegar y resolver laberintos de manera autónoma, utilizando algoritmos de búsqueda y sensores para detectar paredes y esquinas. Los resultados esperados  demuestran que el robot será capaz de resolver laberintos de diferentes tamaños y complejidades. *Futuras mejoras:* - Implementar algoritmos de resolución más avanzados, como el algoritmo A* o el algoritmo de Dijkstra. - Mejorar la precisión de los sensores y la velocidad del robot. - Desarrollar un sistema de aprendizaje automático para que el robot pueda aprender de sus errores y mejorar su rendimiento con el tiempo.
Ramírez de la Torre Dalila Linet, Universidad de Guadalajara
Asesor: Dra. Laura María Reyes Méndez, Universidad Nacional Abierta y a Distancia

PELÍCULAS INTELIGENTES CON INCORPORACIÓN DE ANTOCIANINAS OBTENIDAS DEL PERICARPIO DE MANGOSTINO (GARCINIA MANGOSTANA) COMO INDICADORES DE CAMBIOS DE PH EN ALIMENTOS


PELÍCULAS INTELIGENTES CON INCORPORACIÓN DE ANTOCIANINAS OBTENIDAS DEL PERICARPIO DE MANGOSTINO (GARCINIA MANGOSTANA) COMO INDICADORES DE CAMBIOS DE PH EN ALIMENTOS

Ramírez de la Torre Dalila Linet, Universidad de Guadalajara. Asesor: Dra. Laura María Reyes Méndez, Universidad Nacional Abierta y a Distancia



PLANTEAMIENTO DEL PROBLEMA

En la actualidad en América Latina existe una gran crisis debido el uso indiscriminado e inadecuado de empaques elaborados con polímeros sintéticos y que difícilmente puede degradarse en condiciones ambientales, estos han generado serios problemas tanto ecológicos como de salud, contribuyendo a un alto índice de mortalidad y contaminación de agua, aire y suelos. Adicionalmente, la mala disposición y gestión de residuos agroalimentarios, se ha convertido en una problemática ambiental para este sector. En este proyecto, se busca el aprovechamiento del pericarpio del mangostino (Garcinia mangostana), debido a su potencial para la extracción de compuestos con actividad biológica y de antocianinas que pueden ser empleadas como colorantes sensibles al cambio de pH. Por otra parte, en la industria de alimentos, una de las mayores problemáticas es la conservación y trazabilidad de los alimentos una vez son comercializados, lo cual en muchas ocasiones cuando no se realiza una buena logística se puede presentar intoxicaciones alimentarias. Según datos de la Organización Mundial de la Salud (OMS), cada año 600 millones de personas se intoxican por alimentos contaminados, se traducen en uno de cada 10 habitantes y mueren 420.000 personas por esta causa. En México, de acuerdo con el Sistema Nacional de Vigilancia Epidemiológica, en 2022, se registraron 3 millones 457 mil 964 casos de enfermedades intestinales, en los que 23 mil de ellos son por intoxicación alimentaria bacteriana. Además,  la Food Safety and Inspection Service (FSIS) de Estados Unidos, afirma que el riesgo de intoxicación aumenta en zonas con altas temperaturas en la que los alimentos están expuestos a condiciones inadecuadas de conservación, provocando que las Enfermedades Transmitidas por Alimentos (ETA) aumenten.  Es por ello, que alternativas de conservación e identificación del estado de frescura del pescado, como lo son los empaques biodegradables e inteligentes pueden contribuir no solo a proteger el producto, sino a identificar el estado de frescura del producto de acuerdo a la variación de color del empaque, dando información al consumidor de los cambios en la calidad del producto en tiempo real. La elaboración de dichos empaques con biopolímeros y funcionalizados con antocianinas naturales, contribuyen con la disminución del impacto ambiental que genera el uso de polímeros sintéticos, y pueden ser implementados como método de conservación y frescura de alimentos



METODOLOGÍA

En el presente trabajo se obtuvieron cuatro extractos a partir del pericarpio de mangostino liofilizado por medio de extracción ácida con sonda de ultrasonido enfocada en producir películas inteligentes biodegradables para la conservación e identificación visual de la vida útil de los alimentos por cambios colorimétricos respecto a su pH; de igual manera se evaluó la capacidad antioxidante del extracto frente al radical ABTS, el contenido de fenoles y flavonoides, y la actividad antimicrobiana frente a S. aureus, B. cereus y E. coli. Además, se caracterizaron dichos extractos con técnicas espectroscópicas como FT-IR y UV-Vis, y cromatográficas como HPLC. Se determinó que el extracto de mangostino liofilizado extraído con ácido cítrico tenía mejor respuesta ante las pruebas mencionadas anteriormente y este fue incorporado en matrices poliméricas de CMC/Gelatina con una concentración de 0%, 1% y 3%. Posteriormente dichas películas se caracterizaron en cuanto a barrera a la luz UV-Vis, espesor, FTIR, actividad antimicrobiana, porcentaje de humedad y solubilidad, aspecto visual.


CONCLUSIONES

Se observó que el solvente más favorable para la obtención de antocianinas del extracto de pericarpio de mangostino es el ácido cítrico a pH 2 encontrando que tiene una mayor capacidad antioxidante frente al radical ABTS, con un contenido de fenoles de 10,39 ± 4,22 mg de ácido gálico/ gr de muestra y la presencia de flavonoides con 4,02 ± 0,72 mg de Quercetina/ gr de muestra. Además, ninguno de los extractos presento inhibición de crecimiento bacteriano frente a las bacterias S. aureus, B. cereus y E. coli. Por otro lado, en las dos formulaciones de películas (1 y 3%), no se evidencias diferencias significativas para valores de humedad, presentando valores entre 11.14 a 12.67 %; este mismo comportamiento se evidencia para el parámetro solubilidad, presentando valores entre 48.84 a 54.24 %. No se evidenció actividad antimicrobiana de las películas. Ante estos resultados se demostró que las películas elaboradas con extracto del pericarpio de mangostino en ácido cítrico a pH 2 tienen un mayor contenido de antocianinas que puede emplearse en empaques biodegradables que brinden cambios de coloración respecto al cambio de pH e informen al consumidor la frescura y conservación de un alimento, y que a su vez contribuyan a la reducción de empaques poliméricos sintéticos teniendo características de biodegradación.
Ramírez Estrada Julio César, Universidad de Guadalajara
Asesor: Dr. Edgar Gonzalo Cossio Franco, Universidad del Valle de Atemajac

DESARROLLO DE SOFTWARE PARA LA VISUALIZACIóN DE BIOMARCADORES COMO APOYO A ENTREVISTAS CLíNICAS REALIZADAS A JóVENES CON TENDENCIAS SUICIDAS


DESARROLLO DE SOFTWARE PARA LA VISUALIZACIóN DE BIOMARCADORES COMO APOYO A ENTREVISTAS CLíNICAS REALIZADAS A JóVENES CON TENDENCIAS SUICIDAS

Betancourt Soto Roberto, Universidad Autónoma de Sinaloa. Duran de la Rosa Ailed Citlalli, Instituto Politécnico Nacional. Martinez Hernandez Jorge, Instituto Tecnológico Superior de Ciudad Hidalgo. Melendez Bustamante Luis Fernando, Instituto Politécnico Nacional. Ramírez Estrada Julio César, Universidad de Guadalajara. Tovar Morales Tania Carolina, Instituto Politécnico Nacional. Asesor: Dr. Edgar Gonzalo Cossio Franco, Universidad del Valle de Atemajac



PLANTEAMIENTO DEL PROBLEMA

La depresión y el suicidio son problemas graves de salud mental que afectan a un número creciente de jóvenes en todo el mundo, según datos de la OMS.  El manejo y tratamiento de la depresión y la prevención del suicidio requieren un enfoque multifacético, que incluya la monitorización y análisis de indicadores biométricos y comportamentales. Sin embargo, existe una falta de herramientas integradas que permitan a los profesionales de la salud mental correlacionar datos biométricos con respuestas emocionales y psicológicas en tiempo real. En respuesta a esta necesidad, nuestro proyecto tiene como objetivo desarrollar un software que interprete los datos de wearables y los relacione con audios de entrevistas a estudiantes con problemas de depresión que han intentado suicidarse. El software generará una base de datos que permitirá a los usuarios observar los cambios en las respuestas biométricas ante preguntas que puedan causar incomodidad. Este análisis proporcionará una visión integral de las interacciones entre las respuestas fisiológicas y emocionales, facilitando la identificación de patrones de riesgo y posibles intervenciones. Durante el periodo de investigación, estudiaremos las respuestas biométricas, tales como la acelerometría, giroscopio, actividad electrodermal (EDA), temperatura, frecuencia cardíaca (BVP) y picos sistólicos, correlacionándolas con las respuestas emocionales extraídas de los audios de las entrevistas. Esto permitirá un análisis predictivo de los trastornos, las formas de actuar de las personas y los cambios físicos del cuerpo, proporcionando una herramienta valiosa para la prevención y el tratamiento de la depresión y el comportamiento suicida en estudiantes.



METODOLOGÍA

Para el desarrollo de nuestro proyecto, seguimos una metodología estructurada basada en la investigación científica, inteligencia artificial aplicada a tendencias suicidas y principios de ingeniería de software. A continuación, se detallan los pasos seguidos: Recolección de Información: Se realizó una revisión exhaustiva de artículos científicos y bases de datos relevantes sobre metodologías de investigación, el método científico, tendencias suicidas y el uso de IA en este contexto. Se recopilaron datos sobre el diseño y desarrollo de software utilizando wearables, así como los aspectos biométricos que estos dispositivos pueden registrar. Diseño de Requerimientos Funcionales: Con base en la información recolectada, se definieron los requerimientos funcionales del software. Se elaboraron distintos tipos de diagramas para la representación de estos requerimientos: de estados, de secuencia, de clases, de casos de uso, de componentes, de nodos, de comunicación y de flujo. Documentación: Se prepararon documentos siguiendo los estándares IEEE 1016 y 830, que incluyen especificaciones de diseño y requisitos del software. Búsqueda y Selección de Herramientas y Librerías: Se investigaron y seleccionaron aplicaciones y librerías que facilitaran la creación de repositorios de código y la conversión de archivos. Para el manejo de datos biométricos, se optó por utilizar librerías de Python que permitan convertir archivos .avro (formato de los wearables) a .csv. Para la transcripción de entrevistas, se seleccionaron herramientas que conviertan archivos de audio .m4a a texto (.txt). Recolección de Datos: Con la colaboración de estudiantes de psicología de la Universidad del Valle de Atemajac (UNIVA), se realizaron entrevistas a estudiantes con problemas de depresión que han intentado suicidarse. Los datos biométricos se obtuvieron mediante el uso de wearables que registran cambios físicos como acelerometría, giroscopio, actividad electrodermal (EDA), temperatura, frecuencia cardíaca (BVP) y picos sistólicos. Desarrollo del Software: Se desarrollaron códigos y scripts en Python para la conversión de los datos recolectados y la creación de un sistema de correlación. Se diseñaron y programaron las estructuras de datos necesarias para almacenar y procesar la información biométrica y las transcripciones de las entrevistas. Se generaron archivos JSON y otros formatos de datos necesarios para el funcionamiento del software. Implementación y Validación: Se implementó el software de correlación que relaciona las respuestas biométricas con las transcripciones de las entrevistas. Se están desarrollando modelos de IA para la predicción del riesgo de suicidio basado en los datos obtenidos, utilizando técnicas avanzadas de análisis predictivo y machine learning. Próximos Pasos: Continuar con el desarrollo del software de predicción utilizando IA. Validar y mejorar los modelos predictivos con más datos y pruebas. Integrar el sistema completo y realizar pruebas exhaustivas para asegurar su precisión y efectividad en la identificación de patrones y riesgos asociados con tendencias suicidas. Con estas investigaciones y desarrollo se dió lugar a los inicios de los artículos para poder plasmar el análisis de este proyecto para futuros estudiantes e investigadores.


CONCLUSIONES

Durante la estancia de verano se logró el estudio y la interpretación en la logística y el desarrollo del software indicado, de factores que se relacionan a respuestas físicas y mentales con algún estímulo externo como son preguntas y/o personas en una entrevista, y de patrones sociales en estudiantes respecto a la forma de actuar ante la depresión, el estrés y la ansiedad con la finalidad de deducir signos de suicidio. Hasta este momento sólo se pueden mostrar las correlaciones físicas en el software de las entrevistas, aún faltan las predicciones respecto a estas pruebas.
Ramírez García Dulce María, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dra. Sheila Jazmín Reyes Zambrano, Instituto Tecnológico de Tuxtla Gutiérrez

EFECTO DEL CEBADO CON NANOPARTíCULAS DE ZNO EN PLáNTULAS DE CACAHUATE (ARACHIS HYPOGAEA)


EFECTO DEL CEBADO CON NANOPARTíCULAS DE ZNO EN PLáNTULAS DE CACAHUATE (ARACHIS HYPOGAEA)

Delgado López José Rafael, Universidad Tecnológica de La Selva. Ramírez García Dulce María, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dra. Sheila Jazmín Reyes Zambrano, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

Las nanopartículas al incorporarse a las plantas provocan cambios morfológicos y fisiológicos en función de sus propiedades, lo que permite mayor tolerancia ante diferentes condiciones de estrés ambiental. El tamaño de las nanopartículas les permite cruzar barreras biológicas, transportándose por el sistema vascular de la planta después de la aplicación foliar, en la raíz o semillas. Sin embargo, se considera que el cebado es un método fácil que puede aportar beneficios durante las primeras etapas de crecimiento debido a que estimula los procesos involucrados en el metabolismo, previene el deterioro de las semillas e induce una resistencia sistemática contra el estrés biótico y abiótico, además de los cambios bioquímicos y fisiológicos que ocurren al realizar un tratamiento de cebado antes de la germinación y la emergencia de la radícula. Algunos autores mencionan que las nanopartículas pueden ser usadas en el manejo de semillas e indican una variedad de aplicaciones, particularmente mediante cebado, mejorando la germinación de la semilla para optimizar la capacidad de absorción, degradación de reservas y división celular. Los efectos beneficiosos de las nanopartículas podrían atribuirse a una mayor producción de enzimas responsables de las reacciones metabólicas. El cacahuate es una semilla oleaginosa cuyo cultivo es prioritario a nivel mundial por sus múltiples usos en la industria alimenticia. Además de que este cultivo es muy adaptable y poco exigente. Uno de los problemas más comunes en los cultivos de cacahuate es la falta de zinc, lo que puede generar una serie de complicaciones que afectan negativamente el crecimiento, desarrollo y productividad de las plantas. Además, la deficiencia de zinc puede afectar la absorción de otros nutrientes esenciales para las plantas, lo que puede exacerbar aún más los problemas. Se ha reportado que las nanopartículas de óxido de zinc en semillas de cacahuate promueven la germinación, así como la elongación de raíz y tallo. En este contexto, el objetivo del estudio fue evaluar el efecto del cebado de nanopartículas en plántulas de cacahuate respecto a la actividad enzimática y no enzimática. 



METODOLOGÍA

Se utilizaron semillas de cacahuate las cuales fueron tratadas con distintas concentraciones de nanopartículas de óxido de zinc para su posterior siembra en el invernadero del Tecnológico Nacional de México, campus Tuxtla Gutiérrez. Posterior a un periodo de 15 días dichas plántulas fueron sacrificadas para análisis posteriores, como la evaluación de la actividad de catalasa (CAT) mediante la metodología descrita por Góth y Suárez et al., utilizando molibdato de amonio con peróxido de hidrógeno, para la mezcla de reacción se tomó una alícuota de 100 μL del extracto enzimático y 500 μL de la solución de reacción que contenía una concentración de peróxido de hidrógeno al 65 mM en tampón de fosfato de sodio al 60 mM a un pH de 7,4. La mezcla de reacción se incubó a 37 °C durante 4 min, posteriormente se añadieron 500 μL de molibdato de amonio a 32.4 mM para detener la reacción, la cual se midió a una absorbancia de 405 nm.  De igual forma, se realizó la actividad de peroxidasa (POD) mediante el método de Hammerschmidt et al., en dónde la mezcla de reacción de 3 mL contenía 0.25% (v/v) de guaiacol en tampón de fosfato de sodio 10 mM (pH 6,0 que contenía peróxido de hidrógeno 10 mM). Se añadió un volumen de 100 μL de extracto enzimático para comenzar la reacción, la cual se midió a una absorbancia de 470 nm. Se utilizó la metodología de Bradford para la determinación de proteínas en dónde se añadieron 5 mL del reactivo de Bradford a 100 µL de la muestra vegetal en un tampón de fosfato de sodio 100 mM (pH 7,0), dichas muestras se incubaron durante 5 minutos y posteriormente se leyeron a una absorbancia de 595 nm. Para la actividad de Fenilalanina amonio liasa (PAL) se empleó el método de Beaudoin-Eagan y Thorpe, en dónde se emplearon 350 mg de muestras vegetales, las cuales fueron extraídas en 4 mL de tampón de Tris 50 mM, pH 8,5 y se centrifugaron a 6000 rpm durante 10 minutos a 4 °C. El volumen final de la mezcla de la reacción fue de 3 mL, el cuál consistió en 1.9 mL de tampón de Tris-HCL 50 mM (pH 8,0), 100 μL de extracto enzimático y 1 mL de L-fenilalanina 15 mM, después de incubar durante 60 minutos la reacción se detuvo adicionando 200 μL de HCl 6 N. La reacción se midió a una absorbancia de 290 nm. Posteriormente se hizo la cuantificación de fenoles totales mediante el método de Folin-Ciocalteu descrito por Singleton et al. A 20 μL de extracto metanólico se le añadieron 1.5 mL de agua destilada y 100 μL de reactivo de Folin-Ciocalteu, después de 5 minutos se agregaron 300 μL de solución de carbonato de sodio al 20%, se dejó en reposo en un lapso de 2 horas a temperatura ambiente y se determinó la absorbancia a 765 nm. Finalmente se realizó la cuantificación de flavonoides mediante el método colorimétrico de tricloruro de aluminio (Chang et al., 2002). A 250 μL de extracto metanólico se le añadieron 750 μL de etanol al 95%, 50 μL de AlCl3 al 10% en etanol, 50 μL de aceteto de potasio 1 M y 1.4 mL de agua destilada. La mezcla se incubó a temperatura ambiente durante 30 minutos y se determinó la absorbancia a 415 nm. Los resultados se compararon con una curva estándar de quercetina (0-0.1 mg mL 1).


CONCLUSIONES

Como resultado se observo que los tratamientos con Nps-ZnO presentaron un aumento en la longitud de brote con respecto al control, así también se obtuvo un aumento en el contenido de fenoles y flavonoides y en la actividad de la enzima peroxidasa, mientras que  en la actividad de  catalasa no hubo diferencia.  Estos resultados indican que el cebado con Nps-ZnO en cacahuate podría ser una alternativa prometedora para mejorar la germinación, el crecimiento y la tolerancia al estrés de las plantas de cacahuate, lo que puede llevar a un aumento en el rendimiento y la calidad del fruto.
Ramírez González Moyra Daniela, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Everardo Mares Mares, Instituto Tecnológico Superior de Guanajuato

EXTRACCIóN DE LA PROTEíNA DE LA SEMILLA DE YACA (ARTOCARPUS HETEROPHYLLUS LAM.) PARA LA FORMULACIóN DE UN SNACK SALUDABLE.


EXTRACCIóN DE LA PROTEíNA DE LA SEMILLA DE YACA (ARTOCARPUS HETEROPHYLLUS LAM.) PARA LA FORMULACIóN DE UN SNACK SALUDABLE.

Martínez González Karen Paola, Instituto Tecnológico Superior de Guanajuato. Ortega Meza Erika, Instituto Tecnológico Superior de Guanajuato. Ramírez González Moyra Daniela, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Everardo Mares Mares, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Actualmente el 9.4% de las personas de un rango de edades de 14-30 años salen rápido de sus casas sin poder cumplir con su alimentación adecuada, por ende, no adquieren los nutrimentos necesarios para empezar sus actividades cotidianas y uno de estos nutrimentos más importantes es la proteína ya que esta nos brinda la energía necesaria a nuestro cuerpo.  Este producto va dirigido a las personas (14-30 años) que buscan requerimientos proteicos para la obtención de nutrientes.



METODOLOGÍA

Trabajamos principalmente la formulación de la barrita con las harinas que se utilizarían, primero horneamos una barrita de harina avena, cacahuate, huevo y salvado de trigo obteniendo un resultado no favorable ya que esta tenia textura y sabor no agradable.  Para la siguiente barrita utilizamos los siguientes ingredientes: Harina de avena 30 gr Huevo 10 gr. Mantequilla 22 gr Azúcar blanca 10 gr 2 cucharaditas de vainilla. Harina de trigo refinada 20 gr Ate de yaca (bulbos) 10 gr Mermelada de yaca 8 gr  Obteniendo un sabor favorable, textura única y horneado adecuado aun sin agregarle ningún ingrediente de yaca Una vez de obtener la formulación trabajamos en la yaca; pelamos y separamos semillas, bulbos y fibra para luego poner en tratamiento las semillas  por el método de escaldado para quitar las sustancias toxicas que podrían producir daño, para  la fibra y bulbos el pretratamiento fue con agua, 4 gr de ácido cítrico  y  0.5 gr de bisulfito de sodio dejándolo una hora en reposo con el objetivo de que no se oxidara; pasando ese tiempo sacamos y separamos en kilos los bulbos, pasando la fibra, 3 kilos de bulbos y las semillas en charolas para llevar al horno dejándolo todo un día completo. Utilizamos 2 kilos de bulbos moliendo y obteniendo una pulpa pura de yaca que se llevó a refrigeración 24 hrs. Luego de un día completo, la semilla ya seca se molió para la elaboración de una harina de semilla de yaca y se hizo lo mismo con la fibra para también obtener una harina de fibra. Fabricamos una mermelada de la pulpa obtenida de los bulbos con los siguientes ingredientes: 1 kg de pulpa. 250 gr de azúcar. 3 gr de pectina. 25 gr de ácido cítrico. 0. 1 gr de benzoato de sodio. Todo esto a un fuego medio y mezclando hasta la obtención de la mermelada. Se elaboró también un ate de la misma manera y con los mismos ingredientes, pero para este utilizamos un fuego más alto. Finalmente, al tener todos los ingredientes y la formulación adecuada trabajamos en nuestro producto final, mezclando cada uno de los elementos (incluido todos los productos derivados de la yaca) dejando hornear por 30 minutos.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre el tratamiento de frutas y ponerlos en práctica para la extracción de proteína de semilla de yaca para la obtención de un snack saludable, además de formular distintas barritas hasta encontrar la adecuada en sabor, textura y horneado, a pesar de ser un trabajo extenso, logramos obtener nuestro producto listo para llevarlo al innovatec siendo nutritivo, económico y de buen sabor.
Ramírez Guzmán Juan Manuel, Instituto Tecnológico Superior del Sur de Guanajuato
Asesor: Mtro. David Morales Orozco, Instituto Tecnológico Superior del Sur de Guanajuato

PROTOTIPO INICIAL DE REALIDAD AUMENTADA PARA MOSTRAR INFORMACIóN DE COMPONENTES ELECTRóNICOS


PROTOTIPO INICIAL DE REALIDAD AUMENTADA PARA MOSTRAR INFORMACIóN DE COMPONENTES ELECTRóNICOS

Calderón Martínez Eduardo Josué, Instituto Tecnológico Superior del Sur de Guanajuato. Ramírez Guzmán Juan Manuel, Instituto Tecnológico Superior del Sur de Guanajuato. Asesor: Mtro. David Morales Orozco, Instituto Tecnológico Superior del Sur de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Prototipo inicial de realidad aumentada para mostrar información de componentes electrónicos El planteamiento consiste en que nuestro objetivo era hacer una aplicación capas de mostrar los componentes de dispositivos electrónicos o elementos electrónicos mejor dicho, por ejemplo un sensor ultrasonido y una placa esp32 o un arduino en su defecto, al escanear la imagen o el sensor que se tuviera, mostraría un prefabs con un elemento en 3d con todas y cada una de las partes que conforman ese elemento



METODOLOGÍA

En este verano se desarrolló un prototipo de realidad aumentada, para mostrar información de los componentes electrónicos, todo esto se inició sacando información sobre realidad aumentada, después se realizó una capacitación en el uso de Unity para desarrollar una aplicación de realidad aumentada para Android, así como la integración de algunos sensores y controladores como puede ser el ESP32. Con la base de lo anterior, se procedió a desarrollar un prototipo que sea capás de escanear el entorno, en específico componentes eléctricos, como puede ser un sensor ultrasónico o el mismo ESP32, que al momento de escanearlo muestre un prefab con la información del dispositivo electrónico como puede ser sus componentes. Durante el desarrollo de la aplicación se realizaron varias pruebas junto con la redacción del reporte de investigación. Como último, se completó el reporte, se documentaron los procesos y los resultados obtenidos.


CONCLUSIONES

En conclusión almenos de nuestra parte puedo decir que las conclusiones que llegamos de acuerdo a este proyecto fueron que este tipo de tecnologías de realidad aumentada ayudan mucho día a día ya que con tan solo escanear o visualizar el elemento con la cámara del dispositivo que se tenga la aplicación puede agregar y ver los datos elementales que se desean saber de dicha cosa o elemento identificado con la aplicación claro aunque no lea muchos dispositivos la nuestra aún es algo funcional ya que si tuviéramos o nos diéramos a la tarea de perfeccionarse al máximo lograríamos grandes hazañas con la misma desde identificar y mostrar la información del elemento hasta poder agregar un poco de información histórica de lo mismo, por ejemplo podríamos mostrar datos relevantes del elemento o agregar unos consejos al momento que la aplicación note el elemento es decir recomendar las formas de uso del mismo y cosas similares mostrar ejemplos con otro tipos de imágenes y tener la oportunidad de hacer una simulación en resumen llegamos a la conclusión de que la realidad aumentada facilitaría demasiado nuestra realidad simple haciéndola más simple con ayuda de dicha realidad. También posiblemente en la actualidad no se ve mucho la realidad aumentada más que en videojuegos, como ejemplo Pokémon Go, pero en un futuro no muy lejano la podríamos ver para simplificarnos la vida, ya sea para mostrar información, para guiarnos viendo unas líneas invisibles en la pantalla de nuestro celular usando la cámara, mostrando datos curiosos en ciertos lados del mundo como miles de ideas más que se pueden hacer con realidad aumentada.
Ramirez Guzman Luis Dariel, Universidad Autónoma de Yucatán
Asesor: Dr. Antonio Gomez Roa, Universidad Autónoma de Baja California

DISEñO Y CONSTRUCCIóN DE SATéLITES Y COHETES EDUCATIVOS CANSAT


DISEñO Y CONSTRUCCIóN DE SATéLITES Y COHETES EDUCATIVOS CANSAT

Gala Cauich Carlos David, Universidad Autónoma de Yucatán. Ramirez Guzman Luis Dariel, Universidad Autónoma de Yucatán. Ramos Vázquez Dariana Lucia, Universidad de Colima. Rodríguez Gallardo Héctor Fernando, Universidad de Colima. Valencia López Rodrigo, Instituto Tecnológico de Morelia. Asesor: Dr. Antonio Gomez Roa, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Durante los últimos años, el desarrollo de proyectos espaciales ha tomado relevancia en el marco de las áreas de la ingeniería. Agencias espaciales y empresas privadas alrededor del mundo han podido aprovechar el constante avance tecnológico para desarrollar satélites y vehículos espaciales dentro de este boom espacial.  En México, la investigación y el desarrollo en las áreas de construcción de satélites y cohetes, tanto experimental como educativa han enfrentado muchos desafíos como la falta de recursos financieros, reformas constitucionales y recurso humano capacitado en los temas de la ingeniería espacial, lo cual deja a nuestro país rezagados a comparación de países emergentes.  Esta problemática puede ser minimizada de diferentes formas, ya sea con una nueva reforma espacial, el aumento del capital humano nacional al desarrollo espacial en México o con el apoyo del gobierno a través del financiamiento de proyectos de investigación en estas áreas. Por ello, este programa nos brinda la oportunidad de capacitarnos en temas de espaciales, además de trabajar con nuevas innovaciones para mejorar los lanzamientos de cohetes y diseños de satélites ya existentes. Por otro lado, para difundir las ciencias espaciales en nuestras localidades y continuar promoviendo el aumento de nuevos proyectos espaciales en el país.  Actualmente, en las competencias y lanzamientos de satélites CANSAT se realizan con drones, que llevan la carga útil a cierta altura. Se planteó la posibilidad de subir los satélites usando cohetes por lo que en el verano de investigación se estudió la posibilidad de utilizar diferentes cohetes para saber cuan viable son de esa manera.   Para esta investigación se propuso el lanzamiento de 3 diseños de cohetes construidos con materiales reciclables y económicos como una propuesta de transporte para llevar un diseño de pico satélite del tipo CanSat a cierta altura estipulada con el objetivo de recabar datos meteorológicos, de localización y orientación. 



METODOLOGÍA

Se planeó la construcción de 3 cohetes que usaran diferentes métodos de manufactura y un diseño de pico satélite CanSat para realizar una misión de análisis atmosférico y de localización en la Laguna Salada, Mexicali.Se inicio con el planteamiento de una placa de forma circular, de forma que se hacía un reto diferente el poder crear un diseño que cumpliera con los requerimientos necesarios para poder contener de manera correcta todos los componentes que se contendrían dentro del CanSat, para esto se crearon un total de 3 diseños experimentales con el software de diseño mecánico de SolidWorks, buscando con estos la mejor forma de acomodar los componentes, dando como resultado un diseño que podría contener todos los elementos seleccionados cumpliendo así con la misión inicial  la cual fue integrar de manera óptima los componentes del CanSat dentro del volumen de una lata de 355ml. Una vez teniendo los modelos 3D en el software se imprimieron todos estos por medio de una impresora 3D culminando así en su posterior ensamblaje. Previo a la construcción de los cohetes se realizaron diversos análisis de simulación en el software de simulación OpenRocket para modelar y simular el rendimiento de las diversas propuestas de cohetes a construir. Entre las variables analizadas estuvieron las dimensiones, geometría y peso a elegir del cono, fuselaje y aletas del cohete. La elección del motor a utilizar en particular también fue un factor clave a la hora de la simulación. Para los primeros 2 modelos diseñados y simulados se usaron tubos de cartón semigrueso en espiral como el fuselaje, las aletas de fueron cortadas a medida en madera y el cono utilizado una máquina de corte CNC Router.  El tercer cohete fue un diseño que utilizó materiales de fibra de vidrio en la mayor parte de su estructura. Las aletas, fuselaje, contenedor del motor y cono fueron hechos de rollos de tela de fibra de vidrio. Una vez armados los 3 cohetes, se instaló el sistema de recuperación a cada uno que consistió en una cuerda atada desde el fuselaje hasta el cono. Entre la cuerda de ató un paracaídas junto a un protector de paracaídas para la explosión de liberación. Finalmente, se instalaron los motores G-125 y G-80T para los primeros dos cohetes de cartón nombrados Loro 1 y Jaguar Zero y el motor I-175WS para el tercer cohete de fibra de vidrio nombrado Alebrije. El CanSat se decidió lanzar dentro de Loro 1, mientras que los demás serían lanzados vacíos para el día de lanzamiento. 


CONCLUSIONES

Para validar los diseños de cohetes y satélites se utilizó el campo de lanzamiento de COEHTES de la asociación TRIPOLI MEXICO ubicado en la Laguna Salada en el municipio de Mexicali en el estado de Baja California, para lanzar los 3 cohetes diseñados y construidos durante la estancia del verano de investigación del programa delfín   La misión tuvo 3 vuelos exitosos de los modelos Loro 1, Jaguar Zero y Alebrije los cuales lograron altitudes de 285 m, 355 m, 353 m respectivamente. Estos fueron recuperados en óptimas condiciones a excepción del modelo Alebrije que tuvo un impacto a tierra sin paracaidas. Con estos lanzamientos de cohete comprobamos que son una buena solucion como medio de expulsión de satélites tipo CanSat ademas que resulto rentable en relación al tiempo de elaboración, bajo costo y alto rendimiento.  El modelo CanSat representó un reto diseño innovador ya que la propuesta original se logró el objetivo de diseñar y construir un satélite con componentes de montaje superficial. Mismo que también detectamos un área que mejorar y reconsiderar para futuras misiones.  La misión y programa de investigación realizada durante el programa delfín fue una experiencia enriquecedora para aprender conceptos, técnicas y la logística de un proyecto espacial desde su planeación hasta su lanzamiento. Estos conocimientos serán bases firmes que nos permitirán formar parte de la comunidad de cohetería experimental de México desde nuestras localidades, promoviendo la ingeniería espacial en el país. 
Ramirez Juarez Adiel, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte

METODOLOGíA DE SUPERFICIE DE RESPUESTA DUAL CON VARIABLES DE RUIDO CUALITATIVAS PARA LA OPTIMIZACIóN DE PROCESOS


METODOLOGíA DE SUPERFICIE DE RESPUESTA DUAL CON VARIABLES DE RUIDO CUALITATIVAS PARA LA OPTIMIZACIóN DE PROCESOS

Montes Aguilar Miguel Ángel, Instituto Tecnológico de Ciudad Juárez. Ramirez Juarez Adiel, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte



PLANTEAMIENTO DEL PROBLEMA

Introducción La metodología de Superficie de Respuesta es un conjunto de técnicas utilizadas en el estudio de la relación entre una o más respuestas y un conjunto de factores o variables independientes y donde el objetivo es optimizar las respuestas y por consecuencia en la optimización de algún proceso. Dicha metodología se realiza mediante una experimentación secuencial, esto es, la aproximación a la región de interés, se realiza de forma interactiva utilizando diseños cada vez más complejos que dependen de la información que se obtiene en cada etapa. Objetivo del estudio Analizar la implementación de la Metodología de Superficie de Respuesta Dual con variables de ruido cualitativas para la optimización de procesos. Justificación La metodología de superficie de respuesta se emplea para optimizar un proceso en el que las variables que intervienen no están relacionadas a partir de un modelo matemático exacto, sino que es necesario construir un modelo empírico para aproximar su comportamiento. La principal utilidad de esta metodología es la optimización de la variable de interés. En la actualidad es fundamental el encontrar respuestas a variables que nos pueden afectar en algún proceso.



METODOLOGÍA

Metodología La metodología de superficie de respuesta usualmente se aplica junto con experimentos factoriales. El enfoque usual es utilizar el diseño de experimentos para determinar que variables están influenciando la respuesta de interés. Una vez que dichas variables son identificadas, se obtiene una estimación aproximada de la superficie de respuesta por medio de modelos factoriales especiales. Esta superficie de respuesta se usa como guía para variar gradualmente los factores controlables que afectan a la respuesta de manera tal que se mejore el valor de la respuesta. Una vez que el cambio de los factores controlables no origine una mejora predecible en la variable de la respuesta, se puede aplicar un método de experimentación más sofisticado para encontrar la superficie de respuesta operativa final del proceso de interés. Desarrollo Análisis de la metodología aplicada: investigar conceptos y ejemplos de la metodología aplicada. Desarrollo de ejemplos de MSR: elaborar ejemplos mediante el uso de la app minitab para encontrar las respuestas. Implementación en un caso real: Ejecutar lo aprendido durante la investigación para la solución al ejercicio planteado. Evaluar resultados: validar los resultados obtenidos y análisis de las áreas de oportunidad.


CONCLUSIONES

Conclusiones Resultados de análisis: La aproximación a la región del óptimo es un proceso secuencial que inicia con el ajuste de un modelo lineal y que posteriormente requiere el ajuste de un modelo cuadrático. El procedimiento de aproximación sigue la trayectoria del ascenso más pronunciado, el cual está indicado por la dirección del vector gradiente. El modelo de segundo orden ajustado es un diseño central compuesto (DCC) propuesto por Box y Wilson son viables para los ejercicios realizados. La verificación de los supuestos del modelo implica el análisis de los residuales como variables aleatorias normales e independientes con media cero y varianza constante. Aplicación de metodología (MSR) En cuanto al método aplicado en el caso experimental nos permite encontrar cual es la combinación apropiada en cuanto en el ejemplo de un buen helicóptero es aquel que permanece más tiempo en el aire, así que la variable de respuesta sería el tiempo de vuelo, que se mide desde el momento en que el helicóptero se suelta desde una altura de 2 metros hasta el momento en que toca el suelo. Si no definimos las condiciones de prueba, es posible que los helicópteros de la muestra se suelten desde diferentes alturas, en cuyo caso los resultados de nuestro DOE no serían válidos.
Ramírez López Jennifer Areli, Universidad de Guadalajara
Asesor: Dr. Cristian Giovanny Gomez Marin, Instituto Tecnológico Metropolitano

ANÁLISIS DE INFERENCIA DIFUSA PARA CARTAS DE CONTROL ESTADÍSTICO POR ATRIBUTOS


ANÁLISIS DE INFERENCIA DIFUSA PARA CARTAS DE CONTROL ESTADÍSTICO POR ATRIBUTOS

Macías Ochoa Gilberto, Instituto Tecnológico de Jiquilpan. Ramírez López Jennifer Areli, Universidad de Guadalajara. Asesor: Dr. Cristian Giovanny Gomez Marin, Instituto Tecnológico Metropolitano



PLANTEAMIENTO DEL PROBLEMA

Tradicionalmente, el control de calidad ha dependido de métodos de inspección convencionales, que a menudo no capturan adecuadamente la incertidumbre y la vaguedad en los datos. Esto resulta en dificultades para identificar y corregir defectos, lo que puede llevar a productos defectuosos, costos adicionales debido a reprocesos y una disminución en la satisfacción del cliente. La integración de herramientas de control estadístico de procesos (CEP) con inferencia difusa se presenta como una solución prometedora para abordar estos desafíos, ya que permite manejar la incertidumbre y la subjetividad en la evaluación de la calidad. Al capturar los datos de atributos de manera difusa, es posible generar una evaluación más precisa y ajustada a la realidad. Posteriormente, mediante un motor de inferencia difusa y un proceso de defuzzificación, se obtienen datos concretos que reflejan la calidad del producto. Estos datos de salida, que representan una evaluación cuantitativa de la calidad, pueden ser utilizados como entradas para cartas de control básicas. Las cartas de control permiten monitorear los procesos de producción en tiempo real, identificando desviaciones significativas que puedan indicar problemas de calidad. Así, es posible implementar acciones correctivas de manera oportuna, mejorando la eficiencia y la consistencia del proceso de producción.



METODOLOGÍA

2.1 Análisis bibliométrico Determinar las tendencias, patrones y relaciones en la literatura científica sobre un tema específico utilizando el análisis bibliométrico en publicaciones relacionadas con cartas de control e inferencia difusa. Este análisis incluirá: Revisión Preliminar: Realizar una revisión exhaustiva de la literatura existente sobre el uso de cartas de control y la inferencia difusa en estudios similares. Fuentes de Datos: Elegir bases de datos relevantes como Web of Science o Scopus para recolectar los datos bibliométricos. Criterios de Inclusión: Definir criterios de inclusión y exclusión para seleccionar los documentos relevantes como rango de fechas, idiomas, tipos de publicaciones. Extracción de Datos: Extraer datos bibliométricos clave como el número de citas, autores, instituciones, y publicaciones por año. Cálculo de Métricas: Utilizar herramientas de análisis bibliométrico para calcular métricas como el impacto de las citas, y la colaboración entre autores e instituciones. Visualización de Datos: Crear visualizaciones como gráficos y análisis de tendencias temporales.   2.2. Captura de Datos Recopilación de datos de atributos críticos y diseño de cartas de control difusas para capturar información. Estos datos serán preprocesados para eliminar ruido y asegurar su consistencia.   2.3. Modelado de Lógica Difusa Desarrollo de un modelo de lógica difusa para interpretar los datos capturados. Este modelo incluirá: Definición de Variables de Entrada: Definición de atributos como variables de entrada. Creación de Conjuntos Difusos: Definicion de conjuntos difusos para cada atributo que describan diferentes niveles de calidad (por ejemplo, bajo, medio, alto). Base de Reglas Difusas: Formulación de reglas difusas basadas en el conocimiento experto y datos históricos para relacionar las entradas con la calidad del producto final. Defuzzificación: Implementación de métodos como el centroide para convertir los resultados difusos en valores numéricos precisos que representen la calidad del producto.   2.4. Implementación de la Carta de Control Implementación de valores numéricos resultantes del proceso de defuzzificación para alimentar una carta de control básica. La carta de control monitoreará continuamente los procesos de producción, ayudando a identificar desviaciones de las especificaciones establecidas. Esto permitirá una intervención temprana en el caso de que se detecten anomalías, asegurando así la consistencia y calidad del producto final.   2.5. Validación y Pruebas Validación del sistema mediante pruebas exhaustivas en un entorno de producción real. Se compararán los resultados del sistema de control difuso con los métodos tradicionales de control de calidad para evaluar su eficacia y precisión. Se realizarán ajustes en el modelo difuso y la carta de control según sea necesario para mejorar su rendimiento.


CONCLUSIONES

Resultados Al realizar el análisis bibliométrico se obtuvo como resultado:  El total de articulos publicados por año donde en el año 2023 supero con diferencia a los demas años referente a publicaciones científicas relacionadas con cartas de control e inferencia difusa. Así como el total de articulos por autores que ha publicado sobre el tema.  Esto permitió un análisis de datos base como referencias para el desarrollo de la investigación. Conclusión El uso de lógica difusa y cartas de control en el control de calidad de productos ofrece una solución innovadora para gestionar la incertidumbre y mejorar la precisión del proceso de evaluación. Este proyecto no solo contribuirá a mejorar la calidad del producto, sino que también ofrecerá una ventaja competitiva a las empresas al optimizar sus procesos de producción y reducir costos.
Ramírez López René Omar, Instituto Tecnológico Superior de Tacámbaro
Asesor: Mtra. Ruth Jaramillo Molina, Instituto Tecnológico Superior de Tacámbaro

DISEñO DE ESTRATEGIAS PUBLICITARIAS A TRAVéS DE NEUROMARKETING PARA EMPRESAS.


DISEñO DE ESTRATEGIAS PUBLICITARIAS A TRAVéS DE NEUROMARKETING PARA EMPRESAS.

Ramírez López René Omar, Instituto Tecnológico Superior de Tacámbaro. Asesor: Mtra. Ruth Jaramillo Molina, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

“Actualmente es común que las empresas enfrenten un desafío constante para comprender las preferencias y comportamientos de sus consumidores, lo que puede afectar la efectividad de sus estrategias de marketing y publicidad. Aunque existen métodos tradicionales para medir la respuesta del consumidor, como encuestas, estos pueden ser sesgados por la racionalización y no reflejar las verdaderas actitudes y emociones. El objetivo de este proyecto de neuromarketing es utilizar el test de asociación implícita (TAI) para medir las reacciones automáticas y emocionales de los consumidores a diferentes estímulos auditivos y visuales, y así identificar patrones y tendencias para el diseño estrategias de marketing más efectivas.”



METODOLOGÍA

Este proyecto se desarrolló en varias etapas como a continuación se describen: Primera de ellas consistió en definir el tipo de investigación, observándose que es del tipo específica y exploratoria, donde el problema es un tanto ambiguo. En segunda etapa se realizó el análisis de fuentes secundarias, destacando las variables de neuromarketing, test de asociación implícita, audiomarketing, marketing visual, relación de las emociones y el marketing, en la parte musical se enfocó en la relación de las progresiones musicales con los instrumentos que se utilizaron en dichas pruebas. En la tercera etapa se analizaron dos programas para realizar el test de asociación implícita, que fueron ‘’open sesame’’ y ‘’Kahoot’’, dónde en dichos programas se observaron diferencias. Las diferencias eran tanto los enfoques de las aplicaciones (donde open sesame tiene un enfoque más técnico y estructurado para pruebas psicológicas, mientras que kahoot tiene un enfoque más estudiantil y académico). Utilizamos kahoot al final para que fuera más asequible tanto para nuestros encuestados como para nosotros. Para ellos en el aspecto de realizar más sencillamente el test y para nosotros en la recopilación de la información. En la cuarta etapa se definió el método de muestreo y se determinó la muestra, optándose por el método no probabilístico por cuotas, la muestra finita. Donde: n=NZ^2*p*q / e^2*(N-1)+ Z^2*p*q N= 71101 p= 50% q= 50% e= 95% n=71101*〖1.96〗^2*0.50*0.50 / 〖0.15〗^2*(71101-1)+ 〖1.96〗^2*0.50*0.50 n= 43 Cuarta etapa Investigación de campo. Para llevar a cabo esta actividad se realizó el reclutamiento de participantes: Como ya se mencionó previamente, se seleccionaron participantes para el estudio a través de redes sociales y otros medios. La muestra finita nos arrojó 43 personas. Los sexos y edades quedaron de la siguiente manera. Segmento 1 (0 a 17 años de edad): 14.29% Segmento 2 (18 a 29 años): 57.14% Segmento 3 (30 a 59 años): 28.57% Hombres: 54.29% Mujeres: 45.71% En la última etapa se realizó el análisis de resultados.


CONCLUSIONES

Aplicación del TAI: Seguido de esto, se aplicó el TAI a los participantes, presentándoles los estímulos auditivos y visuales y midiendo sus reacciones implícitas. Dónde los resultados fueron los siguientes: El tiempo recomendado de respuesta de los encuestados era mayor a 10 segundos, con el objetivo de que percibieran el audio de una forma más correcta. El tiempo total de respuesta era de 20 segundos. Las emociones trabajadas aquí fueron “indiferencia, inseguridad, confianza y felicidad”. Esta corresponde a la sección de audios. 7 personas con un tiempo de respuesta menor a 10 segundos y 36 personas con un tiempo de respuesta mayor a 10 segundos. Porcentaje del Grupo 1 (menor a 10 segundos): (7/43) x 100% = 16.28% Porcentaje del Grupo 2 (mayor a 10 segundos): (36/43) x 100% = 83.72% El Grupo 1 representa aproximadamente el 16.28% del total. El Grupo 2 representa aproximadamente el 83.72% del total. El promedio de duración en el Grupo 1 es de 7.77 segundos. El promedio de duración en el Grupo 2 es de 13.51 segundos. Esta siguiente sección corresponde a las imágenes o colores que se mostraron. Grupo 1: Tiempo de respuesta menor a 5.9 segundos Número de personas: 14 Porcentaje del total: (14/43) x 100% = 32.56% Grupo 2: Tiempo de respuesta mayor a 6 segundos Número de personas: 29 Porcentaje del total: (29/43) x 100% = 67.44% Grupo 1: Tiempo de respuesta menor a 5.9 segundos Promedio de respuesta: 5.04 segundos Grupo 2: Tiempo de respuesta mayor a 6 segundos Promedio de respuesta: 8.21 segundos Las respuestas seleccionadas fueron las siguientes: - Confianza (56 menciones, 30.77%) - Asombro (44 menciones, 24.18%) - Indiferencia (34 menciones, 18.68%) - Inseguridad (24 menciones, 26.37%) - Amor (17 menciones, 23.61%) - Felicidad (23 menciones, 31.94%) - Sorpresa (15 menciones, 20.83%) - Tristeza (12 menciones, 23.62%) Lo obtenido pues, en base a los resultados es que mayormente la gente tomo una respuesta de forma consciente ante los estímulos que se les fueron presentados. Aunque pueden haber excepciones, la mayoría lo hizo así. Si consideramos estás ideas y supuestos podemos a continuación relacionar estás ideas con campañas de marketing y la mercadotecnia en general, ¿Cómo? Una vez sabiendo que la gente puede tomar de forma consciente respuestas en base a ciertas cosas, por qué no relacionarlas con un producto. Me refiero a qué se use música similar y colores similares para que el cliente pueda ser capaz de relacionar los preceptos anteriores con unos nuevos. Esto ya lo hemos visto con algunas marcas, véase coca cola, una marca que posee campañas publicitarias muy buenas. Para cerrar esto, entonces, las personas mayormente toman decisiones racionales a partir de la elección de música y colores.
Ramírez Martínez José Alfonso, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Dr. Alan Carrasco Carballo, Benemérita Universidad Autónoma de Puebla

SíNTESIS Y EVALUACIóN ANTIPROLIFERATIVA DE PRODUCTOS DE LA ACETóLISIS DEL ACETATO DE HECOGENINA


SíNTESIS Y EVALUACIóN ANTIPROLIFERATIVA DE PRODUCTOS DE LA ACETóLISIS DEL ACETATO DE HECOGENINA

Ramírez Martínez José Alfonso, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Dr. Alan Carrasco Carballo, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En 2022, se registraron 847,716 defunciones en México, de las cuales el 10.6 % (89,574) fueron causadas por tumores malignos. La tasa de mortalidad por tumores malignos ha aumentado de manera constante, pasando de 62.04 muertes por cada 100,000 personas en 2012 a 68.92 en 2022 (Figura 1) (INEGI, 2024). Los tumores malignos son resultado del cáncer, que es una enfermedad caracterizada por la proliferación descontrolada de células transformadas sujetas a la evolución por selección natural. El término transformadas hace referencia a que las células cancerosas adoptan diversos procesos tumorígenos para invadir tejidos cercanos y diseminarse a otras partes del cuerpo (metástasis). Mientras que estar sujetas a la evolución por selección natural implica que se acumulan cambios genéticos y epigenéticos en la población de células cancerosas, llevando a fenotipos letales (Brown et al., 2023). Siendo el cáncer de mama y el cáncer de cuello uterino de los que más afectan a mujeres mayores a 20 años, con una incidencia en México en el 2022 de 23 790 casos y 9 439 nuevos respectivamente (INEGI, 2024). Los esteroides han sido utilizados en el mercado farmacéutico desde tiempos antiguos, desempeñando roles biológicos variados como agentes antineoplásicos, antimicrobianos, adyuvantes en agentes anticoagulantes, antiinflamatorios, antivirales, insecticidas y pesticidas, antioxidantes y agentes de imagen celular (Bansal & Suryan, 2022). Esto dado a que poseen una estructura rígida y sus propiedades farmacológicas, permitiendo una excelente penetración en las membranas celulares y una unión específica a los receptores debido a su favorable solubilidad lipídica (Bansal & Suryan, 2022). Las sapogeninas, conocidas por sus diversas actividades biológicas, tienen efectos sobre los sistemas nervioso, cardiovascular y gástrico, además de acciones antiinflamatorias y antiinfecciosas (Borges et al., 2023). La hecogenina (Hg) (Figura 3) es una sapogenina esteroidal presente en plantas del género Agave y Tribulus terrestris L., con diversas actividades biológicas que incluyen propiedades antiinflamatorias, antioxidantes, antifúngicas y anti-nociceptivas (Borges et al., 2023). En los últimos años, se han realizado importantes optimizaciones químicas para mejorar su actividad farmacológica en el tratamiento del cáncer (Bai et al., 2021). Es por ello que es objetivo de diversas reacciones, un sitio de alto valor sintético es el espiroacetal en C-22, la cual puede ser sometido a la reacción de acetólisis, realizada previamente en la diosgenina(Lu et al., 2020).   Este proyecto presenta la síntesis y evaluación biológica de derivados 22-oxocoléstanicos de la acetólosis de la hecogenina como agentes terapéuticos contra el cáncer cervical y cáncer de mama.



METODOLOGÍA

Acetólisis de la hecogenina: Se mezcló acetato de hecogenina (HgCO) con CH₂Cl₂ y Ac₂O, llevando la mezcla a 0°C. Se añadió BF₃·Et₂O y se dejó reaccionar durante 15 minutos. Posteriormente, la reacción se vertió en agua con hielo para degradar el BF₃·Et₂O y detener la reacción sin cambiar la temperatura. Los productos se purificaron mediante cromatografía en columna. Caracterización por RMN: Se obtuvieron los espectros de RMN de 1H a 500MHz, 13C a 125 MHz ambos empleando CDCl3 como disolvente. Evaluación biológica: Se realizó pruebas de viabilidad celular de ambos derivados oxocolestánicos a distintas concentraciones (100 % μg/μl, 50 % μg/μl, 25 % μg/μl, 12.5% μg/μl, 6.25 % μg/μl) en las líneas celulares de cáncer de mamá triple negativo (MDA-MB-231) y cáncer cervicouterino (SiHa).


CONCLUSIONES

Los dos productos mayoritarios obtenidos de la acetólisis del acetato de hecogenina, corresponden a un derivado diacetilado y uno triacetilado en esto identificado en los espectros de 1H en la región de 2.1 ppm, para el diacetilado con dos metilos base de carbonilo y el triacetilado con tres metilos en esa región. Para asignar cada una de las señales de los metilos de acetatos, se comparó con los hidrógenos base de oxígeno de la materia. Dichas señales fueron corroboradas por HMBC al observar los acoplamientos de los carbonos en 3 y 16 con los metilos 3’’ y 16’’ en el diacetilado y extra el de 26 con 26’’ en el triacetilado. Los resultados de la evaluación biológica indican que estos compuestos presentan una menor viabilidad celular en comparación con la hecogenina, lo que sugiere un potencial mayor como agentes anticancerígenos.
Ramírez Mejía Miguel Ángel, Instituto Tecnológico de Morelia
Asesor: Mg. Sergio Iván Galvis Motoa, Universidad Católica de Colombia

PROPUESTA PARA LA DIVULGACIÓN DE INFORMACIÓN EN EL PROCESO DE ACREDITACIÓN DEL PROGRAMA DE INGENIERÍA DE SISTEMAS Y COMPUTACIÓN A TRAVÉS DE UNA APLICACIÓN


PROPUESTA PARA LA DIVULGACIÓN DE INFORMACIÓN EN EL PROCESO DE ACREDITACIÓN DEL PROGRAMA DE INGENIERÍA DE SISTEMAS Y COMPUTACIÓN A TRAVÉS DE UNA APLICACIÓN

Ramírez Mejía Miguel Ángel, Instituto Tecnológico de Morelia. Asesor: Mg. Sergio Iván Galvis Motoa, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

La acreditación del Consejo Nacional de Acreditación (CNA) es esencial para garantizar la calidad de los programas académicos en Colombia. La carrera de Ingeniería en Sistemas de la Universidad Católica de Colombia está trabajando para obtener esta acreditación, que requiere demostrar el cumplimiento e impacto en los 12 factores específicos, como la calidad de la enseñanza, investigación, infraestructura entre otros. Para esto, se propone difundir las evidencias y fortalezas relacionadas con estos factores de manera eficiente y transparente, organizando la información de manera detallada para que el público pueda acceder a conocerlas. Para cumplir con esta necesidad, se propone desarrollar una solución tecnológica, como una aplicación móvil, que ayude a la difusión de las evidencias para la acreditación. Esta herramienta permitirá a los usuarios ingresar y consultar imágenes y texto de manera, para que el público en general tenga acceso a la información y pueda conocer que la carrera de Ingeniería en Sistemas y Computación de la Universidad Católica de Colombia cuenta con todos los recursos para obtener la acreditación del CNA.



METODOLOGÍA

El desarrollo de la aplicación móvil se lleva a cabo en varias fases utilizando un enfoque ágil basado en Scrum para asegurar una entrega incremental y continua de mejoras. A continuación, se detallan los pasos metodológicos específicos seguidos durante el proyecto: 1. Recolección de Requisitos: o Identificación de Factores: Se identificaron y documentaron los 12 factores requeridos para la acreditación CNA, asegurando que todos los criterios y subcriterios estuvieran claramente definidos. o Encuestas: Se realizó una encuesta digital a través de Microsoft Forms para docentes y personal administrativo, para la recolección de las evidencias pertinentes. 2. Diseño de la Aplicación: o Arquitectura de la Aplicación: Se optó por una arquitectura modular y escalable, utilizando Android Studio y Kotlin. Se implementó el patrón de diseño MVVM (Model-View-ViewModel), que facilita una separación clara de responsabilidades, permite una mejor gestión del estado y simplifica el mantenimiento y la evolución del software. o Interfaz de Usuario (UI): Se utilizó Jetpack Compose para crear una interfaz de usuario moderna y eficiente. Se diseñaron pantallas para el login, el menú principal para acceder a las pantallas de los factores y la visualización de los factores. o Base de Datos: Se integró Firebase como la base de datos principal para almacenar las evidencias. Firebase Firestore se utilizó para gestionar datos en tiempo real y asegurar una sincronización eficiente. 3. Desarrollo de Funcionalidades: o Autenticación: Se implementó la autenticación de usuarios utilizando Firebase Authentication, permitiendo el acceso mediante cuentas Microsoft y opciones de ingreso como invitado. 3 PROGRAMA INTERINSTITUCIONAL PARA EL FORTALECIMIENTO DE LA INVESTIGACIÓN Y EL POSGRADO DEL PACÍFICO o Visualización de Factores: Se implementó una pantalla de visualización por cada factor, que muestra los factores en tarjetas utilizando una LazyColumn en Compose, permitiendo a los usuarios navegar y consultar las evidencias de manera organizada. 4. Pruebas y Validación: o Pruebas Unitarias y de Integración: Se escribieron pruebas unitarias e integradas para asegurar la funcionalidad correcta de cada componente de la aplicación. 5. Documentación: o Estado del Arte y Ontología: Se desarrolló un estado del arte sobre los conceptos principales relacionados con la arquitectura móvil, Android y Kotlin Multiplatform (KMP). Además, se elaboró una ontología que define y relaciona estos conceptos para un mejor entendimiento y desarrollo futuro del proyecto.


CONCLUSIONES

Hasta el momento, el avance en el desarrollo de la aplicación ha llegado a completarse en la primera fase, teniendo pendiente la recolección de la información que difundirá. Los profesores y estudiantes podrán ingresar y consultar pruebas de manera eficiente, lo que ayudará a tener uniformidad en la información de las fortalezas en los factores del proceso de acreditación. Se espera que, al concluir el proyecto se logré la difusión de la información con toda la comunidad. En futuras etapas, se proyecta la expansión de la aplicación a plataformas adicionales como IOS mediante Kotlin Multiplatform (KMP), consolidando así su adaptabilidad y utilidad en diversos entornos tecnológicos.
Ramirez Meza Harold, Instituto Tecnológico del Altiplano de Tlaxcala
Asesor: Mtra. Amparo Jazmín Meza Gutiérrez, Universidad Tecnológica de Bahía de Banderas

ESTUDIO Y ANáLISIS DEL COMPORTAMIENTO VISUAL DEL ESTUDIANTE PARA EL DESARROLLO DE NEUROMARKETING


ESTUDIO Y ANáLISIS DEL COMPORTAMIENTO VISUAL DEL ESTUDIANTE PARA EL DESARROLLO DE NEUROMARKETING

Flores Pérez Azhaell, Instituto Tecnológico del Altiplano de Tlaxcala. Ramirez Meza Harold, Instituto Tecnológico del Altiplano de Tlaxcala. Torija Peralta David, Instituto Tecnológico del Altiplano de Tlaxcala. Asesor: Mtra. Amparo Jazmín Meza Gutiérrez, Universidad Tecnológica de Bahía de Banderas



PLANTEAMIENTO DEL PROBLEMA

Partimos del neuromarketing que es aquel que estudia los procesos mentales y los comportamientos de compra de las personas, en este caso se enfocó en el comportamiento e interacción de estudiantes universitarios a través de Tobii Glasses 3 y Tobii Pro Lab, como primer paso fueron encuestados los profesores de una sola academia para partir de un cierto punto estratégico, preguntando cual es la colorimetría que más usan y el material didáctico que más presentan en clase, en este caso en mayoría fueron diapositivas, por lo que partimos con una presentación analizando y estudiando el comportamiento visual de cada uno y detallando cada punto visto, la duración de su mirada a un punto y el enfoque a lo mas importante de estas diapositivas.



METODOLOGÍA

Método de trabajo explicativo. A través de hipótesis explicativas, es decir se ofrecio una explicación posible sobre la causa que relaciona las variables, se buscó una relación causa-efecto entre los estudiantes evaluados para responder como sucede el comportamiento visual de cada uno.


CONCLUSIONES

Se espera obtener patrones de visualización, colorimetría, tipografía para mejorar el plan de instrumentación de los estudiantes universitarios que les permita aprender y razonar todo tipo de información.
Ramírez Oropeza Abigail Estefanía, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Elias Alberto Bedoya Marrugo, Fundación Universitaria Tecnológico Comfenalco

HIPOACUSIA OCUPACIONAL EN TRABAJADORES DEL SECTOR METALMECáNICO EN CARTAGENA, COLOMBIA


HIPOACUSIA OCUPACIONAL EN TRABAJADORES DEL SECTOR METALMECáNICO EN CARTAGENA, COLOMBIA

Ramírez Oropeza Abigail Estefanía, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Elias Alberto Bedoya Marrugo, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

La composición externa del oído como órgano es a base de cartílago y piel, pero como función tiene la recepción y la traducción de las ondas sonoras que son emitidas en un medio externo, y mediante ello la conducción de estas al cerebro que los convertirá en la sensación que conocemos como sonido. La invención de las maquinas o la maquinaria trajo consigo el ruido en diferentes contextos de la vida de las personas Los ruidos interrumpían el silencio en el que vivía el hombre, con ello se tuvo conocimiento de lo que era el sonido. El oído se ha ido adaptando al entorno en el que el mundo se ha desarrollado con el paso del tiempo. Comparando el siglo XVIII con la actualidad, el oído de las personan en esa época no habrían soportado la intensidad de ruido a la que hoy en día estamos acostumbrados. El ruido ocupacional es uno de los riesgos laborales más comunes en todo el mundo, se considera la perdida de la audición como una discapacidad sensorial prevalente en salud causado por la exposición continua a altos niveles al ruido por parte de los trabajadores. Alrededor de 600 millones de trabajadores están expuestos a niveles nocivos de ruido en todo el mundo. La hipoacusia como pérdida auditiva se define por la mala recepción de los sonidos o ruidos. Algunas definiciones describen la hipoacusia como una pérdida de audición con un umbral auditivo (o recepción del sonido) de 20 decibeles o menos en ambos oídos. A nivel mundial, más del 40% de las personas con déficit auditivo tienen 60 años o más y marcando una relación indiscutible con la edad, ya que se demuestra que la gravedad de la condición aumenta con la edad. En el continente americano, la prevalencia de hipoacusia va de moderada o severa en un porcentaje mayor al 16% en individuos de 60 a 69 años, mayor del 30% en aquellas personas de 70 a 79 años, y del 50% en adelante en personas de mayores de 80 años, marcando un margen de diferencia con un porcentaje mayor del 60% en personas que tienen 90 años o más. De las personas que podrían beneficiarse de un audífono, menos del 20% usa algún dispositivo 



METODOLOGÍA

Este estudio es de tipo cuantitativo en una empresa metalmecánica en Cartagena, Colombia con corte transversal, con una muestra de trabajadores elegidos aleatoriamente y sin exclusión de ningún cargo de trabajo en un solo día de entrevistas y estudios para la obtención de la información. El objetivo principal es evaluar la prevalencia y los factores asociados a la hipoacusia ocupacional en los trabajadores del sector metalmecánico de una empresa en Cartagena, Colombia. La población objetivo son los trabajadores del sector metalmecánico de una empresa en Cartagena. La muestra consta de 91 trabajadores seleccionados aleatoriamente. Los criterios de inclusión son trabajadores en activo durante el periodo de estudio y que estén expuestos a jornadas laborales mayores a 8 horas con niveles de ruido superiores a 85 decibeles. Los criterios de exclusión son los trabajadores que no completaron la encuesta o que no están expuestos a los niveles de ruido mencionados. Se utilizó una encuesta estructurada para recolectar los datos. Esta encuesta incluye preguntas relacionadas con la exposición al ruido, el uso de protección auditiva, síntomas de hipoacusia y otras variables demográficas y laborales. La encuesta se aplicó de manera anónima y confidencial para asegurar la honestidad y privacidad de las respuestas. Las encuestas fueron distribuidas y recolectadas en el lugar de trabajo de los empleados. Esta metodología proporciona un marco estructurado para investigar la hipoacusia ocupacional en el sector metalmecánico, permitiendo obtener resultados que pueden guiar la implementación de medidas preventivas y de mejora en las condiciones laborales.


CONCLUSIONES

El estudio realizado sobre la hipoacusia ocupacional en trabajadores del sector metalmecánico en una empresa de Cartagena, Colombia, muestra importantes hallazgos y consideraciones para la prevención, el manejo y el conocimiento de esta condición. La hipoacusia ocupacional se ha identificado como un problema prevalente entre los trabajadores, evidenciado por la proporción significativa de trabajadores con síntomas de pérdida auditiva. Los análisis de correlación y ANOVA no mostraron relaciones significativas entre la hipoacusia y variables demográficas como la edad y el sexo, así como tampoco con la antigüedad en el cargo actual. Esto sugiere que otros factores, posiblemente relacionados con las condiciones de trabajo y la exposición al ruido, podrían ser los principales contribuyentes a la pérdida auditiva en este entorno laboral. La prueba binomial destacó que una considerable proporción de trabajadores experimenta síntomas auditivos y disconfort físico, lo que subraya la necesidad de intervenciones específicas.  
Ramírez Páez Daniel, Benemérita Universidad Autónoma de Puebla
Asesor: Mg. Kellys Nallith Salcedo Hurtado, Tecnológico de Antioquia Institución Universitaria

DETERMINACIÓN DE ESCHERICHIA COLI EN MUESTRAS IN SITU DE AGUA LLUVIA POR FILTRACIÓN DE MEMBRANA Y ANÁLISIS MICROBIOLÓGICOS Y PARÁMETROS FISICOQUÍMICOS, EN MEDELLÍN ANTIOQUÍA.


DETERMINACIÓN DE ESCHERICHIA COLI EN MUESTRAS IN SITU DE AGUA LLUVIA POR FILTRACIÓN DE MEMBRANA Y ANÁLISIS MICROBIOLÓGICOS Y PARÁMETROS FISICOQUÍMICOS, EN MEDELLÍN ANTIOQUÍA.

Ramírez Páez Daniel, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Kellys Nallith Salcedo Hurtado, Tecnológico de Antioquia Institución Universitaria



PLANTEAMIENTO DEL PROBLEMA

El estudio del agua lluvia es de suma importancia ya que, al conocer tanto sus beneficios y perjuicios, se tomarán medidas para desarrollar planes sustentables de vida; Siguiendo las normas oficiales, métodos y técnicas, estándares y forma de trabajo responsable. 



METODOLOGÍA

Se trabajó en las instalaciones del Tecnológico de Antioquia, cuya dirección es CL 78B #72 A-220, Altamira, Medellín, Antioquia. Para la determinación de parámetros fisicoquímicos de agua lluvia se utilizó recipientes de plástico transparente tipo Jarra de capacidad de 500 ml, y para el estudio microbiológico se utilizó tubos Falcón de 50 ml, se ubicaron en 2 puntos distales: Primer punto en la parte externa de los barandales paralelos al acceso del Laboratorio 201 del Laboratorio de Suelos y Aguas del bloque 1, con coordenadas 6.279732879773905, -75.58317255700159, en este punto se colocó una jarra y su duplicado previamente en una etiqueta se escribieron los siguientes datos: Código de la muestra, fecha y hora de colocación. El segundo punto en la parte externa de los barandales de la terraza del bloque 2, sus coordenadas 6.279616903760986, -75.58280442381442, de igual manera se colocó la jarra y su duplicado con sus etiquetas con los datos: Código muestra, fechas y hora de colocación. El motivo de la localización de estos puntos fue pensado estratégicamente ya que son lugares sin interferencia de construcción escolar ni áreas verdes. Para el estudio fisicoquímico se utilizó el multiparámetro Müller 900 y Turbidímetro Hach 2100N IS método ISO 7027. Para el análisis de los parámetros fisicoquímicos se basó en el estándar método APHA 2012 tales como: Temperatura (°C), pH, Conductividad (RmV), REDOX (mV), Turbidez (NTU), Sólidos Totales Disueltos (mg/L). También se registró los siguientes datos generales: Ubicación, Fecha, Código de la muestra y Volumen Colectado.


CONCLUSIONES

ÍNDICE DE RIESGO DE LA CALIDAD DEL AGUA PARA CONSUMO HUMANO - IRCA Para el cálculo del IRCA se asignará un puntaje de riesgo contemplado a cada característica física, química y microbiológica, por no cumplimiento de los Valores aceptables establecidos en la resolución 2115.  Los datos obtenidos de nuestro experimento se ven reflejados en una gran concentración de contaminantes que hace imposible para el consumo humano. El pH de las muestras y sus triplicados se acercan al rango permitido por la norma 2115. También se concluyó lo siguiente: 1.- Existe la contaminación fecal: E. coli es una señal de contaminación fecal. 2.- Existe un inminente riesgo a la salud de los que consumen el agua lluvia sin previo tratamiento: Personas con sistemas inmunológicos débiles o personas socioeconómicamente vulnerables. 3. Tratamiento necesario: El agua de lluvia contaminada de E. coli requiere tratamiento adecuado antes de su uso para consumo humano, riego o recreación. 4. Fuente (s) de contaminación: La existencia de E. coli en el agua lluvia puede ser una consecuencia de un sistema de alcantarillado defectuoso, un tiradero de aguas residuales o actividades humanas irregulares. 
Ramirez Perez Saul Elias, Instituto Politécnico Nacional
Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional

ANáLISIS DE DEFORMACIóN DE VEHíCULOS SINIESTRADOS MEDIANTE PROYECCIóN DE LUZ


ANáLISIS DE DEFORMACIóN DE VEHíCULOS SINIESTRADOS MEDIANTE PROYECCIóN DE LUZ

Flores Díaz Fernando, Universidad de Sonora. Ramirez Perez Saul Elias, Instituto Politécnico Nacional. Zepeda Osornio Victor Gael, Universidad La Salle Bajío. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La digitalización 3D es una herramienta de utilidad en la industria para la evaluación y reconstrucción de daños estructurales. Esta tecnología permite obtener una reconstrucción precisa de la estructura de un vehículo, identificando deformaciones y daños post-impacto con un gran detalle. Actualmente en México y en muchos otros países, se encuentra un gran interés para mejorar esta tecnología. Esto motivado principalmente por el alto costo de los métodos cotidianos de evaluación de daños vehiculares. La limitada disponibilidad de tecnología genera un desafío para los fabricantes de automóviles, talleres de reparación y empresas de seguros. Asimismo es importante destacar la capacidad de evaluar y reparar daños de manera precisa y eficiente para mejorar la seguridad vial y reducir los costos referentes con los daños vehiculares. Este proyecto de investigación, fue llevado a cabo con la finalidad de adaptar la tecnología de digitalización 3D para hacerla más accesible y económica, facilitando su uso en un mercado más amplio. Principalmente la intención del proyecto es ofrecer una herramienta accesible que promueva una mejor evaluación y reconstrucción de accidentes, mejorando la seguridad vial y reduciendo los costos asociados con los daños vehiculares.



METODOLOGÍA

Para llevar a cabo este proyecto, se siguió una metodología estructurada que incluyó las siguientes etapas: Selección del Modelo: Se eligió un modelo de carro de juguete para la digitalización debido a su facilidad de manipulación y costo reducido. Se utilizaron dos carros, el primero de referencia y al segundo se le hicieron deformaciones, simulando siniestros. Este modelo permitió realizar escenarios de impacto y generar mediciones precisas para poder evaluar la precisión de la digitalización 3D en un entorno controlado. Digitalización 3D: Se utilizó la técnica de proyección de franjas, que implica proyectar patrones de luz sobre la superficie de los modelos vehiculares y capturar las deformaciones en el patrón proyectado con un proyector Epson W39 utilizando una cámara web Logitech C310. Esta técnica es conocida por su capacidad para capturar detalles finos y generar datos precisos con rapidez de forma eficiente. En este caso, se generan nubes de puntos con aproximadamente 3.6 millones de puntos por modelo, proporcionando una representación detallada de la superficie del vehículo. Comparación de Modelos: Se realizó la digitalización de ambos modelos con el carro de referencia y el deformado con siniestros. Las reconstrucciones obtenidas de ambos modelos se compararon utilizando MATLAB, permitiendo identificar y cuantificar los daños y deformaciones en la estructura del vehículo. Este análisis permitió evaluar la efectividad de la técnica de proyección de franjas para la identificación de daños post-impacto. Análisis de Datos: Se realizaron análisis detallados de las nubes de puntos utilizando MATLAB. Este análisis incluyó la identificación de áreas de deformación. Los resultados del análisis permitieron validar y demostrar su capacidad para generar reconstrucciones precisas de daños vehiculares.


CONCLUSIONES

Durante la estancia del verano de investigación del programa Delfín en el CITEDI-IPN. Se adquirieron conocimientos teóricos y prácticos sobre la digitalización 3D. La técnica de proyección de franjas es una herramienta eficaz para la evaluación de daños vehiculares, proporcionando reconstrucciones detalladas y precisas. La implementación de esta tecnología a un modelo más accesible y económico es un gran resultado. El desarrollo de una herramienta para fabricantes de automóviles, talleres de reparación y empresas de seguros mejorará la evaluación y reparación de daños vehiculares, promoviendo la tecnología de digitalización 3D. De esta manera, se puede procesar la evaluación de un vehículo siniestrado y hacer más precisos los presupuestos de costos de reparación. En resumen, este proyecto ha demostrado la viabilidad de adaptar tecnologías avanzadas para un uso más amplio, también ha usado las bases para el campo de la digitalización 3D en la industria automotriz. Adicionalmente, el proyecto facilita la detección de fallas estructurales potenciales. Esto significa que, además de realizar pruebas en vehículos siniestrados, se podría evaluar de manera rutinaria y a bajo costo cualquier vehículo para identificar fallas potenciales antes de que ocurran. Así, este proyecto podría contribuir a la mejora de la seguridad vial y a la reducción de los costos asociados con la reparación de daños vehiculares cuando estos ya han ocurrido.
Ramirez Ramirez America Vanesa, Instituto Tecnológico de Colima
Asesor: M.C. María del Carmen Chacón Olivares, Instituto Tecnológico Superior de Irapuato

MEDICIóN DE LA EFICACIA DE LA PRODUCTIVIDAD EN EL SECTOR DE TRANSPORTE


MEDICIóN DE LA EFICACIA DE LA PRODUCTIVIDAD EN EL SECTOR DE TRANSPORTE

Cravioto Hernandez Alexander Ivan, Instituto Tecnológico Superior de Ciudad Hidalgo. Ramirez Ramirez America Vanesa, Instituto Tecnológico de Colima. Asesor: M.C. María del Carmen Chacón Olivares, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Este proyecto se hizo en conjunto con una em presa de transporte de mercancías. Muchas organizaciones de transporte de cargas disponen de un extenso parque de vehículos, necesarios para satisfacer las demandas de transportación de cargas de diversa naturaleza. En México el transporte de carga terrestre  es una pieza clave esencial del sistema. En el ámbito económico nacional, se lleva a cabo la trasferencia de materias primas, productos e insumos que permiten el correcto funcionamiento de otros sectores económicos nacionales. En la organización con la que se trabajo AX Logistics se ha detectado un consumo excesivo de diésel en las operaciones diarias de los vehículos. Se origino esta inquietud al comparar el consumo de diésel con otros operadores con lo que se trabajó, quienes demostraron un uso significativamente menor del combustible. Esta confusión plantea posibles deficiencias en el manejo del combustible por parte del personal interno, lo cual podría suponer costos elevados e innecesarios.



METODOLOGÍA

Este proyecto de investigación , se enfoco en proporcionar estrategias prácticas en pruebas verificadas en el incremento de la eficacia del consumo de diésel en operaciones de transporte. Abordando temas técnicos, operacionales y de gestión, centrándose principalmente hacia los gerentes de flotas, operadores de transporte y personal de administración.  Por ende, la metodología empleada fue básicamente una investigación de campo pues tuvimos que reunir los datos necesarios que nos ayudaron a complementar la investigación. De igual manera se hizo una investigación descriptiva al momento de explicar los datos recopilados para tener un mejor entendimiento del problema y un mejor desarrollo del trabajo. Y por último fue una investigación aplicada pues se establecieron diversos KPIs para tener una buena implementación de tecnologías avanzadas, criterios de calidad y estrategias de mantenimiento preventivo.


CONCLUSIONES

Con la presente investigación que se hizo y con los datos que se recopilaron de la empresa AX Logistics, la cual se dedica al transporte de mercancías y en donde se ha detectado que en los últimos mese ha habido un consumo excesivo de diésel en las operaciones diarias de  los vehículos, llegamos a la conclusión de que esta situación sugiere que existen deficiencias operativas dentro de la organización, lo cual llega a generar un impacto negativo en la rentabilidad de la empresa.  Por ello establecer indicadores clave de desempeño (KPIs) para medir la eficiencia en el consumo de combustible y los tiempos de espera y tránsito de las unidades de transporte es esencial para optimizar las operaciones logísticas de la empresa, puesto que pueden proporcionar métricas cuantificables que permitirán una evaluación objetiva y continua del rendimiento, facilitando de esta manera la identificación de las áreas de mejora y la implementación de estrategias más efectivas. Es así que con este proyecto se prevé aportar a la comunidad empresarial de la industria del transporte, una herramienta para una administración más eficiente de la actividad del negocio, con el propósito de obtener una rentabilidad más elevada.
Ramírez Ramos Geovanni de Jesús, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato

BúSQUEDA Y ASEGURAMIENTO DE VULNERABILIDADES (HARDENING) EN RED LAN, PARA SERVIDORES Y CLIENTES (WINDOWS Y LINUX), CON EL USO DE LA METODOLOGíA DE PTES


BúSQUEDA Y ASEGURAMIENTO DE VULNERABILIDADES (HARDENING) EN RED LAN, PARA SERVIDORES Y CLIENTES (WINDOWS Y LINUX), CON EL USO DE LA METODOLOGíA DE PTES

Hernández Murillo José Alejandro, Instituto Tecnológico Superior de Guanajuato. Pérez Rivera Fernando, Instituto Tecnológico Superior de Guanajuato. Ramírez Ramos Geovanni de Jesús, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El uso intensivo de la tecnología, donde todo está conectado a través de la vasta red que es Internet, conlleva a un aumento en los peligros cibernéticos. Por esta razón, es crucial desarrollar esquemas que analicen diferentes escenarios para mitigar o reducir las amenazas que puedan afectar el funcionamiento óptimo de una red empresarial o institucional. Gracias a esta conectividad, se pueden ofrecer servicios como transferencia de archivos, envío de correos electrónicos, mensajería, videollamadas y llamadas IP, entre otros. En este contexto, la implementación del hardening permite crear estrategias y herramientas tecnológicas para mejorar la seguridad de los servidores y proteger la infraestructura tecnológica de la institución. Además, facilita el análisis y la evaluación de la situación actual en términos de vulnerabilidades y buenas prácticas de seguridad para servidores y clientes Windows-Linux. La justificación de este enfoque se basa en los siguientes aspectos de hardening: 1.Hardening del servidor Se centra en implementar medidas de seguridad de los datos a través de protocolos aplicados a nivel de hardware, software y firmware. 2.Hardening de la red Busca identificar y corregir las vulnerabilidades de seguridad que pueden presentarse en los canales y sistemas de comunicación entre servidores, así como en la configuración de los dispositivos. 3.Hardening de las aplicaciones Se enfoca en la protección de las aplicaciones instaladas en el servidor, asegurando que estén adecuadamente configuradas y actualizadas para prevenir posibles ataques. 4.Hardening del sistema operativo Implica la actualización regular del sistema, la identificación y aplicación oportuna de parches para fallas de seguridad, y la eliminación de controladores no deseados.



METODOLOGÍA

La metodología utilizada a lo largo de todo el proyecto de investigación fue la PTES, la cual significa Penetration Testing Execution Standard y la cual consiste en un marco de trabajo diseñado para llevar a cabo pruebas de penetración, también conocidas como ethical hacking, con el objetivo de evaluar la seguridad de sistemas, redes y aplicaciones. PTES está diseñado para ser utilizado por profesionales de la seguridad y de las pruebas de penetración, ofreciendo una metodología clara y organizada para la ejecución de proyectos de seguridad. El marco de trabajo PTES se compone de siete fases, que son: 1.Pre-ataque En esta fase se lleva a cabo la planificación del proyecto de pruebas de penetración, se define el alcance y se establecen los objetivos. Esta etapa es crucial para asegurar que todas las partes involucradas entiendan las expectativas y los límites del proyecto. 2.Recolección de información Se recopila información detallada sobre el objetivo de la prueba de penetración, incluyendo sistemas, redes y aplicaciones, para identificar posibles vulnerabilidades. Esta fase implica el uso de diversas técnicas de reconocimiento y herramientas de escaneo para construir un perfil completo del objetivo. 3.Detección de vulnerabilidades En esta fase se realiza una exploración exhaustiva de los sistemas y aplicaciones para descubrir vulnerabilidades y debilidades. Esto incluye la utilización de herramientas automatizadas y manuales para identificar fallos de seguridad que podrían ser explotados. 4.Explotación Se llevan a cabo intentos de explotación de las vulnerabilidades identificadas en la fase anterior para evaluar la efectividad y precisión de los ataques. Esta etapa permite verificar si las vulnerabilidades pueden ser aprovechadas por un atacante real. 5.Post-explotación Inmediatamente después de explotar una vulnerabilidad, se realiza un análisis de las consecuencias y/o daños causados, buscando obtener el mayor provecho posible de los cambios realizados en el sistema. Esta fase incluye la evaluación de los accesos obtenidos y la identificación de información sensible comprometida. 6.Generación de informes Se prepara un informe completo que documenta los hallazgos, vulnerabilidades y debilidades descubiertas durante el proceso de pruebas de penetración. El informe debe incluir recomendaciones detalladas para mitigar las vulnerabilidades identificadas y mejorar la seguridad general del sistema. 7.Limpieza En esta fase final, se eliminan todas las huellas del ataque y se restaura el sistema a su estado anterior, asegurándose de que no queden rastros de las actividades de prueba de penetración. Este paso es esencial para mantener la integridad del sistema y evitar interrupciones en su funcionamiento normal.


CONCLUSIONES

El proyecto de hardening llevado a cabo con el uso de Kali Linux y firewalls de pfSense ha permitido identificar y mitigar múltiples vulnerabilidades en la infraestructura de una red LAN, que comprende tanto servidores y clientes Windows como Linux. A través de un enfoque sistemático y la implementación de una variedad de técnicas de ataque, se han podido evaluar las debilidades en servicios como Correo, FTP, DNS, Telefonía y Web. Los principales logros alcanzados en este proyecto incluyen la identificación de vulnerabilidades, mitigación de amenazas y mejora de la seguridad. En cuanto a la identificación de vulnerabilidades, se logró detectar varias mediante el uso de herramientas especializadas como CamPhish, Bettercap, Wireshark, Hydra, Zphisher, Social Engineering Toolkit y John the Ripper. Estas herramientas permitieron una evaluación detallada y exhaustiva de los puntos débiles en la infraestructura de red, facilitando una comprensión profunda de las posibles amenazas. En lo que respecta a la mitigación de amenazas, una vez identificadas las vulnerabilidades, se implementaron políticas de seguridad robustas en el firewall pfSense. Estas políticas incluyeron reglas de acceso más estrictas, monitoreo continuo y medidas preventivas que lograron una significativa reducción en la exposición a posibles ataques. Esta fase del proyecto fue crucial para asegurar que las debilidades identificadas no pudieran ser explotadas por actores malintencionados.
Ramírez Reyna Aylin Isabel, Instituto Tecnológico de Acapulco
Asesor: Dra. María Mercedes Sinisterra Díaz, Universidad Libre

EL IMPACTO DE LAS TECNOLOGÍAS EMERGENTES EN EL DESARROLLO DEL EMPRENDIMIENTO EN LA INDUSTRIA TURÍSTICA DE ACAPULCO DE JUÁREZ, GUERRERO.


EL IMPACTO DE LAS TECNOLOGÍAS EMERGENTES EN EL DESARROLLO DEL EMPRENDIMIENTO EN LA INDUSTRIA TURÍSTICA DE ACAPULCO DE JUÁREZ, GUERRERO.

Manzanarez Mejía Stephanie, Instituto Tecnológico de Acapulco. Ramírez Reyna Aylin Isabel, Instituto Tecnológico de Acapulco. Asesor: Dra. María Mercedes Sinisterra Díaz, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

Acapulco de Juárez, Guerrero es una ciudad costera de México, conocida por sus playas, vida nocturna y rica historia cultural. Ha sido históricamente uno de los destinos turísticos más importantes del país, atrayendo a millones de nacionales y extranjeros. Sin embargo, durante las últimas dos décadas, la industria turística local experimentó cambios significativos influenciados por la tecnología (Yee, 2023). Entre el periodo 2000-2024, es objeto de investigación sobre el rápido desarrollo tecnológico y la mayor integración en el sector turístico. La adopción de tecnologías emergentes se ha vuelto esencial para el desarrollo y sostenibilidad de los negocios turísticos. La ciudad, con una población diversa y en crecimiento, depende en gran medida del turismo como motor económico. En general, el impacto de la tecnología sobre el emprendimiento en Acapulco incluye la infraestructura de la ciudad en cuanto a tecnología, el acceso a oportunidades de formación en TIC para los locales, así como también la capacidad de las empresas para absorber nuevas tecnologías y conocimientos. Es de reconocer que la infraestructura tecnológica ha mejorado, con un mayor acceso a internet de alta velocidad y la disponibilidad de servicios digitales. No obstante, persisten desafíos significativos, como la brecha digital, la necesidad de mejorar la ciberseguridad y la competencia con grandes plataformas tecnológicas internacionales (Rivero, 2023). El gobierno local y varias organizaciones han puesto en marcha programas y políticas para impulsar el uso de tecnologías en el turismo, brindando incentivos y apoyo a los emprendedores. A pesar de estos esfuerzos, muchos negocios aún se encuentran con obstáculos para adoptar plenamente estas tecnologías



METODOLOGÍA

Esta investigación se realizará utilizando un método cuantitativo, lo cual permitirá obtener una visión general sobre cómo las nuevas tecnologías están impactando el desarrollo de los emprendimientos en Acapulco. Se optó por un enfoque explicativo o causal, con el objetivo de descubrir e identificar las causas de la brecha significativa en la implementación y aprovechamiento de tecnologías emergentes por parte de los emprendedores de Acapulco. Para recopilar datos, se aplicará un cuestionario diseñado para reflejar el criterio de los encuestados en relación al impacto de la tecnología en el desarrollo del emprendimiento en la industria turística de Acapulco. En la ciudad hay 36,545 unidades de negocio, de las cuales el 98% son MIPYMES. Se calculó una muestra representativa de 380 emprendimientos. El cuestionario constará de 10 preguntas de opción múltiple, permitiendo recopilar datos valiosos para analizar cómo las tecnologías emergentes están afectando tanto la experiencia del turista como la operación y gestión de los negocios turísticos en Acapulco.


CONCLUSIONES

El estudio de investigación pone de manifiesto que el sector turístico en Acapulco está progresando gradualmente en la adopción de tecnologías emergentes, lo cual es un indicativo positivo del dinamismo y la capacidad de adaptación de las empresas turísticas locales. Sin embargo, este avance no está exento de desafíos significativos que requieren una atención cuidadosa y un abordaje estratégico por parte de todos los actores involucrados en la industria.  Entre los principales obstáculos identificados se encuentran la falta de personal suficientemente capacitado en el uso y aprovechamiento de estas tecnologías emergentes, así como los altos costos de implementación que suponen una barrera considerable, especialmente para las pequeñas y medianas empresas (PYMES) del sector. Estas barreras limitan la capacidad de estas empresas para adoptar nuevas herramientas y prácticas que podrían mejorar significativamente su competitividad y la calidad de los servicios ofrecidos a los turistas. Este panorama sugiere que, para que las empresas turísticas de Acapulco puedan maximizar los beneficios asociados con la incorporación de tecnologías emergentes, es fundamental que enfoquen sus esfuerzos en la capacitación continua de su personal. La inversión en la formación y actualización de las habilidades tecnológicas de los trabajadores no solo facilitará la integración de nuevas tecnologías, sino que también contribuirá a mejorar la experiencia del cliente, lo que a su vez podría traducirse en un mayor éxito comercial. Además, las empresas deben desarrollar soluciones estratégicas que les permitan superar los desafíos económicos y logísticos de la implementación tecnológica, optimizando recursos y explorando oportunidades de colaboración que puedan reducir costos y facilitar el acceso a las innovaciones tecnológicas. 
Ramírez Silva Milton, Universidad Tecnológica de Nayarit
Asesor: Mtro. Héctor Alejandro Galvez López, Universidad de Guadalajara

ANáLISIS DE DATOS DE DISPOSITIVOS IOT PARA LA DETECCIóN Y MEJORA DE LA CALIDAD DEL AIRE EN ESPACIOS CERRADOS.


ANáLISIS DE DATOS DE DISPOSITIVOS IOT PARA LA DETECCIóN Y MEJORA DE LA CALIDAD DEL AIRE EN ESPACIOS CERRADOS.

Quintero Lopez Oscar Eduardo, Universidad Tecnológica de Nayarit. Ramírez Silva Milton, Universidad Tecnológica de Nayarit. Asesor: Mtro. Héctor Alejandro Galvez López, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La calidad del aire en espacios cerrados es crucial para la salud y bienestar de las personas, ya que la presencia de contaminantes y una ventilación deficiente pueden causar graves problemas de salud. Los dispositivos IoT permiten una monitorización continua y en tiempo real de la calidad del aire, pero la falta de análisis adecuado de estos datos impide una rápida detección de problemas y la toma de medidas correctivas. Este estudio busca desarrollar un sistema de análisis de datos de IoT utilizando técnicas de Machine Learning para identificar patrones de contaminación y proporcionar recomendaciones basadas en datos, mejorando así la calidad del aire interior y reduciendo los riesgos para la salud.  



METODOLOGÍA

Requisitos: Áreas de oportunidad: Identificar problemas y áreas de oportunidad. Problemática: Definir claramente la problemática. Objetivos: Establecer los objetivos del estudio. Diseño: Estructura del protocolo: Diseñar la estructura general del protocolo. Requerimientos del protocolo: Especificar recursos, tiempo y personal necesario. Estado del Arte y Antecedentes: Estado del arte: Revisar la literatura existente. Tabla comparativa de antecedentes: Crear una tabla con estudios previos relevantes. Búsqueda y Organización de Literatura: Tecnologías: Identificar tecnologías necesarias. Búsqueda de literatura: Buscar artículos y estudios relacionados. Organización de literatura: Organizar y filtrar la información relevante. Desarrollo del Marco Teórico: Marco teórico: Desarrollar el marco teórico basado en la literatura revisada. Redacción del Protocolo: Redacción del protocolo: Escribir el protocolo siguiendo la estructura y el marco teórico. Verificación (Revisión y Edición del Protocolo): Revisión y edición del protocolo: Revisar y editar para corregir errores y mejorar claridad. Implementación (Finalización del Protocolo): Finalización del protocolo: Asegurar que el protocolo esté listo para presentación. Revisión final: Realizar una última revisión para asegurar calidad y completitud.


CONCLUSIONES

En esta etapa inicial, hemos construido una base sólida para nuestro proyecto de análisis de datos de dispositivos IoT. La investigación exhaustiva, la comparación de plataformas, la organización detallada de la información y la elaboración de un protocolo bien estructurado nos han preparado para avanzar con confianza en nuestra meta de mejorar la calidad del aire en espacios cerrados utilizando tecnologías IoT. Esperamos culminar exitosamente la creación del protocolo para la calidad del aire. Hasta ahora, todas las actividades se han llevado a cabo satisfactoriamente, lo que nos da una perspectiva positiva para los próximos pasos del proyecto.  
Ramirez Vargas Dalia Patricia, Universidad Autónoma de Occidente
Asesor: Dr. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente

SOPORT V.1.0.


SOPORT V.1.0.

Ramirez Vargas Dalia Patricia, Universidad Autónoma de Occidente. Asesor: Dr. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

SOPORT v.1.0. es un innovador sistema de rehabilitación asistida por robot, diseñado específicamente para pacientes que han sufrido un accidente cerebrovascular o lesiones en los brazos. Este dispositivo, controlado por Arduino, ofrece un soporte personalizado para el brazo afectado, permitiendo realizar ejercicios pasivos de manera segura, eficaz y cómoda.



METODOLOGÍA

METODOLOGÍA EXPERIMENTAL: En fisioterapia y rehabilitación, los electroestimuladores musculares se utilizan para una variedad de  propósitos, incluyendo:  Fortalecimiento muscular: pueden ser utilizados para fortalecer los músculos debilitados o lesionados. La estimulación eléctrica puede aumentar la fuerza muscular y ayudar a prevenir la atrofia en pacientes que no pueden realizar los ejercicios de fortalecimiento tradicionales.  Control del dolor: reduce el dolor en pacientes con dolor crónico, como el dolor de espalda y el dolor de cuello.   Electroestimulación: puede ayudar a reducir la  necesidad de medicamentos para el dolor y mejorar la calidad de vida de los pacientes.  Mejora de la circulación sanguínea: puede ser muy eficaz en pacientes con problemas de circulación sanguínea como la insuficiencia venosa crónica.  Rehabilitación neurológica: ayuda a mejorar la función muscular en pacientes con lesiones de la médula espinal, derrames cerebrales y otras lesiones del central. 


CONCLUSIONES

SOPORT v 1.0., cumplió con todos los objetivos que se plantearon al inicio del proyecto, el crear este proyecto desde cero nos llevo a aprender nuevas cosas en diferentes áreas como electrónica, robótica, terapia física que nos ayudara poder desarrollar este proyecto y que se cumplieran claramente las metas planteadas. El resultado es muy satisfactorio ya que será una herramienta de apoyo para la rehabilitación de las personas.  
Ramirez Vazquez Isaac, Instituto Tecnológico de Reynosa
Asesor: Dr. Gerardo Romero Galván, Universidad Autónoma de Tamaulipas

DISEñO DE SENSORES INTELIGENTES BASADOS EN OBSERVADORES


DISEñO DE SENSORES INTELIGENTES BASADOS EN OBSERVADORES

Ramirez Vazquez Isaac, Instituto Tecnológico de Reynosa. Asesor: Dr. Gerardo Romero Galván, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Las computadoras analógicas son dispositivos diseñados para manejar y procesar datos de forma continua. A diferencia de las computadoras digitales, que trabajan con datos discretos en forma de bits (0s y 1s), las computadoras analógicas operan con señales eléctricas que representan magnitudes físicas continuas. Los amplificadores operacionales (op-amps) son dispositivos electrónicos esenciales que han desempeñado un papel crucial en la evolución y el desempeño de las computadoras analógicas. Un amplificador operacional es un amplificador de alta ganancia con una entrada diferencial y generalmente una única salida. Los amplificadores operacionales revolucionaron las computadoras analógicas al proporcionar componentes versátiles y precisos para la construcción de circuitos analógicos. Su capacidad para realizar una variedad de operaciones matemáticas y su mejora continua en términos de precisión y estabilidad permitieron avances significativos en la simulación y el modelado de sistemas físicos complejos. El Quanser Aero es un equipo de laboratorio diseñado para la enseñanza y la investigación en el ámbito de la ingeniería de control, específicamente en el área de la dinámica y control de sistemas de vuelo. El Quanser Aero se programa utilizando MATLAB, todos los experimentos vienen listos para ejecución combinando Matlab y Simulink. La simulación para obtener los anglos de pitch y yaw se realiza en Matlab. En este verano de investigación se quiere realizar una computadora analógica que simule el modelo matemático del Quanser Aero usando amplificadores operacionales.



METODOLOGÍA

Se realizó investigación sobre que son las computadoras analógicas y su funcionamiento. También se investigó sobre que son los amplificadores operacionales y las diferentes maneras que se usan dependiendo de las entradas del amplificador operacional, ya sea inversor o no inversor. Se utilizaron amplificadores operacionales para la elaboración de la una computadora analógica que simulara el modelo matemático de un Quanser Aero de dos grados de libertad. Este modelo matemático tiene los datos en matrices, entonces lo convertimos en ecuaciones (xp=Ax+Bu y y=Cx+Du) para poder elaborar su bloque de funciones para poder visualizarlo mejor. Con esto podemos visualizar las ganancias, integrales y las sumas que se realizara para obtener la salida deseada. Este bloque de funciones nos sirvira para obtener pitch y yaw. Los amplificadores operacionales puedes ser utilizado de diversas maneras. Para amplificación de señales, comparadores, convertidores de señales, operaciones matemáticas y muchas más. Los amplificadores operacionales son componentes fundamentales en la electrónica moderna debido a su capacidad para realizar una amplia variedad de funciones con gran precisión y estabilidad, facilitando el diseño y la implementación de circuitos complejos en múltiples aplicaciones. Usando el bloque de funciones que realizamos mediante el modelo matemático del Quaser Aero podemos observar la manera que usaremos los amplificadores operacionales. Se utilizó multisim para poder crear dos circuitos parecidos para poder simularlo primero. Los op-amps se le alimentan dual +V y -V. En este caso, usaremos op-amps TL084 con una alimentación de +15 y -15 voltios. Para facilitar las operaciones usaremos los op-amps inversores, conectando todas sus entradas positivas a tierra. Para crear los circuitos que simulen el modelo matemático anterior usamos el sumador inversor que se ocuparan resistencias del mismo valor para tener una ganancia de 1 de cada entrada y se sumen las entradas. Para la multiplicación (ganancias) se usó el amplificador inversor usando resistencia con valores proporcional de la multiplicación que se requiere realizar. Por ejemplo, para multiplicar por 0.24 usamos una resistencia de 100k y otro de 24k. Para realizar la integración se usó una integración inversora usando un capacitor y una resistencia. Usando la simulación de los dos circuitos que hicimos en multisim, se hizo varias pruebas con diferentes voltajes de entrada para comparar los valores de las salidas con los valores de las salidas que nos dio en Matlab. Se obtuvo valores de salida muy parecidas a los que nos daba Matlab ya que no se podía encontrar las resistencias exactas para las multiplicaciones. Después se realizó el circuito en un protoboard con las resistencias, capacitores, amplificaciones operacionales y cables que usamos en multisim. Comprobamos las salidas que nos dio en el portaboard y se obtuvo valores de salida cercanos a las salidas de Matlab ya que, físicamente las resistencias tenían una tolerancia de 5%. Ya teniendo los dos circuitos hechos en portaboard, se usó el programa Fritzing para diseñar la placa de circuito impreso (PCB) para poder imprimirlo. Se colocó espacios para los componentes y conectamos los componentes.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre las computadoras analógicas, amplificadores operacionales y su funcionamiento. Los diferentes usos de los amplificadores operaciomnales como sumador de señales, amplificar un voltaje, operaciones matemáticas y muchos más usos que tiene. También aprendí como crear una mini computadora analógica usando los amplificadores operacionales para poder simular un modelo matemático de un Quaser Aero de dos grados de libertad para obtener su angulo de pitch y yaw. Se aprendio mas sobre el uso de los programas de multisim, Matlab y aprendí un nuevo programa llamado fritzing para elaborar PCBs. El Quanser Aero de 2 grados de libertad es una herramienta valiosa para la educación y la investigación en ingeniería de control. Permite a los usuarios explorar una amplia gama de conceptos y técnicas de control en un entorno seguro y controlado, facilitando la transición de la teoría a la práctica en el campo de la dinámica y el control de sistemas de vuelo.
Ramirez Zambrano Elias Gerardo, Universidad de Guadalajara
Asesor: Dr. Johan Jair Estrada López, Universidad Autónoma de Yucatán

SOFTWARE LIBRE PARA EL DISEñO DE CIRCUITOS INTEGRADOS


SOFTWARE LIBRE PARA EL DISEñO DE CIRCUITOS INTEGRADOS

Ramirez Zambrano Elias Gerardo, Universidad de Guadalajara. Asesor: Dr. Johan Jair Estrada López, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

Los circuitos integrados (IC) son una parte fundamental en la mayoría de los dispositivos electrónicos de la actualidad, desde sensores hasta computadoras requieren de al menos un circuito integrado con diferentes niveles de complejidad. Sin embargo, el acceso a herramientas de diseño electrónico (EDA) para el diseño de circuitos integrados es limitado debido a su precio. El proceso de diseño de circuitos integrados suele ser de naturaleza propietaria y tiene pocas alternativas gratuitas y aún menos alternativas de código abierto. Debido a esto, las herramientas de software libre para el diseño de circuitos integrados se limitaron a ser utilizadas casi exclusivamente como recursos educativos más nunca en la industria.  También existe el problema de lo limitados que son los recursos educativos sobre el tema, esto tiene el efecto de que, incluso si sabe que existen herramientas gratuitas, es complicado para un estudiante o desarrollador sin experiencia conseguir estas herramientas, especialmente si no se tiene familiaridad con el inglés. Hacer estas herramientas más accesibles tendría un efecto positivo para los startups e incluso para las empresas con experiencia en el campo, que tendrían mayor acceso a estudiantes ya familiarizados con el diseño de circuitos integrados.



METODOLOGÍA

Al principio del verano se recaudó información sobre las bases del proceso de diseño de circuitos digitales, y sobre algunas de las herramientas de software libre que existen para el mismo, como pueden ser Magic, Xschem, Netgen, SKY130, Yosys, etc. También se buscaron diferentes formas y plataformas para instalar y utilizar dichas herramientas. Se decidió por utilizar dos plataformas principales para la instalación: Ubuntu Desktop en una máquina virtual. Ubuntu en la terminal de Windows Subsystem for Linux (WSL). Ubuntu Desktop se utilizó en la máquina virtual de HyperV, sin embargo se pueden usar otras opciones como VirtualBox. En cierto punto se utilizaron en menor medida otras distribuciones de Linux como CentOS 7 y LXLE Linux. Adicionalmente se utilizó Docker Desktop para instalar y utilizar dockers en WSL. En cuanto a los paquetes o herramientas de software que se instalaron fueron varios, entre ellos destacan IIC-OSIC-TOOLS, un contenedor con varias herramientas de software libre compilada por la Universidad Johannes Kepler; y el paquete de herramientas compilado por el Silicon Institute of Technology. En el proceso de instalación y verificación de las diferentes herramientas de software, se recaudó información sobre el proceso y problemas que se iban encontrando, todo esto con la intención de elaborar un manual de instalación para estas herramientas, y una lista de problemas que se pueden encontrar durante el proceso con soluciones que a mí me funcionaron. También se ha hecho una lista de las herramientas instaladas, tanto de forma manual como en paquetes, y de las plataformas utilizadas con sus ventajas y desventajas para poder realizar la comparativa de qué herramientas conviene utilizar en diferentes circunstancias.


CONCLUSIONES

Durante el verano aprendí a trabajar con varias distribuciones del sistema operativo Linux y la terminal de Linux para Windows, desde la instalación, hasta el uso cotidiano y depuración de las mismas distribuciones y las aplicaciones utilizadas. Además, logré familiarizarme con los conceptos básicos del diseño de circuitos digitales y algunas de las diferentes herramientas de software libre que hacen posible este proceso. El aprendizaje y el objetivo de crear un manual de uso e instalación para estas herramientas aún sigue en proceso.
Ramos Abel Andres, Universidad Politécnica de Sinaloa
Asesor: M.C. Alberto Morales Colado, Universidad Politécnica de Sinaloa

DESARROLLO DE MATERIAL DIDáCTICO.


DESARROLLO DE MATERIAL DIDáCTICO.

Avila Carrillo Jorge Armando, Universidad Politécnica de Sinaloa. Flores Reyes Benjamin, Universidad Politécnica de Sinaloa. Larez Nuñez Uziel Isaac, Universidad Politécnica de Sinaloa. Padilla Palencia Elba Noemi, Universidad Politécnica de Sinaloa. Ramos Abel Andres, Universidad Politécnica de Sinaloa. Asesor: M.C. Alberto Morales Colado, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En el mundo actual, las redes de comunicación son esenciales para conectar dispositivos y personas. Con el avance de la tecnología, la complejidad y las necesidades de infraestructura de red han aumentado, lo que requiere un conocimiento profundo de los equipos y las configuraciones necesarias para su funcionamiento eficiente. La demanda de redes confiables y seguras es mayor que nunca, y para satisfacer esta demanda, es fundamental que los profesionales estén bien preparados para enfrentar los desafíos tecnológicos actuales.



METODOLOGÍA

Objetivo 1: Establecer una base sólida de conocimientos sobre la configuración y uso de equipos de red. Durante las primeras semanas se probó el equipo físico, lo que permitió familiarizarse con su configuración y operación. Esta fase incluyó la identificación de las mejores prácticas y los desafíos comunes en la implementación de redes. Se exploraron diferentes modelos de routers y switches, aprendiendo sus características técnicas y cómo aprovecharlas al máximo en distintos entornos. Actividades de la semana 1: - Pruebas iniciales para configuración y reconocimiento de dispositivos. - Documentación de especificaciones técnicas y capacidades del hardware. Objetivo 2: Reforzar conocimientos prácticos mediante prácticas y laboratorios. En la segunda semana, se llevaron a cabo prácticas intensivas para reforzar los conocimientos adquiridos en clases y cursos. Estas prácticas, realizadas bajo la supervisión del profesor, aseguraron la correcta aplicación de los conceptos teóricos. Se emplearon simulaciones de situaciones reales para mejorar las habilidades de resolución de problemas y adaptación a distintos escenarios de red. Actividades de la semana 2: - Realización de prácticas supervisadas por nuestro asesor. - Aplicación de conceptos teóricos en situaciones prácticas. - Evaluación de resultados y ajuste de configuraciones. Objetivo 3: Crear material didáctico para el uso de equipos de red. Durante la tercera y cuarta semana, se centró en la creación de videos tutoriales sobre el uso y configuración de routers y switches. Estos materiales didácticos fueron diseñados para facilitar el aprendizaje y comprensión de las conexiones entre computadoras, switches y routers. Actividades de la semana 3: - Planificación de tutoriales. - Producción de videos sobre configuración de routers. Actividades de la semana 4: - Producción de videos sobre configuración de switches. - Explicación detallada de conexiones entre dispositivos de red. Objetivo 4: Implementar laboratorios avanzados que integren diversos equipos de red. Durante la quinta y sexta semana, se llevaron a cabo laboratorios que involucraron el uso de routers y switches. Se agregó un servidor de prueba en la nube para extender las prácticas y cubrir aspectos adicionales de configuración y administración de redes. Estos laboratorios permitieron a los estudiantes enfrentarse a situaciones complejas y desarrollar habilidades críticas para la gestión de redes modernas. Actividades de la semana 5: - Implementación de laboratorios con routers y switches. - Configuración de topologías de red complejas. - Análisis de rendimiento y resolución de problemas. Actividades de la semana 6: - Extensión de laboratorios con servidores en la nube. - Integración de servicios de red adicionales. - Evaluación de seguridad y eficiencia en las configuraciones de red. Objetivo 5: Realizar prácticas finales que integren todos los conocimientos adquiridos. En la séptima semana, se realizaron prácticas y laboratorios finales que abarcaban todos los temas vistos en las semanas anteriores, consolidando así los conocimientos adquiridos. Estas actividades finales fueron diseñadas para evaluar la capacidad de los estudiantes para aplicar de manera efectiva todos los conceptos aprendidos y resolver problemas complejos de red.   Actividades de la semana 7: - Realización de prácticas integradas y laboratorios finales. - Evaluación de habilidades y conocimientos adquiridos.


CONCLUSIONES

Resultados: Adicionalmente, el trabajo se centró en la creación de material didáctico utilizando Packet Tracer para simular configuraciones y escenarios de red complejos. Esto permitió un aprendizaje interactivo y práctico, facilitando la comprensión de conceptos teóricos aplicados a situaciones del mundo real. Packet Tracer fue una herramienta clave para simular diferentes topologías de red y evaluar el comportamiento de las configuraciones sin necesidad de equipo físico. Conclusiones: Durante el proyecto, se logró una comprensión profunda de la configuración y administración de redes de comunicación. La combinación de prácticas supervisadas, creación de material didáctico y laboratorios avanzados permitió a los estudiantes desarrollar habilidades prácticas esenciales. La integración de un servidor en la nube añadió una dimensión moderna a las prácticas, preparando a los estudiantes para desafíos del mundo real. El uso de Packet Tracer como herramienta de simulación fue fundamental para el éxito del proyecto, permitiendo a los estudiantes experimentar con configuraciones complejas en un entorno controlado. Este proyecto ha demostrado ser un éxito en la preparación de estudiantes para roles en el campo de las redes de comunicación, proporcionando una base sólida de conocimientos y habilidades prácticas necesarias para abordar los desafíos tecnológicos actuales.
Ramos Aguilera Dulce María, Universidad Autónoma de Zacatecas
Asesor: Dr. Jaime Sánchez Valente, Instituto Mexicano del Petróleo

SíNTESIS DE HIDROTALCITAS DE HIERRO Y OTROS METALES PARA SU CARACTERIZACIóN Y EVALUACIóN CATALíTICA PARA LA PRODUCCIóN DE HIDRóGENO VERDE.


SíNTESIS DE HIDROTALCITAS DE HIERRO Y OTROS METALES PARA SU CARACTERIZACIóN Y EVALUACIóN CATALíTICA PARA LA PRODUCCIóN DE HIDRóGENO VERDE.

Ramos Aguilera Dulce María, Universidad Autónoma de Zacatecas. Asesor: Dr. Jaime Sánchez Valente, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

La transición hacia fuentes de energía más sostenibles es una prioridad global, y la producción de hidrógeno verde es un componente clave en este esfuerzo. Las hidrotalcitas, materiales laminares con propiedades catalíticas, tienen el potencial de mejorar la eficiencia de la producción de hidrógeno a partir de CO₂ mediante la reacción "water gas shift". Este estudio se centra en la síntesis de hidrotalcitas de MgCuFe y MgNiFe mediante el mpetodo de coprecipitación, para su caracterización y la evaluación de su actividad catalítica para determinar su viabilidad en este proceso. El objetivo es identificar y desarrollar catalizadores que puedan hacer más eficiente y económicamente viable la producción de hidrógeno verde, contribuyendo a la reducción de emisiones de CO₂.  



METODOLOGÍA

1. Síntesis de Hidrotalcitas por coprecipitación a pH constante​ - Configuración del sistema de reacción, el cual comprende un reactor de vidrio con control de temperatura y de pH, así como un sistema de agitación magnético. - Determinar la cantidad de agua y de cada precursor metálico necesario para obtener las proporciones deseadas de cada elemento en las hidrotalcitas. - Preparación de las soluciones precursoras de cada metal con sus respectivos nitratos, así como la solución del agente precipitante. - Adición de los nitratos y la solución alcalina simultánramente, cuidando que el pH sea contante en todo el proceso. -Añejamiento de la muestra, mediante la agitación y el control de la temperatura durante 24 horas. 2. Post-Síntesis: Lavado y secado: - Filtrado del precipitado con un sistema de filtración al vacío. -Lavado del material con agua bidestilada. -Secado del material en una estufa a 100°C por 20-24 horas. - Trituración del material seco con un mortero y pistilo para la obtención de un polvo fino adecuado para la caracterización y evaluación catalítica. 3. Caracterización de Hidrotalcitas:    - Difracción de Rayos X (XRD): Determinar la estructura cristalina y fases presentes.    - Fluorescencia de Rayos X (XRF): Determinar la composición elemental del material de tipo hidrotalcita. 4. Análisis de Resultados:    - Evaluar la estructura y composición de los materiales, con el fin de comprobar que se han obtenido con la pureza y composición deseada.


CONCLUSIONES

Las hidrotalcitas de MgCuFe y MgNiFe fueron sintetizadas exitosamente mediante el método de coprecipitación a pH constante. Aunque los resultados de caracterización y actividad catalítica aún no se han recibido, la síntesis exitosa de estos materiales representa un paso significativo hacia la evaluación de su potencial en la reacción "water gas shift" para la producción de hidrógeno verde a partir de CO₂. La metodología establecida proporciona una base sólida para futuros estudios y caracterizaciones mediante técnicas como la difracción de rayos X (XRD) y la fluorescencia de rayos X (XRF), que permitirán evaluar las propiedades estructurales y composicionales de las hidrotalcitas. Estos estudios posteriores serán cruciales para determinar la viabilidad y eficiencia de MgCuFe y MgNiFe como catalizadores en procesos de producción de hidrógeno verde, contribuyendo así a la reducción de emisiones de CO₂ y al desarrollo de tecnologías energéticas más sostenibles. Además, a lo largo de este proyecto, se adquirieron valiosas habilidades prácticas y teóricas en técnicas de síntesis y caracterización de materiales. La experiencia permitió un aprendizaje profundo sobre la preparación de hidrotalcitas y el control preciso de las condiciones de síntesis, enriqueciendo el conocimiento y las competencias en el campo de la catálisis y la química de materiales, campos muy importantes para la Ingeniería Química.
Ramos Avalos Roberto, Universidad Tecnológica de Nayarit
Asesor: Mg. María Antonieta Clemente Velarde, Instituto Nacional de Formación Técnica Profesional - INFOTEP

HERRAMIENTAS PARA EL DESPLIEGUE DE SERVICIOS DE TRANSPORTE PÚBLICO CON MOVILIDAD INTELIGENTE VERDE EN EL DEPARTAMENTO DE LA GUAJIRA


HERRAMIENTAS PARA EL DESPLIEGUE DE SERVICIOS DE TRANSPORTE PÚBLICO CON MOVILIDAD INTELIGENTE VERDE EN EL DEPARTAMENTO DE LA GUAJIRA

Beas Hernández Luis Elias, Universidad Tecnológica de Nayarit. Cruz del Angel Alan, Instituto Tecnológico Superior de Huauchinango. Hermosillo Sandoval Edwin Gabriel, Universidad Tecnológica de Nayarit. Ramos Avalos Roberto, Universidad Tecnológica de Nayarit. Asesor: Mg. María Antonieta Clemente Velarde, Instituto Nacional de Formación Técnica Profesional - INFOTEP



PLANTEAMIENTO DEL PROBLEMA

Planteamiento El estudio se centra en la infraestructura para la innovación tecnológica en el Departamento de La Guajira y las tecnologías y herramientas de movilidad inteligente verde presentes en la infraestructura del transporte público de esta localidad. El objetivo principal es describir y analizar las características actuales de la infraestructura de transporte público en relación con las tecnologías de movilidad inteligente y sostenible. Se busca identificar las oportunidades y desafíos para la implementación de estas tecnologías en el contexto de La Guajira.



METODOLOGÍA

Metodología El estudio se enmarca en un diseño de investigación no experimental y transeccional descriptivo. Esto significa que no se manipularon las variables de estudio y que los datos fueron recolectados en un solo momento temporal. Se utilizó un enfoque de investigación de campo, recolectando datos directamente de la realidad, en este caso, de las Alcaldías Municipales y Secretarías de Movilidad del Departamento de La Guajira. La población de estudio incluyó a los directores de transporte público y a los Secretarios de Movilidad de los municipios seleccionados​


CONCLUSIONES

Conclusiones Infraestructura Tecnológica Actual: La investigación reveló que la infraestructura tecnológica actual del transporte público en La Guajira es limitada. Hay una falta de sistemas avanzados de gestión y monitoreo de flotas, lo que dificulta la eficiencia operativa y la implementación de tecnologías de movilidad inteligente. Potencial para la Innovación: A pesar de las limitaciones actuales, existe un potencial significativo para la adopción de tecnologías de movilidad inteligente en La Guajira. Las autoridades locales y los actores del sector pueden aprovechar las oportunidades de innovación tecnológica para mejorar la sostenibilidad y la eficiencia del transporte público, lo cual contribuiría al desarrollo regional y al bienestar de la población​
Ramos Balseiro Daniela Patricia, Fundación Universitaria Tecnológico Comfenalco
Asesor: M.C. Jose Luis Irazoqui Leyva, Universidad Autónoma de Occidente

PROPUESTA DE UN DISEñO DE AULA ERGONóMICA PARA NIVEL DE EDUCACIóN UNIVERSITARIA EN LA REGIóN NORTE DE LA VILLA AHOME,SINALOA,MEXICO.


PROPUESTA DE UN DISEñO DE AULA ERGONóMICA PARA NIVEL DE EDUCACIóN UNIVERSITARIA EN LA REGIóN NORTE DE LA VILLA AHOME,SINALOA,MEXICO.

Araujo Luquez Sherly Yanela, Universidad Simón Bolivar. Ramos Balseiro Daniela Patricia, Fundación Universitaria Tecnológico Comfenalco. Asesor: M.C. Jose Luis Irazoqui Leyva, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Se eligió desarrollar el proyecto de investigación en la Universidad Autónoma de Occidente, es notable que las butacas requieren mejorar su diseño, de tal modo que, a pesar de que, si existe infraestructura educativa, esta no cuenta con medidas especializadas que faciliten y proporcionen un rendimiento eficaz de las labores educativas pertinentes. debido a que abotan posturas inadecuadas  y molestias en  la salud, lo cual puede tener  como consecuencia fatiga musculoesqueleticas, asi mismo  afecta su atencion y rendimiento academico . Una vez realizada la toma de medidas a los salones o en patio de la máxima casa de estudios, se pudo observar que hay muchas limitantes dentro de cada una de la Universidad, el motivo se desconoce por cuestiones propias y privadas de cada una de ellas.  



METODOLOGÍA

Para la implementacion de este proyecto y obtener resultados verdaderos, se optó por realizar las siguientes metodologias e instrumentos necesarios para dar respuesta a nuestro proyecto. Se llevaron a cabo dos tipos de observaciones: La observación cuantitativa, en el cual lleva un registro sistemático de información, que aparece generalmente reflejada de forma numérica y que reflejan datos medibles, comprobables u objetivos a través de la observación. la observación directa es una técnica para recabar información en la que el observador se pone en contacto directo y personalmente con el objeto o fenómeno a observar. Se realizo un muestro probabilistico a 237 estudiantes de la Universidad autonoma del Occidente, ademas se realizaron las medidas  de la butaca actual; atravez de los instrumentos de medicion antropometro y  flexometro .    


CONCLUSIONES

Es ecensial que la universidades adopten las condiciones fisicas y ambientales  para asi  promover el bienestar  y la eficicia en el aprendizaje continuo, como: 1.- El aspecto ergonómico que más incide en las aulas universitarias es el malestar en la postura tanto de pie y estar sentado, en primer lugar, porque sus actividades requieren muchas veces estar de pie y en segundo lugar sentado, por lo tanto, la butaca o pupitre como el escritorio no están adaptados en cuanto a su altura y tamaño, el aspecto restante es el mobiliario debido a que su diseño y tamaño no se adaptan al desarrollo de la labor educativa. Para los estudiantes, el principal motivo de incomodidad es el mobiliario, principalmente el respaldo de la silla y sobre todo la dureza del material. 2. En menor medida, docentes y estudiantes consideran las condiciones ambientales de luz, ruido, temperatura y ventilación como un aspecto de la ergonomía que incide en su confort, pero cabe señalar que, entre estos, el ruido es el que incide; están al más alto nivel. Mientras que la temperatura es un aspecto que docentes y estudiantes no consideran a la hora de indicar si un aula es cómoda o incómoda.  3. La fatiga está relacionada con el nivel de malestar o dolor al final del día, los docentes encuentran que está relacionado con el dolor de piernas y garganta después de la escuela, mientras que para los estudiantes depende del malestar en los glúteos y el cuerpo. en menor medida en los muslos y la parte media de la espalda. 4. Las medidas del mobiliario del aula no están relacionadas con las medidas antropométricas de profesores y estudiantes, por lo tanto, se recomienda hacer algunos cambios.  
Ramos Barajas Christopher Alexander, Universidad Vizcaya de las Américas
Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia

HACIA UN FUTURO SOSTENIBLE: DISEñO Y EFICIENCIA ENERGéTICA EN ECOVIVIENDAS


HACIA UN FUTURO SOSTENIBLE: DISEñO Y EFICIENCIA ENERGéTICA EN ECOVIVIENDAS

Ramos Barajas Christopher Alexander, Universidad Vizcaya de las Américas. Rosales Solís Jesús, Universidad Veracruzana. Vilchiz Linares Vivian, Universidad Vizcaya de las Américas. Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la necesidad de soluciones habitacionales que sean ambientalmente sostenibles y eficientes energéticamente es imperativa. A pesar de los avances en tecnologías como los paneles solares y los sensores de movimiento para la automatización de iluminación, aún persisten desafíos significativos en su implementación práctica y efectiva en entornos residenciales. Estos desafíos incluyen la optimización de la integración de sistemas solares para maximizar la captación y almacenamiento de energía, así como la adecuada sincronización y control de dispositivos mediante tecnologías móviles conectadas por WiFi. Además, la adaptabilidad de estas tecnologías a diversas condiciones climáticas y geográficas es crucial para garantizar su funcionalidad y eficiencia a largo plazo. La falta de estudios detallados y prototipos bien desarrollados específicamente orientados a estas tecnologías en contextos residenciales limita su adopción generalizada y efectiva. Por lo tanto, es fundamental abordar estos desafíos mediante la investigación y desarrollo de soluciones prácticas que puedan ser implementadas de manera accesible y efectiva en viviendas sustentables del mundo real.



METODOLOGÍA

La creciente preocupación por el cambio climático y el agotamiento de los recursos naturales ha impulsado el desarrollo de viviendas sustentables. Estas viviendas no solo buscan minimizar el impacto ambiental, sino también mejorar la eficiencia energética y la calidad de vida de sus habitantes. En este marco teórico se abordarán los conceptos fundamentales de la sustentabilidad en la construcción, la integración de paneles solares y la automatización mediante sensores para la mejora de la seguridad y eficiencia. Concepto de Viviendas Sustentables Las viviendas sustentables se caracterizan por el uso eficiente de los recursos naturales y la reducción de emisiones contaminantes. Según la Organización de las Naciones Unidas (ONU), una vivienda sustentable debe considerar aspectos como la eficiencia energética, el uso de materiales ecológicos, la gestión adecuada del agua y la integración de tecnologías que mejoren la habitabilidad sin comprometer el entorno. Integración de Paneles Solares en Viviendas Los paneles solares son dispositivos que convierten la energía solar en electricidad. Esta tecnología es fundamental en las viviendas sustentables, ya que permite la generación de energía limpia y renovable. Funcionamiento de los Paneles Solares Los paneles solares están compuestos por células fotovoltaicas que transforman la luz solar en corriente eléctrica. Esta electricidad puede ser utilizada directamente en la vivienda o almacenada en baterías para su uso posterior. La instalación de paneles solares no solo reduce la dependencia de fuentes de energía fósiles, sino que también puede significar un ahorro económico a largo plazo. Automatización y Sensores en Viviendas Sustentables La automatización del hogar mediante sensores y dispositivos inteligentes mejora la eficiencia energética y la seguridad. En el caso específico de la maqueta desarrollada, se han integrado sensores de movimiento y una bocina para alertar sobre cualquier actividad inusual. Sensores de Movimiento Los sensores de movimiento son dispositivos que detectan la presencia de personas o animales en un área específica. Funcionan mediante la emisión de ondas (infrarrojas, ultrasónicas, etc.) y la detección de cambios en el entorno. Control de encendido y apagado de focos led La tarjeta SP8266 se conectará a la placa Arduino R3 para poder controlar las luces led, esto se podrá hacer por medio de un dispositivo móvil (teléfono celular) el cual por medio de la red inalámbrica se podrá controlar el encendido y apagado de las luces desde cualquier parte del mundo por medio de una aplicación vinculada que se llama Blynk loT.


CONCLUSIONES

    Como resultado del proyecto se obtiene un prototipo de casa inteligente sustentable, el cual es alimentada por medio de energía solar, esta energía se acumula en una pila que trae el mismo panel solar y el cual tiene su propio regulador de energía.      Se implementó un sensor de fotocelda la cual controla las tiras led de 12 volts. Este sensor funciona o activa cundo llaga la noche o se tapa el sensor y queda obscuro.     Al igual se llevó a la practica la conexión de dos sensores de movimiento, los cuales están conectados a un zumbador o alarma. Estos sensores se activan cuando una persona esta cerca de ellos y realiza cualquier movimiento.       Por último, se realizó la conexión de la tarjeta SP8266, la cual es una tarjeta que se vincula con red Wifi para poder controlar desde un dispositivo móvil el encendido y apagado del foco de luz fría. El proceso que se acaba de explicar se puede apreciar en la siguiente liga: https://youtube.com/shorts/thqx7LzH6l0?feature=share Como conclusión se obtiene que las viviendas sustentables representan una solución viable y necesaria frente a los desafíos ambientales actuales. La integración de paneles solares y los sensores de movimiento, no solo contribuye a la reducción del impacto ambiental, sino que también mejora la calidad de vida y la seguridad de los habitantes. Además, el control de dispositivos mediante un dispositivo móvil conectado a una red Wifi añade un nivel adicional de convivencia y eficiencia energética. Este sistema permite a los usuarios encender y apagar luces y alarmas desde cualquier ubicación incluso en cualquier parte del mundo donde se tenga acceso a alguna red Wifi, ofreciendo un manejo intuitivo y flexible de la iluminación en el hogar. El desarrollo y estudio de maquetas y prototipos son pasos esenciales para la implementación y optimización de estas tecnologías en la vida real, asegurando su funcionalidad y adaptabilidad a diferentes entornos residenciales. Video del prototipo: https://youtube.com/shorts/thqx7LzH6l0?feature=share Articulo realizado con el investigador: https://docs.google.com/document/d/1m1p-XtH_5jObLeWnPf9S5f4VjbnD_v_l/edit?usp=sharing&ouid=107585600411323756748&rtpof=true&sd=true
Ramos Blanco Xochitl Sarahi, Instituto Tecnológico de Iztapalapa II
Asesor: Dr. Marco Antonio Moreno Ibarra, Instituto Politécnico Nacional

EVALUACIóN DE LA ACCESIBILIDAD PEATONAL EN LA CIUDAD DE MéXICO UTILIZANDO SISTEMAS DE INFORMACIóN GEOGRáFICA (GIS)


EVALUACIóN DE LA ACCESIBILIDAD PEATONAL EN LA CIUDAD DE MéXICO UTILIZANDO SISTEMAS DE INFORMACIóN GEOGRáFICA (GIS)

Barrios Yáñez Angel Rodrigo, Instituto Tecnológico de Pachuca. Ramos Blanco Xochitl Sarahi, Instituto Tecnológico de Iztapalapa II. Asesor: Dr. Marco Antonio Moreno Ibarra, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las ciudades se enfrentan a la presión de adaptarse y gestionar de manera efectiva su crecimiento para asegurar la habitabilidad, la sostenibilidad y la equidad social. En respuesta a estas demandas, emerge el concepto de "walkability" o accesibilidad peatonal como una piedra angular en la planificación urbana. El término abarca la creación de entornos urbanos que promuevan desplazamientos seguros y cómodos para peatones, fomentando estilos de vida saludables y reduciendo la dependencia del transporte motorizado En este contexto, el uso de Sistemas de Información Geográfica (GIS) se presenta como una herramienta esencial para evaluar y mejorar la accesibilidad peatonal en ciudades densamente pobladas como la Ciudad de México debido a que facilitan la integración de datos geoespaciales, lo que permite una toma de decisiones informada en planificación urbana. En este trabajo se propone desarrollar y aplicar los métodos de análisis geoespacial, utilizando un GIS, para evaluar la accesibilidad peatonal y los aspectos que la inhiben, con el objetivo de mejorar la conectividad en diversas áreas de la alcaldía Cuauhtemoc.



METODOLOGÍA

La metodología de trabajo consisitió de las siguientes etapas: Planificación y Antecedentes, Diseño y Análisis Geoespacial, Construcción y Ejecución del GIS, Evaluación y Pruebas del GIS e Informe Final. A continuación se detalla lo realizado en cada etapa. Elaboración plan de trabajo, que consistió de la calendarización de actividades, definición de objetivos, justificación, antecedentes, metas e impactos esperados. Posteriormente se analizaron los antecedentes, y aspectos relacionados Diseño y Análisis Geoespacial. Se realizó la capacitación en análisis espacial usando QGIS. Se realizó la recolección y validación de Datos, que incluyó la identificación de fuentes de datos relevantes (mapas, bases de datos urbanas, encuestas). Adicionalmente, se definió la metodología para análisis espacial del Walkability. Es importante mencionar que como caso de estudio se propuso utilizar la aclaldía Cuahtémoc de la CDMX. Se desarrolló una propuesta de metodología para la evaluación de la accesibilidad peatonal. Construcción y Ejecución del GIS. Se realizó la construcción del GIS sobre la plataforma de QGIS. Evaluación y Pruebas del GIS. Se realizaron pruebas preliminares para evaluar la robustez y precisión de los datos y de la metodología. Se identificaron áreas de mejora y ajustes necesarios en el GIS. Lo cual consistió en ajustar parámetros de distancia, tamaños de celdas para el análisis, valores de las ponderacionsprobar con otras funciones, modificar las escalas de visualización y ajuste de rangos de los intervalos


CONCLUSIONES

Existen diversos factores sociales y urbanos, que influyen a la población en como se transportan día a día, uno de ellos es la accesibilidad peatonal. Se integró un conjunto de datos que es relevante para el análisis de la accesibilidad peatonal compuesto por datos provenientes de diversas fuentes. En donde nos aseguramos que los datos provenieran de fuentes actualizadas para un análisis más fiable. QGIS es una herramienta útil que nos permite integrar los diferentes tipos de datos necesarios para realizar un correcto análisis. Se desarrolló una medida para evaluar la accesibilidad peatonal, basada en análisis la densidad de variables geográficas de cinco clases, cada una con un criterios específico de ponderación para cuantificar la importancia de cada uno de ellos. Se desarrolló una medida complementaria, que permite cuantificar los efectos de variables restringen la accesibilidad peatonal, los cuales se denominaron con inhibidores. En este caso los siguientes aspectos: Accidentes viales, Robos, Lesiones, Homicidios, Discriminación, Acoso y Secuestros. Al aplicar las medidas desarrolladas sonbe la alcaldía Cuauhtémoc, se identificó cuales son las zonas con mayor índice de caminabilidad y cuales son las características con las que cuenta. Se identificaron cuáles son las zonas con mayores niveles de inseguridad en la área de estudio y como pueden afectar la accesibilidad. Se tiene la perspectiva de incrementar el alcance de este trabajo, ya que vemos su utilidad, por lo que posiblemente realicemos nuestros temas de tesis en esta dirección.
Ramos Campos Juan, Instituto Tecnológico de Colima
Asesor: Dr. Joel Salome Baylon, Universidad Tecnológica de Manzanillo

ALIMENTADOR INTELIGENTE PARA PECES


ALIMENTADOR INTELIGENTE PARA PECES

Ramos Campos Juan, Instituto Tecnológico de Colima. Rivera Buenrostro Antonio Isaias, Instituto Tecnológico de Colima. Asesor: Dr. Joel Salome Baylon, Universidad Tecnológica de Manzanillo



PLANTEAMIENTO DEL PROBLEMA

Actualmente, solo el 16% de los establecimientos pesqueros obtienen productos de manera acuícola, en comparación con el pescado obtenido del mar. Esto se debe a las dificultades para criar y controlar peces en cautiverio y los cuidados necesarios para su mantenimiento. El principal problema es la dificultad que enfrentan los acuicultores para monitorear y gestionar eficazmente los peces en cautiverio. Es crucial desarrollar un sistema que permita monitorear los peces de manera continua y eficiente, con capacidad de actuar de manera inteligente mediante diversos sensores. Se propone investigar el uso de tecnología para monitorear continuamente parámetros del agua y operar de forma autónoma. Los parámetros a medir incluyen la oxigenación, el pH, el ORP y la temperatura. Estos sistemas de control estabilizarán estos parámetros a niveles deseados, ya que niveles no óptimos causan estrés en los peces, problemas de alimentación y agresividad.



METODOLOGÍA

Las pruebas se realizaron en un ambiente controlado con Tilapias Rojas (Oreochromis mossambicus), monitoreadas gran parte del día. Uno de los objetivos es automatizar la limpieza de la pecera. Inicialmente, se consideró un sensor de turbidez, pero se descartó debido a errores de medición por la influencia de la luz y altos niveles de turbidez perjudiciales para los peces. Como alternativa, se implementó una bomba de agua biológica que recircula el agua, retirando sólidos y almacenándolos para uso como abono. Se evaluó el uso de diversos sensores para medir parámetros. El "Wi-Fi Pool Kit" de Atlas Scientific proporcionó circuitos y sondas para mediciones, modificado para mejor interpretación de datos. Primero, se midió y calibró el pH, crucial para la supervivencia de los peces, con un margen de error de ±0.2. También se calibró la temperatura por software, importante para mantener una temperatura estable para los peces. El sensor de ORP es relevante para la calidad del agua y se calibrará para mantener un espacio óptimo para los peces. El monitoreo de la oxigenación es crucial, y se investigó el uso del sensor "RDO BLUE" de tecnología láser, que requiere menos mantenimiento. Se controlará la bomba de oxigenación con un variador de frecuencias. Finalmente, se pretende automatizar la alimentación de los peces, considerando su cantidad y peso, basado en avances descritos por Tonachella et al. (2022), que permite estimar automáticamente la longitud y el peso de los peces en maricultura.


CONCLUSIONES

El desarrollo de un sistema automatizado para el monitoreo y gestión de peces en cautiverio representa un avance significativo en la acuicultura. A través de sensores y tecnologías disponibles, se estableció un sistema que mide parámetros cruciales como pH, temperatura, ORP y oxigenación, y automatiza la limpieza y alimentación de la pecera. El uso de la bomba de agua biológica para la limpieza continua y la integración del "Wi-Fi Pool Kit" de Atlas Scientific para la medición precisa de parámetros han demostrado ser soluciones efectivas. La automatización de la alimentación basada en el peso y cantidad de peces, respaldada por investigaciones previas, muestra el potencial de la tecnología en la acuicultura. La utilización del sensor "RDO BLUE" para el monitoreo de oxígeno resalta la importancia de la innovación en el manejo eficiente de recursos acuáticos. En resumen, este proyecto mejora la eficiencia y efectividad del monitoreo y gestión de peces en cautiverio, abriendo nuevas posibilidades para la aplicación de tecnologías avanzadas en la acuicultura. Con una implementación y mantenimiento adecuados, estos sistemas pueden contribuir significativamente a aumentar la producción acuícola de manera sostenible y responsable.
Ramos Martinez Axel Shalom, Universidad Autónoma del Estado de México
Asesor: Dr. Rafael García Moreno, Instituto Politécnico Nacional

PERSPECTIVAS FINANCIERAS Y POLíTICAS DE MOVILIDAD DE LA EMPRESA CFE


PERSPECTIVAS FINANCIERAS Y POLíTICAS DE MOVILIDAD DE LA EMPRESA CFE

Ramos Martinez Axel Shalom, Universidad Autónoma del Estado de México. Asesor: Dr. Rafael García Moreno, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En este trabajo de investigación se llevaron a cabo temas esenciales y de igual el análisis integral de las políticas de movilidad, así como las estrategias y reportes financiero de la Comisión Federal de Electricidad (CFE) en la Republica Mexicana. CFE es una empresa a nivel estatal responsable de la generación y distribución parcial de la energía eléctrica del país. Conforme la importancia como tal es crucial entender tanto las políticas internas de movilidad que contribuyen la misma, como sus practicas de finanza para evaluar su eficiencia operativa y financiera.



METODOLOGÍA

Parte de la política de movilidad dentro de la empresa CFE maneja los procedimientos y practicas generales que regulan la reubicación y rotación del personal, para analizar los mecanismos, formación y desarrollo profesional y así poder evaluar el impacto en la eficiencia operativa y satisfacción laboral para futuras actividades. En general termina siendo un estudio multidimensional, ya que examina el análisis de la relación entre las políticas de movilidad y la eficiencia operativa de CFE demuestra como una gestión efectiva puede mejorar la respuesta a la implementación de nuevos proyectos energéticos. De igual manera, el estudio hace énfasis en el impacto de estas políticas en el sector financiero de la empresa CFE que se enfocaron los reportes financieros del año 2019 al año 2023 (5 periodos en total), analizando e identificando la información de la misma, sus ingresos generales, costos, total de costos de operación, resultado de financiamiento general y neto, impuestos a la utilidad, utilidad pérdida neta del año, y resultados integrales del periodo comercial. Tomando en cuenta que el transporte es esencial para la logística y la distribución de materiales y equipos necesarios para la construcción y el mantenimiento de las instalaciones eléctricas, esto incluyendo el transporte de transformadores, cables, postes de luz y otros equipos con relación a las plantas de generación y redes de distribución. Se hizo énfasis acerca de la movilidad integrada de la secretaria de Movilidad de la Ciudad de México acerca de su estrategia integral para mejorar parte del transporte y la movilidad urbana, esta definición se puede fundamentar en poder proporcionar a la sociedad opciones diferentes, así como sostenibles y eficientes para desplazarse en la ciudad, reduciendo un porcentaje la dependencia del automóvil privado y fomentado el uso de medios de transporte un tanto convenientes para el medio ambiente. Uno de los principales puntos de la estrategia de movilidad es integrar los diferentes modos de transporte existentes en la actualidad bajo el régimen de tecnología conocida hasta el momento, así como sistemas de transporte compartido como bicicletas en un sistema coherente y eficiente.


CONCLUSIONES

En conclusion, la implementación de la movilidad integrada en la ciudad de México implica gran colaboración entre diferentes actores/autoridades, así como la participación total de la sociedad, teniendo en parte los reportes financieros de la Comisión Federal de Electricidad ya que, proporcionan una visión general y así detallada sobre la situación económica y operativa de la empresa, son clave para evaluar la salud financiera y su impacto en el sector energético nacional mexicano.
Ramos Medina Yahir, Instituto Tecnológico de Matamoros
Asesor: Mtra. Lisseth Rivera Aguirre, Instituto Tecnológico Superior de Xalapa

ANÁLISIS SIPOC DEL SECTOR AUTOMOTRIZ PARA LA OPTIMIZACIÓN DE PROCESOS CONFORME AL MAPEO DE FLUJO DE VALOR


ANÁLISIS SIPOC DEL SECTOR AUTOMOTRIZ PARA LA OPTIMIZACIÓN DE PROCESOS CONFORME AL MAPEO DE FLUJO DE VALOR

Ramos Medina Yahir, Instituto Tecnológico de Matamoros. Asesor: Mtra. Lisseth Rivera Aguirre, Instituto Tecnológico Superior de Xalapa



PLANTEAMIENTO DEL PROBLEMA

1.ANTECEDENTES DEL PROBLEMA En la actualidad en la industria automotriz existe un gran interés en la demanda de los clientes, por ejemplo, ellos demandan una entrega rápida, un servicio excelente y un producto económico con alta calidad. Para lograr esto es de suma importancia simplificar e integrar los procesos, así como las prácticas de gestión colaborativas y la integración del abastecimiento, fabricación y distribución de partes automotrices en la ciudad de Matamoros, Tamaulipas. 2.PLANTEAMIENTO DEL PROBLEMA Dentro de las principales problemáticas que existen en esta industria son la selección de proveedores, lo que sugiere que es un área con una mejora potencial en el desempeño operativo de las industrias y que es de vital importancia tomarlas en cuenta.  3.OBJETIVO DE LA INVESTIGACIÓN GENERAL Objetivo general Determinar estrategias aplicables a manufactureras del sector automotriz con base a la correlación del mapeo del flujo de valor y la herramienta SIPOC para la optimización de sus procesos claves. Objetivos específicos. Realizar el diagnóstico de condición de procesos claves de las manufactureras del sector automotriz con la herramienta SIPOC. Aplicar el mapeo de flujo de valor a empresa "Tipo" del sector automotriz. Correlacionar el resultado del mapeo de flujo de valor y el análisis SIPOC. Determinar estrategias de mejora para la optimización de los procesos. 4.HIPÓTESIS Implementar estrategias para trabajar con proveedores confiables puede reducir significativamente los costos operativos y los riesgos asociados con la cadena de suministro con lo que se optimizarán los procesos claves en las manufactureras del sector automotriz. 5.JUSTIFICACION En la actualidad, la evaluación y selección de proveedores es considerado como una función critica dentro de la cadena de suministro de una empresa debido a la compra de materia prima y componentes en el que se representa un gasto importante, por ejemplo, que los costos de la materia prima consumen el 40% al 60% de los costos de producción.



METODOLOGÍA

6.METODOLOGÍA Esta investigación tiene como propósito presentar una  propuesta de solución a la problemática que surge en las industrias manufactureras en la ciudad de Matamoros, Tamaulipas en lo que respecta a la eficiencia de sus procesos claves, para ello se realizó un levantamiento de datos en campo para conocer más sobre algunas de las empresas que actualmente radican en esta región. a) Entrevista informal Entrevista realizada al Ing. Industrial y NPI Jaime Martínez Santiago, de la empresa Fisher Dynamics de México S. de RL de CV. El siguiente muestra el instrumento de recolección de datos: https://forms.office.com/Pages/ResponsePage.aspx?id=DQSIkWdsW0yxEjajBLZtrQAAAAAAAAAAAAN__i3DQRFUN0lKVjc2WUk4MEhQTkM1RVRINk1GRjlVRy4u b) Aplicación del mapeo de flujo de valor a empresa ¨Tipo¨ del sector automotriz Se realizó  un VSM de la empresa de Fisher Dynamics, este mapeo está aplicado a un nuevo producto que se produce en esta empresa en el cual se identificaron las principales problemáticas que mayormente pueden suceder al momento de lanzar un nuevo producto al mercado en el sector automotriz.


CONCLUSIONES

7.      RESULTADOS Después del análisis de resultados se determinaron las siguientes estrategias aplicables a las manufactureras del sector automotriz con base a la correlación del mapeo del flujo de valor y la herramienta SIPOC para la optimización de sus procesos claves: Solicitar muestras de materiales/piezas y verificar certificados de calidad emitidos por instituciones reconocidas. Validar mediante Benchmarking que el proveedor tenga una reputación comprobada de cumplir con los plazos de entrega acordados. Verificar la capacidad que puede producir el proveedor para manejar las ordenes de los clientes. Realizar auditorías para así evaluar al proveedor que cumpla con los estándares de calidad y prácticas de trabajo. Asegurarse si el proveedor cumple con las regulaciones y normas industriales pertinentes del sector y del país. Implementar sistemas y herramientas de gestión de proveedores para así poder monitorear su desempeño y gestionar la relación de manera eficiente. Realizar un análisis en planta para evaluar la capacidad del proveedor para manejar pedidos de diferentes volúmenes. Realizar un análisis de costo-beneficio considerando no sólo el precio sino también las variables: calidad del material, la fiabilidad del proveedor y las condiciones de pago. Analizar las prácticas ambientales de los proveedores en lo relativo a la gestión de residuos, la utilización de recursos renovables, la eficiencia energética y la reducción de emisiones de carbono. Validar el compromiso  con la mitigación del impacto ambiental de la empresa proveedora a través de certificaciones como ISO 14001 o informes de sostenibilidad que detallan sus esfuerzos y logros en esta área. Evaluar la responsabilidad social corporativa de los proveedores en términos de sus prácticas laborales, derechos humanos y contribuciones a la comunidad. Evaluar la capacidad de los proveedores para innovar y adaptarse a cambios en el mercado. 8.      CONCLUSIÓN El objetivo de este proyecto de investigación fue determinar estrategias aplicables a manufactureras del sector automotriz con base a la correlación del mapeo del flujo de valor y la herramienta SIPOC para la optimización de sus procesos claves y esté se cumplió con éxito. Este proyecto fue desarrollado en el marco del Programa Interinstitucional para el Fortalecimiento de la Investigación y el Posgrado del Pacifico (Programa Delfín), los resultados de nuestro estudio confirman la hipótesis inicial Implementar estrategias para trabajar con proveedores confiables puede reducir significativamente los costos operativos y los riesgos asociados con la cadena de suministro con lo que se optimizarán los procesos claves en las manufactureras del sector automotriz; sin embargo, es importante considerar las limitaciones de nuestro diseño de investigación y sugerir estudios adicionales para validar estos hallazgos en diferentes contextos y con muestras más amplias.
Ramos Ramon Paola Ionesy, Universidad Autónoma de Coahuila
Asesor: Dr. César Antonio González Díaz, Instituto Politécnico Nacional

APLICACIóN DE LA TéCNICA DE BIOIMPEDANCIA PARA DETERMINAR CAMBIOS CELULARES CONSISTENTES CON CITOTOXICIDAD


APLICACIóN DE LA TéCNICA DE BIOIMPEDANCIA PARA DETERMINAR CAMBIOS CELULARES CONSISTENTES CON CITOTOXICIDAD

García Evangelista José Manuel, Universidad Autónoma de Baja California. Ramos Ramon Paola Ionesy, Universidad Autónoma de Coahuila. Asesor: Dr. César Antonio González Díaz, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La Bioimpedancia es una metodología emergente que por su accesibilidad y rapidez es susceptible de ofrecer resultados confiables en corto plazo, puede aplicarse en sistemas vivos, por ejemplo, células cultivadas in vitro. En un cultivo celular la bioimpedancia puede variar al presentar cambios que alteran las membranas celulares, dado que éstas bicapas lipídicas regulan la entrada y salida de sustancias al interior de las células. Al aplicar experimentalmente una toxina formadora de poros, ésta desestabiliza la integridad de la membrana, la célula ¨perfora¨ múltiples veces, pierde su potencial de membrana y el contenido celular tiende a igualarse con el exterior.  En el presente estudio se explora el método de Bioimpedancia para distinguir alteración celular, consistente con autofagia, inducida por tratamientos sobre la línea celular Vero (células epiteliales de riñón de mono). con concentraciones diferentes de la toxina formadora de poros de Vibrio cholerae (Vibrio cholerae cytolysin o VCC, por sus siglas en inglés) Los resultados experimentales sugieren que mediciones de bioimpedancia presentan factibilidad técnica para seguir diferentes niveles de lesiones celulares dependientes de la concentración de VCC.  Se probaron dos botellas (control negativo y concentración VCC a 160 ng/mL) con el propósito de variar los efectos citotóxicos conforme avanza el tiempo de incubación, apareciendo a tiempos cortos vacuolización, es decir autofagia (que conducen a procesos de reparación) pero conforme avanza el tiempo de incubación se espera obtener más lesiones inmanejables para la célula, que marcará a apoptosis. Si el tratamiento continúa sobre la célula en breve presentará lisis necrótica.



METODOLOGÍA

Para el presente estudio, se hizo uso de células Vero propagadas por métodos estándar en medio DMEM suplementado al 10% con suero fetal bovino (SFB). Las células Vero son una línea celular correspondiente a células epiteliales de riñón de mono verde africano. Se crecen las células Vero en 2 botellas de 5 cm2 hasta alcanzar una población de 5x106 células. Al alcanzar confluencia de cultivo de al menos 90% una de las botellas (botella #1) se mantiene con medio DMEM 2% de SFB sin tratamiento, para fungir como control (control negativo). Con la botella #2 se induce citotoxicidad adicionando la toxina en la botella de cultivo celular, en una concentración de 160 ng/mL de toxina VCC en medio DMEM 2% de SFB. Ambas botellas se incubaron por una duración de 2h. Al término de la incubación se realiza la foto-documentación a un aumento de 40X (Figura x) en el Microscopio invertido "NIKON" Mod. Diaphot-TMD para observar vacuolización. A continuación, las células se obtuvieron mecánicamente por despegamiento mediante el uso de un gendarme y se lavaron, para enseguida someter las células a mediciones por triplicado de EBIS en un medidor de impedancia comercial (ScioSpec, ISX-3, Alemania) con un ancho de banda de 100Hz hasta 10MHz.


CONCLUSIONES

Los cultivos celulares tratados con la VCC, muestran vacuolización en la foto-documentación, concordante con activación del mecanismo de autofagia, son evidencia de perforación membranal y de que la membrana citoplásmica experimenta pérdida de su integridad, debida a múltiples lesiones (perforaciones) causadas por los tratamientos con la toxina. Al someter las células a análisis de su bioimpedancia, las células vacuolizadas, mostraron clara tendencia a evidenciar pérdida de la integridad de la membrana citoplásmica dada una tendencia de los gráficos de las células en la botella control negativo a tener valores de magnitud de bioimpedancia mayores a los obtenidos para el gráfico de la botella con toxina VCC. Para estos últimos, se muestra vacuolización en la foto-documentación, concordante con activación del mecanismo de autofagia, indicativo de perforación membranal y de que la membrana citoplásmica experimenta pérdida de su integridad, es decir, pérdida de la función membranal en la que se pierde el potencial de membrana, ésto debido a múltiples lesiones (perforaciones) causadas por los tratamientos con la toxina. Los cambios anteriores contrastan con los resultados de bioimpedancia de las células sanas sin tratamiento, procedentes del control negativo, mismas que conservan su integridad normal. Los tratamientos con la toxina formadora de poros VCC inducen perforación de la membrana citoplásmica, con pérdida de su potencial, detectable mediante caída en los gráficos de bioimpedancia en el sistema; lo anterior en comparación con las células sin tratamiento, las cuales mantienen su integridad, detectable mediante las mediciones EBIS. Los tratamientos con la toxina VCC son capaces de inducir apoptosis, sin embargo, estudios más finos a concentraciones menores, estandarizando condiciones soportables para la célula, serían necesarios para establecer lo que parecería obvio, que los cambios en la bioimpedancia serían capaces de detectar alteraciones celulares congruentes con estas funciones de muerte celular.
Ramos Tejeda Felipe Emmanuel, Universidad Autónoma de Guerrero
Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

ESTACIóN METEOROLóGICA BASADA EN INTERNET DE LAS COSAS


ESTACIóN METEOROLóGICA BASADA EN INTERNET DE LAS COSAS

Ramos Tejeda Felipe Emmanuel, Universidad Autónoma de Guerrero. Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Muchas de nuestras tareas que realizamos diariamente se ven influenciadas por factores externos, por ejemplo, el clima. Al saber el estado del clima podemos tomar decisiones personales, tales como decidir la vestimenta para utilizar si hace frio, aplicarnos protector por si es un día soleado o simplemente tomar la decisión de llevar un paraguas por si sabemos que pueda llover. En el caso de la Agricultura también es necesaria saber el estado del clima y como este puede variar, pues es necesario para estar pendiente de los cultivos y actuar de forma informada. Es esencial conocer esta información pues para muchas personas es de utilidad. Para ello se pretende crear un dispositivo que integre sensores capaces de medir parámetros del ambiente, como la temperatura, humedad y presión atmosférica, para que con esta información podamos saber el estado del clima. Además de que el dispositivo pueda conectarse a internet para que de esta manera los datos del clima recolectados puedan ser visualizados o analizados. El proyecto terminado funcionara como una estación meteorológica basada en IOT que pueda conectarse a internet y que además muestre y realice mediciones de parámetros climáticos en un área determinada.



METODOLOGÍA

Para el desarrollo de mi proyecto en la estancia de investigación, realice lo siguiente:  1.- Investigación sobre las características y funcionamiento de los diferentes componentes de Hardware que integrarían el Dispositivo. Leer documentación relacionada y analizar artículos de internet con información relevante fue esencial para adquirir conocimiento y aplicarlo a mi proyecto. 2.-Investigacion sobre los recursos de Software a utilizar (Bibliotecas, IDE, Firmware, etc.), Para poder hacer la programación y hacer funcionar los componentes físicos de la estación meteorológica. 3.-Creacion de diversos Códigos de programación escritos en Python que contengan instrucciones para realizar las primeras pruebas en cada uno de los componentes y sensores de la estación Meteorológica.  4.-Realizar un cableado que conecte todos los componentes de manera física con una placa de Desarrollo Raspberry, la cual contiene los códigos para ejecutar las primeras mediciones y hacer pruebas de cada uno de los componentes.  5.- Analizar los resultados Obtenidos de cada uno de los sensores y el comportamiento de los demás componentes para realizar mejoras en el código y el cableado. 6.- Integrar todos los componentes y cablearlos de mara fisca para su comunicación con la placa RaspBerry. Además, crear un único código que controle todos estos módulos y mostrar los datos de los sensores en una pantalla. 7.-Conectar nuestro dispositivo a internet y que los datos recolectados por los sensores sean mandados a una DashBoart (ThingSpeak). 8.- Pruebas finales con el dispositivo físico integrando todos los componentes, logrando una conexión a internet y visualizando estos datos en ThingSpeak.  


CONCLUSIONES

Una estación meteorológica es un dispositivo que no ayuda a medir parámetros del clima. El proyecto que realice en mi estancia de investigación trato justamente de eso, desarrollar "Una Estación Meteorológica" basada en IOT. Requerí de aplicar mi conocimiento de hardware y software para su desarrollo. En todo momento recibí apoyo de mi maestro para solucionar los problemas que se me iban presentando durante la creación de la Estación meteorológica". Hasta cierto punto no me resulto muy complicado hacer este proyecto, fue un poco tardado pues desconocía varias cosas, entre ellas los sensores, los cuales nunca había utilizado. Recibí cursos que nutrieron y ampliaron mis capacidades en el área de la electrónica. Gracias a todo esto pude hacer funcionar de manera correcta mi proyecto. Pues el dispositivo puede medir de forma acertada parámetros climáticos como la humedad, temperatura y presión atmosférica. También puede conectarse a internet para compartir los datos de esas mediciones. Pues es una "Estación meteorológica basada en IOT", siendo su conexión a internet parte fundamental del proyecto. La creación de la "estación meteorológica" desarrollada por mí, fue un éxito. El dispositivo utiliza sensores que analizan de forma correcta el clima. Muestra la información en una pantalla y se conecta a internet. Aún quedan varios puntos a mejorar, como, por ejemplo: Autonomía energética en la estación meteorológica, ampliar su conectividad y ampliar su rango de monitoreo. Otro punto para trabajar en el futuro seria que los datos puedan ser analizados y que con estos se puedan hacer predicciones climáticas con Inteligencia artificial.  Fuera de esto la estación cumple con su propósito y logro funcionar en su totalidad.   
Ramos Vázquez Dariana Lucia, Universidad de Colima
Asesor: Dr. Antonio Gomez Roa, Universidad Autónoma de Baja California

DISEñO Y CONSTRUCCIóN DE SATéLITES Y COHETES EDUCATIVOS CANSAT


DISEñO Y CONSTRUCCIóN DE SATéLITES Y COHETES EDUCATIVOS CANSAT

Gala Cauich Carlos David, Universidad Autónoma de Yucatán. Ramirez Guzman Luis Dariel, Universidad Autónoma de Yucatán. Ramos Vázquez Dariana Lucia, Universidad de Colima. Rodríguez Gallardo Héctor Fernando, Universidad de Colima. Valencia López Rodrigo, Instituto Tecnológico de Morelia. Asesor: Dr. Antonio Gomez Roa, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Durante los últimos años, el desarrollo de proyectos espaciales ha tomado relevancia en el marco de las áreas de la ingeniería. Agencias espaciales y empresas privadas alrededor del mundo han podido aprovechar el constante avance tecnológico para desarrollar satélites y vehículos espaciales dentro de este boom espacial.  En México, la investigación y el desarrollo en las áreas de construcción de satélites y cohetes, tanto experimental como educativa han enfrentado muchos desafíos como la falta de recursos financieros, reformas constitucionales y recurso humano capacitado en los temas de la ingeniería espacial, lo cual deja a nuestro país rezagados a comparación de países emergentes.  Esta problemática puede ser minimizada de diferentes formas, ya sea con una nueva reforma espacial, el aumento del capital humano nacional al desarrollo espacial en México o con el apoyo del gobierno a través del financiamiento de proyectos de investigación en estas áreas. Por ello, este programa nos brinda la oportunidad de capacitarnos en temas de espaciales, además de trabajar con nuevas innovaciones para mejorar los lanzamientos de cohetes y diseños de satélites ya existentes. Por otro lado, para difundir las ciencias espaciales en nuestras localidades y continuar promoviendo el aumento de nuevos proyectos espaciales en el país.  Actualmente, en las competencias y lanzamientos de satélites CANSAT se realizan con drones, que llevan la carga útil a cierta altura. Se planteó la posibilidad de subir los satélites usando cohetes por lo que en el verano de investigación se estudió la posibilidad de utilizar diferentes cohetes para saber cuan viable son de esa manera.   Para esta investigación se propuso el lanzamiento de 3 diseños de cohetes construidos con materiales reciclables y económicos como una propuesta de transporte para llevar un diseño de pico satélite del tipo CanSat a cierta altura estipulada con el objetivo de recabar datos meteorológicos, de localización y orientación. 



METODOLOGÍA

Se planeó la construcción de 3 cohetes que usaran diferentes métodos de manufactura y un diseño de pico satélite CanSat para realizar una misión de análisis atmosférico y de localización en la Laguna Salada, Mexicali.Se inicio con el planteamiento de una placa de forma circular, de forma que se hacía un reto diferente el poder crear un diseño que cumpliera con los requerimientos necesarios para poder contener de manera correcta todos los componentes que se contendrían dentro del CanSat, para esto se crearon un total de 3 diseños experimentales con el software de diseño mecánico de SolidWorks, buscando con estos la mejor forma de acomodar los componentes, dando como resultado un diseño que podría contener todos los elementos seleccionados cumpliendo así con la misión inicial  la cual fue integrar de manera óptima los componentes del CanSat dentro del volumen de una lata de 355ml. Una vez teniendo los modelos 3D en el software se imprimieron todos estos por medio de una impresora 3D culminando así en su posterior ensamblaje. Previo a la construcción de los cohetes se realizaron diversos análisis de simulación en el software de simulación OpenRocket para modelar y simular el rendimiento de las diversas propuestas de cohetes a construir. Entre las variables analizadas estuvieron las dimensiones, geometría y peso a elegir del cono, fuselaje y aletas del cohete. La elección del motor a utilizar en particular también fue un factor clave a la hora de la simulación. Para los primeros 2 modelos diseñados y simulados se usaron tubos de cartón semigrueso en espiral como el fuselaje, las aletas de fueron cortadas a medida en madera y el cono utilizado una máquina de corte CNC Router.  El tercer cohete fue un diseño que utilizó materiales de fibra de vidrio en la mayor parte de su estructura. Las aletas, fuselaje, contenedor del motor y cono fueron hechos de rollos de tela de fibra de vidrio. Una vez armados los 3 cohetes, se instaló el sistema de recuperación a cada uno que consistió en una cuerda atada desde el fuselaje hasta el cono. Entre la cuerda de ató un paracaídas junto a un protector de paracaídas para la explosión de liberación. Finalmente, se instalaron los motores G-125 y G-80T para los primeros dos cohetes de cartón nombrados Loro 1 y Jaguar Zero y el motor I-175WS para el tercer cohete de fibra de vidrio nombrado Alebrije. El CanSat se decidió lanzar dentro de Loro 1, mientras que los demás serían lanzados vacíos para el día de lanzamiento. 


CONCLUSIONES

Para validar los diseños de cohetes y satélites se utilizó el campo de lanzamiento de COEHTES de la asociación TRIPOLI MEXICO ubicado en la Laguna Salada en el municipio de Mexicali en el estado de Baja California, para lanzar los 3 cohetes diseñados y construidos durante la estancia del verano de investigación del programa delfín   La misión tuvo 3 vuelos exitosos de los modelos Loro 1, Jaguar Zero y Alebrije los cuales lograron altitudes de 285 m, 355 m, 353 m respectivamente. Estos fueron recuperados en óptimas condiciones a excepción del modelo Alebrije que tuvo un impacto a tierra sin paracaidas. Con estos lanzamientos de cohete comprobamos que son una buena solucion como medio de expulsión de satélites tipo CanSat ademas que resulto rentable en relación al tiempo de elaboración, bajo costo y alto rendimiento.  El modelo CanSat representó un reto diseño innovador ya que la propuesta original se logró el objetivo de diseñar y construir un satélite con componentes de montaje superficial. Mismo que también detectamos un área que mejorar y reconsiderar para futuras misiones.  La misión y programa de investigación realizada durante el programa delfín fue una experiencia enriquecedora para aprender conceptos, técnicas y la logística de un proyecto espacial desde su planeación hasta su lanzamiento. Estos conocimientos serán bases firmes que nos permitirán formar parte de la comunidad de cohetería experimental de México desde nuestras localidades, promoviendo la ingeniería espacial en el país. 
Rangel Chávez Gael Mateo, Instituto Tecnológico de Morelia
Asesor: Mg. Rene Ramirez Fernandez, Corporación Universitaria Americana

APROVECHAMIENTO DEL BIOGáS GANADERO PARA LA GENERACIóN DE ENERGíA ELéCTRICA: UN ENFOQUE DE ENERGíAS RENOVABLES


APROVECHAMIENTO DEL BIOGáS GANADERO PARA LA GENERACIóN DE ENERGíA ELéCTRICA: UN ENFOQUE DE ENERGíAS RENOVABLES

Rangel Chávez Gael Mateo, Instituto Tecnológico de Morelia. Saldaña García Alejandro, Instituto Tecnológico de Morelia. Asesor: Mg. Rene Ramirez Fernandez, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

Las zonas rurales ganaderas enfrentan limitaciones significativas debido a la falta de acceso a electricidad fiable, afectando el desarrollo económico y la calidad de vida. Además, el manejo inadecuado de las heces del ganado contribuye a la emisión de gases de efecto invernadero, exacerbando el cambio climático. Este proyecto busca solucionar estos problemas proporcionando una fuente de energía renovable mediante el aprovechamiento del biogás producido por las heces del ganado para generar electricidad. Así, se reducirá la emisión de gases nocivos y se mejorará el acceso a la energía en comunidades rurales de forma accecible y preactica para su funcionamiento autonomo.



METODOLOGÍA

En la metodología del presente proyecto, se llevó a cabo una exhaustiva investigación de diversas fuentes académicas y técnicas para recopilar información relevante sobre el aprovechamiento y calidad del biogás. Esta fase inicial implicó una revisión bibliográfica de estudios previos, artículos científicos y normativas relacionadas con la producción y utilización del biogás, permitiendo obtener un marco teórico sólido. Posteriormente, se procedió a la elaboración de varios prototipos diseñados específicamente para optimizar el proceso productivo del biogás. Estos prototipos fueron desarrollados y probados en condiciones controladas para evaluar su eficacia en la mejora de la calidad del biogás. A su vez, se realizaron prototipos pensados como una alternativa sustentable en la generación de energía de fácil acceso y monitoreo, donde permitiera almacenar la energía generada con un sistema de conexión adecuado para el uso domestico dando una autonomía constante bajo condiciones específicas. Las pruebas incluyeron la simulación de los prototipos planteados para la eficiencia de conversión, la reducción de impurezas,.estructura del sistema para la generación, almacenamiento y uso de energía, así como la simulación de las conexiones tanto eléctricas como electrónicas de cada parte implicada. Los resultados obtenidos fueron analizados y comparados con los estándares internacionales para asegurar que el producto final cumpla con los requisitos necesarios para su aprovechamiento eficiente y seguro. Esta metodología combinó la investigación teórica con el desarrollo práctico, asegurando un enfoque integral y aplicado al proyecto productivo.


CONCLUSIONES

Este proyecto demuestra el potencial del biogás derivado de las heces de ganado como una fuente viable de energía renovable para la generación de electricidad en zonas rurales. Mediante la implementación de un sistema eficiente de filtrado y medición de la pureza del metano, se puede garantizar un combustible adecuado para los generadores eléctricos, proporcionando una solución sostenible y económica. Obteniendo además como una alternativa más dentro del uso de energía renovable en al provechamiento del biogás, implementando un sistema eléctrico basado en investigaciones documentales y simulaciones realizadas dentro del mismo proyecto garantizando así obtener resultados satisfactorios para nuestra problemática   La adopción de este enfoque no solo facilita el acceso a electricidad en áreas remotas, mejorando la calidad de vida y el desarrollo económico, sino que también contribuye significativamente a la reducción de emisiones de gases de efecto invernadero, mitigando el impacto ambiental del manejo inadecuado de residuos ganaderos. Este proyecto, por lo tanto, representa una integración exitosa de tecnologías limpias para la promoción de energías renovables y el manejo sostenible de desechos, ofreciendo un modelo replicable con los estándares internacionales para comunidades rurales alrededor del mundo. 
Rangel Cruz Citlally Monserrat, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Lilia Marcela Zaldumbide Carrillo, Instituto Tecnológico Superior de Guanajuato

INVESTIGACIóN, DISEñO Y CONSTRUCCIóN DE ROBOT PARA RESOLVER LABERINTOS


INVESTIGACIóN, DISEñO Y CONSTRUCCIóN DE ROBOT PARA RESOLVER LABERINTOS

Mendiola Mendoza Alan Mauricio, Instituto Tecnológico Superior de Guanajuato. Ortega Gómez Rodrigo Yael, Instituto Tecnológico Superior de Guanajuato. Ramirez Chávez Ari Emmanuel, Instituto Tecnológico Superior de Guanajuato. Rangel Cruz Citlally Monserrat, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Lilia Marcela Zaldumbide Carrillo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Un robot resolutor de laberintos es un proyecto interesante que combina inteligencia artificial, robótica y algoritmos de resolución de problemas. Título: Investigación, diseño y construcción de robot para resolver laberintos Objetivo: Diseñar y construir un robot capaz de navegar y resolver laberintos de manera autónoma utilizando algoritmos de búsqueda y sensores para detectar paredes y esquinas.



METODOLOGÍA

Requisitos: - Robot móvil con capacidad de movimiento en dos dimensiones (adelante, atrás, izquierda, derecha) - Sensores de detección de paredes y esquinas (infrarrojos, ultrasonidos, etc.) - Algoritmo de resolución de laberintos (Wall Follower, Depth-First Search, Breadth-First Search, etc.) - Programación del robot utilizando un lenguaje de programación adecuado (C++, Python, etc.) Funcionamiento básico: 1. El robot se coloca en la entrada del laberinto. 2. Utiliza sus sensores para detectar las paredes y esquinas del laberinto. 3. Se aplica el algoritmo de resolución de laberintos para determinar la ruta óptima hacia la salida. 4. Se desplaza según la ruta calculada, utilizando sus sensores para corregir su trayectoria si es necesario. 5. El robot llega a la salida del laberinto. Algoritmos de resolución de laberintos: - Wall Follower: el robot sigue la pared del laberinto hasta encontrar la salida. - Depth-First Search: el robot explora el laberinto de manera profunda, retrocediendo cuando llega a un callejón sin salida. - Breadth-First Search: el robot explora el laberinto de manera amplia, examinando todas las posibles rutas antes de elegir la siguiente dirección.


CONCLUSIONES

Consideraciones adicionales: - La complejidad del laberinto puede afectar la eficiencia del algoritmo de resolución. *Conclusión:* El desarrollo de un robot resolutor de laberintos será un proyecto prometedor que demostrará la capacidad de la inteligencia artificial y la robótica para resolver problemas complejos de navegación y búsqueda. El robot diseñado en este proyecto es capaz de navegar y resolver laberintos de manera autónoma, utilizando algoritmos de búsqueda y sensores para detectar paredes y esquinas. Los resultados esperados  demuestran que el robot será capaz de resolver laberintos de diferentes tamaños y complejidades. *Futuras mejoras:* - Implementar algoritmos de resolución más avanzados, como el algoritmo A* o el algoritmo de Dijkstra. - Mejorar la precisión de los sensores y la velocidad del robot. - Desarrollar un sistema de aprendizaje automático para que el robot pueda aprender de sus errores y mejorar su rendimiento con el tiempo.
Rangel García Luisa Fernanda, Instituto Tecnológico de Morelia
Asesor: Mg. Harold Enrique Cohen Padilla, Fundación Universitaria Tecnológico Comfenalco

TRABAJO ESTANDARIZADO: CLAVE PARA LA COMPETITIVIDAD DE LAS MIPYMES TEXTILES EN COLOMBIA


TRABAJO ESTANDARIZADO: CLAVE PARA LA COMPETITIVIDAD DE LAS MIPYMES TEXTILES EN COLOMBIA

Rangel García Luisa Fernanda, Instituto Tecnológico de Morelia. Asesor: Mg. Harold Enrique Cohen Padilla, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

La industria textil en Colombia es un pilar económico, representando el 9.4% del PIB industrial en 2022 y generando empleo para más de 600,000 personas (Ministerio de Comercio, 2023). Colombia ha logrado una posición significativa en la exportación de textiles, con participación en mercados como Estados Unidos, Ecuador y México. A pesar de estos logros, el sector enfrenta desafíos importantes debido a la competencia global, especialmente de grandes economías como China, que en 2022 dominó el mercado mundial de textiles. Esta competencia agresiva ha presionado considerablemente a los productores colombianos, especialmente a las micro, pequeñas y medianas empresas (MiPymes), que constituyen el 93% del tejido empresarial del sector (Ministerio de Comercio, 2023). Las MiPymes representan una porción esencial del sector textil en Colombia. Su capacidad para innovar y adaptarse es crucial para el crecimiento del sector. Sin embargo, necesitan estrategias para mantenerse competitivas. En este contexto, el trabajo estandarizado emerge como una herramienta clave. Este enfoque permite la implementación de procedimientos uniformes para mejorar la eficiencia, reducir desperdicios y mantener altos estándares de calidad.



METODOLOGÍA

Paso 1.Lo primero que realicé fue la definición de mi tema el cual fue Uso del trabajo estandarizado en las MiPymes de industria textil en Colombia para hacerlas más competitivas y la pregunta sería ¿Cómo hace el trabajo estandarizado más competitivas a las MiPymes colombianas?. Paso 2.En segundo lugar, ubiqué mis fuentes de información las cuales fueron Google Académico Y ScienceDirect. Paso 3.Elaboré una estrategia de búsqueda, la cual consistía en primero hacer una investigación preliminar de los conceptos por separado: trabajo estandarizado, Industria textil en Colombia y MiPymes en Colombia para tener un poco más de contexto. Después, ya busqué los conceptos juntos: trabajo estandarizado en MiPymes colombianas de Industria Textil. Paso 4.Seleccioné los estudios que fueran relevantes de entre 21,000 resultados que me arrojaba Google académico y ScienceDirect y que, si tuvieran que ver con la Industria Textil, y que por supuesto tuvieran buena calidad de la investigación. Paso 5.Extraje los datos más relevantes que me ayudaran a la redacción de mi artículo, en especial metodologías de como aplicaban el trabajo estandarizado y resultados. Paso 6.Realicé un análisis y síntesis de los datos que extraje para lograr combinar los resultados de los diferentes artículos. Paso 7.Elaboré mi informe ya con toda la información recabada que previamente ya había analizado y sintetizado. Paso 9.Revisé el informe y realicé correcciones.


CONCLUSIONES

Como se mencionó al principio del presente trabajo la industria textil en Colombia juega un papel crucial en la economía del país, no solo por su impacto en el empleo, sino también por su capacidad para fomentar el desarrollo económico en diversas regiones, por lo que hacerlas competitivas frente a la competencia global es sumamente impotante. Los estudios revisados destacan la importancia y los beneficios del trabajo estandarizado en el sector textil colombiano. Por ejemplo, en el estudio de Creaciones Valerin Tati Ltda., la estandarización de procesos permitió a la empresa superar problemas graves relacionados con la falta de documentación y control de calidad. La implementación de un sistema de documentación y la adaptación a la norma ISO 9001 resultaron en una mejora significativa en la eficiencia operativa. Esto no solo redujo los reprocesos y las pérdidas, sino que también mejoró la puntualidad en las entregas y aumentó la satisfacción del cliente, fortaleciendo la posición de la empresa en el mercado. De manera similar, el análisis en la empresa Stand Deportivo demostró que la estandarización de métodos y tiempos permitió identificar cuellos de botella en el proceso de producción y optimizar cada etapa. En el caso de la empresa FB, la estandarización de procesos resultó en un aumento del 61% en la capacidad de producción semanal, lo cual es un indicador claro de la efectividad de estas prácticas. La capacidad para reducir tiempos muertos y mejorar la utilización de recursos permitió a la empresa no solo recuperar la inversión en estandarización en un corto período, sino también aumentar sus utilidades y rentabilidad. Este tipo de mejoras también se observó en Industrias Sur EU, donde la estandarización de métodos y tiempos condujo a una integración más efectiva del personal y una mejora en la calidad del producto final, lo cual es crucial para mantener la competitividad en el mercado. Además, la propuesta realizada en Vital Ropa Deportiva E.U. evidenció que la documentación rigurosa de los procesos y la aplicación de herramientas para medir el desempeño son esenciales para maximizar la capacidad de producción y reducir costos. Estos resultados reflejan cómo la estandarización puede transformar significativamente la operación de las empresas textiles, no solo en términos de eficiencia y reducción de costos, sino también en la mejora de la calidad del producto y la satisfacción del cliente. En conclusión, la estandarización de procesos en la industria textil colombiana ofrece beneficios considerables, incluyendo una mayor eficiencia operativa, reducción de costos y mejora en la calidad del producto.
Rangel Guzmán Sergio Abraham, Instituto Tecnológico Superior de Irapuato
Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato

SISTEMA ELECTRONEUMáTICO PARA DOSIFICACIóN DE PRODUCTOS GRANULADOS Y EN POLVO


SISTEMA ELECTRONEUMáTICO PARA DOSIFICACIóN DE PRODUCTOS GRANULADOS Y EN POLVO

Rangel Guzmán Sergio Abraham, Instituto Tecnológico Superior de Irapuato. Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, se requieren procesos que ayuden a las industrias a ahorrar tiempo y costos, aplicando procesos de manera eficiente sin afectar su productividad. Algunas de las grandes empresas han optado por aplicar procesos para hacer más fácil la tarea de dosificar productos. Desafortunadamente, no es raro que se experimenten problemas de flujo en sus tolvas o silos. Experimentar un mal flujo en la tolva tiene consecuencias importantes para todo el proceso, ya que puede hacerlo más lento o incluso detener el proceso por completo. Los problemas de flujo en tolvas industriales son, por lo tanto, una de las principales preocupaciones de las empresas. El mal flujo puede tener múltiples causas, sin embargo, estas son las causas fundamentales de este problema que se encuentran con mayor frecuencia en la industria: Falta de precisión de la dosificación de productos. No contar con tiempos específicos para dosificar. Estos problemas tienen consecuencias como lo son la pérdida de tiempo o interrupción en el proceso productivo, así como la intervención del personal para poder concluir este proceso de manera manual, por lo que durante este verano de investigación se llevara a cabo el diseño de un sistema electroneumático de un dosificador por gravedad para productos granulados y en polvo.



METODOLOGÍA

El diseño del circuito para el sistema electroneumático se llevó a cabo en el simulador FluidSIM, el cual se ha desarrollado en varias etapas para comprobar el funcionamiento de este. Un sistema de control electroneumático funciona con dos agentes energéticos que son la energía neumática en la parte funcional y la energía eléctrica en la parte de control, a continuación, se explica el procedimiento realizado para llegar al circuito final con el que contará el sistema de dosificación para productos granulados y en polvo. ETAPA 1: CIRCUITO NEUMÁTICO. Al recibir una señal eléctrica, una válvula 5/2 cambiará de estado permitiendo así, el flujo del aire en una sola dirección para apertura o cierre del cilindro de doble efecto. ETAPA 2: CIRCUITO ELÉCTRICO CON CONTADOR DE CICLOS.   Para llevar el conteo preciso del número de ciclos de trabajo del dosificador se desarrolló la segunda etapa que constituye el diseño del circuito eléctrico que será la parte de control del circuito neumático.  ETAPA 3: CIRCUITO ELÉCTRICO CON TEMPORIZADOR. Para llevar el control del tiempo de apertura y cierre del sistema de dosificación, se desarrolló la tercera etapa que consta de un circuito con temporizador, en este circuito se tendrá el control de entrada y salida del vástago del cilindro de doble efecto, para ello se han sincronizado un par de relés con desaceleración de arranque con los detectores de posición.   ETAPA 4: CIRCUITO FINAL DEL SISTEMA DE DOSIFICACIÓN. Para la combinación de los circuitos se tomó como base el circuito con contador, integrando así los relés con desaceleración de arranque, se llevó a cabo la sincronización con los detectores de posición.  PRINCIPIO DE FUNCIONAMIENTO DEL CIRCUITO ELÉCTRICO CON CONTADOR DE CICLOS Y TEMPORIZADOR. Al presionar un interruptor se energizará el circuito permitiendo que un relé mande una señal a un obturador y este a un detector de posición lo que iniciará la cuenta regresiva en el relé con desaceleración de arranque, al finalizar, se enviará una señal a un obturador y se energizará un solenoide, con esto, la válvula 5/2 en el circuito neumático cambiará de posición dejando fluir el aire por el lado derecho lo que hará que el vástago del cilindro de doble efecto se retraiga, cuando el vástago llegue a la posición 0, se enviará una señal a un obturador, donde el contador de ciclos comenzará a detectar ciclos de trabajo y a la vez, se activará un relé con desaceleración de arranque iniciando la cuenta regresiva, al finalizar, se enviará una señal a un obturador para energizar otro solenoide, permitiendo así la salida del vástago del cilindro. Este ciclo se repetirá hasta que se complete el número de ciclos programados en el contador, finalmente, este enviará una señal a un franqueador para interrumpir el flujo eléctrico en el circuito y terminar el proceso. Para reiniciar el proceso, se presionará el pulsador que reiniciará el contador de ciclos y enviará una señal a un franqueador para energizar nuevamente el circuito eléctrico. Es así como se ha llegado al diseño del circuito electroneumático final el cual permitirá la dosificación precisa de productos granulados y en polvo.


CONCLUSIONES

La implementación de un sistema de automatización mediante electroneumática en el dosificador por gravedad para productos granulados y en polvo tiene ciertas ventajas respecto a otras técnicas de automatización.  La electroneumática combina la flexibilidad de la tecnología electrónica y fiabilidad de los sistemas neumáticos, lo que permite un control preciso y eficiente del dosificador. A diferencia de otros métodos de automatización, la electroneumática ofrece una precisión superior en la dosificación, lo cual es crucial para mantener la consistencia y calidad del producto final. La electroneumática no solo mejora la precisión y eficiencia del dosificador por gravedad, sino que también aporta beneficios significativos en términos de flexibilidad, control y costos, posicionándose como la mejor opción para la automatización de este tipo de procesos industriales.
Ranjel Gaytan Flor Alejandra, Instituto Tecnológico de Ciudad Juárez
Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara

DETECCIóN DE PROBLEMAS DE GESTIóN FINANCIERA Y DESARROLLO DE ESTRATEGIAS PARA REDUCIR LOS COSTOS Y GASTOS DE ENVIó EN LA EMPRESA ALIGN DE CIUDAD JUáREZ


DETECCIóN DE PROBLEMAS DE GESTIóN FINANCIERA Y DESARROLLO DE ESTRATEGIAS PARA REDUCIR LOS COSTOS Y GASTOS DE ENVIó EN LA EMPRESA ALIGN DE CIUDAD JUáREZ

Ranjel Gaytan Flor Alejandra, Instituto Tecnológico de Ciudad Juárez. Sifuentes Moreno Alejandra Janette, Instituto Tecnológico de Ciudad Juárez. Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las empresas manufactureras son la fuente principal de trabajo en Ciudad Juárez, en todas ellas existe la necesidad de optimizar los procesos y reducir desperdicios tanto de tiempo, costos y materiales, sin dejar de lado el ofrecer al cliente la mayor satisfacción de acuerdo a sus necesidades. Sin embargo, siempre existen restricciones en sus procesos y el poder identificarlos, es una ventaja que permite a cada empresa tomar mejores decisiones para su operación.        En ALING se generan costo y gastos fuertes al momento de los envíos, existen casos en los que los productos va a una misma dirección o a un mismo doctor, pero se envían con días de diferencia, es importante  detectar los problemas de gestión financiera que influyen para desarrollar estrategias que permitan reducir la problemática mediante una solución que mejore la logística del proceso e incrementar y  así reducir costos. ¿Cuáles son los principales problemas que causan los costos y gastos elevados en los envíos  que se generan en la empresa ALING? ¿Qué estrategias permiten disminuir los costos y gastos requeridos en los procesos de envió de la empresa ALING?



METODOLOGÍA

Para este trabajo se selecciona la mitología de investigación Holística que permite ubicar las diversas propuestas en un esquema coherente y aplicable a cualquier área del conocimiento (Carhuncho-Mendoza , 2019). Los siguientes pasos para realizar la investigación con éxito: primero aplicar los diez objetivos de la investigación, segundo  identificar los diez  tipos de investigación, tercero  entender los niveles de profundidad del conocimiento,  cuarto  realizar la espiral holística y quinto aplicar el ciclo holístico para la investigación en particular.   Etapa 1: Entendimiento de los diez objetivos de la metodología que son: explorar, describir, analizar, comparar explicar, predecir, proponer intervenir, confirmar y evaluar. Utilizando los conocimientos de producción y manufactura, administración de la calidad e industria y optimización.    Etapa 2: Identificar diez los tipos de investigación: exploratoria, descriptiva, analítica, comparativa, explicativa, predictiva, proyectiva, interactiva, confirmatoria y evaluativa    Etapa 3: Entender los niveles de conocimiento: perceptual, aprehensivo, comprensivo e integrativo.    Etapa  4: Diseñar la espiral holística de la investigación indicando los siguientes puntos: perceptual (describir y explorar), aprensivo (comparar y analizar), comprensivo (proponer, predecir y explicar) e integrativo (modificar, confirmar y evaluar).     Etapa 5: Aplicar el ciclo holístico formado por: explorar, describir, analizar, comparar, explicar, predecir, proyectar, interactuar, confirmar y evaluar.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos, para la realización de proyectos de investigación desde una idea, estructurar el planteamiento del problema, título, objetivos generales y particulares, justificación, hipótesis y diseño de la metodóloga de investigación para este trabajo es la metodología holística y principalmente como esto se puede aplicar a un tema de interés personal, académico y profesional. Fue una experiencia que enriqueció nuestros conocimientos y nos enseñó a desarrollar habilidades que contribuyeron a nuestro crecimiento personal. Además, al tener interacción con personas de otros lugares, aprendimos a conversar y compartir nuestros ideales para fortalecer y enriquecer nuestros conocimientos y alcances para nuestra investigación, después de todo los compañeros hasta de otros países pudieron aportar mejoras al proyecto y nosotros con ellos, al igual compañeros del mismo plantel pudimos emplear conocimientos que durante la carrera hemos aprendido. Esta estancia de verano no solo fue una etapa de aprendizaje, sino también una oportunidad para reflexionar sobre nuestras metas a futuro y sobre salir en cuanto a desarrollo académico y sobre todo invirtiendo tiempo y espacios para mejorar en nuestros proyectos.
Rascon Garcia Frida Paola, Instituto Tecnológico de Culiacán
Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)

ESTUDIO DE FUNCIONAMIENTO DE UN DRON


ESTUDIO DE FUNCIONAMIENTO DE UN DRON

Rascon Garcia Frida Paola, Instituto Tecnológico de Culiacán. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los drones representan un pequeño porcentaje de vehículos aéreos en la industria y en la sociedad, se restringe muchas veces a los usuarios a la compra comercial de drones. El proceso de armado y calibración de un dron presenta varios desafíos técnicos y prácticos que deben ser abordados para garantizar su correcto funcionamiento y seguridad. Los errores durante este proceso pueden llevar a fallos en el funcionamiento, reduciendo su vida útil y estabilidad.



METODOLOGÍA

Actividades realizadas Revisión de la literatura. Funcionamiento de un dron multirrotor.   Estudio del modelo dinámico de un dron. Simular un dron en la plataforma de Gazebo y ArduPilot. Realizar el armado y calibración de un dron. Aprender a programar un dron armado. Investigación e implementación de librerías Realizar una misión en un dron Para la revisión de la literatura se eligió un tema de investigación relacionado con los drones de los cuales se optó por Agricultura de precisión en la cual se enfocó en la detección de plagas en cultivos implementando visión y fumigación. Se buscaron artículos y conferencias cuyo enfoque ayudara al tema que se eligió, desde rutas de vuelos, implementación de sensores en cultivos, fertilización y fumigación de campos agrícolas y detección de plagas por muestreo, rutas y tipo de fertilización utilizada. El funcionamiento de los drones se comprende por el uso de 4 motores encargados del vuelo, dirección, altura, etc. El funcionamiento básico de un dron es que la fuerza aplicada a los motores supera la fuerza ejercida sobre el dron logrando que se eleve, los giros se realizan aumentado la fuerza en 2 motores respectivamente. El estudio del modelo dinámico del dron se observaron el control de altura en la plataforma de MATLAB SimuLink las simulaciones realizadas sobre el control del dron. Para realizar las simulaciones se requiere utilizar el sistema operativo de Linux para utilizar las aplicaciones, se realizó una partición en el disco duro y se instaló un nuevo sistema operativo, se instalaron las aplicaciones de ArduPilot y Gazebo, así como sus respectivas librerías para realizar la simulación del dron. Al realizar el armado del dron conocimos los componentes principales que se encuentran en un dron los cuales son motores, controladores, pila, buzzer, Pixhawk (encargado del control del dron), GPS, receptor, etc. Se realizaron las conexiones y se soldaron los controladores a la placa, así como la conexión para la pila. Después de terminar el dron se utilizó la aplicación Mission Planer para la calibración del dron y realizar pruebas en lo motores y comprobar su funcionamiento. Se investigo sobre los modos de vuelo (Alt Hold, Stabilize, lioter, etc) que se pueden implementar en nuestros drones. Después se realizó una investigación sobre las librerías implementadas en ArduPilot y ArduCopter, utilizadas para la programación en drones. Se utilizó la aplicación de Visual Code en Linux en la cual se agregaron las librerías de ArduPilot, así como toda la documentación requerida para realizar la conexión entre los archivos de los modos de vuelo. Finalmente, después la calibración se realizaron pruebas de vuelo en las que se encontraron fallas de motores por falta de potencia causando la perdida de una hélice, un controlador y un motor, se realizaron los cambios de componentes y se pudo realizar un vuelo de manera exitosa.


CONCLUSIONES

Se realizaron investigaciones sobre los temas de aplicación de los drones y se encontraron diferentes trabajos que puede realizar un dron además de las ya conocidas, se trabajo en el ensamble de un dron y se calibro para su vuelo de manera exitosa, además se trabajo con la documentación sobre el funcionamiento del controlador del dron. Resultados por obtener Se buscaría poder realizar una misión autónoma, implementar el uso del GPS para un mejor funcionamiento al tratar de usarlo con un modo de vuelo diferente.
Raudales Barragán Héctor Uriel, Universidad de Guadalajara
Asesor: M.C. Manuel Alejandro Lugo Villeda, Universidad Politécnica de Sinaloa

DISEñO, CONSTRUCCIóN Y CONTROL DE UN SISTEMA SIMULADOR UNDIMOTRIZ


DISEñO, CONSTRUCCIóN Y CONTROL DE UN SISTEMA SIMULADOR UNDIMOTRIZ

Oliva González César Michel, Instituto Tecnológico de Tepic. Raudales Barragán Héctor Uriel, Universidad de Guadalajara. Asesor: M.C. Manuel Alejandro Lugo Villeda, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La humanidad hoy en día está muy interesada en encontrar nuevas y mejores formas de generación de la energía, pues entre más eficiente sea, se vuelve más barata de producir, además de reducir continuamente las emisiones de gases de efecto invernadero que se ha vuelto un asunto de suma importancia para todos los habitantes del planeta. La energía undimotriz se refiere a la energía renovable generada a partir del movimiento de las olas del océano. Esta forma de energía aprovecha la energía cinética de las olas para convertirla en electricidad, utilizando dispositivos como boyas flotantes, columnas de agua oscilantes u otros dispositivos que capturan el movimiento que se aprecia entre las olas y una estructura fija. Además de no generar emisiones directas, la energía undimotriz tiene un impacto ambiental relativamente bajo en comparación con otras formas de energía renovable, lo cual es un asunto que es importante a tratar, para reducir el impacto en el ecosistema que crean las distintas maneras de crear electricidad limpia.



METODOLOGÍA

Se avanzó paralelamente en las dos áreas principales del proyecto, el diseño mecánico y el control del dispositivo. Para el área mecánica se realizaron los distintos bocetos del mecanismo. Se partió de un tornillo sin fin, el cual es la pieza principal que comunica el movimiento del motor con la veleta, para así poder generar el movimiento del agua y dar forma a las olas. Colocando piezas de sujeción para el motor, las bases superior e inferior de sostén al tornillo sin fin, guías y apoyos para guías de rodamientos que, directamente conectados a la tuerca rotativa del husillo que mantendrán equilibrado el movimiento lineal de la veleta y, por supuesto, el diseño de la veleta. Posteriormente se llevaron a cabo los diseños en el software SOLIDWORKS. Se planteó pieza por pieza para su manufactura y al finalizar, se hizo un ensamble con todas ellas para poder hacer también simulaciones del equipo con el movimiento relativo del husillo y así comprobar y analizar el comportamiento del dispositivo puesto en marcha en un fluido. Se realizaron también diseños para impresión 3D de una base primigenia para conocer las características del motor con ayuda de un elemento encoder, que, este mismo ayudará al control del motor en puesta en marcha. Además de la pieza encargada de la sujeción del encoder al equipo, el acomplamiento entre motor-husillo y la transmisión de movimiento desde dicho acoplamiento al encoder por medio de dos piñones y una banda. Se desarrolló un sistema de control para un motor de corriente directa (DC) de 24 volts, acompañado de un encoder de 1024 pulsos por revolución (PPR). El objetivo principal fue implementar un sistema unidimotriz de simulación de oleaje, utilizando una ESP32 y MicroPython para el control y monitoreo del motor. Para iniciar, se realizaron pruebas con la ESP32 y MicroPython para determinar los pulsos por segundo generados por el encoder. A partir de estos datos, se calcularon las frecuencias y la velocidad angular del motor. Adicionalmente, se registraron las corrientes de operación nominal y pico del motor, las cuales son: Corriente nominal: 2A Corriente pico: 3.6A Con esta información, se evaluaron distintos puentes H para seleccionar el más adecuado para nuestras necesidades. Finalmente, se determinó que el puente H BTS7960 era el más apropiado para el proyecto. Una vez seleccionado el puente H BTS7960, se estableció una comunicación entre la ESP32, el puente H y el encoder. Utilizando los datos recibidos del encoder, se implementó un control PID para el motor. El control PID se utilizó para ajustar la señal PWM, logrando así mantener la velocidad del motor dentro de los valores deseados. Para replicar el sistema de oleaje, además del control de velocidad del motor, se programó el recorrido que debía realizar el tornillo sin fin. Esto se logró controlando el puente H, permitiendo que el motor pudiera moverse en ambas direcciones según lo requerido.


CONCLUSIONES

Durante la estancia de verano se lograron obtener conocimientos en distintos tipos de software, como el caso del diseño en SOLIDWORKS, como otros destinados a la medición y simulación de equipos eléctricos para redes. Así también, se tuvo un enriquecimiento a los conocimientos en mercado energético y eficiencia energética por cursos impartidos por investigadores en apoyo a los estudiantes del programa Delfín. Se espera el aprovechamiento del dispositivo para poder analizar la energía producida por las olas dentro de las instalaciones de la universidad y apoyar a los alumnos de ingeniería en energía a desarrollar conocimientos de energía undimotriz directamente dentro de la escuela, así como también ambiciona la innovación de él y se pueda llevar a escalas mayores.
Raygoza Viera Lesly Celeste, Universidad Politécnica de Sinaloa
Asesor: M.C. Alberth Josue Sapiens Perez, Universidad Politécnica de Sinaloa

IMPLEMENTACIóN DE CONTROLADORES NEURONALES EN CARRO EVASOR DE OBSTáCULOS


IMPLEMENTACIóN DE CONTROLADORES NEURONALES EN CARRO EVASOR DE OBSTáCULOS

Garcia Olguin Brandon David, Universidad Politécnica de Sinaloa. Raygoza Viera Lesly Celeste, Universidad Politécnica de Sinaloa. Asesor: M.C. Alberth Josue Sapiens Perez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Este proyecto se enfoca en el desarrollo de un carro autónomo capaz de evadir obstáculos utilizando redes neuronales. El objetivo principal es diseñar un sistema de control que permita al carro detectar y evitar obstáculos en su camino de manera eficiente y precisa, mejorando así su capacidad para operar en entornos complejos y cambiantes.



METODOLOGÍA

Con respecto al sistema de percepción del carro, se utilizarán sensores de ultrasonido para obtener datos del entorno, además, los datos recogidos serán procesados para obtener información relevante sobre la posición y tamaño de los obstáculos. El carro se entrenará utilizando las redes neuronales creadas por el software MATLAB, utilizando técnicas de aprendizaje supervisado para enseñar al modelo a reconocer patrones en los datos y predecir las acciones necesarias para evitar los obstáculos.


CONCLUSIONES

En conclusión se requiere realizar pruebas adiciones en entornos más complejos y realistas para evaluar la robustez del sistema frente a situaciones imprevistas. Además, se continúa con el ajuste fino de la red neuronal y la mejora del sistema de percepción para reducir el tiempo de respuesta y aumentar la precisión en escenarios más dinámicos.
Rea Valencia Victor Jesus, Universidad Autónoma de Nayarit
Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana

ENSAMBLES DE MODELOS DE LENGUAJE PARA MEJORAR SU EFICIENCIA Y PRECISIóN


ENSAMBLES DE MODELOS DE LENGUAJE PARA MEJORAR SU EFICIENCIA Y PRECISIóN

Rea Valencia Victor Jesus, Universidad Autónoma de Nayarit. Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana



PLANTEAMIENTO DEL PROBLEMA

En el desarrollo de software moderno, la interacción con modelos de lenguaje natural (NLP) es crucial para mejorar la eficiencia y precisión en diversas aplicaciones. Sin embargo, los desarrolladores enfrentan desafíos como la complejidad computacional, el alto consumo de recursos, la precisión en la comprensión del contexto y la capacidad de generalización. Los grandes modelos de lenguaje (LLM) requieren infraestructuras potentes y mucho tiempo para ser entrenados y optimizados, y aún pueden cometer errores significativos en tareas que requieren comprensión profunda del contexto.



METODOLOGÍA

Se propone el desarrollo de un prototipo funcional que implemente técnicas avanzadas de ensambles de modelos, incluyendo GPT-Neo, redes neuronales profundas (DNN), SVM y Random Forest, utilizando la técnica de votación suave (soft voting). Componentes de la Solución: Modelo GPT-Neo: Descripción: GPT-Neo es una serie de modelos de lenguaje de código abierto desarrollados por EleutherAI, similar a GPT-3 pero sin restricciones comerciales. Función: Generar predicciones de texto y mejorar la comprensión del contexto. Componentes Clave: Transformer (Self-Attention, Multi-Head Attention, Feed-Forward Layers), Embeddings (Palabras y Posición). Red Neuronal Profunda (DNN): Descripción: Red neuronal artificial con múltiples capas ocultas. Función: Realizar predicciones adicionales sobre los datos de entrenamiento y prueba. Máquina de Soporte Vectorial (SVM): Descripción: Algoritmo de aprendizaje supervisado que busca el hiperplano óptimo para maximizar el margen entre clases. Función: Manipular datos no linealmente separables mediante funciones kernel. Bosque Aleatorio (Random Forest): Descripción: Conjunto de árboles de decisión construidos a partir de muestras aleatorias del conjunto de datos. Función: Proporcionar predicciones robustas mediante la agregación de las predicciones de todos los árboles.


CONCLUSIONES

Se ha desarrollado un prototipo funcional que implementa técnicas avanzadas de ensambles de modelos de NLP para mejorar la eficiencia y precisión en el procesamiento y análisis de datos. Cumplimiento de los Objetivos Específicos: Investigación y Selección de Técnicas de Ensambles de Modelos NLP: Identificación y Evaluación: Se identificaron y evaluaron diferentes enfoques de ensambles de modelos, analizando sus ventajas y limitaciones. Comparación: Se seleccionó un enfoque de votación suave para combinar las predicciones de múltiples modelos. Desarrollo del Prototipo Funcional: Implementación Modular: El prototipo se desarrolló con un enfoque modular, facilitando su integración y escalabilidad. Evaluación de la Precisión y Robustez del Prototipo: Medición y Análisis: Se midieron y analizaron la precisión y la robustez del prototipo utilizando métricas estándar como la precisión (accuracy) y la puntuación F1. Los resultados (precisión y puntuación F1 de 0.6667) indican un rendimiento moderado pero prometedor. Evaluación General y Futuras Mejoras: El prototipo cumple con el objetivo de mejorar la eficiencia y precisión en el procesamiento de datos. Sin embargo, hay espacio para mejoras, como la optimización de hiperparámetros y la ampliación del conjunto de datos para mejorar la capacidad de generalización del modelo.
Reguillo Rodero Lorena Sofia, Universidad Simón Bolivar
Asesor: Mg. David Alfredo Ovallos Gazabon, Corporación Politécnico de la Costa Atlántica

PROPUESTA DE MODELO DE NEGOCIO FINTECH ENFOCADO EN EL SECTOR TRANSPORTE.


PROPUESTA DE MODELO DE NEGOCIO FINTECH ENFOCADO EN EL SECTOR TRANSPORTE.

González Díaz Ingrid Yadira, Instituto Tecnológico Superior de Ciudad Hidalgo. Gonzalez Mestra Mery Alejandra, Universidad Simón Bolivar. Gutiérrez Muñoz Brayan Uriel, Instituto Tecnológico Superior de Ciudad Hidalgo. López Mondragón Dulce María, Instituto Tecnológico Superior de Ciudad Hidalgo. Reguillo Rodero Lorena Sofia, Universidad Simón Bolivar. Asesor: Mg. David Alfredo Ovallos Gazabon, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

El mercado logístico en Latinoamérica, valorado en 250 mil millones de dólares en 2023, está en constante crecimiento impulsado por el comercio electrónico, la globalización y la urbanización. Se espera que crezca a una tasa anual compuesta del 6.5% hacia 2028. Factores clave incluyen el comercio electrónico, que podría representar el 15% del comercio minorista total para 2028, la globalización que impulsa nuevas oportunidades comerciales, y la urbanización que crea nuevos centros de consumo. Además, la sustentabilidad está cobrando importancia, con empresas adoptando prácticas ecológicas como el uso de vehículos eléctricos y la optimización de rutas para reducir la huella de carbono. Una de las principales problemáticas que se analizó, fue la parte de gestión de pagos, ya que se encontró  que el pago a transportistas se hace de forma manual e ineficiente, lo cual genera problemas del flujo de efectivo, derivado de camiones detenidos, ventas pérdidas y facturas no cobradas. Los más afectados son los operadores logísticos, ya que son el centro de distribución.   Como respuesta a esta problemática identificada para el sector, se plantea el uso de tecnología emergente para la creación de una Fintech enfocado en el sector logística y transporte en el contexto latinoamericano, tomando como referencia el análisis del sector logístico para Brasil, México y Colombia, uno de los objetivos principales es que reduzcan costos y tiempos implementados, buscando la satisfacción en los clientes y automatizando el acceso a financiamientos rápidos y legales. 



METODOLOGÍA

Consiste en tres fases cada una de ellas orientada a la consecución de insumos que fueron integrados posteriormente en el documento tipo articulo científico que se presenta como resultado del ejercicio investigativo desarrollado por todo el equipo. FASE 1: Se realizó la búsqueda de información y antecedentes en distintos buscadores, algunos de ellos fueron Lens, Google Academy, entre algunos otros; además de que también se realizaron entrevistas a transportistas. Para obtener la información esperada se utilizaron palabras clave como fueron Fintech, logística, transporte, industria 4.0, con ello se reviso la información obtenida y posteriormente se filtraron los artículos según la selección, se procedió a realizar una lectura y comprensión de dichos artículos, en donde se identifico la viabilidad y veracidad informativa de los trabajos. Con la información referente a Fintech y Sector Transporte-Logística se indago como aplicar estrategias para evitar que la implementación de la propuesta conlleve un riesgo económico mayor. FASE 2: Se realizó un estudio en Latinoamérica en el mercado comercial para saber el impacto que tiene, utilizando base de datos que contienen información del tema, centrándose en países de interés que son Brasil, México y Colombia. Una vez que se analizó estos 3 países, se pudo identificar porque cada vez más van en crecimiento, además del porque se han consolidado en los últimos años en este sector. Cada país ha destacado por diferentes razones, y esto hace que se diferencien del crecimiento de los otros.   FASE 3: El enfoque se basa en el Business Model Canvas, desarrollado por Alexander Osterwalder. Este modelo de negocio nos permite visualizar y estructurar de manera efectiva los nueve componentes clave de nuestra empresa, desde los segmentos de clientes hasta la propuesta de valor, los canales de distribución y las fuentes de ingresos. Utilizando esta herramienta, podemos innovar y adaptar nuestras estrategias para crear y capturar valor de manera eficiente.


CONCLUSIONES

La Pasantía Delfín 2024 representa una oportunidad invaluable para profundizar en la investigación y el desarrollo académico. Ya que durante esta estancia se logró adquirir conocimientos teóricos acerca de la integración de tecnologías Fintech en el sector transporte y logística, pues esto esta revolucionando la industria al ofrecer soluciones innovadoras que optimizan la eficiencia operativa y financiera. El desarrollo de esta solución Fintech permitiría la automatización de pagos, la mejora de gestión en la liquidez y la reducción de costos operativos, un punto importante es la mejora de relación con los transportistas al ofrecer pagos mas rápidos y transparentes. Resaltando que la adopción de las Fintech dentro de estos sectores son un paso crucial hacia la modernización y competitividad en un mercado cada vez más digitalizado.   Queremos expresar nuestro más sincero agradecimiento de parte de los integrantes que conformamos el equipo al programa Delfín por el invaluable apoyo que nos ha brindado durante este proceso. Los conocimientos teóricos adquiridos han sido fundamentales para nuestro desarrollo académico y profesional. La atención y orientación proporcionadas por el investigador han sido de gran ayuda, permitiéndonos profundizar en temas complejos y mejorar nuestras habilidades de investigación. Además, las herramientas a las que hemos tenido acceso, como los buscadores especializados y aplicaciones como Mendeley para la gestión de citas, han sido esenciales para organizar y fortalecer nuestro trabajo. Estamos profundamente agradecidos por esta oportunidad y por todo el aprendizaje obtenido durante la estancia en la Institución Politécnico de la Costa Atlántica, Barranquilla, Colombia y el apoyo de nuestras Instituciones el Instituto Tecnológico Superior de Ciudad Hidalgo Michoacán y Universidad Simón Bolivar.
Rentería Navidad Gael Antonio, Universidad Autónoma del Estado de México
Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana

ANáLISIS INTEGRAL PARA LA MEJORA ESTéTICA DE UNA PRóTESIS ROBóTICA COMERCIAL DE MANO


ANáLISIS INTEGRAL PARA LA MEJORA ESTéTICA DE UNA PRóTESIS ROBóTICA COMERCIAL DE MANO

Rentería Navidad Gael Antonio, Universidad Autónoma del Estado de México. Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana



PLANTEAMIENTO DEL PROBLEMA

Problematica La amputación de un miembro superior, como la pérdida de un brazo, impacta significativamente en la calidad de vida de una persona, afectando su capacidad para realizar las tareas diarias, su independencia y su autoestima. Las prótesis tradicionales a menudo no cumplen con las expectativas de los usuarios en términos de funcionalidad y apariencia natural, lo que lleva a una baja aceptación y uso. Las prótesis robóticas ofrecen una solución más avanzada con movimientos naturales y apariencias más realistas. Sin embargo, su desarrollo enfrenta importantes desafíos, especialmente en el diseño estético, que es crucial para la aceptación social y el bienestar psicológico. Una prótesis que se parezca mucho a un brazo humano real puede reducir el estigma asociado con su uso y ayudar a los usuarios a sentirse más cómodos y seguros en su vida diaria. La ergonomía también es fundamental, asegurando que la prótesis se ajuste bien y sea cómoda de usar durante largos periodos, evitando molestias o lesiones adicionales. La personalización es esencial para satisfacer las necesidades únicas de cada usuario, mejorando la funcionalidad y aumentando la satisfacción y aceptación del usuario. Para ser ampliamente accesibles, las prótesis robóticas también deben ser rentables sin comprometer la calidad y la funcionalidad. La integración de tecnologías avanzadas, como sensores e inteligencia artificial, puede mejorar la usabilidad, haciendo que la prótesis sea intuitiva y responda a los movimientos del usuario.



METODOLOGÍA

Metodología Scrum para Proyecto de prótesis robótica comercial de mano Inicio y planificación del proyecto La metodología Scrum para el proyecto de prótesis robótica de brazo comienza con la creación de un backlog de producto que incluye todos los requisitos, características y tareas, centrándose en la estética, la funcionalidad y la comodidad del usuario. Se forma un equipo multifuncional, que incluye diseñadores, ingenieros y expertos médicos. En la planificación de sprints, se seleccionan tareas específicas de la cartera de productos para el próximo sprint, que normalmente duran de 2 a 4 semanas, y se asignan tareas a los miembros del equipo en función de su experiencia. Ejecución y desarrollo de Sprint Durante la ejecución del sprint, se llevan a cabo reuniones diarias para discutir el progreso y los desafíos, mientras los miembros del equipo trabajan en las tareas asignadas. La fase de diseño y creación de prototipos implica el desarrollo de prototipos iniciales que enfatizan la apariencia realista y la comodidad ergonómica, incorporando los comentarios de los usuarios. Pruebas e iteración Se llevan a cabo pruebas de funcionalidad y estética, refinando el diseño en función de los resultados y las aportaciones del usuario. Se integran tecnologías avanzadas como sensores e inteligencia artificial para mejorar el control, la capacidad de respuesta y la intuición. Análisis de Costos y Capacitación de Usuarios Se realiza un análisis de costos para seleccionar materiales rentables y optimizar los procesos de producción. Se desarrolla un programa integral de capacitación para usuarios, con soporte continuo proporcionado en función de los comentarios de los usuarios. Revisión y lanzamiento de producto Las revisiones de sprint demuestran las tareas completadas a las partes interesadas y recopilan comentarios, mientras que las retrospectivas de sprint reflexionan sobre el proceso de mejora. Finalmente, las pruebas exhaustivas garantizan que la prótesis cumpla con todos los requisitos, se obtengan las aprobaciones regulatorias necesarias y el producto se lance al mercado.


CONCLUSIONES

Conclusiones El análisis de elementos finitos muestra que la prótesis de mano robótica es capaz de soportar cargas y condiciones diversas sin sufrir daños estructurales. Los resultados obtenidos sugieren que la prótesis es segura y confiable para su uso en aplicaciones prácticas. Ten en cuenta que estos valores son solo ejemplos y pueden variar dependiendo de las especificaciones y requisitos de tu proyecto. Distribución de Peso La distribución de peso en la prótesis de mano robótica es crucial para garantizar su estabilidad y comodidad durante el uso. Se realizó un análisis de distribución de peso para determinar la cantidad de peso que se aplica en diferentes partes de la prótesis. Metodología Se utilizará el software ANSYS para simular la distribución de peso en la prótesis. Se creó un modelo 3D de la prótesis y se aplicaron cargas de peso en diferentes partes de la mano, incluyendo la palma, los dedos y el dorso.   Resultados Los resultados del análisis de distribución de peso muestran que: La palma de la mano soporta el 40% del peso total de la prótesis Los dedos soportan el 30% del peso total de la prótesis El dorso de la mano soporta el 30% del peso total de la prótesis La distribución de peso es uniforme en la prótesis, sin puntos de concentración de peso que puedan causar incomodidad o daño. Conclusiones El análisis de distribución de peso muestra que la prótesis de mano robótica tiene una distribución de peso uniforme y segura. La prótesis es capaz de soportar el peso de la mano y los dedos sin causar incomodidad o daño. Los resultados obtenidos sugieren que la prótesis es segura y confiable para su uso en aplicaciones prácticas.
Renteria Salais Lucero Isela, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte

AUTOMATIZACIóN DE LOS SISTEMAS DE CALIDAD MEDIANTE POWER APPS Y GOOGLE APPS


AUTOMATIZACIóN DE LOS SISTEMAS DE CALIDAD MEDIANTE POWER APPS Y GOOGLE APPS

Renteria Salais Lucero Isela, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte



PLANTEAMIENTO DEL PROBLEMA

1. Introducción Contexto y Justificación: La gestión de calidad es crucial para garantizar productos y servicios que cumplan con los estándares establecidos y satisfagan a los clientes. Las empresas modernas están adoptando tecnologías para automatizar y mejorar estos sistemas. Power Apps y Google Apps son herramientas que ofrecen soluciones para automatizar procesos, gestionar datos y facilitar la colaboración. Este estudio explora cómo estas herramientas pueden ser aplicadas para automatizar y mejorar el sistema de calidad, identificando sus beneficios y desafíos. Objetivo del Estudio: Evaluar la viabilidad y los beneficios de implementar soluciones de automatización para el sistema de calidad utilizando Power Apps y Google Apps, y medir el impacto de estas soluciones en la eficiencia y efectividad de los procesos de calidad. 2. Revisión de Literatura Sistemas de Calidad: Describir el sistema de gestión de calidad actual, incluyendo estándares aplicables (por ejemplo, ISO 9001) y procesos clave. Automatización en la Gestión de Calidad: Revisar cómo la automatización puede transformar la gestión de calidad, destacando casos de estudio y ejemplos de éxito en otras empresas. Power Apps y Google Apps: Analizar las funcionalidades de Power Apps y Google Apps, sus capacidades para crear aplicaciones personalizadas, integrar sistemas, y gestionar datos. Examinar cómo estas herramientas se han utilizado en otros contextos para la automatización de procesos de calidad.



METODOLOGÍA

3. Metodología Enfoque: Utilizar un enfoque mixto para capturar tanto perspectivas cualitativas como cuantitativas. Esto incluye estudios de caso internos y encuestas a empleados. Métodos de Recolección de Datos: Entrevistas: Realizar entrevistas con personal clave, incluyendo responsables de calidad, IT, y otros stakeholders relevantes. Encuestas: Diseñar encuestas para recolectar datos sobre la percepción actual de los sistemas de calidad y la receptividad hacia la automatización. Observación Directa: Observar y documentar los procesos de calidad actuales para identificar áreas de mejora. Pruebas Piloto: Implementar soluciones piloto utilizando Power Apps y Google Apps en áreas seleccionadas de la empresa para evaluar su impacto. Procedimientos: Evaluación Inicial: Revisar los procesos de calidad existentes y las herramientas actuales. Desarrollo de Soluciones: Diseñar y desarrollar aplicaciones utilizando Power Apps y Google Apps que se alineen con las necesidades identificadas. Implementación Piloto: Ejecutar un programa piloto en un entorno controlado dentro de la empresa. Evaluación y Análisis: Medir el desempeño de las soluciones automatizadas, recolectar feedback de los usuarios, y comparar los resultados con el sistema de calidad previo.


CONCLUSIONES

4. Resultados Esperados Beneficios: Eficiencia Mejorada: Reducción en el tiempo requerido para completar tareas de calidad. Mayor Precisión: Disminución de errores y mejoras en la precisión de los datos. Mejor Gestión de Datos: Centralización y fácil acceso a la información de calidad. Facilitación de la Colaboración: Mejora en la comunicación y colaboración entre equipos. Desafíos: Resistencia al Cambio: Posible resistencia por parte del personal a adoptar nuevas tecnologías. Integración de Sistemas: Desafíos técnicos en la integración de Power Apps y Google Apps con sistemas existentes. Costos y Capacitación: Necesidad de inversión en formación y recursos. 5. Conclusiones Implicaciones: Discutir cómo los resultados del estudio pueden influir en la estrategia de gestión de calidad, y cómo la automatización puede ser una solución escalable y sostenible. Recomendaciones: Plan de Implementación: Sugerir un plan detallado para una implementación más amplia basado en los resultados del piloto. Capacitación y Soporte: Recomendaciones para proporcionar formación continua y soporte a los usuarios. Optimización Continua: Propuestas para la evaluación continua y la mejora de las soluciones automatizadas.
Resendiz Guapilla Miguel, Instituto Tecnológico de Querétaro
Asesor: Dr. José Omar Dávalos Ramírez, Universidad Autónoma de Ciudad Juárez

DISEñO Y OPTIMIZACIóN MECáNICA EN SINTONIZADORES DE FLUJO REALIZADO EN SOFTWARE DE USO LIBRE


DISEñO Y OPTIMIZACIóN MECáNICA EN SINTONIZADORES DE FLUJO REALIZADO EN SOFTWARE DE USO LIBRE

Resendiz Guapilla Miguel, Instituto Tecnológico de Querétaro. Asesor: Dr. José Omar Dávalos Ramírez, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

El objetivo de estudio es analizar el comportamiento de los osciladores de flujo utilizando software de código abierto para simular la dinámica de fluidos computacional (CFD) y visualizar los resultados, enfocándose en las propiedades de vorticidad, caídas de presión, velocidad y el efecto Coanda. Estos dispositivos se comenzaron a diseñar en los años 60 para control de sistemas fluicos. Se utilizaron las propiedades de los fluidos como lo son la vorticidad, caídas de presión, velocidad y el efecto Coanda. Este ultimo hace referencia a la tendencia de un flujo de fluido a adherirse a una superficie curva y seguirla desviándose de su trayectoria original. La configuración del oscilador usada para el estudio la podemos describir como una cámara de mezclado o canal principal  retroalimentado por dos canales secundarios simétricos en la parte superior e inferior, esto permite aprovechar el potencial del efecto Coanda. En este caso la frecuencia de oscilación depende directamente de la geometría del dispositivo. En  cuanto a su aplicación podemos encontrarnos diferentes posibilidades, desde simples como los dispensadores de liquido limpiaparabrisas en autos, hasta complejas como controlar la separación de capa limite, separación de flujo en perfiles aerodinámicos, o como en el campo de la aeronáutica que se espera poder utilizarlos como hipersustentadores  en las alas de los aviones.



METODOLOGÍA

Contamos que nuestro modelo será para una simulación de flujo incompresible y transitorio; es decir la densidad se mantiene constante pero el flujo varia con el paso del tiempo. Para la simulación de dinámica de fluidos computacional (CFD), utilizamos 2 programas de software de código abierto en lugar de software comercial, esto por las ventajas económicas que podrían representar.: OpenFOAM (Open Field Operation and Manipulation) es un conjunto de herramientas de simulación de dinámica de fluidos computacional (CFD). Es ampliamente utilizado para resolver problemas complejos relacionados con el flujo de fluidos, transferencia de calor, dinámica de partículas , etc. ParaView es una aplicación para la visualización y análisis de datos científicos. Se utiliza ampliamente para procesar y visualizar los resultados de simulaciones CFD y de malla. Generación de la Malla: Construcción de una malla en un software de diseño. Establecer las condiciones de frontera para las entradas y salidas del oscilador. Se realizo la exportación de una malla previamente realizada con la finalidad de poder escalar nuestro estudio a parámetros más manejables, así mismo es necesario para poder visualizar la malla y resultados, en el software de uso libre. La malla se realizó en 2D y con un numero de celdas de 85600 Configuración del Caso en OpenFOAM: Configurar los archivos de entrada (e.g., controlDict, fvSchemes, fvSolution) para definir los parámetros de la simulación. Propiedades importantes: duración de 1s, incremento en el tiempo durante la simulación de 0.000001, máximo número de Courant 1. En total serían 1000000 de pasos. El Reynolds a utilizar fue de 30k, con una velocidad de 12 m/s obtenida a partir de la fórmula de Reynols aplicada al aire y con un diámetro de 0.025m Seleccionar el solver adecuado para la simulación del flujo oscilante: en nuestro caso utilizamos pisoFoam un solver adecuado nuestro tipo de estudio incompresible y transitorio. Ejecución de la Simulación: Ejecutar la simulación en OpenFOAM. La simulación se realizó en paralelo, repartida en 6 núcleos con una duración de 12-15 hrs esto en promedio de tiempo efectivo. Durante este paso fue el mas complicado ya que varias cosas o parámetros tuvieron que revisarse y ajustar para que la simulación pudiera correr de forma correcta. Visualización y Análisis de Resultados: Utilizar ParaView para generar un ejecutable desde OpenFoam para visualizar los datos de la simulación recabados durante esos 1000000 pasos de tiempo. Analizar la distribución de presión y velocidad en la geometría del oscilador, asi como también la visualización del efecto Coanda.


CONCLUSIONES

El presente estudio ha permitido un análisis exhaustivo del comportamiento del oscilador de flujo utilizando herramientas de software de código abierto. La elección de estas herramientas ha demostrado ser económicamente viable y eficaz, garantizando que el estudio hecho pueda estar al alcance de cualquier persona interesada en el tema. Velocidad: La simulación reveló una aceleración del flujo en la región inmediatamente detrás del oscilador, confirmando la influencia del diseño en la modificación de la velocidad del flujo. La adherencia del flujo a la superficie del oscilador, debido al efecto Coanda, fue claramente observable y fundamental para la estabilidad de las oscilaciones periódicas del flujo. Efecto Coanda: La visualización del estudio muestra que el flujo se adhiere inicialmente a las superficies curvas del oscilador. El efecto Coanda hace que el flujo siga la curvatura del oscilador antes de separarse y formar los remolinos detrás del dispositivo. El flujo se desvía significativamente de su trayectoria original. Lo que confirma la presencia del efecto Coanda. Presión: La distribución de presión observada es consistente la alta presión inicial se reduce a medida que el flujo pasa a través de la sección de estrechamiento y luego se estabiliza en la salida. La caída de presión en la garganta del oscilador indica una aceleración del flujo, lo cual es crucial para la formación de vorticidad y la oscilación del flujo. La disminución gradual de la presión a lo largo de las superficies curvas del oscilador confirma la presencia del efecto Coanda, que ayuda a mantener el flujo adherido a las paredes del dispositivo. Por ultimo los resultados obtenidos se visualizan en los primeros 200000 pasos de la simulación después de esto se mantiene estable y deja oscilar, determinamos que ocurre ya que los canales de retroalimentación es posible que ejerzan la misma presión y volumen de fluido por lo que la simulación se mantiene estable a partir de cierto punto.
Reséndiz Pérez José Ariel, Instituto Tecnológico de Querétaro
Asesor: Dra. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional

VISUALIZADOR DE PIEZAS ANATóMICAS VETERINARIAS TRIDIMENSIONALES EN REALIDAD VIRTUAL.


VISUALIZADOR DE PIEZAS ANATóMICAS VETERINARIAS TRIDIMENSIONALES EN REALIDAD VIRTUAL.

Reséndiz Pérez José Ariel, Instituto Tecnológico de Querétaro. Asesor: Dra. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Una de las necesidades principales en las instituciones educativas de nuestro país es la innovación tecnológica para la enseñanza y la formación profesional de los estudiantes, sin embargo, en este rubro nos encontramos aún en vías de desarrollo, pues hacen falta ver algunos de los datos duros que ubican a las universidades en lugares rezagados frente a otras instituciones de latinoamerica o del mundo. "En 2023, a nivel nacional, la Universidad Nacional Autónoma de México (UNAM) destaca como la principal referencia en el ámbito veterinario entre 22 escuelas, mientras que en toda Latinoamérica se sitúa en el séptimo lugar y a escala mundial en el 66 (Rebecca, 2024) En los estudios realizados para el presente trabajo, se puede ver que parte de estas cifras se deben a la falta de innovación en este campo para la formación de profesionistas, ya que posteriormente en el estudio de mercado se revela que no existen herramientas de este estilo creadas en nuestro país (o por lo menos, no se han concluido para realizar las publicaciones correspondientes). Es por ello la importancia del proyecto en cuestión, un visualizador interactivo que permite a los alumnos de estas carreras el potenciar el aprendizaje de sus conocimientos. "Vemos que las formas de aprender no han cambiado en muchos años, y el desarrollo de la tecnología VR en los últimos años nos permite construir una solución que realmente podría mejorar la forma en que los médicos se preparan para la cirugía." (Gorenko, A., s.f.) Así que a partir de esta problemática, queda justificada la elaboración de este trabajo, que utiliza tecnologías emergentes y aporta a la calidad educativa para el desarrollo de los profesionistas en nuestro País.



METODOLOGÍA

Se ha realizado inicialmente un levantamiento de imágenes a través de escáneres. Utilizando un peel 3D es un escáner láser por nubes con puntos, esto quiere decir que se puede utilizar un escáner láser 3D que capturan diferentes puntos como un área. Puede generar una nube de puntos a gran velocidad con un dispositivo de mapeo móvil, y representó una ventaja a la hora de crear los modelos. Para realizar estos últimos, fueron esenciales técnicas de postprocesado en Blender y fotometría (esto se utiliza para controlar diferentes opciones utilizadas para procesar la imagen después de haber hecho el renderizado). Finalmente, se logró la integración en Unreal Engine, software final en el que se programará la interacción del usuario una vez la aplicación sea finalizada, pues se encuentra en desarrollo por Victor Joohvan Veraza Garcia, Said Carbot Cruz Trejo y Fernando Alejandro Torres Márquez. Las evidencias de lo realizado durante la estancia se encuentran en: https://drive.google.com/drive/folders/1s1bBHRRT6BiMV3QcvoiN9KKpCKuUZbNU?usp=drive_link


CONCLUSIONES

El proyecto realizado por el equipo de la Doctora Claudia Marina Vicario Solorzano es necesario no solo para estudiantes específicos de esta área del conocimiento, sino para el desarrollo tecnológico en general de nuestro país. En México, la educación veterinaria y de zootecnia se encuentra bien instaurada, sin embargo, a nivel mundial nos encontramos un poco lejos de las universidades con más prestigio, esto puede deberse principalmente a la oportunidad de mejora que tienen nuestros laboratorios y programas de estudio. A pesar de la existencia de diferentes herramientas desarrolladas por universidades e instituciones del mundo, aún existe un amplio propósito de investigación dentro de este tópico, hace falta desarrollo con el uso de la realidad virtual o realidad aumentada, se puede decir que estos proyectos aún se encuentran en fases iniciales, por lo que el proyecto VISUALIZADOR DE PIEZAS ANATÓMICAS VETERINARIAS TRIDIMENSIONALES EN REALIDAD VIRTUAL que se está creando puede aportar un gran avance dentro de este campo de estudio. Se espera que con la implementación del producto una vez establecida su primer versión, dentro de una muestra de estudio, mejore la calidad de aprendizaje de los estudiantes frente a la educación tradicional, y que la interactividad que tendrán los usuarios con el programa demuestren la necesidad y la ventaja de desarrollar y aplicar software para distintas áreas del conocimiento.
Reyes Aguilar Hector Alfonso, Instituto Tecnológico de Zitácuaro
Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez

ESTUDIO DEL PERFIL AERODINáMICO NACA 0012


ESTUDIO DEL PERFIL AERODINáMICO NACA 0012

Reyes Aguilar Hector Alfonso, Instituto Tecnológico de Zitácuaro. Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Los perfiles aerodinámicos son elementos fundamentales en el diseño de aeronaves, automóviles, barcos y una amplia variedad de estructuras que interactúan con fluidos en movimiento. Estos perfiles, también conocidos como perfiles alares o perfiles de alas, desempeñan un papel crucial en la generación de sustentación y resistencia aerodinámica, determinando en gran medida el rendimiento y la eficiencia de los vehículos que los utilizan. Por todo esto es necesario investigar sobre los diferentes perfiles aerodinamicos. En esta investigación nos centraremos en el perfil NACA 0012. ¿Cúal es el comportamiento del Álabe y sus perturbaciones a diferentes grados de inclinación sobre un flujo?



METODOLOGÍA

1. Investigación Documental sobre el Perfil Aerodinámico NACA 0012: Se seleccionó el perfil aerodinámico NACA 0012 y se recopiló información documental para comprender sus características y aplicaciones. Esta etapa incluyó el estudio de características generales, ecuaciones relevantes, aplicaciones comunes y comparaciones con otros perfiles aerodinámicos. Este análisis proporcionó una base teórica sólida para el diseño y la evaluación del álabe. 2. Diseño del Álabe: Utilizando una base de datos de perfiles aerodinámicos, se seleccionó el perfil NACA 0012. Se extrajeron las coordenadas que definen el contorno del perfil y se trasladaron a AUTOCAD para crear un plano detallado. Este plano sirvió como base para el diseño del álabe, que posteriormente fue fabricado en madera, asegurando precisión en la forma y dimensiones. 3. Investigación y Construcción del Túnel de Viento: Se realizó una investigación documental exhaustiva sobre los diferentes tipos de túneles de viento, incluyendo su diseño, construcción y métodos para la visualización del flujo de aire. Basado en esta investigación, se diseñó y construyó un túnel de viento subsónico de circuito abierto, con dimensiones adecuadas para probar el álabe diseñado y permitir una observación clara del flujo de aire a su alrededor. 4. Pruebas en el Túnel de Viento: Se realizaron seis pruebas diferentes colocando el álabe en el túnel de viento y variando el ángulo de ataque. Se utilizaron métodos de visualización de flujo mediante humo para observar y documentar el comportamiento del flujo de aire, con especial atención a la formación de vórtices y turbulencia. Estas pruebas permitieron evaluar la eficiencia aerodinámica del álabe bajo distintas condiciones de flujo. 5. Análisis de Resultados y Recomendaciones: Los datos recopilados durante las pruebas se analizaron para evaluar el comportamiento aerodinámico del álabe. Se examinaron aspectos como la turbulencia, la sustentación, y fenómenos como la separación del flujo y la formación de vórtices. Este análisis permitió identificar las propiedades del perfil NACA 0012 bajo diferentes condiciones de flujo y se formularon recomendaciones para sus aplicaciones en diversos campos, basadas en los hallazgos.


CONCLUSIONES

Después de fabricar correctamente el álabe y el túnel de viento, se procedió con el estudio de líneas de corriente sobre el álabe diseñado con el perfil aerodinámico NACA 0012. Este estudio reveló varios hallazgos importantes en cuanto a su comportamiento aerodinámico. Se observó que el perfil NACA 0012 mantiene un flujo laminar, aunque es altamente inestable a diferentes ángulos de ataque, lo que resulta en una pésima sustentación. Debido a estas características, este perfil no es adecuado para su uso en aplicaciones como las alas de aviones, que suelen ser asimétricas para mejorar la sustentación y el control. Sin embargo, el perfil NACA 0012 es ideal para aplicaciones como ventiladores, turbinas, veleros y embarcaciones, donde sus propiedades simétricas y el control del flujo son beneficiosos.
Reyes Arriaga Itzel Gabriela, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. María Milagrosa del Carmen Pérez Sánchez, Universidad Autónoma de Yucatán

VIVIENDA ADECUADA, HáBITAT SUSTENTABLE Y COHESIóN SOCIAL. ALTERNATIVAS PARA INCIDIR EN LAS CONDICIONES DE POBREZA URBANA EN ZONAS VULNERABLES DE ATENCIóN PRIORITARIA EN TRES CIUDADES DE MéXICO (CIUDAD JUáREZ, MéRIDA Y MEXICALI).


VIVIENDA ADECUADA, HáBITAT SUSTENTABLE Y COHESIóN SOCIAL. ALTERNATIVAS PARA INCIDIR EN LAS CONDICIONES DE POBREZA URBANA EN ZONAS VULNERABLES DE ATENCIóN PRIORITARIA EN TRES CIUDADES DE MéXICO (CIUDAD JUáREZ, MéRIDA Y MEXICALI).

Reyes Arriaga Itzel Gabriela, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. María Milagrosa del Carmen Pérez Sánchez, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

La colonia Jacinto Canek en Mérida, Yucatán, tiene distintas carencias como la falta de pavimentación en las calles, luz eléctrica y la degradación de las condiciones de vivienda. Lo cual afecta negativamente la calidad de vida y bienestar de los habitantes dando como resultado un deterioro en el entorno urbano debilitando la cohesión social. La vivienda, como bien social, es un factor fundamental para mejorar la calidad de vida de los residentes de una ciudad. Un entorno habitacional adecuado concede seguridad y salud, al tiempo que fortalece la cohesión social. Las deficiencias de los servicios y el estado de las viviendas nos indican que se necesita una intervención que permita transformar el ambiente en uno más inclusivo y sostenible. Es fundamental abordar este problema debido a los impactos negativos que tiene tanto en la salud y el bienestar de las personas, como en la cohesión social. La calidad de vida de los residentes se ve limitada debido a la falta de infraestructura adecuada, lo cual impide que puedan disfrutar de un entorno saludable y seguro. El objetivo del proyecto de investigación es mejorar la infraestructura urbana y las condiciones de vivienda mediante el diseño y construcción de jardines multipropósito en los umbrales de las casas. Al alinearse con los Objetivos de Desarrollo Sostenible (ODS), este enfoque tiene el potencial de mejorar la calidad de vida, promover un entorno más saludable y fortalecer la cohesión social en la colonia. Específicamente, contribuiría a alcanzar los ODS 11: Ciudades y Comunidades



METODOLOGÍA

Para poder colaborar en el mejoramiento de las condiciones de la vivienda y del entorno urbano en la colonia Jacinto Canek de Mérida, Yucatán, mediante el diseño y construcción de jardines multipropósito en los umbrales de las casas, con participación activa y colaborativa de los habitantes.   Convocatoria y Participación Comunitaria. • Se realizó una convocatoria en la cual se comunica que se otorgara pintura para pintar las fachadas y se capacitaran para poder implementar jardines multipropósito a los vecinos en una reunión. Formación del Equipo de Trabajo • Se forman parejas para poder trabajar y se asignan dos casas para poder monitorear tanto en la pintura de fachadas como en el desarrollo del jardín multipropósito. Capacitación de parte del Implan • Muestran antecedentes e investigación de cómo se pueden implementar los jardines multipropósito en estas comunidades considerando especies nativas, el clima y el tipo de suelo. Limpieza de terreno para el desarrollo del jardín multipropósito • Con una colaboración con los estudiantes y el familiar se limpia el área destinada para colocar el semillero y los arboles Entrega de semillas, tierra y árboles para el jardín multipropósito • Se explican los cuidados y como se siembran cada una de las semillas proporcionadas y los arboles Siembra de las semillas y los árboles que se entregó para el jardín multipropósito. • Con ayudada de los estudiantes y vecinos se plantan las semillas para permitiendo que las familias puedan seguir replicando el sembrando de semillas.


CONCLUSIONES

El proyecto es muy interesante debido al enfoque que este tiene porque no solo aborda problemas específicos de infraestructura y condiciones de vida en la colonia Jacinto Canek, sino que también promueve un modelo de intervención que integra la participación comunitaria y los principios de sostenibilidad. Si bien es un trabajo que ya lleva años la parte en la que pude estar involucrada me permitió ampliar mis conocimientos y ver la importancia de los equipos de trabajo multidisciplinarios los cuales permiten abordar el problema de distintas perspectivas y proporciona soluciones que realmente benefician a la comunidad.  
Reyes Baeza Oliver Uriel, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa

IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA DETECCIóN DE OBJETOS Y MOVIMIENTOS MEDIANTE LAS APLICACIONES DE LAS REDES NEURONALES CONVOLUCIONALES Y YOLO


IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA DETECCIóN DE OBJETOS Y MOVIMIENTOS MEDIANTE LAS APLICACIONES DE LAS REDES NEURONALES CONVOLUCIONALES Y YOLO

Betancourt Rodriguez Miguel Angel, Instituto Tecnológico Superior de Apatzingán. Cordoba Alvarez Bryan Abel, Instituto Tecnológico Superior de Apatzingán. Lara Fernandez Jhonatan Omar, Instituto Tecnológico Superior de Apatzingán. Reyes Baeza Oliver Uriel, Instituto Tecnológico Superior de Apatzingán. Vallejo Vázquez Sanjuana Candelaria, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

A medida que la tecnología ha avanzado, la IA ha evolucionado desde algoritmos básicos hasta sofisticados modelos de aprendizaje profundo, mejorando significativamente la precisión y la eficiencia en múltiples aplicaciones. Desde los primeros enfoques en visión por computadora, la IA ha integrado técnicas innovadoras como las redes neuronales convolucionales (CNN) y el aprendizaje profundo para detectar y analizar objetos y movimientos en tiempo real. Al usar algoritmos de aprendizaje profundo y redes neuronales, los dispositivos pueden identificar y clasificar objetos con rapidez y precisión, lo que a su vez tiene un impacto positivo en la seguridad civil, la atención médica y la eficiencia operativa en múltiples industrias. Los avances en IA han potenciado la detección de objetos, movimientos y tiempos, destacando sus aplicaciones en diversos sectores, la inteligencia artificial está transformando la detección de objetos y movimientos, los desafíos asociados y las oportunidades emergentes en un mundo cada vez más interconectado.  La inteligencia artificial ha emergido como una herramienta crucial en la detección de objetos, movimientos y tiempos, revolucionando diversos sectores mediante la mejora de precisión y eficiencia en el análisis de datos. El artículo realizado a lo largo de la estancia se entrenó una inteligencia artificial con métodos diferentes y analizar los campos de aplicación en los cuales se utiliza la inteligencia artificial para la detección de objetos y movimientos de forma rápida y precisa.



METODOLOGÍA

Para el desarrollo de cada uno de los métodos se implementaron diferentes algoritmos y modelos de aprendizaje, así como bibliotecas y frameworks de software entre otras herramientas para lograr el objetivo de detectar los objetos y los tiempos de movimientos, así como medir las estadísticas de entrenamiento, precisión y la predicción en la detección de los objetos. Para esto, el primer experimento de prueba será un carro de juguete. El experimento con el carro de juguete se llevará a cabo en varias fases: ·      Preparación del Dataset. -      Se recopilarán imágenes del carro de juguete en diferentes posiciones, ángulos y condiciones de iluminación. -      Se etiquetarán las imágenes utilizando herramientas como LabelImg para identificar las partes del carro (carrocería, chasis, llantas, luces, etc.). ·      Configuración del Entorno de Desarrollo. -       Se instalarán y configurarán las bibliotecas y frameworks necesarios, como TensorFlow, PyTorch y OpenCV. -      Se utilizará YOLOv3 para la creación del dataset y YOLOv8 para el entrenamiento del modelo de detección de objetos. ·      Entrenamiento del Modelo. -      Se dividirá el dataset en conjuntos de entrenamiento y validación. -      Se ajustarán los hiperparámetros del modelo, como el número de épocas, la tasa de aprendizaje y el tamaño del lote. -      Se ejecutará el entrenamiento del modelo, monitorizando las métricas de rendimiento como la precisión, la sensibilidad y la especificidad. ·      Evaluación del Modelo. -      Se evaluará el rendimiento del modelo en un conjunto de datos de prueba no visto durante el entrenamiento. -       Se analizarán las métricas de rendimiento para determinar la eficacia del modelo en la detección de las partes del carro de juguete. -      Se realizarán ajustes en el modelo y se volverá a entrenar si es necesario para mejorar la precisión y la robustez. ·      Implementación y Pruebas en Tiempo Real. -       Se implementará el modelo entrenado en un entorno de producción. -      Se realizarán pruebas en tiempo real utilizando un flujo de video en directo para detectar y rastrear el carro de juguete. -      Se medirán los tiempos de respuesta y la precisión en la detección en diferentes condiciones de prueba. ·      Análisis de Resultados y Mejora Continua: -       Se recopilarán y analizarán los resultados obtenidos durante las pruebas en tiempo real. -      Se identificarán posibles áreas de mejora y se propondrán soluciones para optimizar el rendimiento del modelo. -      Se iterará sobre el proceso de entrenamiento y evaluación para refinar el modelo y mejorar su capacidad de detección y predicción.


CONCLUSIONES

El artículo destaca herramientas como OpenCV, TensorFlow y Keras, junto con otros recursos como GitHub, Python y Anaconda, son esenciales para el desarrollo y la implementación de soluciones de detección basadas en IA. En conclusión, la capacidad de la IA para detectar y seguir objetos y movimientos continuará evolucionando, impulsando la transformación y el progreso en numerosos sectores, y su futuro es prometedor en la modernización de nuestras interacciones con el mundo digital y físico El experimento inicial con el carro de juguete proporcionará una base sólida para el desarrollo y la validación del modelo de detección de objetos. Los conocimientos y experiencias obtenidos en este proceso serán fundamentales para abordar desafíos más complejos en futuros proyectos de detección y reconocimiento de objetos.
Reyes Carreon Christian, Instituto Politécnico Nacional
Asesor: Dr. Jose Manuel Villegas Izaguirre, Universidad Autónoma de Baja California

INDUSTRIA 4.0: INNOVACIONES TECNOLóGICAS Y SU INFLUENCIA EN EL CAMBIO SOCIAL


INDUSTRIA 4.0: INNOVACIONES TECNOLóGICAS Y SU INFLUENCIA EN EL CAMBIO SOCIAL

Reyes Carreon Christian, Instituto Politécnico Nacional. Asesor: Dr. Jose Manuel Villegas Izaguirre, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

  Resumen Objetivo Este estudio analiza el concepto de la Industria 4.0 y como  está redefiniendo la forma en que las sociedades operan, impulsada por tecnologías avanzadas como el Internet de las Cosas (IoT), la inteligencia artificial (IA), la robótica, y el análisis de big data. Estos avances prometen mejorar la eficiencia y la productividad, pero también introducen desafíos que afectan nuestras vidas cotidianas de maneras complejas. También se analizo como la Industria 4.0 está redefiniendo la forma en que las sociedades operan, impulsada por tecnologías avanzadas como el Internet de las Cosas (IoT), la inteligencia artificial (IA), la robótica, y el análisis de big data. Estos avances prometen mejorar la eficiencia y la productividad, pero también introducen desafíos que afectan nuestras vidas cotidianas de maneras complejas.



METODOLOGÍA

Diseño/metodología/enfoque Se propone un estudio cuantitativo, transversal, descriptivo y correlacional. Se seleccionó una muestra de 217 personas  en Tijuana Baja California y otros estados de la republica. Se desarrolló un modelo de ecuaciones estructurales (PLS-SEM) para probar el modelo teórico propuesto. Para ello se utilizan los programas informáticos SPSS-AMOS 23 y SmartPLS 4. Además, se utilizó speak man donde se obtuvo que tanto estaban relacionadas las variables con el tema central, estas tuvieron una relación arriba del 80%, ademas de la obtención del Alpha de Crombach que varía entre 0 y 1, indica el nivel de consistencia interna de un conjunto de ítems. Un valor más cercano a 1 sugiere una alta consistencia interna, mientras que un valor cercano a 0 indica baja consistencia. En este caso los datos fueron muy cercanos a 1 esto indica los ítems tenía una alta consistencia. Encuetas: Para evaluar el impacto de la Industria 4.0 en la vida cotidiana y comprender las percepciones y experiencias de las personas con respecto a estas transformaciones tecnológicas, se diseñó y llevó a cabo una serie de encuestas. El proceso de realización de las encuestas se estructuró cuidadosamente para asegurar la recolección de datos relevantes y representativos, permitiendo un análisis exhaustivo de los temas investigados. Población y muestra: La población objetivo para las encuestas incluyó a personas de diversas edades, ocupaciones y niveles socioeconómicos para asegurar una representación amplia y diversa. Se enfocó en individuos que pudieran experimentar de manera directa los efectos de la Industria 4.0, como trabajadores de sectores industriales, estudiantes, profesionales de tecnología, y ciudadanos comunes. Distribución: Las encuestas fueron distribuidas a través de varios canales para maximizar la participación: Correo Electrónico: Se enviaron invitaciones por correo electrónico a una lista seleccionada de contactos que representaban diferentes sectores. Redes Sociales: Se promovieron las encuestas en plataformas como Facebook, whatsapp, Las encuestas estuvieron disponibles durante un periodo de 2 a 3 semanas, permitiendo a los participantes completarlas a su conveniencia y asegurando una recolección de datos adecuada. Se garantizó la confidencialidad de los datos personales de los participantes. Los resultados fueron anonimizados y se utilizaron únicamente para fines de investigación. Las encuestas proporcionaron una base de datos robusta para comprender cómo la Industria 4.0 está afectando la vida cotidiana de las personas en diversas áreas. La combinación de métodos permitió capturar una amplia gama de perspectivas y experiencias, lo que ayudará a informar políticas y estrategias para abordar los desafíos y maximizar los beneficios de la Industria 4.0.


CONCLUSIONES

Los datos recolectados muestran una clara diferencia generacional en la adaptación a las tecnologías de la Industria 4.0, destacando que las personas mayores experimentan dificultades significativas para relacionarse con estas innovaciones, mientras que los jóvenes las adoptan con facilidad. Este fenómeno tiene raíces en varios factores interrelacionados que afectan cómo cada grupo interactúa con la tecnología. Las personas mayores enfrentan un acceso limitado a las tecnologías avanzadas. Muchos no poseen dispositivos como smartphones o computadoras modernas, o carecen de una conexión a Internet fiable. Esto puede estar vinculado a factores económicos y geográficos, ya que algunos viven en áreas con menos infraestructura digital. En consecuencia, se genera una falta de familiaridad con las tecnologías de la Industria 4.0, lo que se traduce en una inseguridad al usarlas. Esta inseguridad proviene de no haber crecido en un entorno digital, haciendo que la tecnología les parezca menos intuitiva y más desafiante de comprender. En conclusión, los datos reflejan una clara división generacional en la capacidad para adaptarse a la Industria 4.0. Mientras que los jóvenes están bien posicionados para aprovechar las oportunidades que estas tecnologías ofrecen, las personas mayores enfrentan desafíos que requieren atención específica. Abordar estas diferencias es crucial para asegurar que la transformación digital sea inclusiva y equitativa, permitiendo que todos los individuos, sin importar su edad, puedan participar y beneficiarse de los avances tecnológicos de la Industria 4.0. Implementando estrategias que faciliten la inclusión digital, podemos crear un entorno donde cada generación tenga la oportunidad de prosperar en esta era tecnológica.
Reyes Gómez Aneth, Instituto Tecnológico de Reynosa
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

ESTUDIO DE MÉTODOS PARA LA MEJORA INTEGRAL EN LAS ESTACIONES DE TRABAJO DEL PROCESO DE HULE GRANULADO HEM- 20


ESTUDIO DE MÉTODOS PARA LA MEJORA INTEGRAL EN LAS ESTACIONES DE TRABAJO DEL PROCESO DE HULE GRANULADO HEM- 20

Lozano Cervantes Estrella, Instituto Tecnológico de Reynosa. Reyes Gómez Aneth, Instituto Tecnológico de Reynosa. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

La mayoría de las empresas buscan alcanzar un alto nivel de competitividad por los altos estándares de los clientes en búsqueda de productos de calidad, costos bajos y cumpliendo con los tiempos de entrega establecidos en la compañía; así que las entidades mediante métodos, análisis, estudios o metodologías pretenden aumentar su capacidad productiva. El estudio de tiempos y movimientos permite a las compañías determinar tiempos estándar, tiempo normal y tiempos de ciclo considerando los suplementos (tiempos de descanso del trabajador) así como las capacidades físicas de los mismos. Tomando en cuenta los párrafos anteriores, se realizó una investigación que pudiera dar respuesta a la siguiente pregunta: ¿Qué probabilidad tienen que los tiempos improductivos estén incidiendo en la eficiencia de productividad del proceso de producción del hule granulado HEM-20?



METODOLOGÍA

En el presente trabajo se realizó un estudio de tiempos y movimientos utilizando técnicas como: diagrama de proceso, diagrama de Ishikawa, toma de tiempos con cronometro, entre otras herramientas de la ingeniería de métodos para identificar tiempos improductivos, variables ergonómicas y cuellos de botellas que generen retrasos en la producción de hule granulado HEM-20; además de incentivar la investigación de la ingeniería de métodos y la mejora integral de la productividad en las empresas de hule granulado, con el fin de beneficiar a las entidades dedicadas a esta actividad que deseen reducir sus costos sin sacrificar su calidad y aumentar su productividad. Con información proporcionada por trabajadores de la entidad, así como con fotografías, se realizó un layout de la empresa PRO para identificar sus estaciones de trabajo, así como rutas de los trabajadores en el proceso de producción; analizando aquellas actividades en las que interfiere el factor humano en las que posteriormente se realizó toma de tiempos con cronometro y registraron los datos necesarios para la elaboración del estudio. De igual forma mediante formulas se obtuvo la capacidad de producción, de esta manera se tiene un punto de partida donde se comparar lo producido con lo que se puede producir.


CONCLUSIONES

Al elaborar el estudio de tiempos y movimientos comprobamos que, por retrasos en diferentes áreas, no se llega a los kilos de hule programados, afectando directamente a la eficiencia de la productividad. Se identificaron diferentes áreas de mejora para el aumento de la productividad, la más destacada se encuentra en los carritos ya que cuando pasan al horno y se vacían quedan muy sucios lo cual provoca que en los siguientes ciclos sea cada vez más difícil el retirar el hule cocido, la sugerencia para un mejor rendimiento es el de limpiar los carritos cada que se empiece un nuevo pedido de hule.
Reyes Gonzalez Jesus Alejandro, Universidad Autónoma de Tamaulipas
Asesor: M.C. Juan Roberto de la Torre Escareño, Universidad Autónoma de Tamaulipas

DESARROLLO DE REALIDAD VIRTUAL PARA UN LABORATORIO DE PROCESOS QUíMICOS


DESARROLLO DE REALIDAD VIRTUAL PARA UN LABORATORIO DE PROCESOS QUíMICOS

Moreno Belmares Jazmin, Universidad Autónoma de Tamaulipas. Reyes Gonzalez Jesus Alejandro, Universidad Autónoma de Tamaulipas. Asesor: M.C. Juan Roberto de la Torre Escareño, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

En el ámbito de la ingeniería química, la experimentación y la práctica en laboratorio son esenciales para la comprensión y aplicación de conceptos teóricos. Sin embargo, los laboratorios físicos presentan una serie de limitaciones, tales como altos costos de mantenimiento, riesgos de seguridad, acceso limitado a recursos y la imposibilidad de simular ciertos escenarios extremos. Estos desafíos dificultan la enseñanza efectiva y la experimentación segura de procesos químicos complejos. La tecnología de realidad virtual (VR) ofrece una alternativa innovadora para superar estas limitaciones. A través de entornos virtuales inmersivos, es posible simular procesos químicos de manera segura, accesible y económica. Además, las herramientas de desarrollo como Unreal Engine y Blender, junto con dispositivos como Meta Quest, permiten crear experiencias visuales de alta calidad y altamente interactivas. El problema radica en la falta de implementación y desarrollo de un laboratorio de procesos químicos virtual que no solo sea técnicamente robusto, sino que también esté alineado con los objetivos educativos y formativos de los programas de ingeniería química. A pesar del potencial de la VR, existe una brecha significativa en la integración de estas tecnologías en el currículo académico, lo cual limita su aprovechamiento y su capacidad para mejorar el proceso de aprendizaje. Por lo tanto, se plantea la necesidad de desarrollar una solución de realidad virtual utilizando Unreal Engine, Blender y Meta Quest, que permita a los estudiantes de ingeniería química experimentar y practicar en un entorno virtual seguro y realista. Este proyecto busca no solo resolver los problemas de accesibilidad y seguridad en los laboratorios, sino también proporcionar una herramienta educativa que mejore la comprensión de los procesos químicos y su aplicación práctica.



METODOLOGÍA

Para llevar a cabo este proyecto de investigación, se implementó una metodología estructurada en varias fases técnicas. Inicialmente, se realizó una revisión bibliográfica y un análisis exhaustivo de las necesidades educativas en laboratorios de procesos químicos. En la fase de diseño conceptual, se utilizó Blender para crear modelos 3D detallados de equipos y reactores químicos, así como para aplicar texturas realistas a las moléculas químicas previamente modeladas en PyMOL. Posteriormente, se integraron estos modelos en Unreal Engine, donde se programaron los métodos físicos necesarios para simular con precisión los procesos químicos. Se prestó especial atención a la programación de las interacciones y las secuencias de experimentación para garantizar una experiencia inmersiva y educativa utilizando los dispositivos Meta Quest. La interactividad con la interfaz de usuario se desarrolló cuidadosamente para asegurar una navegación intuitiva y una experiencia de aprendizaje efectiva. Una vez desarrollado el entorno virtual, se llevó a cabo una fase de prueba y evaluación con estudiantes de ingeniería química, recopilando datos cualitativos y cuantitativos para evaluar la efectividad educativa y la usabilidad del laboratorio virtual. Finalmente, se analizaron los resultados y se realizarán los ajustes necesarios para optimizar el entorno, con el objetivo de crear una herramienta educativa robusta y eficaz.


CONCLUSIONES

Los resultados obtenidos indican una mejora significativa en la comprensión y aplicación de conceptos teóricos por parte de los estudiantes: 1. Mejora en el Aprendizaje: Los estudiantes mostraron una mayor comprensión de los procesos químicos complejos, gracias a la posibilidad de interactuar con los modelos 3D y las simulaciones en un entorno seguro y controlado. La realidad virtual permitió visualizar reacciones químicas y procesos que, de otro modo, serían difíciles de observar en un laboratorio físico. 2. Accesibilidad y Seguridad: La plataforma virtual proporcionó un acceso ilimitado a los laboratorios, eliminando los riesgos de seguridad asociados con la manipulación de sustancias peligrosas. Esto permitió a los estudiantes experimentar con diferentes escenarios y condiciones de reacción sin restricciones, promoviendo una mayor experimentación y aprendizaje activo. 3. Interactividad y Engagement: La interactividad programada en el entorno virtual, junto con la utilización de dispositivos Meta Quest, resultó en una experiencia altamente inmersiva. Los estudiantes reportaron una mayor motivación y engagement durante las sesiones de laboratorio, lo que se reflejó en una participación más activa y una retención de conocimientos mejorada. 4. Eficiencia en el Uso de Recursos: La implementación de un laboratorio virtual redujo significativamente los costos asociados con el mantenimiento y la operación de laboratorios físicos. Además, permitió la simulación de escenarios que requerirían equipos y reactivos costosos o difíciles de conseguir, optimizando así los recursos educativos. 5. Flexibilidad en la Enseñanza: Los instructores encontraron en el laboratorio virtual una herramienta versátil que les permitió personalizar las experiencias de aprendizaje según las necesidades individuales de los estudiantes. La posibilidad de ajustar parámetros y condiciones experimentales en tiempo real facilitó una enseñanza más adaptativa y centrada en el estudiante.
Reyes Huerta Leonardo, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Juan Jose Carrascal Sanchez, Fundación Universitaria Tecnológico Comfenalco

EXTRACCIóN DE QUITOSANO A PARTIR DE ESCAMAS DE PESCADO PARA LA ADSORCIóN DE METALES EN AGUA


EXTRACCIóN DE QUITOSANO A PARTIR DE ESCAMAS DE PESCADO PARA LA ADSORCIóN DE METALES EN AGUA

Mondragón Ibarra Estefanía, Universidad de Guadalajara. Reyes Huerta Leonardo, Benemérita Universidad Autónoma de Puebla. Rocha Ceja Genaro Eduardo, Instituto Tecnológico de Jiquilpan. Asesor: Dr. Juan Jose Carrascal Sanchez, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua es una preocupación creciente a nivel mundial. Las principales causas de la contaminación del agua por metales son las actividades industriales, portuarias, agrícolas, turísticas y por el tráfico marítimo. Estos metales pueden acumularse en el medio ambiente llegando a afectar tanto a la flora y fauna acúatica y terrestre como a la salud humana cuando se ingieren a través del agua contaminada, por esa razón es importante lograr la correcta remoción de estos.



METODOLOGÍA

Extracción de quitosano: Acondicionamiento de escamas: Se recolectaron escamas del mercado local "Bazurto" en Cartagena de Indias, se limpiaron exhaustivamente con agua destilada, se secaron y se trituraron. Desmineralización: Se preparó una mezcla de una solución de HCl 1M en una relación de 1:20 (g de escamas:ml de solución) con las escamas. Se agitó constantemente por 24 horas a una temperatura de 30°C Desacetilación: Se llevó a un pH básico con NaOH y se calentó hasta 80 °C por 2 horas con agitación constante. Neutralización: Se llevó a pH neutro con agua destilada y un poco de solución de HCl. Centrifugación: Se realizaron diversos lavados y centrifugaciones para separar el sólido. Secado y molienda: El sólido se llevó al horno por 24 horas a una temperatura de 45 °C y se molió para obtener el polvo de quitosano. ​Análisis de metales: Preparación de muestras: Se prepararon muestras base de una concentración conocida de hierro y cobre, y se diluyeron en otras 4 y 3 concentraciones más, respectivamente. Lectura de absorbancia: Se utilizó un espectrofotómetro UV-Visible para leer la absorbancia de las muestras por luz visible. Gráfica: Se relacionó la concentración con la absorbancia leída para obtener las curvas de calibración. Aplicación en filtro: Una vez montado el filtro con el quitosano se hizo una muestra de concentración conocida por el mismo y se leyó la absorbancia de la muestra a la salida del filtro para conocer su concentración y poder determinar su capacidad de adsorción.


CONCLUSIONES

Se logró la extracción de quitosano por medio de escamas de pescado de manera satisfactoria, recolectando la cantidad adecuada para desarrollar las pruebas posteriores. Sin embargo, se notó que el rendimiento de conversión no es muy alto. Para la evaluación de la capacidad de adsorción del quitosano extraído y del diseño del filtro todavía es necesario seguir realizando pruebas, modificando variables del proceso, mejorando la precisión en la medición y proponiendo nuevas ideas. En conclusión, es necesario seguir desarrollando el proyecto para poder definir la efectividad de lo propuesto, asimismo, se debe avanzar a pensar sobre su aplicación en situaciones reales a grandes niveles.
Reyes Santamaria Ivana, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato

COMPENSACIóN DE DISTURBIOS ELéCTRICOS MEDIANTE UN STATCOM


COMPENSACIóN DE DISTURBIOS ELéCTRICOS MEDIANTE UN STATCOM

Reyes Santamaria Ivana, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Las cargas hoy en día son más susceptibles a las variaciones en el sistema de suministro de energía eléctrica, existen cargas industriales, residenciales y comerciales, se basan en microprocesadores como lo son las computadoras.   Debido a que hay una creciente implementación de sistemas eléctricos interconectados a la red como lo son las instalaciones industriales o los sistemas fotovoltaicos, estos cuentan con una cantidad de procesos integrados, entonces una falla en algún componente representa consecuencias graves para los equipos y los usuarios.   Por lo anterior, los costos para la solución del problema de calidad de la energía pueden variar, si bien muchos equipos traen consigo filtros que se asumen en el costo del producto eléctrico, existen otro caso como tener la necesidad de adquirir una fuente de potencia ininterrumpible y también asegurar la compatibilidad de los circuitos de distribución.   Incluso el funcionamiento de dispositivos de protección pueden provocar perturbaciones en el suministro eléctrico. Dado que las empresas de servicios públicos tienen poco control práctico sobre las perturbaciones en sus sistemas, no están dispuestas a aceptar responsabilidad por ella.   Generalmente, debido a la ubicación geográfica y condiciones meteorológicas en pueblos o asentamientos pequeños cuentan con un transformador el cual suministra un alto número de usuarios, entonces son más susceptibles a problemas con la calidad de su energía ya que todas las cargas sensibles comparten el mismo transformador o fuente de alimentación, por lo tanto, las variaciones en el voltaje resultan significativos cuando las cargas entran y salen provocando un desbalance que se observa en el factor de potencia.   Según trabajos e investigaciones recientes atribuyen la mayor parte de los problemas en cuestión de calidad de la energía a una forma inefectiva de distribución energética y de igual forma a la puesta a tierra en muchos de los casos. Aún se use un equipo contra fallas o de corrección efectivo es posible dar solución a problemas de calidad de la energía, no obstante, los problemas originados por la distribución propia de un usuario y el sistema de puesta a tierra se seguirán manifestando.   Entre el voltaje y la corriente existe una relación estrecha en un sistema eléctrico, cuando el voltaje es de buena calidad, la distorsión se observa en la corriente. Y esto se debe a que la compañía suministradora es la responsable del control del voltaje, mientras que la corriente depende de las cargas que se encuentren conectadas. Las principales perturbaciones que se presentan en la corriente son en las siguientes situaciones: Cuando existe un corto circuito las corriente resultante causa una depresión del voltaje. Cuando ocurren descargas atmosféricas la corriente provocada causa impulsos de alto voltaje y por consiguiente causan cortocircuitos Cuando la corriente se encuentra distorsionada, también se distorsiona el voltaje cuando pasa a través de la impedancia del sistema.   Sin embargo, aun con la casi nula existencia de problemas en la calidad de energía en instalaciones es de gran importancia llevar a cabo evaluaciones de problemas de calidad de la energía y medidas preventivas que puede tomar el usuario y deben ser tomados en cuenta en la compra de nuevos dispositivos eléctricos y electrónicos para evitar problemas costosos.



METODOLOGÍA

Para la realización de la simulacion del STATCOM se dividió en partes debido a que es un consta de distintos circuitos que funcionan en conjunto, primero se realizó el diseño matemático del controlador, entonces, este hace uso de dos controles, el control PI y el control PLL. Con el primero se logró minimizar el error entre el valor de referencia de voltaje y el voltaje real, este se conectó en paralelo con la simulación de una línea de transmisión. Mientras que el segundo control mantiene la señal sincronizada con la red eléctrica. A continuación, se procede con el diseño matemático del inversos del STATCOM, el inversor hace uso de tiristores GTO, con esto fue posible controlar altas corrientes y voltajes y así realizar la conversión de corriente directa a corriente alterna. Finalmente, cuando se termine la investigación a través de la simulacion en Matlab/Simulink se obtendrán las gráficas de las perturbaciones eléctricas como lo son los armónicos y los sags, así se podrá observar la mitigación de los mismos y el funcionamiento del dispositivo con altas potencias.


CONCLUSIONES

En la investigación del verano realizado en el Instituto Tecnológico Superior de Irapuato junto al investigador fue posible reforzar conocimiento básicos sobre la calidad de la energía eléctrica y de igual forma se logró adquirir y comprender los fundamentos del funcionamiento del dispositivo STATCOM. Así mismo se practicaron habilidades blandas durante la estancia a través de presentaciones semanales sobre el tema de investigación. Sin embargo, debido a que simulación del dispositivo es extenso, aún se encuentra en el proceso del diseño matemático del inversor, de esta manera se prueban distintos tiristores para analizar el comportamiento del inversor del STATCOM. Finalmente, se espera examinar el comportamiento y denotar las variaciones indeseadas y momentáneas en la forma de onda de corriente o tensión como son los armónicos, para que, de esta manera, en otra gráfica se muestre la erradicación de estas perturbaciones eléctricas.
Reyes Zazueta Marco Ivan, Instituto Tecnológico de Culiacán
Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional

REDES NEURONALES PARA RECONOCIMIENTO DE VEHíCUOS


REDES NEURONALES PARA RECONOCIMIENTO DE VEHíCUOS

Arceo Beltrán Aldo Yahir, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Reyes Zazueta Marco Ivan, Instituto Tecnológico de Culiacán. Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, la creciente popularidad de los vehículos autónomos ha impulsado el desarrollo del reconocimiento de vehículos, el cual ha ganado importancia en campos como la seguridad vial. La evolución de los sistemas avanzados de asistencia al conductor ha hecho que la capacidad de identificar y clasificar vehículos de manera precisa y rápida sea esencial. Además de las cámaras convencionales, tecnologías como LiDAR y radares se están utilizando para obtener una percepción más completa del entorno. Las técnicas de visión por computadora y aprendizaje profundo, especialmente las redes neuronales convolucionales, han demostrado ser herramientas poderosas para integrar y procesar la información de estas diversas fuentes, abordando los desafíos asociados con la detección y clasificación de vehículos. Nuestro objetivo es profundizar en el estudio de las redes neuronales para desarrollar un modelo capaz de identificar vehículos de manera efectiva.



METODOLOGÍA

Estudio Preliminar Antes de la creación del dataset, se realizó un estudio exhaustivo sobre redes neuronales para comprender los conceptos fundamentales y sus bases biológicas. Este análisis incluyó el estudio del funcionamiento de las redes neuronales, que imitan el sistema nervioso del cuerpo humano, con un enfoque particular en la convolución y el pooling, que son técnicas clave en las redes neuronales convolucionales (CNNs). Se exploraron cómo estas técnicas implican el procesamiento visual en el cerebro, mediante la extracción y reducción de características de las imágenes, respectivamente. Se investigaron también los canales de color y los espectros de color, basados en la percepción visual del ojo humano, incluyendo los conos y bastones que permiten la percepción del color y la visión en diversas condiciones de iluminación. Esta base teórica proporcionó un marco sólido para el diseño y la implementación del modelo. Investigación del Estado del Arte A continuación, se realizó una investigación detallada sobre el estado del arte en el reconocimiento de vehículos. Este análisis incluyó la revisión de enfoques y técnicas actuales en la literatura, identificando las metodologías más efectivas y los desafíos comunes en el campo. Esta investigación ayudó a establecer una referencia para el desarrollo de nuestra solución y a identificar posibles áreas de mejora y optimización. Creación del Dataset Para el proyecto, se creó un dataset personalizado mediante la recolección de imágenes de vehículos en condiciones reales. Se grabaron videos en la calle utilizando una cámara de movil, y de cada vehículo de interés se extrajeron tres imágenes representativas desde distintas distancias: corta, mediana y larga. Esto permitió capturar diferentes perspectivas y detalles de los vehículos, asegurando una variabilidad en los datos que contribuye a la robustez del modelo de reconocimiento. Preprocesamiento de Datos Las imágenes obtenidas fueron sometidas a un proceso de preprocesamiento para mejorar la calidad y consistencia de los datos. Esto incluyó: Redimensionamiento: Ajuste de las dimensiones de las imágenes para uniformar el tamaño de entrada del modelo. Normalización: Escalado de los valores de píxeles para asegurar una distribución uniforme y facilitar el entrenamiento del modelo. Implementación de Redes Neuronales Para la clasificación de imágenes de vehículos, se utilizó la red neuronal convolucional VGG13. Esta arquitectura es conocida por su eficacia en la clasificación de imágenes debido a su diseño profundo y estructurado. VGG13 se caracteriza por: Arquitectura de la Red: consta de 13 capas de convolución, organizadas en 11 capas convolucionales y 3 capas totalmente conectadas. Las capas convolucionales están dispuestas en bloques, cada uno con una secuencia de convoluciones y activaciones ReLU, seguidas por una capa de max-pooling para reducir la dimensionalidad y preservar las características más importantes. Tamaño de Kernel: Utiliza kernels de tamaño 3x3 para las capas convolucionales, lo que permite capturar características finas y detalladas en las imágenes. Capas de Pooling: Las capas de max-pooling, con tamaño de ventana 2x2, se utilizan para reducir la resolución espacial y controlar el overfitting. En nuestra red, se clasificaron las imágenes en seis categorías de vehículos: automóviles, autobuses, motocicletas, microbuses, bicicletas y camiones de transporte pesado. La red VGG13 se entrenó y ajustó específicamente para estas seis clases


CONCLUSIONES

Evaluación del Rendimiento del Modelo Gráficas de Precisión y Pérdida Las gráficas mostraron que después de unas 40 épocas, la precisión en los datos de entrenamiento alcanzó el 100% y la pérdida se acercó a 0. Aunque el modelo tuvo un buen desempeño en los datos de entrenamiento, en el conjunto de prueba no se logró una precisión perfecta, lo cual era esperado dado que el objetivo era superar una precisión del 50%. Esto sugiere que el modelo podría estar sobreajustado. Análisis ROC y AUC Las curvas ROC por clase y la curva ROC promedio micro mostraron que la mayoría de las clases alcanzaron un AUC mayor a 0.9, indicando un buen desempeño en la clasificación. Sin embargo, una clase con pocas imágenes tuvo un AUC más bajo, evidenciando desafíos con datos desequilibrados. Lecciones Aprendidas Aprendimos la importancia de mantener métricas claras y una mayor formalidad en la investigación. La orientación recibida nos enseñó a fundamentar cada decisión en el proceso, lo que mejorará la calidad y rigurosidad de futuras investigaciones.
Ricardo Villanueva Juan Sebastian, Universidad Nacional Abierta y a Distancia
Asesor: Dra. Sara Alexandra Restrepo Valencia, Universidad Autónoma de Manizales

CONTEXTO DEL HIDRóGENO RENOVABLE EN COLOMBIA


CONTEXTO DEL HIDRóGENO RENOVABLE EN COLOMBIA

Carreño Pinzon Jhon Sebastian, Universidad de Santander. Ricardo Villanueva Juan Sebastian, Universidad Nacional Abierta y a Distancia. Asesor: Dra. Sara Alexandra Restrepo Valencia, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema  El hidrógeno es el elemento más abundante del universo y tiene un gran potencial como fuente de energía limpia y renovable. Con la urgencia de encontrar alternativas a los combustibles fósiles, el hidrógeno ha surgido como una opción viable debido a su alta densidad energética y la ausencia de emisiones contaminantes al utilizarse en celdas de combustible. Actualmente, el medio ambiente está gravemente afectado por las emisiones de CO₂, que contribuyen al cambio climático, siendo responsable del 73% de las emisiones globales de gases de efecto invernadero. Por ello, la investigación en nuevas fuentes de energía, como el hidrógeno, se ha intensificado. El hidrógeno se clasifica por colores, conocidos como el "arcoíris del hidrógeno", según sus métodos de producción y el impacto ambiental. Los colores incluyen: - H2 Morado (Violeta, rosa, rojo): Producido mediante electricidad de centrales nucleares y electrólisis. - H2 Amarillo: Generado por electrólisis usando energía hidroeléctrica. - H2 Gris: Producido a partir del reformado de metano con vapor, generando subproductos como CO₂. - H2 Turquesa: Producido por pirólisis del metano, generando carbono sólido en lugar de CO₂. - H2 Marrón y Negro: Generado a partir de carbón lignito y bituminoso, emitiendo altas cantidades de CO₂. - H2 Azul: Producido a partir de combustibles fósiles con captura y almacenamiento de carbono (CCUS). - H2 Blanco: Hidrógeno natural encontrado en la corteza terrestre y otros lugares.  



METODOLOGÍA

 Metodología Para comenzar, es fundamental introducirnos en el contexto y proporcionar una definición exhaustiva del hidrógeno. Además, abordamos el concepto del "arcoíris del hidrógeno" y detallamos las características específicas asociadas a cada uno de los colores que lo componen. En primer lugar, como ya hablamos anteriormente el hidrógeno es el elemento químico más abundante en el universo, representado por el símbolo H y con un número atómico de 1. Su ubicuidad y versatilidad lo convierten en un componente esencial para diversas aplicaciones científicas e industriales. Sin embargo, su papel en la transición energética ha sido particularmente destacado en los últimos años. Con base en lo anterior, procedimos a llevar a cabo un análisis exhaustivo de las diversas aplicaciones en las cuales el hidrógeno es utilizado. Este análisis fue fundamental para comprender la amplitud y profundidad de los usos actuales del hidrógeno en diferentes sectores. Se evaluaron tanto las aplicaciones industriales como las emergentes, considerando factores como eficiencia, sostenibilidad y viabilidad económica. Este enfoque nos permitió identificar las áreas clave en las que el hidrógeno desempeña un papel crucial y cómo su uso puede evolucionar en el futuro. Posteriormente, procedimos a llevar a cabo una búsqueda exhaustiva utilizando la herramienta Scopus con el fin de realizar una revisión bibliográfica detallada relacionada con artículos que tratan sobre el hidrógeno y su potencial. A continuación, implementamos una serie de filtros específicos con el objetivo de analizar de manera meticulosa los temas abordados en la revisión bibliográfica y la información obtenida. Este enfoque nos permitió asegurar la relevancia y calidad de las fuentes seleccionadas, garantizando una base sólida y fundamentada para nuestro estudio. Los datos que arrojó la base de datos, tales como título, autores, procedencia de autores, citaciones, referencias y resumen fueron analizados en el software VOSviewer para hacer análisis de coocurrencias.


CONCLUSIONES

Conclusiones En conclusión, se encontró la importancia de realizar estudios de investigación en torno al hidrógeno como vector energético. Estos resultados se enmarcan en el contexto de la transición energética global, un proceso de transformación que busca mitigar el impacto ambiental y garantizar la sostenibilidad a largo plazo de los sistemas energéticos mundiales. La evidencia proporcionada por esta investigación subraya la creciente atención que la comunidad científica ha dedicado al hidrógeno como una alternativa prometedora dentro del panorama energético emergente. Este enfoque se alinea con los objetivos de descarbonización y la búsqueda de fuentes de energía más limpias y eficientes, que son fundamentales para abordar los desafíos climáticos contemporáneos. Los datos obtenidos reflejan una tendencia clara hacia la intensificación de los esfuerzos investigativos en este campo, lo cual es congruente con las metas establecidas en acuerdos internacionales y políticas nacionales orientadas a la mitigación del cambio climático y la promoción de energías renovables. En síntesis, los resultados obtenidos no solo contribuyen al corpus de conocimiento científico sobre el hidrógeno, sino que también ponen de manifiesto la interrelación entre la investigación académica y los apremiantes desafíos energéticos y ambientales que enfrenta la sociedad contemporánea. Este estudio sienta las bases para futuras investigaciones y subraya la necesidad de continuar explorando el potencial del hidrógeno como componente clave en la transición hacia un futuro energético más sostenible y resiliente.
Rivadeneira Oñate Jordan Andrey, Universidad de la Guajira
Asesor: Dr. Juan Ernesto Mendoza Ramos, Universidad Autónoma de Guerrero

EVALUACIóN AMBIENTAL DE LA GESTIóN DE RESIDUOS SóLIDOS: UN ANáLISIS COMPARATIVO DE ESCENARIOS DE COLOMBIA Y MéXICO


EVALUACIóN AMBIENTAL DE LA GESTIóN DE RESIDUOS SóLIDOS: UN ANáLISIS COMPARATIVO DE ESCENARIOS DE COLOMBIA Y MéXICO

Rivadeneira Oñate Jordan Andrey, Universidad de la Guajira. Asesor: Dr. Juan Ernesto Mendoza Ramos, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

El problema de la gestión de residuos sólidos se centra en el manejo de los desechos generados por actividades humanas, que incluye recolección, transporte, tratamiento y disposición final. Es crucial para evitar la contaminación y proteger la salud pública. Tanto en Colombia como en México, existen estrategias para mejorar la gestión de residuos, incluyendo planes integrales a nivel municipal, indicadores de gestión, y sistemas de información para monitorear los datos. Además, se promueve la educación y concienciación pública, y se fomenta la participación de recicladores informales. Se subraya la importancia de un marco regulatorio robusto para lograr una gestión sostenible y reducir el impacto ambiental, especialmente dado el aumento de generación de residuos debido al crecimiento poblacional y cambios en hábitos de consumo.  



METODOLOGÍA

Recopilación de datos sobre la generación de residuos sólidos en entornos seleccionados Realizar un mapeo exhaustivo de la cantidad y composición de los residuos sólidos generados en diferentes entornos seleccionados, mediante la recopilación de datos demográficos, patrones de consumo y sistemas de gestión de residuos sólidos existentes en cada entorno, y llevar a cabo un Análisis del Ciclo de Vida (ACV) para evaluar el impacto ambiental asociado a dichos residuos y sus respectivos sistemas de gestión. Análisis del ciclo de vida (ACV) para evaluar el impacto ambiental Aplicar la metodología de análisis del ciclo de vida (ACV) para evaluar las estrategias de gestión de residuos, desde la recolección hasta la disposición final, cuantificando las emisiones de gases de efecto invernadero, el consumo de energía y otros impactos ambientales relevantes en cada escenario. Comparación de tecnologías y prácticas de gestión de residuos bajo criterios de economía circular Realizar una revisión exhaustiva de las tecnologías y prácticas actuales de gestión de residuos sólidos en ambos países, enfocándose en la economía circular, y comparar criterios ambientales como las emisiones de gases de efecto invernadero, el consumo de recursos y la eficiencia energética, entre otros. Desarrollo de indicadores de desempeño ambiental para la comparación de resultados Desarrollar indicadores cuantitativos específicos para evaluar el desempeño ambiental de cada escenario de gestión de residuos, proporcionando una base cuantitativa para la comparación de estrategias y la identificación de prácticas sostenibles de economía circular. Formulación de recomendaciones basadas en los hallazgos para promover prácticas sostenibles Desarrollar recomendaciones específicas basadas en los resultados cuantitativos y cualitativos obtenidos en ambos países, diseñadas para mejorar el desempeño ambiental de los sistemas de gestión de residuos y promover prácticas más sostenibles y eficientes en cada contexto.


CONCLUSIONES

El análisis comparativo de la gestión de residuos sólidos entre Colombia y México revela diferencias significativas y áreas de mejora en ambos países. En Colombia, se recicla aproximadamente el 40% de los residuos sólidos, el doble que en México, donde solo se recicla el 20%. Este mayor porcentaje en Colombia se debe a políticas más estrictas, programas de separación en la fuente y una activa participación de recicladores de base, lo que ha permitido avances importantes en la gestión de residuos y destaca la importancia de un enfoque riguroso y colaborativo. Por otro lado, México enfrenta serios desafíos en cuanto a infraestructura y eficiencia en la recolección y disposición final de residuos. A pesar de tener políticas nacionales en marcha, se requiere una mayor inversión y una campaña de educación pública más fuerte sobre la importancia del reciclaje y la reducción de residuos. Con solo el 20% de los residuos reciclados, México tiene un gran potencial de mejora si se adoptan estrategias más efectivas y se refuerza el marco regulatorio. La comparación entre ambos países subraya la necesidad urgente de fortalecer las infraestructuras y las políticas de gestión de residuos para enfrentar eficazmente los desafíos ambientales actuales. Además, resalta la importancia de promover la educación y concienciación pública, así como la participación comunitaria y de recicladores informales.
Rivera Aguilar Juan Diego, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Osvaldo Lira Díaz, Instituto Tecnológico de Lázaro Cárdenas

ALGORITMOS PARA EL SEGUIMIENTO DE TRAYECTORIAS EN VEHíCULOS NO TRIPULADOS


ALGORITMOS PARA EL SEGUIMIENTO DE TRAYECTORIAS EN VEHíCULOS NO TRIPULADOS

Cuevas Pérez Braulio Naresh, Instituto Tecnológico Superior de Ciudad Hidalgo. Rivera Aguilar Juan Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Osvaldo Lira Díaz, Instituto Tecnológico de Lázaro Cárdenas



PLANTEAMIENTO DEL PROBLEMA

Desde tiempos remotos, motivados por sus desplazamientos sobre la tierra o el mar, los seres humanos han utilizado diversas técnicas de navegación. Dichas técnicas requieren determinar el valor de ciertos parámetros de navegación del individuo, y eventualmente, de vehículos. Esto se puede conseguir de distintas formas, ya sea por mediciones referidas a cuerpos ajenos al individuo como podrían ser los astros y su posición en el firmamento; o asistidos por instrumentos propios como lo fueron las brújulas, y cuyo uso fue puesto en práctica durante muchos años en la antigüedad. La navegación robótica se enfoca a la ubicación espacial de un robot respecto a su entorno, con el propósito de realizar un desplazamiento desde un punto de partida hacia un destino. Sin la definición de parámetros adecuada y dada la falta de libre albedrío de un robot, este es incapaz de reaccionar frente eventos externos no previstos. Para la coordinación de movimientos se realizan procedimientos de control, tales como navegación autónoma y reprogramación de ruta. El desarrollo de robots móviles es un campo relativamente joven que data apenas de fines de la década de 1970. Con anterioridad el desarrollo se había centrado exclusivamente en robots industriales, los cuales son aun ampliamente usados, representando una gran cuota comercial. Para la planificación de trayectorias óptimas en la navegación robótica, se han utilizado distintos procedimientos de búsqueda de rutas y así, con el paso del tiempo se han implementado controles automáticos que requieren softwares que cuenten con diversas herramientas tecnológicas como lo es la inteligencia artificial, ello orientado a lograr que el vehículo sea capaz de tomar decisiones en tiempo real bajo escenarios cambiantes. Debido a lo anterior existe la necesidad de desarrollar e implementar algoritmos para el seguimiento de trayectorias de manera optima y automáica en vehículos no tripulados.



METODOLOGÍA

Configuración Inicial y Conectividad Actualización de la Raspberry Pi con sudo apt update y sudo apt upgrade. Conexión a la red Wi-Fi local y habilitación del acceso remoto mediante SSH para facilitar el control. Integración de Componentes GPS Neo6M: Conectado al GPIO de la Raspberry Pi (TX a RX y RX a TX). Instalación de gpsd y python-gps, con configuración y desarrollo de un hilo para lectura continua en exteriores. Sensor RPLIDAR A1M8: Conectado mediante USB, identificado con ls /dev/ttyUSB. Instalación de dependencias (rplidar, pyserial, numpy) y desarrollo de un script en Python con hilo para lectura continua de datos. Cámara USB: Conectada para streaming de video, instalación de librerías necesarias y verificación del acceso mediante un navegador. Desarrollo del Software en C# Uso de Visual Studio Code para programar en C#. Instalación de librerías System.Drawing, System.Windows.Forms, y AForge.Video, y creación de un panel en Windows Forms para visualizar el video. Configuración de MQTT Instalación del bróker Mosquitto en la Raspberry Pi, configuración para manejo de comunicación MQTT y pruebas entre aplicaciones en C# y Python. Creación de la Base de Datos MySQL Instalación y configuración de MySQL, creación de la base de datos rutas_db con tabla de nodos. Scripts en Python para insertar coordenadas del GPS en la base de datos. Desarrollo del Software en C# Creación de un proyecto en Visual Studio Code, instalación de MQTTnet para comunicación MQTT, y desarrollo de la interfaz para datos de sensores y video de la cámara. Permite ajustes en velocidad, orientación y destino. Algoritmo de Toma de Decisiones Script en Python para leer datos del GPS y almacenarlos en MySQL. Cálculo de la ruta más corta con la fórmula de Haversine y el algoritmo de Dijkstra. Implementación de función para reconstrucción del camino óptimo entre nodos.


CONCLUSIONES

El sistema es capaz de caracterizar su entorno debido a la información obtenida por los sensores implementados (GPS, giroscopio, magnetómetro, acelerómetro, detector de obstáculos LIDAR), esto permite que el vehículo pueda identificar la ubicación y el entorno en el que se encuentra, de manera que pueda explorar, seguir una ruta establecida y llegar al punto geográfico establecido en el menor tiempo posible, ya que a parte de determinar la ruta más corta a su destino con la implementación de un controlador PID y la cinemática del vehículo alcanza una velocidad adecuada y cambios de dirección manteniendo estabilidad y alcanzando su destino con éxito. El vehículo podrá ser monitoreado vía remota apoyándose en la implementación de protocolos de comunicación IoT así como visión robótica, está implementación quedó fuera del alcance del presente proyecto, sin embargo se continuará trabajando para concluir con esta característica.
Rivera Buenrostro Antonio Isaias, Instituto Tecnológico de Colima
Asesor: Dr. Joel Salome Baylon, Universidad Tecnológica de Manzanillo

ALIMENTADOR INTELIGENTE PARA PECES


ALIMENTADOR INTELIGENTE PARA PECES

Ramos Campos Juan, Instituto Tecnológico de Colima. Rivera Buenrostro Antonio Isaias, Instituto Tecnológico de Colima. Asesor: Dr. Joel Salome Baylon, Universidad Tecnológica de Manzanillo



PLANTEAMIENTO DEL PROBLEMA

Actualmente, solo el 16% de los establecimientos pesqueros obtienen productos de manera acuícola, en comparación con el pescado obtenido del mar. Esto se debe a las dificultades para criar y controlar peces en cautiverio y los cuidados necesarios para su mantenimiento. El principal problema es la dificultad que enfrentan los acuicultores para monitorear y gestionar eficazmente los peces en cautiverio. Es crucial desarrollar un sistema que permita monitorear los peces de manera continua y eficiente, con capacidad de actuar de manera inteligente mediante diversos sensores. Se propone investigar el uso de tecnología para monitorear continuamente parámetros del agua y operar de forma autónoma. Los parámetros a medir incluyen la oxigenación, el pH, el ORP y la temperatura. Estos sistemas de control estabilizarán estos parámetros a niveles deseados, ya que niveles no óptimos causan estrés en los peces, problemas de alimentación y agresividad.



METODOLOGÍA

Las pruebas se realizaron en un ambiente controlado con Tilapias Rojas (Oreochromis mossambicus), monitoreadas gran parte del día. Uno de los objetivos es automatizar la limpieza de la pecera. Inicialmente, se consideró un sensor de turbidez, pero se descartó debido a errores de medición por la influencia de la luz y altos niveles de turbidez perjudiciales para los peces. Como alternativa, se implementó una bomba de agua biológica que recircula el agua, retirando sólidos y almacenándolos para uso como abono. Se evaluó el uso de diversos sensores para medir parámetros. El "Wi-Fi Pool Kit" de Atlas Scientific proporcionó circuitos y sondas para mediciones, modificado para mejor interpretación de datos. Primero, se midió y calibró el pH, crucial para la supervivencia de los peces, con un margen de error de ±0.2. También se calibró la temperatura por software, importante para mantener una temperatura estable para los peces. El sensor de ORP es relevante para la calidad del agua y se calibrará para mantener un espacio óptimo para los peces. El monitoreo de la oxigenación es crucial, y se investigó el uso del sensor "RDO BLUE" de tecnología láser, que requiere menos mantenimiento. Se controlará la bomba de oxigenación con un variador de frecuencias. Finalmente, se pretende automatizar la alimentación de los peces, considerando su cantidad y peso, basado en avances descritos por Tonachella et al. (2022), que permite estimar automáticamente la longitud y el peso de los peces en maricultura.


CONCLUSIONES

El desarrollo de un sistema automatizado para el monitoreo y gestión de peces en cautiverio representa un avance significativo en la acuicultura. A través de sensores y tecnologías disponibles, se estableció un sistema que mide parámetros cruciales como pH, temperatura, ORP y oxigenación, y automatiza la limpieza y alimentación de la pecera. El uso de la bomba de agua biológica para la limpieza continua y la integración del "Wi-Fi Pool Kit" de Atlas Scientific para la medición precisa de parámetros han demostrado ser soluciones efectivas. La automatización de la alimentación basada en el peso y cantidad de peces, respaldada por investigaciones previas, muestra el potencial de la tecnología en la acuicultura. La utilización del sensor "RDO BLUE" para el monitoreo de oxígeno resalta la importancia de la innovación en el manejo eficiente de recursos acuáticos. En resumen, este proyecto mejora la eficiencia y efectividad del monitoreo y gestión de peces en cautiverio, abriendo nuevas posibilidades para la aplicación de tecnologías avanzadas en la acuicultura. Con una implementación y mantenimiento adecuados, estos sistemas pueden contribuir significativamente a aumentar la producción acuícola de manera sostenible y responsable.
Rivera Franco Yadi Lorena, Institución Universitaria Antonio José Camacho
Asesor: Dr. Jose Octavio Vazquez Buenos Aires, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas

DISEñO CAD DE UNA òRTESIS DE REHABILITACIóN PARA PACIENTES CON ESPASTICIDAD EN BRAZO DERECHO


DISEñO CAD DE UNA òRTESIS DE REHABILITACIóN PARA PACIENTES CON ESPASTICIDAD EN BRAZO DERECHO

Rivera Franco Yadi Lorena, Institución Universitaria Antonio José Camacho. Asesor: Dr. Jose Octavio Vazquez Buenos Aires, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas



PLANTEAMIENTO DEL PROBLEMA

La hemiplejia se define como la parálisis de todo un lado del cuerpo, aunque puede ser provocada por enfermedades que afectan la columna a nivel dorsal o en los hemisferios cerebrales, normalmente se le considera resultado de un accidente cerebrovascular (ACV). El accidente cerebrovascular es una de las principales causas de muerte y discapacidad en todo el mundo. La hemiplejía es una secuela de un ACV, que puede limitar significativamente múltiples capacidades del paciente para moverse y cuidarse a sí mismo. El tratamiento de esta enfermedad se realiza en dos direcciones: por un lado, corrigiendo las causas que originaron la hemiplejia, y por el otro, proporcionando atención a los síntomas presentes, mediante la combinación de fármacos y terapias de rehabilitación que se ajustan gradualmente conforme se observe mejoría en el paciente. El tratamiento que se estructura para un paciente es casi personal y, exceptuando los medicamentos utilizados para detener el ACV, este se utilizará por el resto de su vida para evitar nuevos eventos. La terapia de rehabilitación se estructura de acuerdo con los daños ocasionados por el ACV favoreciendo el trabajo muscular y la movilidad de las extremidades afectadas, sin embargo, la motivación y el estado emocional del paciente favorecen o afectan el impacto de las terapias de rehabilitación. El cambio de ritmo diario en las actividades afecta al paciente de forma significativa, pero también a los familiares que cohabitan con el paciente debido a que estos deben implementar una serie de adaptaciones, tales como: establecer espacios físicos compartidos (dormitorio, estancia diurna, baño), definir horarios de atención básica (alimentación, medicación, necesidades fisiológicas básicas), asistir al paciente en los horarios de visita médica (asistir a consulta, estudios de laboratorio, terapias externas o en domicilio). Una vez que el paciente se estabiliza y puede mantener un ritmo diario de actividades el núcleo familiar puede reducir las adaptaciones y priorizar otras actividades que resulten importantes en la familia. Por ende, en la rehabilitación de extremidades superiores, los movimientos recomendados para pacientes hemipléjicos se enfocan a restituir los patrones que generan la capacidad de mover cada articulación. Sin embargo, el daño ocasionado por el ACV generalmente no asegura que el paciente pueda alcanzar un grado significativo de rehabilitación. Este resultado pobre resulta desalentador para un paciente severamente afectado por el ACV, incluso al grado de que, el paciente renuncia y abandona la terapia recomendada por el médico especialista. Cifras recolectadas en algunos trabajos, indican que apenas el 10% de los pacientes recuperan la fuerza y movilidad en las extremidades afectadas. Un daño degenerativo severo en extremidades superiores (o brazos) es la espasticidad, el cual se define como un trastorno muscular ocasionado por el exceso de tensión en los músculos provocando: rigidez, cansancio, movimientos involuntarios, contracturas, pero sobre todo dolor agudo.



METODOLOGÍA

En este trabajo se diseñó en Solidworks una estructura mecánica que consta de cuatro partes: (1) una base tipo férula para mano derecha, (2) un soporte con forma sigmoide de metal, (3) una extensión para sujeción de dedos, y (4) un sistema de soportes ajustables que se adhieren a cada dedo proporcionando una extensión controlada y gradual de los mismos. La estructura con correas ajustables para asegurar un ajuste firme a nivel del antebrazo y de la muñeca está construida con materiales mixtos: piezas impresas en 3D (1, 3 y 4) y una metálica (2). En el proceso de rehabilitación, los movimientos de flexión de cualquier dedo en sus articulaciones distal y proximal es de aproximadamente 90 grados cada uno, lo que genera un ángulo aproximado de 180 grados con respecto a una mano en pronación colocada sobre una mesa. De acuerdo con información recolectada en estudios antropométricos realizados por otros trabajos y comparados con mediciones realizadas con un paciente afectado con esta enfermedad (hace más de 10 años) con hemiplejia y espasticidad (nivel 4 o 5) en brazo derecho, se diseñó la base tipo férula, la extensión y los soportes  con filamento FDM. El soporte sigmoide con longitud de 49 cm se realizó con solera de 1 pulgada de ancho y 3 mm de espesor. El peso aproximado de la prótesis completa es de 300 gr en total pero esta se fija sobre una mesa y el paciente soporta 200 gr. en el antebrazo y mano debido a las piezas 2 y 3. Los soportes de dedos permiten el movimiento de flexión y extensión en las articulaciones distal y proximal el cual sujeta la punta de cada uno con ayuda de un hilo. De esta forma, el hilo en cada dedo se extiende hacia la parte superior en la pieza 2. La extensión o pieza 2, consta de un rodillo para cada dedo con la finalidad de favorecer el deslizamiento del hilo hasta sujetarse en la base del soporte sigmoide. La disponibilidad de actuadores lineales en la región no permitió conseguir un actuador lineal de 300 N.m que permita retraer los 5 dedos, por lo que se realizaron pruebas iniciales para retraer el dedo medio con ayuda de un actuador lineal de 70 N.m y largo de carrera de 3 mm. De esta forma, la pieza 2 divide la fuerza de tracción con ayuda de un mecanismo polipasto con 3 poleas para sujetarse en el pistón del actuador lineal. Por consecuencia el actuador lineal permite un ángulo de apertura de 45 grados en flexión o extensión del dedo.


CONCLUSIONES

Se demuestra la viabilidad del proyecto puesto que se logra comprobar que el diseño mecánico permite eficientemente la sujeción y tracción de los dedos. Sin embargo, las características limitadas del actuador lineal, solamente facilitó articular un dedo, debido a que el motor no tiene suficiente torque o fuerza de tracción para hacer las respectivas pruebas en todos los dedos. Es importante considerar algunas piezas del diseño para mejorar su estructura, en este caso, el soporte con forma sigmoide de metal requiere ser reemplazado por un material más ligero, para evitar que el prototipo empeore la condición de la mano del paciente. La pieza de metal tiene un peso considerable, por lo tanto, esto debe ser estimado para rediseñar la estructura. En futuras pruebas se considera continuar con el diseño de piezas para pacientes con espasticidad en mano izquierda. Esto con el propósito de expandir el proyecto y beneficiar a múltiples pacientes en esta condición.
Rivera Ramos Jose Angel, Instituto Tecnológico de Tepic
Asesor: Mg. Eliana Maria Noriega Noriega Angarita, Universidad de la Costa

ANALISIS BIBLIOGRAFICO DE LA CALIDAD DE LA POTENCIA ELECTRICA EN SISTEMAS ELECTRICOS INDUSTRIALES


ANALISIS BIBLIOGRAFICO DE LA CALIDAD DE LA POTENCIA ELECTRICA EN SISTEMAS ELECTRICOS INDUSTRIALES

García Garcia Endy, Instituto Tecnológico de Morelia. Garduño León Victor Hugo, Instituto Tecnológico de Morelia. Hernández Tomas Johan Manuel, Instituto Tecnológico de Morelia. Rivera Ramos Jose Angel, Instituto Tecnológico de Tepic. Solorio Aguila Edgar Jair, Instituto Tecnológico de Morelia. Asesor: Mg. Eliana Maria Noriega Noriega Angarita, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

En los últimos 15 años, el aumento de cargas no lineales en sistemas eléctricos de potencia (SEP) e industriales (SEI) ha generado preocupación por problemas de calidad de la potencia eléctrica que afectan a los usuarios finales [1]. El sector industrial, que representa el 37% del consumo global de energía eléctrica [3], ha incrementado el uso de equipos electrónicos para la automatización de procesos. Aunque existen estudios bibliométricos sobre calidad de la potencia eléctrica en diferentes sectores [5], [6], [7], no se han realizado estudios específicos para el sector industrial, crucial por el uso intensivo de equipos electrónicos que aumentan los problemas de calidad de la potencia eléctrica.



METODOLOGÍA

Paso 1. Selección de la base de datos: Para el análisis bibliométrico se seleccionó Scopus como la base de datos principal de búsqueda, dado su reconocimiento internacional y su amplia cobertura de literatura científica de alta calidad. Paso 2. Selección de palabras clave y construcción de la ecuación de búsqueda: Este paso consiste en identificar y seleccionar las palabras claves para la búsqueda de artículos científicos en la base de datos Scopus. Las palabras claves fueron: Power Quality, Harmonics, Voltage Sag, Voltage Swell, Flicker, Transients, Total Harmonic Distortion (THD), Power Quality Standards, Load Imbalance, Voltage Fluctuations, Energy Efficiency y Technical Standards. Para llevar a cabo la búsqueda y recopilación de información, se construyen ecuaciones de búsqueda utilizando combinaciones de estas palabras clave con Industrial Electrical Systems debido al contexto de la investigación. Se emplearon operadores lógicos (AND y OR). Las ecuaciones de búsqueda se ajustaron iterativamente para lograr un equilibrio óptimo entre la cantidad de artículos y su relevancia. Paso 3. Recopilación de artículos: Una vez seleccionada la base de datos y construida las ecuaciones de búsqueda, se procedió a realizar una búsqueda preliminar de artículos científicos. Los criterios para esta búsqueda preliminar incluyeron el título de los artículos y la cantidad de palabras claves en sus resúmenes. De esta primera búsqueda se obtuvieron 184 artículos. De estos 184 artículos recopilados, se aplicaron dos criterios adicionales para hacer un filtro de los estudios más relevantes. El periodo de publicación (2016 a 2024) y la relevancia del contenido, evaluando cada artículo en función a su adecuación a la temática del estudio. Como resultado, se seleccionaron 103 artículos considerados los más relevantes y pertinentes para el análisis. Paso 4. Análisis bibliométrico: Este paso consiste en realizar un análisis de los estudios recolectados utilizando para ello la herramienta VOSviewer. Los pasos que se llevaron a cabo para utilizar VOSviewer fueron los siguientes:1. Exportar la lista de los artículos seleccionados desde la base de datos Scopus en un formato adecuado; 2. Importar la lista de artículos al software VOSviewer; 3. En la pestaña de inicio del software, en la columna File, seleccionar la opción Create; 4. En la pestaña Choose type of data, seleccionar la opción Create a map based on bibliographic data. Esta opción permite crear mapas de coautoría, co-ocurrencia de palabras clave, citas, acoplamiento bibliográfico, o mapas de citas basados en datos bibliográficos; 5. En la pestaña Choose data source, seleccionar Read data from bibliographic database files y especificar el tipo de documentos que el software debe leer, como Web of Science, Scopus, Dimensions, o PubMed; 6. En la pestaña Select files, elegir el tipo de base de datos correspondiente al archivo; 7. Finalmente, en la pestaña Choose type of analysis and counting method, seleccionar el tipo de dato que se desea visualizar en el gráfico y hacer clic en "Finish".


CONCLUSIONES

En esta sección se presentan los resultados del análisis bibliométrico sobre la calidad de la potencia eléctrica en el sector industrial.Este análisis destaca la evolución de la investigación en calidad de la potencia eléctrica en el sector industrial, identificando las principales fuentes, autores, y colaboraciones que han contribuido significativamente al campo. A continuación, se detallan los resultados obtenidos del análisis realizado: Red de Fuentes de Información más Citadas: Journal of the International Measurement Confederation lidera con 71 citaciones, seguido de IEEE Access con 58 citaciones. Otras fuentes importantes incluyen IEEE Transactions on Instrumentation and Measurement, International Transactions on Electrical Energy Systems y Microprocessors and Microsystems. Red de Acoplamiento Bibliográfico por Autores: Autores como Baja M., Palanisamy R., Thentral T.M.T, y Usha S. son los más centrales en la red, indicando un alto número de citaciones y una fuerte interconexión con otros autores. Red de Acoplamiento Bibliográfico por Países: India destaca por su prominente posición en la red global de investigación, con muchas citaciones y colaboraciones internacionales. Otros países notables incluyen Arabia Saudita, Estados Unidos, Brasil, Egipto, Pakistán y Malasia. Red de Acoplamiento Bibliográfico de Organizaciones:Organizaciones como el Department of Electrical and Computer Engineering son influyentes y centrales en la red, indicando una fuerte colaboración y contribución en investigaciones conjuntas. Red de Co-ocurrencia de Palabras Clave: "Power Quality" es el término más central y relevante, con términos relacionados como "harmonic analysis", "total harmonic distortions (thd)", y "quality control" siendo también muy citados. Red de Co-citation de Fuentes Citadas: Energies, IEEE Trans Power Electron, y IEEE Access son las fuentes más citadas y relevantes en el campo.
Riveros Mestre Juan Sebastian, Universidad Católica de Colombia
Asesor: Dr. Jose Octavio Vazquez Buenos Aires, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas

DESARROLLO DE UN CIRCUITO ELECTRÓNICO CON REGULACIÓN DE TEMPERATURA Y DE MOVIMIENTO LIGERO PARA UNA ÓRTESIS DE REHABILITACIÓN PARA PACIENTES CON ESPASTICIDAD EN BRAZO DERECHO


DESARROLLO DE UN CIRCUITO ELECTRÓNICO CON REGULACIÓN DE TEMPERATURA Y DE MOVIMIENTO LIGERO PARA UNA ÓRTESIS DE REHABILITACIÓN PARA PACIENTES CON ESPASTICIDAD EN BRAZO DERECHO

Riveros Mestre Juan Sebastian, Universidad Católica de Colombia. Asesor: Dr. Jose Octavio Vazquez Buenos Aires, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas



PLANTEAMIENTO DEL PROBLEMA

La hemiplejia se define como la parálisis de todo un lado del cuerpo. Aunque puede ser provocada por enfermedades que afectan la columna a nivel dorsal o en los hemisferios cerebrales, normalmente se considera resultado de un accidente cerebrovascular (ACV), el cual detiene totalmente las funciones básicas en el movimiento de las extremidades superiores e inferiores en el lado afectado, así como la capacidad de equilibrio postural y de marcha autónoma. En caso de supervivencia, las cargas económicas, sociales y de salud que conlleva esta enfermedad son desastrosas, principalmente para el paciente y los familiares, debido a las secuelas que se generan. El accidente cerebrovascular (ACV) es la segunda causa más común de muerte y la tercera causa de discapacidad en el mundo. Un alto porcentaje de estos casos se atribuye a factores de riesgo modificables como el tabaquismo, la mala alimentación y la baja actividad física. Después de un ACV, los pacientes a menudo enfrentan una carga significativa de discapacidad, siendo esta situación más común en países de bajos recursos. Estudios han demostrado que el 40% de los sobrevivientes de un ACV padecen de alguna discapacidad a largo plazo. Una de las principales secuelas de un ACV es el síndrome de la neurona motora superior (SMU), cuya característica más notable es la espasticidad de los músculos de las extremidades superiores e inferiores. La espasticidad post-ictus (PSS) provoca dificultades en el movimiento voluntario, lo que deteriora la calidad de vida de los pacientes. En la mayoría de los estudios, se han utilizado métodos inadecuados para medir la espasticidad de manera indirecta, lo que ha llevado a resultados no muy precisos. Las estrategias de tratamiento para la espasticidad deben combinar procedimientos de fisioterapia y la aplicación de toxina botulínica A (BoNT-A).



METODOLOGÍA

Dada esta información en este Verano de la Investigación Científica y Tecnológica del Pacífico del Programa Delfín se busca realizar una órtesis de rehabilitación para pacientes con espasticidad en brazo derecho. Para la realización del proyecto se manejó una metodología mixta para realizar las etapas siguientes: la implementación de un sistema de poleas que genere tracción usando un actuador lineal, para el movimiento de flexión y extensión en los 5 dedos del paciente, lo cual se ha establecido por varios autores que se requiere de una fuerza máxima de 300 N.m. Debido al corto tiempo y la poca disponibilidad comercial de actuadores en la región, se definieron pruebas de factibilidad para un solo dedo (dedo medio), usando un actuador con distancia de carrera de 3 cm generando una fuerza total de 70 N.m a 12V. La terapia de rehabilitación recomendada es la  repetición continua de movimientos de extensión y flexión del dedo, por lo que se estableció un tiempo de carrera en extensión a 16 s, seguido de tiempo de parada de 1 s, para nuevamente generar el movimiento contrario (en flexión), con una duración total de 33 s. Debido a que el paciente le genera dolor el movimiento se anticipó un sistema de control de tiempo el cual el paciente pueda regular a su gusto dependiendo del estado de su evolución, este es controlado a través de un potenciómetro y permite el rango de 8 y 16 s. también se determinó la necesidad de un sistema de calefacción que pueda mantener una temperatura alrededor de los 34°C, debido a que la circulación sanguínea en el brazo del paciente es reducida, provocando rigidez, dolor y dificulta en el movimiento. Para ello se usó una celda Peltier genérica que se alimenta 15V/6A, la cual permite el calentamiento de una cara y el enfriamiento de la contraria. Durante las pruebas se observó que al apagarla se transfiere el calor en ambas caras, por lo cual se implementó un control de temperatura que asegurara el calentamiento de una compresa de gel ubicado en la palma del paciente. La compresa de gel es comercial y mide 12x12 cm, con espesor de 1 cm, y esta recubierta por una tela que evite daños en la mano del paciente. De esta forma, la celda Peltier se coloca en una cara de la compresa, alcanzando una temperatura de 90 °C, mientras que la cara opuesta, que está en contacto con la mano del paciente, mantiene los 34 °C.La regulación de temperatura se realizó con dos sensores digitales de temperatura DS18B20, cada uno ubicados en una cara de la compresa. El encendido de la alimentación en la celda Peltier se implementó con un módulo relevador genérico con 4 canales a 5V/10A. el sistema electrónico de control   de tiempo para el actuador lineal, relevador para celda Peltier, y sensores de temperatura se implementaron con una tarjeta embebida ESP32 con 5V/2A, la cual cuanta con 30 pines de salida distribuidos entre salidas y entradas digitales, PWM (definido con un ciclo de trabajo 5KHz a 8bits), ADC, alimentación y tierra. La alimentación principal del circuito se obtuvo con un cargador genérico de 5v a 24V y 4A.


CONCLUSIONES

Se puede concluir que el sistema cumple con los requisitos mencionados inicialmente, en el circuito electrónico de regulación de movimiento se debe considerar la fuerza total ejercida en la mano del paciente ya que el motor debe poseer la capacidad de traccionar la totalidad de los 5 dedos, adicional recomienda para futuras mejoras adicionar sensores para determinar la posición del actuador y optimizar los tiempos de trabajo.   En el circuito electrónico de calefacción se observó que el material presenta un tiempo extenso para llegar a su temperatura optima se recomienda la implementación de la división de trabajo de los núcleos en la esp32 para un continuo funcionamiento y mantenerlo a la temperatura optima. Este proyecto puede continuar, implementado funcionalidades como lectura de señales EMG para considerar el estado de recuperación en los pacientes y una interfaz gráfica para mejorar su usabilidad.
Robayo Bejarano Fredy Alejandro, Universidad Nacional Abierta y a Distancia
Asesor: Dra. Diana Isabel Ortiz Esquivel, Universidad Autónoma de Zacatecas

GUíA METODOLóGICA PARA LA DEFINICIóN Y ESTABLECIMIENTO DEL CONTEXTO PARA UN SISTEMA CONSCIENTE DEL CONTEXTO PARA IDENTIFICAR COMPORTAMIENTOS VIOLENTOS EN ESPACIOS COMUNES


GUíA METODOLóGICA PARA LA DEFINICIóN Y ESTABLECIMIENTO DEL CONTEXTO PARA UN SISTEMA CONSCIENTE DEL CONTEXTO PARA IDENTIFICAR COMPORTAMIENTOS VIOLENTOS EN ESPACIOS COMUNES

Robayo Bejarano Fredy Alejandro, Universidad Nacional Abierta y a Distancia. Asesor: Dra. Diana Isabel Ortiz Esquivel, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

La inseguridad es un tema con profundo arraigo en el México y en varios países de Latinoamérica, en México según la encuesta ENSU 2024 del Instituto Nacional de Estadística y Geografía el 61.0% de la población de 18 años y más se siente insegura en la ciudad donde vive. Las ciudades con mayor porcentaje de población de 18 años y más que sintieron inseguridad fueron: Fresnillo (95.4 %), Naucalpan de Juárez (89.6 %), Zacatecas (89.3 %), Chilpancingo de los Bravo (87.3 %), Cuernavaca (87.0 %) y Ciudad Obregón (86.6 %) INEGI (2024). Por lo que, el desarrollo científico y tecnológico que se desarrolla en materia de inseguridad representa para cada país una acción imperante como apoyo al combate de la violencia y el delito. En este trabajo se presenta una guía metodológica para la definición y establecimiento del contexto necesario para un sistema consciente del contexto, diseñado para identificar comportamientos violentos en espacios comunes. La metodología propuesta incluye la colaboración de profesionales de diversas disciplinas, quienes aportan sus conocimientos para desarrollar un sistema de videovigilancia capaz de aprender y adaptarse a distintos contextos de violencia, con el objetivo de prevenir y alertar sobre posibles incidentes violentos en tiempo real.



METODOLOGÍA

La "Guía Metodológica para la Definición y Establecimiento del Contexto para un Sistema Consciente del Contexto para Identificar Comportamientos Violentos en Espacios Comunes" establece una serie de fases fundamentales para abordar y mitigar la violencia en entornos cotidianos. En la primera fase, se caracteriza a las personas que intervienen en contextos de violencia mediante encuestas, observación directa y análisis demográfico, con la colaboración de sociólogos, psicólogos, antropólogos y profesionales en estadística. La segunda fase se centra en reconocer el contexto de violencia utilizando la metodología de design thinking, que incluye la participación de criminólogos, psicólogos e ingenieros industriales para comprender y prototipar soluciones efectivas. La tercera fase identifica ubicaciones frecuentes de violencia a través de estudios realizados por urbanistas, analistas de datos y funcionarios de seguridad pública. La cuarta fase determina los momentos en los que ocurren actos de violencia, con el apoyo de analistas de datos. La quinta fase explora las razones detrás de la violencia, involucrando a psicólogos forenses, periodistas de investigación y abogados para proporcionar un contexto profundo y legal. En la sexta fase, se analizan los cambios emocionales durante episodios violentos, con la ayuda de neurocientíficos, psicólogos, ingenieros de sonido y criminólogos para identificar respuestas fisiológicas y comportamentales. Finalmente, la séptima fase utiliza el método clustering para la recolección y análisis de datos, con ingenieros de sistemas y especialistas en machine learning que implementan tecnologías avanzadas y algoritmos de aprendizaje automático. Esta metodología integral y multidisciplinaria busca no solo identificar y prevenir actos violentos, sino también mejorar la seguridad y el bienestar de las comunidades mediante un sistema adaptable y consciente del contexto.


CONCLUSIONES

La implementación de un sistema consciente del contexto para identificar comportamientos violentos en espacios comunes representa un avance significativo en la integración de tecnología avanzada con un enfoque multidisciplinario para mejorar la seguridad pública. La metodología presentada en este artículo, estructurada en siete fases clave, proporciona una hoja de ruta exhaustiva para abordar todos los aspectos críticos de este desafío. Desde la caracterización demográfica y social del entorno hasta el análisis detallado de los contextos y tiempos en los que ocurren actos de violencia, cada fase incorpora el expertise de diversos profesionales, incluyendo sociólogos, psicólogos, antropólogos, criminólogos, ingenieros y especialistas en machine learning. La utilización de herramientas de recolección de datos, como encuestas y observación directa, junto con metodologías innovadoras como el design thinking y técnicas de clustering, permite una comprensión profunda y dinámica de las variables que influyen en la violencia. Además, el análisis de factores psicológicos y emocionales, respaldado por neurocientíficos y psicólogos forenses, junto con la consideración de aspectos legales por parte de abogados, asegura que el sistema no solo sea eficaz en la identificación de riesgos, sino también en su conformidad con las normativas vigentes. La colaboración interdisciplinaria y el uso de tecnologías de vanguardia, como sensores de profundidad y cámaras térmicas, refuerzan la capacidad del sistema para aprender y adaptarse continuamente, mejorando su precisión y efectividad en tiempo real. En resumen, esta guía metodológica ofrece una solución integral y adaptable, con el potencial de transformar la manera en que se aborda la seguridad en espacios comunes, promoviendo una respuesta proactiva y preventiva a la violencia, y contribuyendo significativamente al bienestar y protección de la comunidad.
Robles Rojas Diego, Instituto Tecnológico de Sonora
Asesor: Dr. Gerardo Alcalá Perea, Universidad Veracruzana

MAPEO ACúSTICO PASIVO APLICADO A INCENDIOS


MAPEO ACúSTICO PASIVO APLICADO A INCENDIOS

Hernández Echeverría Carmen, Instituto Tecnológico de Sonora. Robles Rojas Diego, Instituto Tecnológico de Sonora. Asesor: Dr. Gerardo Alcalá Perea, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

El estudio de las tendencias espacio temporales de la biodiversidad puede realizarse por distintos mecanismos tales como los inventarios de especies, muestreos visuales, trampas de captura o trampas o monitoreo acústico pasivo (PAM por sus siglas en inglés). El PAM tiene ventajas sobre los estudios en sitio pues permite incluir una mayor cobertura espacio temporal, es aplicable a sitios remotos y de difícil acceso, reduce el sesgos del observador e implica costos potencialmente más bajos. Un elemento que tiene el PAM, es que puede utilizar las aves como indicadores medio ambientales, dado que estas son sensibles a los cambios de hábitat. El PAM se basa en estimar índices acústicos globales que tengan información de la geofonía, antrofonía y biofonía a partir de grabaciones. Estas grabaciones generalmente se establecen de manera periódica (cada hora) en segmentos entre 5-10 minutos. Por otro lado, este trabajo quiere hacer una cercamiento para aplicar el PAM al monitoreo de zonas incendiadas.  Las zonas incendiadas por su parte, requieren un trabajo extensivo en los distintos sitios de las zonas incendiadas, lo que requiere la evaluación de la severidad del incendio en las distintas capas (suelo, arbustos, árboles medios y altos).   Esto conlleva a realizar valoraciones complicadas respecto a las partes incendiadas. De acuerdo a todo esto se plantean los siguientes objetivos en este trabajo: Determinar cómo afecta la elección de los periodos de grabación en el cálculo de los índices acústicos Desarrollar una aplicación que permita gestionar fotografías de las zonas incendiadas para poder mejorar la valoración de la severidad de los incendios en gabinete.



METODOLOGÍA

La idea central el PAM radica en que a partir de grabaciones del medio ambiente se puede extraer información relevante del medio ambiente. Por ejemplo a partir de grabaciones que incluyan la firma sonora de las aves, es posible determinar la presencia, abundancia, estatus y distribución de las aves. Las grabaciones se realizan de manera periódica cada hora, y pueden tener una duración de 1 a  5 minutos. Los índices acústicos son valores globales, respecto a las grabaciones. Estos pueden identificar variaciones en las distintas intensidades de las frecuencias, la variedad de frecuencias, uniformidad de los sonidos, etc. Algunos de los cuales son: Acrónimo   Nombre ADI            Acoustic Diversity Index AEI            Acoustic Evenness Index ACI            Acoustic Complexity Index BIO            Bioacoustic Index La investigación comenzó con la comprensión de los fundamentos básicos de las ondas y el sonido, lo cual fue esencial para analizar el funcionamiento del AudioMoth. Inicialmente, se identificó un problema en el dispositivo: grababa los primeros 10 minutos de cada hora, omitiendo los datos de los otros 50 minutos. Para abordar esto, se analizó el firmware del dispositivo y se grabó de manera continua durante una semana en zonas con alta biofonía y geofonía, y baja antrofonía. Se seleccionaron aleatoriamente 10 minutos de cada hora para su análisis, evaluando la significancia de los datos no recolectados. Paralelamente, se desarrolló un estuche protector para el AudioMoth mediante impresión 3D, asegurando su precisión y ajuste. Durante este proceso, se aprendieron y aplicaron conceptos clave del análisis acústico, como espectrogramas e índices acústicos, utilizando el lenguaje de programación R. El dispositivo de grabación utilizado en este estudio es el AudioMoth, un registrador acústico compacto y de bajo costo diseñado específicamente para aplicaciones de monitoreo ambiental. Este dispositivo tiene dos funciones: una por defecto y otra personalizada, donde se le asignó una forma de trabajo específica. El formato de grabación utilizado para el estudio consistió en grabaciones continuas durante 24 horas al día en dos lugares estratégicos del campus, posicionados en árboles para captar sonidos. El procesamiento de los audios se centró en analizar las grabaciones para extraer los índices acústicos previamente mencionados. Este análisis se realizó mediante un script programado en el lenguaje R, el cual recortaba las grabaciones en segmentos de 1 hora y luego seleccionaba de manera aleatoria 10 minutos de cada segmento para realizar un análisis más preciso. Estos índices se emplearon para evaluar la biodiversidad y los cambios en el entorno posterior a un incendio, proporcionando una evaluación detallada y rigurosa del impacto ambiental. Por otro lado, la severidad de los incendios requiere la valoración de muchas variables. Se desarrolló una aplicación con el objetivo de facilitar la toma de imágenes en las visitas de campo y mejorar la valoración de la severidad de los incendios. Esta aplicación tiene tres funciones principales: la creación de proyectos (visitas de campo), la toma de fotografías de los lugares incendiados (arbustos, suelo, árboles, etc.) y el etiquetado de las fotografías, asignándoles una valoración de severidad según la "Burn Severity Scale". La severidad de los incendios se evalúa mediante la "Burn Severity Scale", derivada del "Composite Burn Index" (BI). Esta tabla categoriza los estratos incendiados en cinco niveles de severidad: No Effect, Low, Moderate, High y Factor.


CONCLUSIONES

El monitoreo acústico pasivo (PAM) presenta una metodología eficaz para el estudio y evaluación de la biodiversidad y la severidad de incendios en áreas remotas y de difícil acceso.  A lo largo del desarrollo del proyecto, adquirimos conocimientos sobre varios aspectos técnicos y científicos. Comprendimos los fundamentos de las ondas y el sonido, lo que nos permitió optimizar el uso del dispositivo AudioMoth. Aprendimos a manejar y programar en el lenguaje R, lo que fue crucial para el procesamiento y análisis de los datos acústicos. Además, adquirimos habilidades en la impresión 3D, diseñando y fabricando estuches protectores para el AudioMoth, garantizando su durabilidad en condiciones de campo.
Robles Ruiz Israel Neftali, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Karen Hariantty Estevez Sanchez, Benemérita Universidad Autónoma de Puebla

DISEñO DE UN SISTEMA DE CONTROL PI PARA UNA NARIZ ELECTRóNICA


DISEñO DE UN SISTEMA DE CONTROL PI PARA UNA NARIZ ELECTRóNICA

Robles Ruiz Israel Neftali, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Karen Hariantty Estevez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la investigación y desarrollo de narices electrónicas, que son sistemas diseñados para detectar y analizar compuestos volátiles en el medio ambiente, la estabilidad y precisión en el control de las variables térmicas son fundamentales para garantizar la efectividad y sensibilidad del sensor. La falta de un control adecuado puede llevar a un tiempo de respuesta ineficiente y a variaciones térmicas que comprometen la interpretación de los datos obtenidos. El desarrollo de un controlador proporcional-integral (PI) para una placa de calentamiento se presenta como una solución potencial a estos problemas, ya que este tipo de controladores son reconocidos por su capacidad para mejorar la estabilidad del sistema y reducir el error en estado estacionario. Sin embargo, la implementación de un controlador PI requiere un análisis profundo de los parámetros del sistema y una validación cuidadosa de su rendimiento en condiciones reales. El presente trabajo de investigación busca desarrollar un controlador PI para una placa de calentamiento, implementando la señal digital PWM para poder cambiar la Potencia que recibe la placa. Esto como la primera parte de la elaboración de una nariz electrónica.



METODOLOGÍA

Se elaboró un circuito utilizando una placa de ELEGOO, dos transistores (BJT S8050 y MOSFET IRFZN44N), dos resistencias (1kΩ y 5kΩ), una placa de calentamiento PTC 180 y una fuente de poder WANPTEK. La temperatura de la placa de calentamiento se monitoreo con un termopar k TL0400. La resistencia de 1kΩ se coloca para proteger el BJT. El circuito emplea dos transistores debido a que la potencia máxima que produce la placa de ELEGOO es de 5 V mientras que la placa de calentamiento requiere de una potencia de 12 V. El transistor BJT S8050 regula la corriente a partir de la señal PWM enviada en el rango de 0-5 V. De esta manera la corriente cambia conforme al ancho del PWM. El MOSFET amplifica la señal recibida BJT S8050 hacia la placa de calentamiento, que no podría operar en el rango de 0-5 V. Para calibrar el sistema se registra el voltaje que llega a la placa en función del PWM que se emite en el rango de 0 al 255. El PWM de 0-10 se varia en incrementos de una unidad, y de 10- 255 en incrementos de 5 unidades. Así se determina la relación entre la potencia, el voltaje y el ancho de PWM. Dado que la temperatura de operación de la placa de calentamiento no es mayor a 80°C, para generar los parámetros de la función de transferencia de primer orden se registran los valores de temperatura alcanzados por la placa con valores de PWM de 190, 185, 180, 175, 170, 135 y 90, dando un tiempo de muestreo de 15 minutos para que el sistema sature. Subsecuentemente, con los datos de tiempo, voltaje, y condiciones iniciales se declara la función de transferencia de primer orden para predecir la temperatura. Las condiciones iniciales son modificadas con el complemento Solver de Excel para encontrar la ganancia del sistema y el tiempo de integración.


CONCLUSIONES

Durante la estancia de investigación, se desarrolló un sistema de control para una nariz electrónica, adquiriendo conocimientos sobre dispositivos electrónicos y su funcionamiento, así como herramientas de simulación de circuitos. Se aprendió que el proceso de crear un controlador incluye varias etapas, comenzando por la caracterización del sistema y el cálculo de las constantes del controlador. Como estudiante de Ingeniería Química interesado en el control automático, considero esencial profundizar en sistemas eléctricos para implementar controladores.
Robles Solano Gustavo Alejandro, Universidad de la Guajira
Asesor: Mtra. Miriam Vega Hernández, Benemérita Universidad Autónoma de Puebla

COMPARACIóN DE LA GESTIóN DE RESIDUOS SóLIDOS EN COLOMBIA: ENFOQUE EN EL MUNICIPIO DE FONSECA, LA GUAJIRA Y PROPUESTAS DE MEJORA BASADAS EN PRáCTICAS INTERNACIONALES


COMPARACIóN DE LA GESTIóN DE RESIDUOS SóLIDOS EN COLOMBIA: ENFOQUE EN EL MUNICIPIO DE FONSECA, LA GUAJIRA Y PROPUESTAS DE MEJORA BASADAS EN PRáCTICAS INTERNACIONALES

Robles Solano Gustavo Alejandro, Universidad de la Guajira. Asesor: Mtra. Miriam Vega Hernández, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La gestión de residuos sólidos es un desafío crucial para las comunidades, afectando tanto la salud pública como al medio ambiente. Diversos países alrededor del mundo enfrentan problemas significativos en la recolección, tratamiento y disposición final de estos residuos. La mayoría de estos problemas derivan de la falta de infraestructura adecuada, financiamiento insuficiente y falta de conciencia ambiental entre los ciudadanos. En Colombia según el Decreto 2981 de 2013, la gestión de los residuos inicia con la elaboración del Plan de Gestión Integral de Residuos Solidos (PGIRS), el cual es responsabilidad de los municipios y distritos. Uno de estos municipios es Fonseca, ubicado en el departamento de La Guajira. A través del PGIRS, se establecen diversas actividades para la correcta gestión de los residuos. Sin embargo, la falta de prácticas y estrategias sostenibles ha dificultado la transición de una economía lineal a una circular. Este país se ha sumado a la estrategia nacional de economía circular donde se buscan introducir nuevos elementos para fortalecer el modelo de desarrollo económico, ambiental y social. Basarse en prácticas internacionales eficientes en la gestión de residuos se convierte en una herramienta fundamental para mejorar las políticas y estrategias locales que permitan impulsar dicho modelo circular. Países de América como México y Brasil se proponen como base gracias a la implementación de prácticas avanzadas de gestión de residuos que podrían mejorar el modelo implementado en Fonseca. La problemática radica en encontrar métodos efectivos para la gestión de residuos sólidos que sean aplicables y sostenibles en Fonseca, teniendo en cuenta las limitaciones y características propias del municipio.



METODOLOGÍA

Recopilación de datos sobre la gestión de residuos sólidos en el municipio de Fonseca, La Guajira, Colombia Inicialmente se llevará a cabo una revisión exhaustiva de información sobre la gestión actual de residuos en Fonseca mediante la consulta de documentos como el PGIR y normativas que regulan dicha actividad. La recopilación de datos incluirá los lineamientos para una correcta gestión de residuos, así como las diversas decisiones que se han tomado en Colombia frente a esta problemática. Análisis comparativo de las prácticas de gestión de residuos en países internacionales, considerando criterios de economía circular Seguidamente, se procederá a realizar un análisis comparativo de las prácticas de gestión de residuos en varios países internacionales. Este análisis se centrará en identificar y evaluar las estrategias implementadas en México y Brasil, dos países que han desarrollado modelos innovadores y sostenibles para la gestión de residuos sólidos. La comparación incluirá aspectos como la recolección, tratamiento, reciclaje y disposición final de residuos, así como las políticas y regulaciones que respaldan estas prácticas. Identificación de mejores prácticas y estrategias de gestión de residuos sólidos Se identificarán las mejores prácticas de gestión de residuos implementadas en los países de México y Brasil que podrían adaptarse a las condiciones del municipio de Fonseca. Desarrollo de propuestas de mejora especificas para Fonseca, basadas en el modelo de economía circular Se llevará a cabo un análisis detallado de las practicas identificadas para comprender su impacto socioeconómico y ambiental, y así proponer iniciativas que mejoren la gestión integral de los residuos, y se promueva la estrategia nacional de economía circular.


CONCLUSIONES

Durante el desarrollo de la investigación se adquirieron conocimientos teóricos y prácticos sobre la gestión de residuos sólidos y las técnicas utilizadas en países como México y Brasil. Aunque la investigación está en curso, los datos preliminares sugieren que la adaptación de estas prácticas puede mejorar significativamente la gestión de residuos en Fonseca. Se espera que las propuestas de mejora contribuyan a una gestión más eficiente y sostenible de los residuos sólidos en el municipio, impulsando la economía circular. IMPACTOS ESPERADOS Teóricos Mejora de la conciencia sobre las prácticas sostenibles de gestión de residuos sólidos a nivel municipal. Contribución al desarrollo de conocimiento sobre la evaluación de estrategias de economía circular mediante el análisis de casos exitosos en México y Brasil. Prácticos Identificación de las mejores prácticas para la gestión de residuos sólidos, incluyendo la reducción de residuos, el reciclaje y la eficiencia en la recolección. Proporcionar una base sólida para mejorar las estrategias de gestión en Fonseca, fomentando la adopción de prácticas más sostenibles y eficientes. Metodológicos Comparación de metodologías  o estrategias de gestión de residuos sólidos. Desarrollo de indicadores de desempeño ambiental aplicables y replicables, mejorando los enfoques metodológicos para la comparación de tecnologías y prácticas de gestión de residuos en diferentes contextos. Sociales Sensibilización y concienciación pública sobre la importancia de prácticas sostenibles en la gestión de residuos, especialmente en aquellas que promuevan una economía circular.
Rocha Ceja Genaro Eduardo, Instituto Tecnológico de Jiquilpan
Asesor: Dr. Juan Jose Carrascal Sanchez, Fundación Universitaria Tecnológico Comfenalco

EXTRACCIóN DE QUITOSANO A PARTIR DE ESCAMAS DE PESCADO PARA LA ADSORCIóN DE METALES EN AGUA


EXTRACCIóN DE QUITOSANO A PARTIR DE ESCAMAS DE PESCADO PARA LA ADSORCIóN DE METALES EN AGUA

Mondragón Ibarra Estefanía, Universidad de Guadalajara. Reyes Huerta Leonardo, Benemérita Universidad Autónoma de Puebla. Rocha Ceja Genaro Eduardo, Instituto Tecnológico de Jiquilpan. Asesor: Dr. Juan Jose Carrascal Sanchez, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua es una preocupación creciente a nivel mundial. Las principales causas de la contaminación del agua por metales son las actividades industriales, portuarias, agrícolas, turísticas y por el tráfico marítimo. Estos metales pueden acumularse en el medio ambiente llegando a afectar tanto a la flora y fauna acúatica y terrestre como a la salud humana cuando se ingieren a través del agua contaminada, por esa razón es importante lograr la correcta remoción de estos.



METODOLOGÍA

Extracción de quitosano: Acondicionamiento de escamas: Se recolectaron escamas del mercado local "Bazurto" en Cartagena de Indias, se limpiaron exhaustivamente con agua destilada, se secaron y se trituraron. Desmineralización: Se preparó una mezcla de una solución de HCl 1M en una relación de 1:20 (g de escamas:ml de solución) con las escamas. Se agitó constantemente por 24 horas a una temperatura de 30°C Desacetilación: Se llevó a un pH básico con NaOH y se calentó hasta 80 °C por 2 horas con agitación constante. Neutralización: Se llevó a pH neutro con agua destilada y un poco de solución de HCl. Centrifugación: Se realizaron diversos lavados y centrifugaciones para separar el sólido. Secado y molienda: El sólido se llevó al horno por 24 horas a una temperatura de 45 °C y se molió para obtener el polvo de quitosano. ​Análisis de metales: Preparación de muestras: Se prepararon muestras base de una concentración conocida de hierro y cobre, y se diluyeron en otras 4 y 3 concentraciones más, respectivamente. Lectura de absorbancia: Se utilizó un espectrofotómetro UV-Visible para leer la absorbancia de las muestras por luz visible. Gráfica: Se relacionó la concentración con la absorbancia leída para obtener las curvas de calibración. Aplicación en filtro: Una vez montado el filtro con el quitosano se hizo una muestra de concentración conocida por el mismo y se leyó la absorbancia de la muestra a la salida del filtro para conocer su concentración y poder determinar su capacidad de adsorción.


CONCLUSIONES

Se logró la extracción de quitosano por medio de escamas de pescado de manera satisfactoria, recolectando la cantidad adecuada para desarrollar las pruebas posteriores. Sin embargo, se notó que el rendimiento de conversión no es muy alto. Para la evaluación de la capacidad de adsorción del quitosano extraído y del diseño del filtro todavía es necesario seguir realizando pruebas, modificando variables del proceso, mejorando la precisión en la medición y proponiendo nuevas ideas. En conclusión, es necesario seguir desarrollando el proyecto para poder definir la efectividad de lo propuesto, asimismo, se debe avanzar a pensar sobre su aplicación en situaciones reales a grandes niveles.
Rocha Páramo Joselyn, Universidad Autónoma de Baja California
Asesor: Mg. Isabel Cristina Echeverri Ocampo, Universidad Autónoma de Manizales

BIOMARCADORES EN DEPRESIóN CON SEñALES DE ELECTROENCEFALOGRAFíA


BIOMARCADORES EN DEPRESIóN CON SEñALES DE ELECTROENCEFALOGRAFíA

Jimenez Medina Dominick Mateo, Universidad de Guadalajara. Rocha Páramo Joselyn, Universidad Autónoma de Baja California. Ruelas Estrada Edwin Alain, Universidad de Sonora. Asesor: Mg. Isabel Cristina Echeverri Ocampo, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

La depresión es un trastorno mental complejo y multifacético que afecta significativamente a millones de personas en todo el mundo. Según la Organización Mundial de la Salud (OMS), se estima que aproximadamente 280 millones de personas sufren de depresión, lo que representa el 3.8% de la población mundial. A pesar de los avances significativos en el campo de la psiquiatría y la psicología, el diagnóstico de la depresión sigue basándose en gran medida en evaluaciones clínicas y cuestionarios subjetivos. Estos métodos, aunque útiles, presentan limitaciones importantes debido a su naturaleza subjetiva y a la variabilidad en la presentación de los síntomas. La falta de herramientas diagnósticas objetivas y cuantificables dificulta la identificación precisa de la depresión y, en consecuencia, la personalización de los tratamientos. La búsqueda de biomarcadores específicos para la depresión ha emergido como una estrategia crucial para abordar estas limitaciones. Los biomarcadores son indicadores biológicos que pueden medirse objetivamente y proporcionar información sobre procesos patológicos, estados de enfermedad o respuestas a intervenciones terapéuticas. En el contexto de la depresión, los biomarcadores podrían ofrecer una forma más precisa y objetiva de diagnosticar el trastorno, monitorizar su progresión y evaluar la eficacia de los tratamientos.



METODOLOGÍA

Para identificar las investigaciones más recientes y relevantes sobre el uso de señales de EEG en el estudio de la depresión, se creó una cadena de búsqueda específica utilizando las palabras clave "depression", "mental health", "EEG" y "electroencephalography". Esta cadena se aplicó en diversas bases de datos, incluyendo Scopus, PubMed, ScienceDirect y Google Scholar. Los criterios de inclusión consideraron artículos publicados en inglés y español, realizados en los últimos cinco años y que utilizaran EEG como herramienta principal para la evaluación de la actividad cerebral. Se excluyeron artículos que investigaban otros trastornos neurológicos además de la depresión o estudios con más de cinco años de antigüedad. La revisión inicial consistió en la lectura de títulos y resúmenes de los artículos obtenidos, permitiendo una selección preliminar de estudios relevantes. Los artículos filtrados se organizaron en tablas comparativas para contrastar las metodologías empleadas y los resultados obtenidos. Junto con la revisión literaria, se planteó una metodología para indagar en los resultados recopilados, para esto se seleccionó un sujeto control y un sujeto con diagnóstico sugerente de depresión, se procesaron las señales obtenidas y se realizó un análisis de conectividad funcional en ambos casos. Para el procesamiento de las señales EEG, tanto del sujeto control como del sujeto con depresión, se aplicó un filtro pasa banda, centrando la señal en el rango de frecuencias de interés y eliminando señales de ruido. Posteriormente, se identificaron y eliminaron diferentes artefactos haciendo un análisis de componentes independientes (ICA).  El análisis de conectividad funcional se realizó utilizando el método wPLI, evaluando la consistencia de los desfases entre señales de EEG. Finalmente, se compararon los resultados de las señales EEG de los dos sujetos de prueba para identificar diferencias significativas en los ritmos cerebrales y la conectividad funcional. Los datos obtenidos de los artículos revisados y los experimentos propios se integraron para proporcionar una visión comprensiva de la utilidad del EEG como herramienta diagnóstica en la depresión.


CONCLUSIONES

La presente investigación se fundamenta en la revisión de literatura reciente y en un estudio experimental que analiza el uso de señales de electroencefalografía (EEG) en la identificación de biomarcadores para la depresión. A través del análisis detallado de las ondas cerebrales se observaron alteraciones significativas, especialmente en las ondas delta, que oscilan en el rango de 4Hz a 7Hz y están asociadas con un estado de reposo. El protocolo experimental incluyó pruebas con ojos cerrados y abiertos, aplicando diferentes estímulos en cada periodo. Los resultados de estas pruebas demostraron que el EEG es una herramienta viable y eficaz para el diagnóstico y tratamiento de la depresión. Mediante el uso de filtros específicos, fue posible identificar con mayor claridad las ondas cerebrales, permitiendo una comparación detallada entre los sujetos de prueba. Se encontró que las ondas alpha y beta mostraron cambios significativos en individuos con depresión, revelando diferencias notables en los ritmos cerebrales, coherencia y conectividad funcional entre individuos con depresión y sujetos sanos. Estas diferencias se correlacionaron con la severidad de los síntomas depresivos. La implementación de algoritmos de aprendizaje automático, como Máquinas de Vectores de Soporte (SVM), Bosques Aleatorios, Potenciación del Gradiente, Redes Neuronales Convolucionales (CNN) y Redes LSTM (Long Short-Term Memory), permitió una clasificación precisa de individuos con y sin depresión. Estos algoritmos buscan identificar patrones específicos en las señales EEG para su implementación como biomarcadores, mejorando así la precisión del diagnóstico y la personalización de los tratamientos. Los hallazgos obtenidos respaldan el uso de biomarcadores no solo para diagnosticar la depresión, sino también para monitorear su progresión y respuesta al tratamiento. Esto abre nuevas posibilidades para desarrollar herramientas diagnósticas y terapéuticas más efectivas y personalizadas. La capacidad de estos biomarcadores para proporcionar una medida objetiva de la actividad cerebral y su relación con los estados emocionales y cognitivos ofrece una ventaja significativa sobre los métodos tradicionales basados en evaluaciones clínicas y cuestionarios subjetivos.
Rocha Salgado Fernando Ivan, Instituto Tecnológico Superior de Uruapan
Asesor: Mg. Marco Fidel Flórez Franco, Universidad de Investigación y Desarrollo

CONTROL INTELIGENTE DE SEMáFOROS CON ESP32


CONTROL INTELIGENTE DE SEMáFOROS CON ESP32

Rocha Salgado Fernando Ivan, Instituto Tecnológico Superior de Uruapan. Asesor: Mg. Marco Fidel Flórez Franco, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

La automatización de procesos se ha convertido en una solución fundamental en diversos sectores de la sociedad. La capacidad de tomar decisiones personalizadas, eliminar errores humanos y optimizar costos a largo plazo ha impulsado la adopción de sistemas automatizados. En este contexto, la gestión del tráfico vehicular en las ciudades se presenta como uno de los mayores desafíos actuales. Los problemas derivados de la acumulación de tráfico son evidentes: Pérdidas de Productividad: El tiempo extra perdido en los desplazamientos de personas y mercancías se traduce en millones de pesos en pérdidas económicas. La congestión desincentiva los viajes y ralentiza el ciclo económico al evitar el movimiento de dinero entre individuos y negocios. Impacto en la Salud Mental: El estrés, la ansiedad y otros problemas mentales son consecuencia directa de la acumulación de tráfico diario. La calidad de vida de quienes enfrentan esta situación se ve afectada. Contaminación Ambiental: El tráfico es responsable de diversos tipos de contaminación: del aire, auditiva, visual y térmica. Esto afecta tanto al medio ambiente como a la salud de quienes residen en las ciudades. Solución Propuesta: Semaforización Inteligente: Para mitigar estos problemas, proponemos la creación de semáforos inteligentes. A diferencia de los semáforos tradicionales, que siguen patrones estáticos, los semáforos inteligentes analizan la situación en tiempo real y adaptan sus luces según la demanda de cada carril. Estas soluciones no solo priorizan eficientemente el flujo vehicular, sino que también pueden coordinarse con otros semáforos en una red inteligente. Así, se logra una gestión del tráfico más fluida y organizada en nuestras ciudades.



METODOLOGÍA

1. Búsqueda de Antecedentes Para comprender el contexto y las mejores prácticas, realizamos una búsqueda exhaustiva de proyectos previos relacionados con la semaforización inteligente en diferentes partes del mundo. Estudiamos los resultados obtenidos por estos proyectos y analizamos las tecnologías utilizadas. Esto nos proporcionó una base sólida para nuestro propio enfoque. 2. Reconocimiento de Tecnologías La elección de las tecnologías adecuadas fue crucial. Priorizamos tres aspectos clave: estabilidad, confiabilidad y seguridad. Después de evaluar diversas opciones, seleccionamos los siguientes componentes: ESP32-CAM: Esta tarjeta combina conectividad Wi-Fi con una cámara integrada, lo que la hace ideal para capturar imágenes en tiempo real. Arduino: Utilizamos Arduino para programar la ESP32-CAM y controlar su funcionamiento. OpenCV: Esta biblioteca de visión por computadora nos permitió analizar las fotografías capturadas y detectar la cantidad de carros por carril. 3. Fase de Desarrollo En esta etapa, creamos el prototipo funcional. Los pasos clave incluyeron: Programar la ESP32-CAM para capturar imágenes y crear un servidor web que permitiera la comunicación con el programa Python. Utilizar OpenCV en Python para procesar las fotografías y detectar la presencia de carros en cada carril. Implementar un algoritmo de priorización que decidiera qué carril debía tener luz verde en función de la demanda vehicular. 4. Fase de Testeo Una vez completado el prototipo, sometimos el sistema a pruebas rigurosas: Evaluamos su fiabilidad en situaciones reales de tráfico. Verificamos su eficiencia y capacidad de adaptación en tiempo real. Identificamos posibles áreas de mejora y ajustes necesarios.


CONCLUSIONES

La implementación de semáforos inteligentes representa un avance significativo en la gestión del tráfico urbano. A través de este estudio, hemos demostrado que la combinación de tecnologías como ESP32-CAM, Arduino y OpenCV puede crear un sistema capaz de adaptar dinámicamente los tiempos de los semáforos según la demanda vehicular en tiempo real. Los resultados obtenidos durante la fase de testeo sugieren que este enfoque tiene el potencial de: Reducir significativamente los tiempos de espera en intersecciones. Disminuir la congestión vehicular, lo que se traduce en menor contaminación y ahorro de tiempo para los ciudadanos. Mejorar la eficiencia general del flujo de tráfico en las ciudades. Sin embargo, es importante reconocer que aún existen desafíos por superar: La implementación a gran escala requerirá una inversión significativa en infraestructura. Es necesario realizar más pruebas en diferentes condiciones climáticas y de iluminación para garantizar la fiabilidad del sistema. Se deben desarrollar protocolos de seguridad robustos para proteger el sistema contra posibles ciberataques. A pesar de estos retos, los beneficios potenciales en términos de productividad, salud mental y reducción de la contaminación justifican la continuación de esta línea de investigación y desarrollo. Recomendaciones: Realizar pruebas piloto en áreas urbanas seleccionadas para evaluar el impacto a largo plazo. Colaborar con autoridades de tránsito locales para integrar este sistema con la infraestructura existente. Invertir en la mejora continua del algoritmo de detección y priorización para aumentar su precisión y eficiencia. En conclusión, los semáforos inteligentes presentan una solución prometedora para los desafíos de movilidad urbana del siglo XXI. Con mayor investigación y desarrollo, esta tecnología tiene el potencial de transformar significativamente la forma en que gestionamos el tráfico en nuestras ciudades, mejorando la calidad de vida de los ciudadanos y contribuyendo a un futuro urbano más sostenible.
Rocha Vazquez Erick Rodolfo, Universidad Autónoma de Coahuila
Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional

SíNTESIS DE β-BI2O3 Y β-BI2O3/BI2O2CO3 POR FLAME SPRAY Y EVALUACIóN DE SU ACTIVIDAD FOTOCATALíTICA EN LA DEGRADACIóN DE CONTAMINANTES MODELO PRESENTES EN AGUA.


SíNTESIS DE β-BI2O3 Y β-BI2O3/BI2O2CO3 POR FLAME SPRAY Y EVALUACIóN DE SU ACTIVIDAD FOTOCATALíTICA EN LA DEGRADACIóN DE CONTAMINANTES MODELO PRESENTES EN AGUA.

Rocha Vazquez Erick Rodolfo, Universidad Autónoma de Coahuila. Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Entre los procesos de oxidación avanzada se encuentra la fotocatálisis, que permite el uso de energía solar, o una fuente de energía artificial, para que un material fotocatizador, obtenga la energía suficiente para transferir  un electrón  pasar a un nivel de energía más alto, esta energía es especifica, se mide en unidades de  electrón Volt (eV) y se define como la diferencia de energía entre la banda de valencia y la banda de conducción (Banda gap). Este proceso de conducción de energía, genera lo que se conoce como el par electrón-hueco, debido a su formación   sustancias externas pueden reaccionar con la superficie del material fotocatalizador, generando reacciones oxidantes como reductoras. Todo esto promueve la degradación o generación de productos que se buscan sean más amigables con el medio ambiente. Un método aun no investigado era el uso de la técnica de rociado térmico por flama oxiacetileno, la cual consiste en suministrar a la pistola de tres gases (acetileno, oxígeno y aire) además de un material que se busca modificar su estructura, morfología, composición química, densidad electrónica, vacancia, afinidad electrónica, entro otras características, mediante a las propiedades físicas y químicas del material.  El óxido de bismuto (III), es un compuesto químico que se compone por bismuto y oxígeno en proporción de 2:3 respectivamente. En México se extrae grandes cantidades de bismuto metálico, lo que nos posiciona en el 4to lugar a nivel mundial. Es por lo que se los trabaos en los cuales se logre valorizar el Bi ya sea para la formación de fotocatalizadores es de gran interés.



METODOLOGÍA

Inicialmente se procedió a realizar la molienda del bismuto metálico usando un mortero con pistilo, buscando disminuir el tamaño de distribución de partícula. Una vez realizado esto se procedió a sintetizar oxido de bismuto alfa a partir del bismuto metálico, ácido nítrico, hidróxido de sodio y agua desionizada, usando material de laboratorio, parrillas eléctricas y campana de extracción de gases. El α-Bi2O3  se preparó en 2 pasos, primero se disolvieron 36 g de Bi metálico en 150 mL de una solución HNO3 al 32%m, el proceso se realizó adicionando lentamente cantidades de Bi, mientras la solución se mantenía en agitación por medio de un agitador magnético. Posteriormente se preparó una solución neutralizadora de concentración 2 M de NaOH pesando 40 g y diluyendo en 500 mL de agua destilad. Esta solución se transfirió a un vaso de precipitados, y se puso en agitación, luego, se agrego la solución de Bi sobre la solución de NaOH, y se dejó en agitación por 20 min, de esta forma se precipito el α-Bi2O3   El precipitado generado de óxido de bismuto (Bi2O3) se lleva a un filtro haciendo lavado con agua y etanol al 98%, finalmente se lleva al horno a 100°C Prosiguiendo con las actividades, se realizaron 5 experimentos usando la técnica de la flama oxiacetileno cambiando la relación de concentración del oxígeno y el acetileno  y manteniendo constante el factor de flujo volumétrico (37 nlpm). Una vez iniciado el proceso y después de un tiempo definido de 3 min, para suministrar α-Bi2O3 a través de la flama con, se procedía a apagar, desamblar, recolectar y limpiar cada una de las piezas para volver a realizar el experimento, de esa forma se evitaba contaminaciones del producto anterior. Se clasificaba el producto con el nombre de donde se recolecto, por ejemplo, tolva, ciclón y tubos. Los materiales obtenidos fueron caracterizados por medio de diferentes técnicas, Se analizó el tamaño de distribución de partícula para el α-Bi2O3 obtenido, concluyendo que cumplía con las condiciones adecuadas para usarlo para suministrarlo a la flama de la técnica de rociado térmico. Prosiguiendo con el trabajo realizado en el laboratorio, se optó por comenzar experimentos de pruebas fotocatalíticas ante luz de lámparas de Xenón, observando la degradación de una solución de rodamina B a 10 mg/L, y usando como fotocatalizador tres materiales distintos, los cuales son: el compuesto de α-Bi2O3 sintetizado por precipitación, el compuesto comercial de β-Bi2O3 y una mezcla homogénea de los dos compuestos previos, mostrando mediante análisis de graficas de concentración de rodamina B con respecto del tiempo que el mejor fotocatalizador es el compuesto comercial de β-Bi2O3. Adicionalmente, se han realizado pruebas fotocataliticas ante luz solar de tres muestras obtenidas de la misma área de experimientos pasados por la técnica de rociado térmico, lo cual muestraba en diversos análisis que se obtenían partículas con un tamaño de distribución menor a las del oxido de bismuto alfa y beta por individual y la de mayor actividad fotocatalitica es la de una razón de 1.7, la cual se encuentra en el área de flama reductora.


CONCLUSIONES

La caracterización de muestras obtenidas por la técnica de rociado térmico nos dice que estamos obteniendo oxido de bismuto beta y una fase Bi2O2CO3 en diferentes proporciones. Los comportamientos de la concentración con respecto del tiempo nos indican que existe un efecto en la actividad fotocatalítica de acuerdo con las condiciones de preparación del material. Las próximas actividades por desarrollar serán la caracterización de las muestras de los materiales faltantes, comprobar si se obtuvieron homouniones dentro de nuestros experimentos obtenidos por la técnica de rociado térmico
Rochin Diaz Jazmin Isela, Universidad Politécnica de Sinaloa
Asesor: M.C. Alejandro Pérez Pasten Borja, Universidad Politécnica de Sinaloa

DESARROLLO DE APLICACIóN INTELIGENTE DE APOYO A PERSONAS CON BAJA VISIóN (BLAIND)


DESARROLLO DE APLICACIóN INTELIGENTE DE APOYO A PERSONAS CON BAJA VISIóN (BLAIND)

Barraza Ureña Javier David, Universidad Politécnica de Sinaloa. Rochin Diaz Jazmin Isela, Universidad Politécnica de Sinaloa. Asesor: M.C. Alejandro Pérez Pasten Borja, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, las personas con problemas de visión enfrentan muchos retos en su vida diaria, especialmente para encontrar cosas y moverse por su entorno. A pesar de los avances tecnológicos, todavía hay una gran falta de accesibilidad y autonomía para estas personas. Este proyecto tiene como objetivo abordar estos desafíos mediante la creación de un programa que funcione como un asistente virtual para ellos. El programa utilizará tecnologías de reconocimiento de voz y detección de objetos para ayudar a estas personas a localizar objetos comunes y mejorar su independencia.



METODOLOGÍA

En primera instancia se realizó una investigación correspondiente sobre sistemas ya desarrollados por la comunidad científica, donde se encontró que muchos de estos sistemas se encontraban con limitaciones en la precisión de la detección de objetos de dichos sistemas e incluso había dificultades con la interacción que se tenía con usuarios con problemas de visión. Gracias a la investigación, se desarrolló una comprensión más a fondo sobre la complejidad del tema y de igual manera ayudo a entender acerca de las necesidades primordiales a ser atendidas. Posteriormente, se aplicó ingeniería de software, específicamente ingeniera de requisitos para obtener el lenguaje de programación y los algoritmos o librerías a utilizar. Como lenguaje de programación se eligió Python debido a su desarrollo de aplicaciones de inteligencia artificial y a su versatilidad en el procesamiento de datos. Mientras que, para las librerías a utilizar, se decidió hacer uso de la librería SpaCy, la cual, ayudaría bastante para el procesamiento del lenguaje natural, ya que esta librería es eficiente en el análisis de texto y la extracción de entidades. Una vez tomado en cuenta esto, se planificaron los requerimientos para llevar a cabo la elaboración de la detección de objetos. Se tomó la decisión de implementar la librería YOLO (You Only Look Once), la cual, permite una identificación precisa y rápida de objetos mediante el análisis de imágenes en tiempo real. Además, se implementaron sistemas de Speech to Text y Text to Speech, esto para convertir la indicación mediando la voz del usuario en texto y viceversa también, con el objetivo de facilitar la comunicación con el asistente y hacer una interacción más cómoda y sencilla entre ello. Finalmente, utilizando la metodología Scrum, se llevaron a cabo pequeños sprints los cuales permitieron un desarrollo ágil y organizado del sistema. Los sprints incluyeron: 1. Voz a Texto: Se basa en la implementación del sistema de reconocimiento de voz para convertir las frases dichas por el usuario en texto. 2. Detección de Comando y Objeto: Es la elaboración de los algoritmos que analizan el texto para detectar comandos específicos y usar la librería YOLO para la identificación de objetos mediante la cámara. 3. Texto a Voz: Implementa la funcionalidad de Text to Speech para proporcionar retroalimentación auditiva al usuario, indicando así la ubicación del objeto encontrado o sugiriendo alternativas en caso de no encontrar el objeto. Cada sprint tiene el enfoque general de asegurar que cada componente del sistema funcione correctamente antes de integrar el siguiente, con la finalidad de que se permita una mejora continua y una experiencia de usuario clara y efectiva.


CONCLUSIONES

Gracias a lo investigado y desarrollado a lo largo de este tiempo, se creó un código de prueba, el cual consiste en capturar la voz del usuario, luego analizar lo que se ha dicho, para después buscar y encontrar lo indicado o descrito. Actualmente, se sigue trabajando para acoplarlo con el detector de objetos y así mejorar su eficiencia, dando oportunidad a expandir su funcionalidad y poder percibir más objetos de los que puede localizar hoy en día. El programa está diseñado para ser intuitivo y accesible, por lo que, se anticipa que los usuarios encontrarán el sistema sencillo de utilizar, mejorando así su experiencia y su calidad de vida. Asimismo, se espera que el programa contribuya con la autonomía de las personas, brindando una base con la cual se pueda facilitar para ellos el encontrar y/o identificar objetos a su alrededor.
Rodas Sánchez Areli Ayde, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: M.C. Erik Juárez Cortes, Universidad Tecnológica de Tecamachalco

BENEFICIOS DEL USO E IMPLEMENTACIóN DE LA MáQUINA DESESPINADORA DE PITAYA EN EL ESTADO DE PUEBLA, MéXICO


BENEFICIOS DEL USO E IMPLEMENTACIóN DE LA MáQUINA DESESPINADORA DE PITAYA EN EL ESTADO DE PUEBLA, MéXICO

Gómez Cruz Sandra Luz, Instituto Tecnológico de Tuxtla Gutiérrez. Rodas Sánchez Areli Ayde, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: M.C. Erik Juárez Cortes, Universidad Tecnológica de Tecamachalco



PLANTEAMIENTO DEL PROBLEMA

En el estado de Puebla, diversas comunidades llevan a cabo la producción de pitayas, dichas comunidades presentan desafíos con el desespinado de esta fruta. Entre los principales problemas destacan los siguientes: Herramientas manuales obsoletas e ineficientes: Para realizar el desespinado de pitaya, dependiendo también a los métodos de realización, se hace uso de herramientas que pueden ser deficientes, esto puede darse también por no contar con el presupuesto suficiente para comprar equipos de trabajo más modernos. Menor productividad: Este proceso es realizado de forma manual, por lo que se requiere de mucho tiempo, dependiendo también de las características de cada fruta (tamaño, madurez, cantidad de espinas), además de la capacidad y habilidad de cada trabajador, y las herramientas con las que cuente. Menor calidad de la fruta: La calidad de la fruta puede verse afectada por errores de los trabajadores, especialmente si este no cuenta las herramientas necesarias, o si el trabajador se encuentra fatigado. También es importante tomar en cuenta la calidad de la fruta dependerá de las condiciones en la que se trabaja, las posturas adoptadas por los trabajadores, los movimientos repetitivos y el riesgo que se tienen al manipular la fruta con las espinas. Daños en la salud de los trabajadores: Los trabajadores se ven expuestos a riesgos en su salud, ya que, al estar en contacto con las espinas, sin hacer uso de algún guante, o protección, pueden resultar heridos, con cortaduras en la mano, como consecuencia, la eficiencia es menor, y la calidad de la fruta puede verse comprometida. Debido a las problemáticas planteadas, en el municipio de Tecamachalco, Puebla, surgió la idea de crear una máquina que procese el desespinado de la pitaya, convirtiéndose así en una oportunidad de innovación, para mejora y beneficio en diversas comunidades.



METODOLOGÍA

Se identificaron las principales técnicas de desespinado empleados por diversos trabajadores tomando en cuenta el tipo de herramienta empleada, las cuales fueron las siguientes: La primera técnica consiste en que el trabajador sostiene la fruta con su mano, mientras que, con la otra, haciendo uso de una tenaza, va quitando las espinas de la fruta. No se hace uso de algún guante o protección. La segunda técnica consiste en que el trabajador sostiene la fruta con la mano haciendo uso de un guante y con un tenedor va quitando las espinas. La tercera técnica consiste en que el trabajador sujeta la fruta en la parte superior, apoyándose de una superficie, y con un cuchillo va quitando las espinas, sin hacer uso de un guante o protección. La cuarta técnica aplica para las frutas que se encuentran dentro del rango de altura del trabajador, ya que se desespina sin cortar la fruta, haciendo uso de 2 palos de madera, sin hacer uso de un guante o protección. La quinta técnica consiste en que el trabajador sostiene la fruta con la mano, sin apoyarse en alguna superficie y con un cuchillo se va quitando las espinas, sin hacer uso de un guante o protección. La sexta técnica consiste en que el trabajador sujeta la fruta con una tenaza, y con un cuchillo va quitando las espinas de la fruta, también no se hace uso de algún guante o protección. Una vez identificadas las técnicas utilizadas, se procedió a tomar datos, para conocer cuál es el tiempo de desespinado de la pitaya por unidad, obteniendo los siguientes datos: 1ra técnica: 1.516 min. (01 min. 31 seg.), 39 pitayas desespinadas por hora. 2da técnica: 0.95 min. (57 seg.), 63 pitayas desespinadas por hora. 3ra técnica: 1.183 min. (01 min. 11 seg.), 50 pitayas desespinadas por hora. 4ta técnica: 1.166 min. (01 min. 10 seg.), 51 pitayas desespinadas por hora. 5ta técnica: 1.566 min. (01 min. 34 seg.), 38 pitayas desespinadas por hora. 6ta técnica: 1.65 min. (01 min. 39 seg.), 36 pitayas desespinadas por hora. De la misma forma, se tomaron datos haciendo uso de la máquina desespinadora y se aplicaron 3 métodos distintos para conocer cuántas pitayas se desespinan por hora, siendo el tiempo promedio de 0.7 min. (42 seg.). Los datos obtenidos fueron los siguientes: 1er método: Dejando un margen de 10 seg. entre cada fruta se desespinaron 314 pitayas. 2do método: Dejando un margen de 5 seg. entre cada fruta se desespinaron 577 pitayas. 3er método: Dejando un margen de 0.7 min. (tiempo promedio de desespinado de una pitaya) se desespinaron 85 pitayas.


CONCLUSIONES

Durante la estancia de verano se logró obtener nuevos conocimientos teóricos sobre las pitayas, sus características y la importancia de su producción en México, Puebla y en las distintas comunidades donde se lleva a cabo esta actividad, así como también se adquirieron conocimientos prácticos, en lo que respecta al proceso de producción de pitaya y de las diversas técnicas empleadas por los trabajadores para llevar a cabo el desespinado, por lo que, en base a los datos obtenidos y expuestos anteriormente se puede llegar a la conclusión que el correcto uso y funcionamiento de la maquina será de gran de ayuda para las diversas comunidades, siendo esta una solución a los problemas antes planteados: Mayor eficiencia: Los trabajadores pueden cumplir con la carga de trabajado en menos tiempo, a diferencia de realizar el desespinado de manera manual. Menos riesgo para el trabajador: El trabajador solo tiene que poner la fruta en la máquina, por lo que no tiene que sostener la fruta todo el tiempo, además, los movimientos repetitivos realizados con la mano se eliminan, también hay una reducción de ocurrencias respecto a la adopción de malas posturas, y el operario tiene más libertad de movimiento. Mayor calidad en la fruta: La fruta no se ve afectada, ya que las cerdas de los cepillos no causan cortes a la fruta, además que no es necesario sostener la fruta (con la mano, tenazas, entre otros), a excepción de cuando la fruta se pone en la máquina y existe una menor contaminación de la pitaya. Mayor capacidad de producción: Gracias a la reducción significaba de tiempo en que se desespina la pitaya, se puede aprovechar más el tiempo, no solo para desespinar más frutas, si no para otras actividades relacionadas al proceso de producción de las pitayas, además de permitir satisfacer la demanda creciente de pitayas. Creación de nuevas oportunidades de empleo: La máquina requiere de operarios para su uso y su respectivo mantenimiento.
Rodríguez Arias William Jordani, Universidad Nacional Autónoma de Nicaragua, Managua
Asesor: Dra. Alma Delia Cuevas Rasgado, Universidad Autónoma del Estado de México

POTRONóMETRO SISTEMA PARA MEDIR EL ESTRéS USANDO CUESTIONARIO BECK.


POTRONóMETRO SISTEMA PARA MEDIR EL ESTRéS USANDO CUESTIONARIO BECK.

Rodríguez Arias William Jordani, Universidad Nacional Autónoma de Nicaragua, Managua. Asesor: Dra. Alma Delia Cuevas Rasgado, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

El estrés según la OMS (2022) ha sido reconocido como una de las principales preocupaciones de salud en la sociedad moderna. Este fenómeno, ampliamente conocido como la "enfermedad del siglo XXI", se atribuye a los cambios en los estilos de vida, la acelerada rutina diaria, factores como la falta de descanso adecuado y una alimentación deficiente pueden contribuir a la aparición de estrés, lo que a su vez aumenta el riesgo de desarrollar enfermedades, incluyendo problemas cardiovasculares.   La Organización Mundial de la Salud OMS, informa que más de 450 millones de personas en todo el mundo tienen problemas de salud mental. El estrés tiene gran impacto en la población mundial, lo que significa que cualquier persona en cualquier parte del mundo puede experimentar altos niveles de estrés. De acuerdo con las estadísticas, aproximadamente 3 de cada 10 personas en el mundo manifiestan sentirse preocupadas (42%), estresadas (41%), con dolor físico (31%), tristes (28%) y con ira (23%) a diario.   En Latinoamérica, según una encuesta realizada por las Naciones Unidas ONU (2022), se obtuvo que el 52% ha manifestado un nivel de estrés alto y un 47% ha pasado por ataques de pánico o ansiedad, con respecto al número total de encuestados. De acuerdo con investigaciones realizadas por la Escuela Latinoamericana de Medicina (2008), en Latinoamérica predomina el estrés académico entre estudiantes universitarios, superando el 67% en la categoría de estrés moderado, respecto a la población del estudio.



METODOLOGÍA

En el marco de la investigación destinada al desarrollo del presente proyecto, se emplearon instrumentos específicos para la búsqueda de información. Se utilizó el inventario de ansiedad de beck para medir el nivel de estrés en estudiantes universitarios. La recopilación de datos se llevó a cabo mediante lenguaje de marcado de hipertexto Html y Hoja de estilo en cascada Css, en conjunto con Bootstrap y Php, vinculado a la base de datos creada en MySQL y alojada en el servicio local denominado Xampp, el cual opera como servidor. El desarrollo de las aplicaciones móviles se basa en cinco etapas, análisis, diseño, desarrollo, pruebas de funcionamiento y entrega. Análisis. Durante esta etapa, se examinan las solicitudes o necesidades de los individuos o la entidad para la cual se está creando el servicio móvil, es decir, el "cliente". El objetivo es establecer las características del entorno o contexto de la aplicación. Se llevan a cabo tres actividades: recopilar requisitos, organizarlos por categorías y adaptar el servicio según las necesidades identificadas. Diseño. En esta fase, la meta es representar visualmente la solución propuesta a través de diagramas o esquemas, teniendo en cuenta la mejor opción al integrar aspectos técnicos, funcionales, sociales y económicos. Si no se logra el resultado deseado en la etapa de prueba de funcionamiento, se vuelve a esta fase para realizar ajustes. Desarrollo. En esta fase, el propósito es llevar a cabo la implementación del diseño en un producto de software. Durante esta etapa, se realizan actividades como la codificación, pruebas unitarias y documentación del código. Pruebas de funcionamiento. El propósito de esta fase es comprobar el rendimiento de la aplicación en diversos escenarios y condiciones. Para lograrlo, se llevan a cabo diversas tareas: emulación y simulación, dispositivos reales. Entrega. Una vez completada la depuración de la aplicación y abordados los requerimientos de última hora del cliente, se considera que la aplicación está concluida y se procede a entregar el ejecutable, el código fuente, la documentación y el manual del sistema.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos del nivel de estrés académicos en estudiantes universitarios y encuesta de Beck, a su vez ponerlos en práctica con el desarrollo de aplicación móvil para medir los niveles de estrés, sin embargo, al ser un extenso trabajo aun se encuentra en fase de prototipo y no se puede mostrar los datos obtenidos. Se espera determinar el nivel de estrés a través de la aplicación móvil.
Rodriguez Carvajal Eva Jaqueline, Universidad de Guadalajara
Asesor: Dr. Juan Carlos Elizondo Leal, Universidad Autónoma de Tamaulipas

IMPLEMENTACIóN DE UN ALGORITMO DE NAVEGACIóN AUTóNOMA PARA UN ROBOT MóVIL


IMPLEMENTACIóN DE UN ALGORITMO DE NAVEGACIóN AUTóNOMA PARA UN ROBOT MóVIL

Rodriguez Carvajal Eva Jaqueline, Universidad de Guadalajara. Asesor: Dr. Juan Carlos Elizondo Leal, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Actualmente, la exploración y el análisis de entornos extremos y de difícil acceso, representan desafíos significativos que superan las capacidades humanas, debido a su naturaleza peligrosa o inaccesible. La entrada en estos ambientes, donde la información es escasa o inexistente, resulta prácticamente imposible para las personas, complicando la recopilación de datos, la asistencia o la seguridad. Abordar estos desafíos no solo facilita el acceso a información crítica en condiciones adversas, sino que también amplía considerablemente los horizontes de estudio en estos campos. Por lo tanto, es fundamental desarrollar sistemas capaces de obtener esta información sin la intervención directa de individuos, garantizando así una exploración más segura y efectiva en estos entornos. En este contexto, se plantea un proyecto enfocado en el desarrollo de un dispositivo capaz de superar las limitaciones actuales. En donde el objetivo principal es crear un robot autónomo equipado con un algoritmo de búsqueda y navegación que facilite la exploración de terrenos controlados y permita evaluar la eficacia de esta tecnología a través de diversas pruebas. Además, se pretende establecer una base sólida para el perfeccionamiento y evolución de estos sistemas, permitiendo preparar el terreno para enfrentar desafíos más complejos y reales para futuras investigaciones.



METODOLOGÍA

El proyecto del diseño del robot se inició con el desarrollo mecánico basado en una configuración de carro diferencial, que incluye dos llantas motrices acopladas a motores independientes para un control preciso. Además, se incorporaron ruedas castor para mantener la estabilidad de su arquitectura. Su estructura, construida con barras de metal ligero, cuenta con una superficie de plástico que proporciona una base sólida y ligera para alojar los componentes electrónicos. Entre estos, se encuentra una batería recargable de 12 volts, que alimenta un controlador Sabertooth 12x2 y dos motores Tetrix de 12 volts con encoders de alta resolución. Asimismo, se seleccionó un Arduino Mega 2560 como microcontrolador debido a sus múltiples puertos de interrupción, necesarios para manejar los datos de los encoders y controlar los motores mediante señales PWM. Por último, una pantalla LCD conectada al Arduino que permite la visualización en tiempo real de las coordenadas actuales del robot. Para lograr el movimiento del carro, la Sabertooth fue configurada en modo R/C, permitiendo un control independiente y preciso de los motores, determinando tanto su velocidad como su sentido. En cuanto al software de orientación, los encoders miden la rotación de los motores y determinan la dirección de giro mediante una secuencia de pulsos en dos canales, A y B. Con estos valores, es posible aplicar la odometría, que convierte los pulsos en distancias y permite actualizar en tiempo real la orientación y posición del robot mediante diversas fórmulas. Para la creación del algoritmo de navegación se utilizó el método de transformación de distancias mediante rejillas de ocupación para encontrar el camino más corto en un entorno matricial controlado, donde los espacios correspondientes a un 0 indican áreas transitables y los representados con un 1 se consideran obstáculos. Durante su proceso, se evalúan las celdas vecinas y utiliza una función heurística que va estimando los costos y distancias para determinar el recorrido más corto hacia el objetivo. Finalmente, la ruta encontrada se traduce a coordenadas cartesianas, lo que permite al robot realizar algunos cálculos para determinar los ángulos deseados y dirigirse en línea recta hacia cada punto establecido, hasta llegar a su destino.


CONCLUSIONES

En retrospectiva, las evidencias obtenidas de las pruebas realizadas con el carro autónomo mostraron resultados muy favorables, ya que el dispositivo replicaba el camino establecido por el algoritmo de navegación, abriendo una infinidad de posibilidades para su perfeccionamiento. En este contexto, la implementación de algoritmos de búsqueda en robots móviles presenta oportunidades significativas para mejorar la eficiencia en una variedad de aplicaciones, especialmente en entornos desconocidos donde la intervención humana es limitada o impracticable. Aunque el algoritmo actual presenta algunas limitaciones, la integración de sensores adicionales y cámaras puede potenciar significativamente su rendimiento, permitiendo al robot mapear su entorno en tiempo real, mejorar la detección de obstáculos y optimizar la planificación de rutas. Este enfoque no solo promueve la evolución tecnológica, sino que también ofrece soluciones prácticas para superar las limitaciones humanas y ampliar las capacidades en diversos campos de apoyo y asistencia.
Rodriguez Chaparro Jhonatan Alejandro, Universidad de Pamplona
Asesor: Dr. Angel Israel Soto Marrufo, Universidad Autónoma de Ciudad Juárez

ANáLISIS Y CONTROL DE SISTEMAS MECATRóNICOS: PENDULO DE FURUTA Y PENDUBOT COMO CASOS DE ESTUDIO


ANáLISIS Y CONTROL DE SISTEMAS MECATRóNICOS: PENDULO DE FURUTA Y PENDUBOT COMO CASOS DE ESTUDIO

Rodriguez Chaparro Jhonatan Alejandro, Universidad de Pamplona. Asesor: Dr. Angel Israel Soto Marrufo, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

En la presente estancia de investigación científica y tecnológica del pacifico 2024, se planteó como proyecto a seguir el modelado y simulacion en Matlab livescrip de dos sistemas no lineales que son el pendubot y pendulo de futura, como objetivos aprenderemos a manejar el entorno en Matlab livescrip, modelar las ecuaciones diferenciales que describen la dinámica del pendubot y el pendulo de furuta, ya por ultimo analizaremos y aplicaremos distintos controladores al sistema.



METODOLOGÍA

Estos dos sistemas se asimilan a un péndulo invertido el cual es un experimento muy popular utilizado con fines educativos en la teoría de control moderna y este sistema puede aparecer con diferentes construcciones. el péndulo Furuta tiene una estructura diferente. Tiene un motor de accionamiento directo como fuente de actuador y su péndulo unido al eje giratorio del motor y el pendubot es un robot plano de dos enlaces con un actuador en el centro (enlace 1) y ningún actuador en el codo (enlace 2). El enlace 2 se mueve libremente alrededor del enlace 1 y el objetivo de control es llevar el mecanismo a los puntos de equilibrio inestables. El modelado de estos dos sistemas no lineales fue con ayuda del libro Control no lineal para sistemas mecánicos subaccionados, el cual para el pendubot se considera como robot planar de dos enlaces subactuado, obtenemos cinco parámetros con las ecuaciones que rigen el sistema teniendo en cuenta que en este caso se desprecia la fricción. Luego con ayuda de Euler-Lagrange obtendremos la dinámica del robot, esta dinámica nos dará las matrices de inercia, Coriolis, gravedad y fuerzas del robot. Luego hacemos la Linealización del sistema para obtener la representación del sistema en espacio de estados y con esto representación podremos obtener la función de transferencia del sistema. El péndulo Furuta es diferente al péndulo invertido convencional de poste de carro. El péndulo Furuta requiere menos espacio y tiene menos dinámica no modelada debido a un mecanismo de transmisión de potencia, ya que el eje alrededor del cual se gira el péndulo está conectado directamente al eje del motor. Obtenemos los parámetros del sistema y con Euler-Lagrange obtendremos las matrices de inercia, Coriolis, gravedad y fuerzas del sistema. Y linealizamos el sistema como lo hicimos con el pendubot para obtener la representación en espacio de estados y la función de transferencia que rige el sistema    


CONCLUSIONES

El pendubot es un sistema mecánico subactuado que presenta desafíos únicos en el campo del modelado y control debido a su naturaleza no lineal y la limitación de tener solo una entrada de control para dos grados de libertad. El modelado preciso del pendubot requiere una comprensión profunda de la dinámica no lineal y la interacción entre sus componentes. El péndulo de Furuta ha sido una plataforma clave para probar y desarrollar diversas estrategias de control. Entre las técnicas más comunes se encuentran el control por retroalimentación de estados, el regulador cuadrático lineal (LQR) y el control robusto. La principal dificultad radica en estabilizar el péndulo en su posición invertida y en realizar movimientos deseados de manera precisa y eficiente.
Rodriguez Cuevas Frida Sofia, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato

APLICACIONES MóVILES DE REALIDAD AUMENTADA Y VIRTUAL


APLICACIONES MóVILES DE REALIDAD AUMENTADA Y VIRTUAL

Cornelio Salinas Sergio Alejandro, Instituto Tecnológico Superior de Guanajuato. Rodriguez Cuevas Frida Sofia, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La Realidad Aumentada (AR) es utilizada para combinar el entorno físico con elementos virtuales (imágenes, videos, archivos 3D) que pueden o no interactuar con el usuario para diferentes fines, mientras que la Realidad Virtual (VR) muestra un ambiente completamente de forma digital, es decir, se pueden ver recreaciones virtuales del entorno o avatares, siendo muy utilizada con videojuegos que utilizan gafas. MindAR es una biblioteca que permite utilizar realidad aumentada en proyectos web de código abierto, el cual posibilita al desarrollador a crear diferentes trabajos de acuerdo con las necesidades del mismo. A-Frame es un framework basado en la web que facilita la creación de experiencias de realidad virtual (VR) inmersivas utilizando HTML. Esta herramienta de código abierto permite a los desarrolladores construir entornos virtuales interactivos de manera accesible y eficiente.



METODOLOGÍA

Con base a la información recopilada, se realizaron dos pruebas diferentes con estas tecnologías, la primera fue una escena de bosque nocturno para demostrar la capacidad de A-Frame para combinar elementos visuales y efectos interactivos en un entorno 3D, la siguiente es mostrar el objeto animado sobre el mismo una vez que se abra la cámara de un dispositivo. Como primera fase del bosque nocturno se investigó acerca de los componentes y recursos de A-Frame para comprender cómo implementar elementos 3D, efectos visuales y sonidos en la escena, para crear un diseño preliminar que incluye la disposición de árboles, arbustos, rocas, una fogata interactiva, y una cascada con reflejos. Después, se preparó el entorno de desarrollo utilizando un editor de código (Visual Studio Code) para editar el archivo HTML, donde se incorporaron las librerías de A-Frame y componentes adicionales necesarios para la escena. Durante el desarrollo, se realizaron pruebas de funcionamiento de los elementos interactivos y la apariencia de la escena, para ajustar la disposición de los elementos y optimizar los recursos para una experiencia fluida y visualmente atractiva. La escena se publica en un servidor web o repositorio (por ejemplo, GitHub Pages) para permitir el acceso y la visualización en línea. En la prueba de la realidad aumentada, de igual manera se reunió información del sitio oficial del MindAR para conocer las funcionalidades del mismo, así como algunos ejemplos más elaborados para enfocarlo con diferentes elementos del entorno físico e interactuar con ellos. Luego, con apoyo de algún editor de código (se utilizó VisualStudio Code), se desarrolla la página web, agregando las librerías de MindAR y etiquetas necesarias para su funcionamiento. Para efectos del proyecto, se hace uso de una imagen de referencia como compilador y que se pueda mostrar el objeto animado sobre el mismo una vez se abra la cámara del dispositivo.  Para que se pueda visualizar el resultado desde cualquier dispositivo externo, el proyecto se alojó en GitHub, el cual puede generar URLs públicas para que, al abrirlas, pueda ejecutar el código de la página y mostrar el resultado.


CONCLUSIONES

Ambas tecnologías se basan en procesos computacionales similares, permitiendo la construcción de entornos interactivos y visualmente mejorados donde se puede controlar su propia realidad, convirtiéndolas al mismo tiempo en realidades con propiedades diferentes.
Rodríguez Cuevas Karely Estefanía, Instituto Tecnológico de Colima
Asesor: Dra. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla

BIOPOLIMEROS "ELABORACIóN DE UN HIDROGEL A BASE DE CMC ADICIONADO CON ACEITE DE ROMERO DE RAPIDA ABSORCIóN CON FINES DE USO TERAPEUTICO EN LA CAPA TRANSDERMICA".


BIOPOLIMEROS "ELABORACIóN DE UN HIDROGEL A BASE DE CMC ADICIONADO CON ACEITE DE ROMERO DE RAPIDA ABSORCIóN CON FINES DE USO TERAPEUTICO EN LA CAPA TRANSDERMICA".

Melendez Salinas Kevin Daniel, Instituto Tecnológico de Matamoros. Quiroz Trelles Karen Alejandra, Universidad de Guadalajara. Rodríguez Cuevas Karely Estefanía, Instituto Tecnológico de Colima. Asesor: Dra. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En México, las lesiones musculares y contusiones representan un problema de salud significativo, afectando a una amplia gama de personas, desde deportistas hasta trabajadores manuales y personas de la tercera edad. Estas lesiones resultan en dolor, inflamación y disminución de la movilidad, impactando negativamente la calidad de vida de los afectados y generando costos económicos tanto directos como indirectos debido a tratamientos médicos y pérdida de productividad. México es un país rico en biodiversidad y conocimientos tradicionales sobre el uso de plantas medicinales. Entre estas, el romero (Rosmarinus officinalis) se destaca por sus propiedades antiinflamatorias, analgésicas y relajantes. A pesar de esto, la mayoría de los productos naturales basados en plantas medicinales creados en México no han logrado una aplicación comercial significativa ni han sido desarrollados de manera que maximicen su efectividad terapéutica. Frente a esta problemática, se plantea la necesidad de desarrollar nuevas soluciones terapéuticas que sean eficaces, accesibles y que puedan ser comercializadas para aprovechar los beneficios de los productos naturales mexicanos. En este contexto, la creación de un biopolímero en forma de hidrogel con aceite de romero encapsulado presenta una oportunidad innovadora. Este hidrogel tiene el potencial de liberar de manera controlada los compuestos activos del romero, proporcionando un tratamiento eficaz para golpes y heridas musculares.



METODOLOGÍA

Para la obtención del hidrogel en el "Experimento Control", se hidrató 2 g de carboximetilcelulosa en 30 ml de agua destilada. Se calentaron 70 ml de agua destilada a 80°C en una placa de calentamiento. Una vez alcanzada la temperatura, se añadió la carboximetilcelulosa hidratada al agua caliente y se agitó a 150 rpm con un caframo, sin retirar la mezcla de la placa. Cuando la mezcla se homogeneizó, se retiró de la placa y se reservó. Simultáneamente, se calentaron 80 ml de agua destilada a 80°C en la placa de calentamiento. Se disolvieron 12 g de fécula de papa en 30 ml de agua y 5 g de glicerina en 9 ml de agua. Cuando el agua alcanzó los 80°C, se añadió la fécula de papa disuelta y se agitó a 150 rpm durante 5 minutos, hasta que la fécula se transparentó, sin retirar de la placa. Posteriormente, se añadió la glicerina diluida. Después de 5 minutos, se incorporó la carboximetilcelulosa previamente preparada y se agitó durante 10 minutos o hasta que la mezcla se homogenizó bien. Finalmente, se diluyó 1 g de tetraborato de sodio en 30 ml de agua destilada y se añadió 1 ml de hidróxido de sodio, calentando para asegurar la disolución completa. Esta solución se mezcló con la mezcla de hidrogel, se apagó la placa de calentamiento y se dejó agitar durante 10 minutos. Se llevaron a cabo cuatro experimentos adicionales para ajustar la consistencia del hidrogel. En el Experimento #1, se siguieron los mismos pasos hasta el paso 10, pero se usaron 28 ml de agua para disolver el bórax en lugar de 30 ml y se añadieron 2 ml de lignina a una concentración de 0.04 g/ml. En el Experimento #2, se replicó el procedimiento del #1, pero se añadieron 4 ml de lignina en lugar de 2 ml. En el Experimento #3, también se siguió el procedimiento previo, pero se incorporaron 6 ml de lignina. Finalmente, en el Experimento #4, se evitó el uso del bórax para observar el comportamiento viscoso sin él. Para la obtención de la emulsión, se prepararon dos soluciones. En la Solución 1, se calentaron 40 ml de agua a 80°C y se hidrató 0.75 g de alginato de sodio en 20 ml de agua. Una vez alcanzada la temperatura, se añadió el alginato hidratado al agua caliente y se agitó hasta obtener una mezcla homogénea. En la Solución 2, se añadieron 4 g de aceite de romero y 2.5 g de emulsificante a 40 ml de agua. Esta mezcla se agitó durante 20 minutos hasta lograr una emulsión homogénea. Después de elaborar ambas soluciones, se mezclaron durante 20 minutos a una velocidad óptima para evitar la ruptura de la emulsión. Para la encapsulación, se utilizó una solución de carbonato de calcio en un vaso de precipitados con agitación magnética. La emulsión de aceite de romero se goteó utilizando una jeringa. En la medición de la viscosidad, se empleó un viscosímetro digital con aguja LV-04 para los hidrogeles viscosos y LV-02 para el Experimento 4 y el control, a 50 rpm. En cuanto a la medición del tamaño de las partículas de las cápsulas, se utilizó un microscopio digital de 100x. Para analizar las muestras, se cuarteó la primera muestra 4 veces, obteniendo 64 submuestras y se analizó el 25% de estas. La segunda muestra se cuarteó 2 veces, resultando en 8 submuestras, y se analizó el 50% para obtener una mayor precisión en el análisis.


CONCLUSIONES

En esta investigación, se realizaron cinco experimentos con hidrogeles variando la cantidad de lignina. Se observó que a mayor contenido de lignina, los hidrogeles se volvían más viscosos y oscuros. El hidrogel óptimo, con 4 ml de lignina, mostró una viscosidad de 3690 cp y una densidad de 1.00628 gr/ml, cumpliendo en gran medida con los intervalos terapéuticos deseados de 4000-5000 cp y 0.9-1.2 gr/ml. Para el encapsulado de oleato de romero, se realizaron varias pruebas con diferentes cantidades de alginato de sodio. Se encontró que 0.75 gr de alginato de sodio producía encapsulados con una capa lo suficientemente gruesa para mantenerse íntegros y lo suficientemente delgada para disolverse al frotarse en la piel. Sin embargo, al mezclar el hidrogel con los encapsulados y dejar la mezcla a temperatura ambiente, los encapsulados se disolvieron en el gel. Esto indica la necesidad de buscar un método de encapsulación más estable y aditivos que prevengan el deterioro de la mezcla a temperatura ambiente. En conclusión, aunque se identificaron las proporciones óptimas de lignina y alginato de sodio, se requiere mejorar la estabilidad del encapsulado y la formulación del gel para asegurar su eficacia y durabilidad en condiciones normales de uso.
Rodríguez Gallardo Héctor Fernando, Universidad de Colima
Asesor: Dr. Antonio Gomez Roa, Universidad Autónoma de Baja California

DISEñO Y CONSTRUCCIóN DE SATéLITES Y COHETES EDUCATIVOS CANSAT


DISEñO Y CONSTRUCCIóN DE SATéLITES Y COHETES EDUCATIVOS CANSAT

Gala Cauich Carlos David, Universidad Autónoma de Yucatán. Ramirez Guzman Luis Dariel, Universidad Autónoma de Yucatán. Ramos Vázquez Dariana Lucia, Universidad de Colima. Rodríguez Gallardo Héctor Fernando, Universidad de Colima. Valencia López Rodrigo, Instituto Tecnológico de Morelia. Asesor: Dr. Antonio Gomez Roa, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Durante los últimos años, el desarrollo de proyectos espaciales ha tomado relevancia en el marco de las áreas de la ingeniería. Agencias espaciales y empresas privadas alrededor del mundo han podido aprovechar el constante avance tecnológico para desarrollar satélites y vehículos espaciales dentro de este boom espacial.  En México, la investigación y el desarrollo en las áreas de construcción de satélites y cohetes, tanto experimental como educativa han enfrentado muchos desafíos como la falta de recursos financieros, reformas constitucionales y recurso humano capacitado en los temas de la ingeniería espacial, lo cual deja a nuestro país rezagados a comparación de países emergentes.  Esta problemática puede ser minimizada de diferentes formas, ya sea con una nueva reforma espacial, el aumento del capital humano nacional al desarrollo espacial en México o con el apoyo del gobierno a través del financiamiento de proyectos de investigación en estas áreas. Por ello, este programa nos brinda la oportunidad de capacitarnos en temas de espaciales, además de trabajar con nuevas innovaciones para mejorar los lanzamientos de cohetes y diseños de satélites ya existentes. Por otro lado, para difundir las ciencias espaciales en nuestras localidades y continuar promoviendo el aumento de nuevos proyectos espaciales en el país.  Actualmente, en las competencias y lanzamientos de satélites CANSAT se realizan con drones, que llevan la carga útil a cierta altura. Se planteó la posibilidad de subir los satélites usando cohetes por lo que en el verano de investigación se estudió la posibilidad de utilizar diferentes cohetes para saber cuan viable son de esa manera.   Para esta investigación se propuso el lanzamiento de 3 diseños de cohetes construidos con materiales reciclables y económicos como una propuesta de transporte para llevar un diseño de pico satélite del tipo CanSat a cierta altura estipulada con el objetivo de recabar datos meteorológicos, de localización y orientación. 



METODOLOGÍA

Se planeó la construcción de 3 cohetes que usaran diferentes métodos de manufactura y un diseño de pico satélite CanSat para realizar una misión de análisis atmosférico y de localización en la Laguna Salada, Mexicali.Se inicio con el planteamiento de una placa de forma circular, de forma que se hacía un reto diferente el poder crear un diseño que cumpliera con los requerimientos necesarios para poder contener de manera correcta todos los componentes que se contendrían dentro del CanSat, para esto se crearon un total de 3 diseños experimentales con el software de diseño mecánico de SolidWorks, buscando con estos la mejor forma de acomodar los componentes, dando como resultado un diseño que podría contener todos los elementos seleccionados cumpliendo así con la misión inicial  la cual fue integrar de manera óptima los componentes del CanSat dentro del volumen de una lata de 355ml. Una vez teniendo los modelos 3D en el software se imprimieron todos estos por medio de una impresora 3D culminando así en su posterior ensamblaje. Previo a la construcción de los cohetes se realizaron diversos análisis de simulación en el software de simulación OpenRocket para modelar y simular el rendimiento de las diversas propuestas de cohetes a construir. Entre las variables analizadas estuvieron las dimensiones, geometría y peso a elegir del cono, fuselaje y aletas del cohete. La elección del motor a utilizar en particular también fue un factor clave a la hora de la simulación. Para los primeros 2 modelos diseñados y simulados se usaron tubos de cartón semigrueso en espiral como el fuselaje, las aletas de fueron cortadas a medida en madera y el cono utilizado una máquina de corte CNC Router.  El tercer cohete fue un diseño que utilizó materiales de fibra de vidrio en la mayor parte de su estructura. Las aletas, fuselaje, contenedor del motor y cono fueron hechos de rollos de tela de fibra de vidrio. Una vez armados los 3 cohetes, se instaló el sistema de recuperación a cada uno que consistió en una cuerda atada desde el fuselaje hasta el cono. Entre la cuerda de ató un paracaídas junto a un protector de paracaídas para la explosión de liberación. Finalmente, se instalaron los motores G-125 y G-80T para los primeros dos cohetes de cartón nombrados Loro 1 y Jaguar Zero y el motor I-175WS para el tercer cohete de fibra de vidrio nombrado Alebrije. El CanSat se decidió lanzar dentro de Loro 1, mientras que los demás serían lanzados vacíos para el día de lanzamiento. 


CONCLUSIONES

Para validar los diseños de cohetes y satélites se utilizó el campo de lanzamiento de COEHTES de la asociación TRIPOLI MEXICO ubicado en la Laguna Salada en el municipio de Mexicali en el estado de Baja California, para lanzar los 3 cohetes diseñados y construidos durante la estancia del verano de investigación del programa delfín   La misión tuvo 3 vuelos exitosos de los modelos Loro 1, Jaguar Zero y Alebrije los cuales lograron altitudes de 285 m, 355 m, 353 m respectivamente. Estos fueron recuperados en óptimas condiciones a excepción del modelo Alebrije que tuvo un impacto a tierra sin paracaidas. Con estos lanzamientos de cohete comprobamos que son una buena solucion como medio de expulsión de satélites tipo CanSat ademas que resulto rentable en relación al tiempo de elaboración, bajo costo y alto rendimiento.  El modelo CanSat representó un reto diseño innovador ya que la propuesta original se logró el objetivo de diseñar y construir un satélite con componentes de montaje superficial. Mismo que también detectamos un área que mejorar y reconsiderar para futuras misiones.  La misión y programa de investigación realizada durante el programa delfín fue una experiencia enriquecedora para aprender conceptos, técnicas y la logística de un proyecto espacial desde su planeación hasta su lanzamiento. Estos conocimientos serán bases firmes que nos permitirán formar parte de la comunidad de cohetería experimental de México desde nuestras localidades, promoviendo la ingeniería espacial en el país. 
Rodríguez Gámez Brianda Lizbeth, Universidad Autónoma de Sinaloa
Asesor: Dr. Joaquín Flores Valenzuela, Universidad Autónoma de Sinaloa

MATERIALES NANOESTRUCTURADOS EN ZEOLITAS Y ARCILLAS


MATERIALES NANOESTRUCTURADOS EN ZEOLITAS Y ARCILLAS

Rodríguez Gámez Brianda Lizbeth, Universidad Autónoma de Sinaloa. Salmerón Bastidas César Noel, Universidad Autónoma de Sinaloa. Vazquez Navarro Lucia Vanessa, Universidad Autónoma de Sinaloa. Asesor: Dr. Joaquín Flores Valenzuela, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Esta investigación surgió debido a que observamos las altas cantidades de colorantes contaminantes que existen en el medio ambiente, haciendo énfasis en el agua. Por ello, es posible utilizar alternativas para su eliminación mediante un proceso de fotocatálisis.



METODOLOGÍA

Preparación del Equipo Preparación del Laboratorio Limpieza y Organización: Limpiar y organizar el espacio de trabajo para asegurar un entorno seguro y ordenado. Inventario de Equipos: Verificar la disponibilidad y estado de todos los equipos e instrumentos necesarios. Calibración de Instrumentos Verificación de Funcionamiento: Asegurarse de que todos los instrumentos están funcionando correctamente. Calibración: Realizar la calibración de equipos como balanzas, espectrómetros, microscopios, etc., según las especificaciones del fabricante. Adquisición de Materiales Lista de Materiales: Crear una lista detallada de todos los materiales y reactivos necesarios. Compra y Recolección: Adquirir y/o recolectar los materiales adicionales que no estén disponibles en el laboratorio. Experimentación con Zeolita A4 Preparación de Reactivos y Muestras Preparación de Soluciones: Preparar las soluciones y reactivos necesarios para la experimentación con zinc. Preparación de Muestras: Preparar las muestras de zinc siguiendo los protocolos específicos establecidos. Ejecución del Experimento Protocolos: Ejecutar el experimento siguiendo los protocolos detallados previamente definidos. Registro de Datos: Registrar todos los datos experimentales de manera precisa y detallada. Control de Calidad Verificación de Datos: Verificar la precisión y reproducibilidad de los datos recolectados. Experimentos de Control: Realizar experimentos de control si es necesario para asegurar la validez de los resultados. Secado de Muestras Preparación para el Secado Selección del Método de Secado: Seleccionar el método de secado más adecuado (Mufla). Preparación de las Muestras: Preparar las muestras para el proceso de secado, asegurando que están listas para ser secadas sin alteraciones. Proceso de Secado Condiciones de Secado: Secar las muestras siguiendo las condiciones específicas (temperatura y tiempo). Monitoreo: Monitorear continuamente el proceso de secado para evitar la degradación de las muestras. Almacenamiento de Muestras Secas Condiciones de Almacenamiento: Almacenar las muestras secas en condiciones adecuadas para su preservación. Etiquetado y Registro: Etiquetar y registrar cada muestra de manera precisa para facilitar su identificación posterior. Caracterización de Muestras Selección de Técnicas Analíticas Identificación de Técnicas: Seleccionar las técnicas analíticas necesarias para la caracterización de las muestras de zeolita (FTIR). Preparación para la Caracterización Preparación de Muestras: Preparar las muestras según los requerimientos de cada técnica analítica. Verificación de Equipos: Asegurarse de que los equipos de análisis están correctamente calibrados y en buen estado de funcionamiento. Realización de la Caracterización Análisis: Realizar los análisis utilizando las técnicas seleccionadas. Registro y Análisis de Datos: Registrar y analizar los datos obtenidos para determinar las propiedades del zinc. Interpretación de Datos Análisis Comparativo: Interpretar los datos obtenidos y compararlos con la literatura existente. Identificación de Discrepancias: Identificar posibles discrepancias y discutir sus causas.


CONCLUSIONES

Ya que se obtuvieron las nanopartículas de la zeolita A4 con cobre, se procede a analizar los resultados arrojados, para buscar una función en su correcta aplicación.
Rodriguez Garcia Amayrani, Instituto Tecnológico Superior de Tacámbaro
Asesor: Mtra. Nadia Ibeth Gutiérrez Hernández, Instituto Tecnológico Superior de Tacámbaro

SERVICIOS DEL LABCECOM DEL ITST


SERVICIOS DEL LABCECOM DEL ITST

Chavez Gonzalez Rodrigo, Instituto Tecnológico Superior de Tacámbaro. Rodriguez Garcia Amayrani, Instituto Tecnológico Superior de Tacámbaro. Asesor: Mtra. Nadia Ibeth Gutiérrez Hernández, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

En el Instituto Tecnológico Superior de Tacámbaro, el laboratorio LABCECOM es un recurso esencial para el desarrollo académico y la investigación. Sin embargo, la gestión de los servicios y recursos del laboratorio enfrenta varios desafíos críticos que afectan su eficiencia y efectividad. Primero, la gestión de las solicitudes de mantenimiento de equipos es ineficaz. El proceso para generar la solicitud es escrito y tardado ya que primero se le entregara la solicitud al encargado del laboratorio físicamente, esto puede hacer que se extravié la solicitud lo que resulta en retrasos significativos en la atención a los problemas técnicos. E igualmente el control de acceso a los espacios del laboratorio, como el laboratorio multidisciplinario y la sala de consultas, carece de un proceso manual escrito para registrar a los usuarios. La ausencia de un registro preciso de los usuarios y de las horas de utilización limita la capacidad de planificación y supervisión, afectando la organización de prácticas y el uso eficiente de los espacios disponibles. Estos problemas no solo afectan la operatividad diaria del LABCECOM, sino que también impactan negativamente en la experiencia educativa de los estudiantes y en la capacidad de los docentes para realizar su trabajo de manera efectiva. La falta de un sistema de gestión integral y eficiente para el laboratorio es una barrera significativa para el aprovechamiento óptimo de los recursos y para el cumplimiento de los objetivos académicos e institucionales.



METODOLOGÍA

Se elaboro un diagrama de flujo detallado de los procesos actuales para la solicitud de mantenimiento, control de acceso y gestión general del laboratorio, después se identificó los puntos críticos y áreas de mejora en cada proceso. Se realizo entrevistas con los usuarios del laboratorio (personal técnico) para conocer sus necesidades y percepciones sobre los problemas existentes. Continuando con la revisión de registros históricos de solicitudes de mantenimiento y uso de espacios, se analizaron de los equipos y recursos disponibles en el laboratorio. Se establecieron los requisitos funcionales y no funcionales del sistema, considerando las necesidades identificadas en el análisis previo. Se priorizaron los requisitos en función de su impacto en la eficiencia y efectividad del laboratorio. Una vez investigado y determinado los requerimientos del sistema se trabajara en un módulo de autentificación de usuarios, un control de solicitud es de mantenimiento correctivo y preventivo en el cual algún usuario que ya esté registrado pueda generar su solicitud para después el encargado del laboratorio la llevará a cabo, también un módulo para control de acceso a los laboratorios tales como el de consultas y el de laboratorio disciplinario, un módulo para informes estadísticos y finalmente un módulo para llevar un control de impresiones que se realizan en el laboratorio. Una vez identificados los módulos necesarios para el sistema, se procedió a instalar las herramientas requeridas para comenzar el desarrollo. En primer lugar, se seleccionó el IDE (Entorno de Desarrollo Integrado) que se utilizaría para llevar a cabo el proyecto. Se optó por HTML para el maquetado del sistema web, CSS para aplicar estilos y diseño, y PHP junto con JavaScript para el desarrollo del backend. Finalmente, se eligió MySQL para gestionar la base de datos donde se almacenarían todos los datos del sistema web.


CONCLUSIONES

Durante el congreso de verano Delfin, se desarrolló una investigación para el sistema web del laboratorio LABCECOM en el Instituto Tecnológico Superior de Tacámbaro. El sistema abarca la autentificación de usuarios, la generación de solicitudes de mantenimiento correctivo y preventivo, el control de acceso a los laboratorios de cómputo y el control de impresiones. En este verano, se completaron los módulos de autentificación de usuarios y de solicitudes de mantenimiento correctivo y preventivo. La implementación completa de este sistema se espera que ofrezca diversos beneficios significativos. Primero, mejorará la eficiencia operativa del laboratorio mediante la automatización de procesos clave, reduciendo el tiempo y esfuerzo necesarios para gestionar tareas administrativas. Además, fortalecerá la seguridad del laboratorio al controlar el acceso de manera efectiva, asegurando que solo el personal autorizado pueda utilizar las instalaciones y recursos. También se anticipa una mejora en el mantenimiento del equipo, ya que las solicitudes de mantenimiento preventivo y correctivo estarán bien documentadas y gestionadas, minimizando el tiempo de inactividad y prolongando la vida útil del equipo. Finalmente, el control de impresiones contribuirá a una gestión más sostenible y eficiente de los recursos, optimizando el uso de papel y tinta. En conjunto, estos resultados potenciarán la productividad y sostenibilidad del laboratorio LABCECOM, beneficiando tanto a los estudiantes como al personal del instituto.
Rodríguez Gordo Iván, Universidad Politécnica de Texcoco
Asesor: Dr. Derlis Hernández Lara, Universidad Politécnica de Texcoco

AUTOMATIZACION DE INVERNADERO PARA PRACTICAS DE ESTUDIANTES DE AGRONOMIA


AUTOMATIZACION DE INVERNADERO PARA PRACTICAS DE ESTUDIANTES DE AGRONOMIA

Rodríguez Gordo Iván, Universidad Politécnica de Texcoco. Asesor: Dr. Derlis Hernández Lara, Universidad Politécnica de Texcoco



PLANTEAMIENTO DEL PROBLEMA

La automatización de invernaderos para prácticas de estudiantes de agronomía en la Universidad Autónoma de Chapingo se enfoca en diseñar un sistema integral para el cuidado y supervisión autónoma de hortalizas. Este sistema no solo interactúa con el usuario, sino que también analiza el entorno y controla las condiciones ambientales óptimas para la germinación de plantas. la importancia de este trabajo radica en su capacidad para perfeccionar procesos agrícolas mediante el uso de tecnología, además de proporcionar a los estudiantes una herramienta práctica para sus estudios. En un contexto de cambio climático, crecimiento poblacional y escasez de recursos, la agricultura enfrenta desafíos significativos. la automatización de invernaderos ofrece una solución innovadora para producir alimentos de manera sostenible y eficiente. El objetivo principal de este proyecto es diseñar un sistema automatizado que permita a los estudiantes de agronomía realizar prácticas dentro de un invernadero controlado, mejorando así su formación y contribuyendo a la producción agrícola.



METODOLOGÍA

Se realizó un estudio experimental para recolectar datos de temperatura y humedad dentro de un invernadero utilizando sensores DHT11 y un microcontrolador ESP32. los datos se almacenaron en una hoja de Excel y se analizaron mediante un sistema SCADA creado en LabVIEW. el proceso de recolección de datos se realizó en tiempo real, almacenando los datos en Excel para generar promedios que se utilizaron para controlar el entorno del invernadero. se emplearon varios softwares como Arduino IDE y Python para la programación y comunicación de los dispositivos.  Este sistema no solo es funcional, sino que también proporciona una herramienta educativa valiosa para los estudiantes de agronomía, ayudando a impulsar la producción agrícola y satisfacer la demanda alimenticia.


CONCLUSIONES

En conclusión, la automatización de invernaderos para prácticas estudiantiles es una solución viable y eficaz para mejorar la formación académica de los estudiantes y contribuir al desarrollo de la agricultura sostenible. el sistema diseñado ha demostrado su capacidad para controlar el entorno de manera precisa, lo que puede tener un impacto positivo en la producción de alimentos y en la educación de los futuros agrónomos.Los resultados mostraron que el sistema diseñado es capaz de analizar variables ambientales y ajustar el entorno en consecuencia, cumpliendo con los requisitos para la germinación de hortalizas.
Rodríguez Gracia Diana Karen, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Yudith Choque Quispe, Universidad Nacional José María Arguedas

APLICACIóN DE ALGAS ALTOANDINAS EN EL TRATAMIENTO DE AGUAS RESIDUALES


APLICACIóN DE ALGAS ALTOANDINAS EN EL TRATAMIENTO DE AGUAS RESIDUALES

Angulo Zapotl Sinahi, Benemérita Universidad Autónoma de Puebla. Rodríguez Gracia Diana Karen, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Yudith Choque Quispe, Universidad Nacional José María Arguedas



PLANTEAMIENTO DEL PROBLEMA

La contaminación a causa de lixiviados es un problema actual que nos afecta en diversos aspectos de  nuestra vida diaria, pues se infiltran en los mantos acuíferos y liberan gases tóxicos a la atmósfera, causando afectaciones en el medio ambiente y la salud.   Se tiene registro de que la cianobacteria altoandina Nostoc sphaericum tiene propiedades coagulantes aptas para el tratamiento de lixiviados y que, combinado con floculantes como cloruro férrico, logran significar una gran oportunidad ante esta problemática.   Dicha alga además de sus propiedades para el tratamiento de lixiviados es de fácil acceso, no es costosa y apoya la economía circular, cumpliendose así el objetivo de usar nuevas fuentes naturales como materia prima para crear alternativas sostenibles.



METODOLOGÍA

Recolección del Nostoc Obtuvimos muestras del alga en lagunillas, lagos y riachuelos, evitando su contaminación y la almacenamos en medios estériles para conservar sus propiedades. Selección Discriminando la muestra por tamaño, forma y consistencia, seleccionamos los mejores ejemplares, esto facilitará su licuado y además se tendrá una mejor calidad de producto en el siguiente paso.  Licuado Con ayuda de agua destilada lavamos la muestra seleccionada, y siguiendo la relación 1:1; licuamos 100 gramos de nostoc con 100 mililitros de agua destilada hasta obtener una mezcla homogénea.  Secado Una vez obtenida la mezcla deseada la colocamos en recipientes para llevarla a la estufa de secado y esperar aproximadamente 1 día hasta que la humedad desaparezca. Cálculo del rendimiento por gravimetría Durante el paso anterior se debe pesar la mezcla antes y después de introducirla en la estufa de secado, para hacer el cálculo mediante la fórmula de determinación del rendimiento para muestra húmeda:   %=(peso del crisol+muestra húmeda-peso crisol +muestra)g muestra húmeda*100 Molienda Con el uso del molino centrífugo y del molino planetario, se coloca la muestra seca hasta obtener un tamaño de partícula apto para que se pueda disolver correctamente en el agua.  Tamizado  Después del paso anterior se pasa toda la muestra para homogeneizar el tamaño de las partículas y poder separar los sólidos que hayan quedado de un tamaño más grande. Este se repite hasta quedar todo uniforme. Pruebas  A partir de múltiples pruebas de jarras con distintas cantidades de floculante, coagulante, velocidad y tiempo, determinamos parámetros de los lixiviados tratados en cada variante para finalmente, hallar la cantidad correcta de nostoc a usar.


CONCLUSIONES

Durante el tiempo de nuestra estancia, se logró reforzar y ampliar conocimientos sobre cómo hacer un correcto análisis del agua, desde la recolección​ de muestra, hasta la medición de diversos parámetros con equipos especializados (para carbono, nitrógeno, sulfuro, entre otros compuestos con mayor complejidad). No obstante, a pesar de haber cumplido con nuestros objetivos, reconocemos que es un trabajo con gran potencial que requiere mayor tiempo de estudio, por eso, a pesar de que hallamos la cantidad de nostoc necesaria para el tratamiento de lixiviados, nos faltó mejorar algunos parámetros de contaminación que estaban en el estudio pero que no se lograron concretar como es el caso de la remoción del color en el agua.  Se busca que la investigación continúe hasta obtener los resultados deseados para llevarlo a una mayor escala, beneficiando a más comunidades con el saneamiento de sus aguas.
Rodriguez Hernandez Claudia Paola, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Hernando Garzón Saenz, Fundación Universitaria Tecnológico Comfenalco

ANáLISIS COMPARATIVO DE LA GESTIóN DE OPERACIONES EN SISTEMAS DE SERVUCCIóN: CASO DE ESTUDIO EMPRESAS DE SERVICIOS DE TRANSPORTE (MéXICO) Y CARTAGENA DE INDIAS (COLOMBIA).


ANáLISIS COMPARATIVO DE LA GESTIóN DE OPERACIONES EN SISTEMAS DE SERVUCCIóN: CASO DE ESTUDIO EMPRESAS DE SERVICIOS DE TRANSPORTE (MéXICO) Y CARTAGENA DE INDIAS (COLOMBIA).

Rodriguez Hernandez Claudia Paola, Instituto Tecnológico Superior de Irapuato. Asesor: Mg. Hernando Garzón Saenz, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

El transporte urbano es un componente esencial de las economías modernas, proporcionando movilidad a millones de personas y facilitando el desarrollo económico y social. En el contexto de la servucción, que es el proceso de producción de servicios, la implementación de herramientas avanzadas de gestión de operaciones como Lean Service, Teoría de Restricciones (TOC) y Six Sigma es crucial para optimizar los procesos y satisfacer las expectativas del cliente final. Estas herramientas no solo mejoran la eficiencia operativa, sino que también garantizan la calidad del servicio, lo cual es fundamental para mantener la satisfacción del cliente. Servucción: La servucción se refiere a la producción de servicios y su interacción con el cliente. Este concepto se enfoca en la creación y entrega de servicios, buscando maximizar la eficiencia operativa y la satisfacción del cliente. La servucción es particularmente relevante en el sector del transporte urbano, donde la calidad del servicio y la experiencia del cliente son determinantes clave del éxito.   



METODOLOGÍA

El problema central radica en la insuficiente aplicación y sostenibilidad de las metodologías Lean Service, TOC y Six Sigma en las empresas de transporte urbano de Irapuato, Guanajuato, México y Cartagena de Indias, Colombia. Esta deficiencia impide que estas empresas alcancen un alto nivel de eficiencia operativa, calidad del servicio y sostenibilidad, lo que a su vez afecta la satisfacción del cliente y la competitividad en el mercado. Este estudio se basa en un diseño de investigación comparativa, que permite analizar y comparar la gestión de operaciones en sistemas de servicio en empresas de transporte de Irapuato, Gto.México y Cartagena de Indias, Colombia.La población a evaluar incluye servicios de transporte masivo en Irapuato, Gto, México y Colombia.  Se busco determinar cómo estas herramientas contribuyen a la satisfacción del cliente final. La muestra se seleccionó tomando en cuenta los censos poblacionales considerando las empresas más utilizadas por la población y tipos de servicio en cada ciudad. Para la recolección de datos se realizó una investigación abordada en el segundo y tercer trimestre del año pasado mediante dichos censos, estos datos fueron analizados utilizando métodos de triangulación. Además, para el análisis del contenido para identificación diferencias se tomó en cuenta las limitaciones de estudio se incluye la disponibilidad de datos de las empresas, estás pueden afectar la generalización de los resultados obtenidos. Se utilizó el método de triangulación para aumentar la validez y fiabilidad de los resultados, combinando múltiples fuentes de datos y métodos de recolección de datos.  


CONCLUSIONES

Se espera que con los datos y comparaciones realizadas se obtengan indicadores que ayuden a entender mejor las mejoras a realizar
Rodríguez Hernández Evelyn, Universidad de Guadalajara
Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE PROTOTIPOS: HORNO DE VITROFUSIóN, EXPRIMIDOR DE PIñAS Y EXTRUSOR DE FILAMENTO


DESARROLLO DE PROTOTIPOS: HORNO DE VITROFUSIóN, EXPRIMIDOR DE PIñAS Y EXTRUSOR DE FILAMENTO

Carlos Patricio Isaac Emmanuel, Universidad Autónoma de Ciudad Juárez. Chab Contreras Diana Elizabeth, Universidad Autónoma de Yucatán. Espinoza Franco Sofia, Universidad Autónoma de Ciudad Juárez. Haro Bustamante Ana Laura, Universidad de Guadalajara. Leon Cancino Jesus Eduardo, Instituto Tecnológico de Tuxtla Gutiérrez. Martinez Cerino Paola Yosabeth, Instituto Tecnológico de Pachuca. Rodríguez Hernández Evelyn, Universidad de Guadalajara. Suriano Natarén Amairany, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La innovación tecnológica en el desarrollo de dispositivos industriales es fundamental para mejorar la eficiencia y calidad de los procesos productivos. Sin embargo, en muchas industrias, la adopción de tecnologías avanzadas se ve limitada por la falta de herramientas adecuadas que respondan a necesidades específicas de producción. En particular, se observa una carencia de soluciones efectivas en el ámbito de la vitrofusión, el procesamiento de frutas (como la extracción de jugo de piñas), y la fabricación de filamentos para impresión 3D. Cada prototipo presenta desafíos específicos en términos de diseño, integración de componentes electrónicos y optimización de funcionalidad. Este trabajo se centra en la cotización de materiales, diseño detallado, pruebas de componentes, programación y armado, con el objetivo de producir prototipos eficientes y funcionales



METODOLOGÍA

El desarrollo del primer prototipo de un horno de vitrofusión incluyó el diseño de una estructura con apertura en el plano (X, Z). La cápsula metálica, sin considerar la altura de las patas y tomando en cuenta la tapa superior e inferior, tiene dimensiones de 140 cm x 90 cm x 60 cm, y permite un rango de temperatura operativa de 80°C a 1300°C. Definieron las especificaciones técnicas, se elaboraron los planos correspondientes en el software SolidWorks. Con estos planos y especificaciones técnicas, se procedió a la cotización y adquisición de los materiales necesarios. Con los materiales, se realizaron pruebas exhaustivas de los componentes electrónicos para asegurar su funcionalidad y compatibilidad con el diseño del horno, estos componentes fueron integrados en la estructura del horno. Finalmente, se procedió al ensamblaje de la estructura del horno, utilizando principalmente soldadura y herramientas de medición, corte y esmeril. El segundo prototipo desarrollado es un exprimidor de piñas, el cual genera jugo por presión mecánica entre la base y un mazo fijado al techo de su soporte del exprimidor. La estructura esta diseñada para acomodar diversos tamaños de fruta. El proceso de desarrollo comenzó con el diseño del exprimidor en el software SolidWorks, donde se elaboró un esquema detallado del dispositivo, incluyendo todas las partes mecánicas y su ensamblaje. Este diseño permitió definir claramente las especificaciones y requerimientos técnicos. Una vez completado el diseño con los materiales disponibles, se realizaron pruebas para asegurar la operatividad, a diferencia de sistemas automatizados, este prototipo utiliza una manivela que permite a una persona ejercer la fuerza necesaria para operar el gato hidráulico. Finalmente, se armó la estructura del exprimidor utilizando técnicas de ensamblaje como soldadura y herramientas de precisión. El desarrollo del tercer prototipo, un extrusor de filamento, consiste en un motor que impulsa un husillo conectado a una tolva que transporta los restos del material de las impresoras 3D como PLA hacia un tubo caliente para fusionar los restos y por medio de una boquilla obtener filamento de un diámetro específico. El prototipo se diseñó en SolidWorks, los componentes que necesitamos fueron integrados en el diseño, seguido por el armado de su estructura y ensamblando todas las piezas, por último, se llevaron a cabo pruebas generales para verificar el correcto funcionamiento.


CONCLUSIONES

Se logró diseñar y desarrollar tres prototipos, enfrentando y superando diversos desafíos técnicos como la identificación de los materiales adecuados para cada prototipo, técnicas de soldadura, corte, desbaste y golpe, así como la implementación de los componentes electrónicos para el horno y el extrusor de filamento. Los resultados obtenidos indican que el prototipo del horno de vitrofusión cuenta con una estructura más grande a comparación de los hornos caseros, el sistema de aislamiento es funcional e innovador y el circuito electrónico es eficiente al controlar la temperatura. Asimismo, el exprimidor de piñas cuenta con una estructura que funciona manualmente y el extrusor de filamento fue adaptado para el uso y manejo del laboratorio. Los tres prototipos cuentan con potencial para mejoras futuras, una vez completados y refinados, estos dispositivos contribuyan significativamente a sus respectivas áreas de aplicación y abran la puerta a futuras investigaciones.
Rodríguez Ibarra Aurora Sofía, Instituto Politécnico Nacional
Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías

MODULO DE CONTROL DE CARGAS POR IOT


MODULO DE CONTROL DE CARGAS POR IOT

Rodríguez Ibarra Aurora Sofía, Instituto Politécnico Nacional. Ugalde Vidal Daira Alejandra, Instituto Politécnico Nacional. Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías



PLANTEAMIENTO DEL PROBLEMA

En este proyecto se plantea el problema de un asistente virtual el cual está basado en los dispositivos Alexa y Google Home, el cual nos basamos en el implemento de IoT con la finalidad del mismo implemento doméstico y asistencia virtual que los anteriores dispositivos.     Los sistemas de IoT que se planean utilizar en este proyecto nos ofrecerá numerosas ventajas, como es la automatización de tareas, monitorización remota, así como la integración de dispositivos inteligentes, además de que siempre con la finalidad de ayudar al ser humano a facilitar las tareas conectando también ciertos dispositivos a una sola red para que obtengan comunicación y se implementen todas las instrucciones de una manera más fácil con ayudar de Steren Home.   Dentro de los aspectos más destacados en este proyecto, es la capacidad de controlar cargas eléctricas a distancia, ya que nos facilitará la gestión eficiente de energía y además promueve el ahorro económico y ambiental, también hay que resaltar que esta tecnología proporciona mejoras significativas en términos de seguridad y comodidad para los usuarios, optimizando así la calidad de vida en el hogar, de esta manera ayudando al ser humano y cumpliendo su función principal de un dispositivo inteligente.    Por otro lado, se utilizó un dispositivo ESP-32 para poder hacer las conexiones a Wi-Fi y Bluetooth y mediante el dispositivo IoT permite una gama de aplicaciones de autorización en el hogar, con el cual ayuda a conectar a otros dispositivos inteligencia artificial y virtual como son los dispositivos Alexa y Google Home, el cual permite enviar datos al ESP-32.   Ya que al dispositivo Alexa se le describe como un asistente por voz por medio de su propia plataforma de desarrollo, al hacer una interconexión con el ESP-32, ambos dispositivos pueden comunicarse a través del Voice Service de Alexa, para que se puedan realizar acciones mediante comandos por voz.   Algunas de las características que cuenta el dispositivo ESP-32 por el motivo que lo vamos a utilizar es por los detalles la conectividad con Wi-Fi el cual es posible formar una comunicación inalámbrica con la nube y con el propósito de este proyecto, también tener una conexión con el dispositivo Alexa.



METODOLOGÍA

Se inicio diseñando la placa la cual cuenta con un dispositivo ESP-32 el cual es el protagonista de la placa y del dispositivo ya que nos permita manejar por medio de voz las cargas en una casa inteligente desde cualquier lugar en el que estemos, con la condición de estar conectados a alguna señal de internet.    En un contexto mas amplio el dispositivo ESP-32 es un  microcontrolador de SoC (System on Chip), desarrollado por Espressif empresa china y fabricada por TSMC, cuenta con un procesador Tensilica Xfensa de doble núcleo de 32 bits a 160 MHz con un alcance en potencia de 240 MHz en cada chip con conectividad a Wifi y Bluetooth, se considera completo de Wifi y Bluetooth certificado para proporcionar un procesador con radio inalámbrico y con capacidad para conectarse a varios elementos, con respecto a sus 2 núcleos de procesamiento de datos con una frecuencia que llega a controlar libremente entre los 80 MHz Y 240 MHz, todos los elementos que se pueden conectar al procesador permiten el funcionamiento fácil al  omento de elaborar tareas. Como anteriormente lo comentábamos es un chip combinado con Wifi y Bluetooth, tiene el objetivo para lograr la mejor potencia y rendimiento de RF, mostrando robustez, versatilidad y fiabilidad en variedad de aplicaciones y escenarios de potencia.   Por otro lado, el internet de las cosas también conocido como IoT es la consolidación a través de una red de redes la cual aloja una gran cantidad de dispositivos, el cual puede interconectar a todos aquellos con interfaces de conexión simples tales como electrodomésticos, dispositivos, objetos y hasta torres de edificios con capacidad de comunicación (López Garzón, W; Cárdenas López, J. 2019).   En resumen, el internet de las cosas es una interconexión entre los objetos del mundo físico por medio de Internet. Con ello adentrándose a la cuarta revolución industrial, las nuevas tecnologías impulsan el crecimiento de las industrias y nuevos sectores, incluyendo hogares.   Las aplicaciones y usos que tiene el IoT son muy amplias, ya que se pueden ajustar a cualquier tipo de proyecto que cuente con internet, así, ayudando al desempeño de una actividad monitoreándose remotamente.  Entre las aplicaciones, tenemos las siguientes: Estacionamiento inteligente Salud Iluminación inteligente Transporte Seguridad     En este proyecto también se hizo uso del SINRIC PRO, el cual es una aplicación la cual permite el dispositivo ESP-32 se pueda conectar a dispositivos como lo es Alexa por medio de una aplicación desarrollada, su funcionamiento consiste en habilitar una conexión al ESP-32 se fabrica a través de la nube, el cual da a cada usuario una clave para seguridad, se suele limitar a Alexa y a Google Home, aplica la función de enlace entre asistente virtual y el ESP-32, ya que esta aplicación cuenta con una skill en la librería de Amazon, lo cual tiene compatibilidad con Alexa.  


CONCLUSIONES

En conclusión, este dispositivo está diseñado para facilitar al ser humana, como todo dispositivo inteligente, pero con la finalidad de su manipulación a larga distancia donde tiene la tarea de apoyar en tu hogar a largas distancias y virtualmente, gracias a los elementos implementados en el como es el ESP-32 con su conexión a Wi-Fi y Bluetooth, el IoT que facilita la conexión entre otros dispositivos.    Por ello este dispositivo es indicado al momento de querer manipular alguna tarea del hogar o asistencia de problemas y tareas, este dispositivo será útil, como lo comentamos gracias al ESP-32 y el internet de las cosas se pueden hacer desde distancias largas, además de todo puede ser por una misma red o mediante voz. 
Rodríguez Lomelí Justo Alonso, Universidad de Guadalajara
Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara

SÍNTESIS Y CARACTERIZACIÓN DE BIOMATERIALES PARA LA LIBERACIÓN DE SUSTANCIAS ACTIVAS


SÍNTESIS Y CARACTERIZACIÓN DE BIOMATERIALES PARA LA LIBERACIÓN DE SUSTANCIAS ACTIVAS

Rodríguez Lomelí Justo Alonso, Universidad de Guadalajara. Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El objetivo de este proyecto es investigar y desarrollar hidrogeles a base de acrilamida integrados con fibra de pochote, un recurso natural tradicionalmente utilizado en la elaboración de artesanías dentro de la cultura popular de México. Los hidrogeles son materiales con gran capacidad de absorción de agua, utilizados en diversas aplicaciones como la biomedicina, la agricultura y la industria. La integración de fibra de pochote no solo podría mejorar las propiedades mecánicas y de hinchamiento de los hidrogeles, sino también valorizar un recurso local, fortaleciendo la conexión entre la ciencia y la naturaleza. 



METODOLOGÍA

El desarrollo del proyecto se llevó a cabo siguiendo una metodología rigurosa que incluyó varias etapas clave. Primero, se realizó la recolección de la fibra de pochote en su entorno natural. Posteriormente, se procedió a la elaboración de hidrogeles mediante la polimerización de acrilamida en presencia de diferentes concentraciones de fibra de pochote, Una vez formados, los hidrogeles se cortaron en muestras uniformes y se secaron para transformarse en xerogel. Finalmente, se evaluó la capacidad de hinchamiento de los xerogel sumergiéndolos en agua y midiendo su peso en intervalos de tiempo específicos, lo cual permitió determinar la capacidad de absorción y la estabilidad del material bajo condiciones de hinchamiento. Esta metodología sistemática permitió obtener datos comparativos sobre el comportamiento de los hidrogeles con distintas concentraciones de fibra de pochote, proporcionando una base sólida para su caracterización y evaluación.


CONCLUSIONES

Este proyecto se presenta como una oportunidad innovadora para fusionar la ciencia de los materiales avanzados con la rica herencia cultural de México. A través de la integración de la fibra de pochote en hidrogeles de acrilamida, se busca no solo mejorar las propiedades de estos materiales, sino también rescatar y valorizar un recurso natural y cultural de la región. Cabe mencionar que gracias al Verano de la Investigación Científica he reforzado mi formación académica al permitir conocer técnicas para la elaboración de nuevos materiales y estudiar sus propiedades.
Rodríguez López Feliciano, Universidad Tecnológica de La Selva
Asesor: Mtro. Armando Méndez Morales, Universidad Tecnológica de La Selva

APP MóVIL PARA EL SEGUIMIENTO DE LA PRODUCCIóN DEL PROGRAMA SEMBRANDO VIDA


APP MóVIL PARA EL SEGUIMIENTO DE LA PRODUCCIóN DEL PROGRAMA SEMBRANDO VIDA

Rodríguez López Feliciano, Universidad Tecnológica de La Selva. Asesor: Mtro. Armando Méndez Morales, Universidad Tecnológica de La Selva



PLANTEAMIENTO DEL PROBLEMA

Los administrativos del programa Sembrando Vida en Ocosingo, Chiapas, enfrentan problemas de organización y control. Este problema podría ser común entre otros participantes del programa en diferentes estados de México. El manejo de registros en formatos físicos es tedioso y laborioso, ya que implica llenar manualmente numerosos reportes de siembra, cosecha y otras actividades del programa. Como resultado, se acumulan grandes paquetes de archivos difíciles de interpretar. Esta situación impide conocer con exactitud los datos de producción, lo que lleva a desaprovechar oportunidades como la exportación.



METODOLOGÍA

Se utilizaron diferentes tecnologías para elaborar los prototipos de una aplicación móvil que ayude al supervisor a reportar datos del proceso de siembra, cosecha, entre otras actividades. Se desarrollaron interfaces para ayudar al supervisor a generar reportes de las parcelas, en ellos podrá llevar registros organizados y monitorear las parcelas de los participantes del programa Sembrando Vida. Estos prototipos se presentaron a los administrativos de Sembrando Vida, para escuchar opiniones y sugerencias.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimiento sobre el funcionamiento del programa Sembrando Vida, las oportunidades, las deficiencias y la falta de motivación de los campesinos al no saber calcular y no poder ver los ingresos que podría generar su trabajo. Concluyendo en que el sistema será de ayuda para realizar un cambio significativo en el programa en el momento que se llegase a implementar.
Rodriguez López Hannia Citlaly, Instituto Tecnológico de Piedras Negras
Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa

CALIDAD Y SOSTENIBILIDAD EN EL SECTOR AGROINDUSTRIAL. MEJORA CONTINUA Y PRáCTICAS INNOVADORAS PARA UN FUTURO RESPONSABLE.


CALIDAD Y SOSTENIBILIDAD EN EL SECTOR AGROINDUSTRIAL. MEJORA CONTINUA Y PRáCTICAS INNOVADORAS PARA UN FUTURO RESPONSABLE.

Ochoa Nava Fernanda Ximena, Instituto Tecnológico de Piedras Negras. Paz Chávez José Eduardo, Instituto Tecnológico de Piedras Negras. Rodriguez López Hannia Citlaly, Instituto Tecnológico de Piedras Negras. Romero Bobadilla Oscar, Instituto Tecnológico de Piedras Negras. Zerrweck Faz Anacristina, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La agroindustria en Colombia es crucial para la economía del país, abarcando desde la producción agrícola hasta la transformación y comercialización de productos. La diversidad climática permite cultivar una amplia gama de productos como café, banano, flores, cacao y palma de aceite, que no solo abastecen al mercado nacional, sino que también generan ingresos significativos por exportaciones. Sin embargo, el sector enfrenta desafíos como la necesidad de mejorar la infraestructura rural, adaptarse al cambio climático y adoptar tecnologías avanzadas para ser más productivo y sostenible. La calidad es un factor clave para la competitividad de la agroindustria colombiana, siendo fundamental cumplir con estándares rigurosos y obtener certificaciones internacionales como Buenas Prácticas Agrícolas (BPA) e ISO [1]. Además, las certificaciones de comercio justo y orgánicas ayudan a asegurar prácticas comerciales equitativas y sostenibles, lo cual es esencial para acceder a mercados globales exigentes. El apoyo gubernamental y la inversión en investigación y desarrollo son esenciales para fomentar la innovación y fortalecer la cadena de valor agrícola. Programas que promuevan la asociatividad y el acceso a créditos para pequeños y medianos productores son vitales para el crecimiento del sector. En conjunto, el desarrollo sostenible y la responsabilidad social empresarial son fundamentales para asegurar que el avance de la agroindustria beneficie a todos los actores involucrados, desde los agricultores hasta los consumidores.



METODOLOGÍA

Para la realización de esta investigación se inició con la elaboración de un estado del arte de una forma metódica sobre los temas de la agroindustrial, calidad, sostenibilidad, mejora continua y agricultura de precisión para un futuro responsable. Esta investigación está dirigida a los comerciantes, emprendedores y agricultores, para que tengan mayor consciencia sobre los beneficios a largo plazo que se obtienen al hacer uso y aplicación de las tecnologías de precisión aplicada en la agricultura, además de la aplicación de métodos y técnicas sostenibles para asegurar la producción y consumo responsable de los productos y fortalecer la resiliencia y capacidad de adaptación a riesgos relacionados con el clima. Posteriormente, se realizó un estudio mediante encuestas a los comerciantes locales sobre los temas investigados para saber si cuentan con conocimiento sobre estos temas y los beneficios que conlleva la aplicación de estas tecnologías. De igual manera se asistió a conferencias y expos en donde se pudo recabar más información respecto a la Agroindustria. Finalmente, se concluyó con el análisis de la información recabada que podemos tener una visión integral sobre la importancia de implementar tecnologías de precisión y prácticas sostenibles en la agroindustria.


CONCLUSIONES

Las encuestas realizadas fueron de gran ayuda, ya que nos permitieron darnos cuenta de que, aunque la mayoría de las personas cuentan con conocimientos básicos sobre la agricultura de precisión y las tecnologías asociadas, estos conocimientos no siempre cumplen con los estándares de calidad necesarios para aprovechar al máximo dichas tecnologías. Nuestra investigación ha demostrado que es esencial mantenerse en constante mejora e innovación en tecnologías de precisión. La evolución tecnológica es rápida, y para mantenernos competitivos y eficientes, debemos adoptar nuevas herramientas y técnicas que mejoren la precisión y la eficacia en las prácticas agrícolas. Además, la sostenibilidad se ha convertido en un componente crucial de la agricultura moderna. Las prácticas sostenibles no solo ayudan a preservar el medio ambiente, sino que también contribuyen a la salud a largo plazo de los cultivos y del suelo. Esto incluye el uso de tecnologías que permiten un uso más eficiente de los recursos, como el agua y los fertilizantes, y que reducen el impacto ambiental negativo.
Rodríguez Loya Karime, Instituto Tecnológico de Ciudad Juárez
Asesor: Dra. Katherinne Salas Navarro, Universidad de la Costa

DISEñO DE UN MODELO DE LOCALIZACIóN DE INSTALACIONES PARA LA CADENA DE SUMINISTRO DEL SECTOR LáCTEO DEL DEPARTAMENTO DE SUCRE EN COLOMBIA


DISEñO DE UN MODELO DE LOCALIZACIóN DE INSTALACIONES PARA LA CADENA DE SUMINISTRO DEL SECTOR LáCTEO DEL DEPARTAMENTO DE SUCRE EN COLOMBIA

Rodríguez Loya Karime, Instituto Tecnológico de Ciudad Juárez. Soltero Valdez Natalia Lizeth, Instituto Tecnológico de Ciudad Juárez. Asesor: Dra. Katherinne Salas Navarro, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La cadena de suministro del sector lácteo es un componente esencial de la economía del departamento de Sucre, Colombia, debido a su importancia tanto para la producción agropecuaria como para el abastecimiento de productos lácteos en el mercado local y regional. Sin embargo, a pesar de su relevancia, el sector enfrenta diversas dificultades relacionadas con la localización y distribución de sus instalaciones esto genera ineficiencias significativas que resultan en altos costos logísticos y largos tiempos de entrega. Por lo que es fundamental diseñar un modelo de localización de instalaciones que aborde estas problemáticas, optimizando la disposición de recursos a lo largo de la cadena de suministro. Este modelo debe considerar factores clave como las instalaciones de materia prima, la conectividad de transporte, y la demanda del mercado. Al resolver este problema, se espera mejorar la eficiencia operativa y reducir costos, beneficiando a proveedores, fabricantes y comercializadores en toda la región.



METODOLOGÍA

En esta fase metodológica se identificaron los eslabones que hacen parte de la cadena de suministro y los procesos logísticos que se relacionan entre sí, se seleccionó uno de los productos que más consumen en Colombia, el cual fue el queso costeño. Los 3 eslabones que se identificaron fueron proveedores (h), fabricantes (i) y comercializadores (j). La variable extra que se relaciona con h, i y j, es la capacidad (k). Después se procedió a identificar los municipios de los cuales estarán ubicadas las instalaciones, siendo estos Sincelejo, San Onofre, Corozal y Sampués. Se tomaron en cuenta las capacidades de producción de los proveedores y de las fábricas, la demanda mensual de los comercializadores, los costos de enviar una unidad en cada eslabón y los costos fijos de localizar las plantas. Para el modelo se utilizaron 3 variables de decisión, Xhi que especifica la cantidad enviada del proveedor h a la fábrica, Xij que especifica la cantidad enviada de la fábrica al mercado y por último Y que especifica si que sale 1 si la fábrica se localiza en el sitio i con capacidad k y 0 si la fábrica no se localiza en el sitio i con capacidad k. Lo siguiente que hicimos fue definir la función objetivo de nuestro modelo, buscando minimizar los costos totales fijos y variables. Para el correcto funcionamiento del modelo se tuvieron que establecer ciertas restricciones, en relación con la capacidad y la demanda, para que no hubiera errores de distribución, estas se pueden ver a continuación: Se utilizó una restricción de capacidad, la cual especifica que la cantidad total enviada desde un proveedor no puede exceder la capacidad de éste. Se utilizó una restricción de equilibrio, la cual establece que la cantidad enviada fuera de la fábrica no puede exceder la cantidad de la materia prima recibida. Se utilizó una restricción de capacidad, la cual asegura que la cantidad producida en la fábrica no rebase su capacidad. Se utilizó una restricción de demanda, la cual especifica que la cantidad enviada a un cliente debe cubrir la demanda. Se utilizó una restricción que obliga a que cada fábrica o comercializador este abierto o cerrado. Después de ingresar los valores anteriores en el software CPLEX, se ejecutó el modelo.


CONCLUSIONES

En esta investigación se evaluaron los desafíos significativos en términos de logística, como los costos de transporte y distribución del sector lácteo. Con la realización de la búsqueda y recopilación de datos acerca del departamento Sucre, Colombia, se pudieron encontrar valores para el costo fijo, la demanda, la capacidad de producción, el costo de transporte de dicho producto, entre otros. Los resultados obtenidos mediante el uso de CPLEX indican que habrá instalaciones en Sincelejo y San Onofre que estarán operando con baja capacidad. Estas mejoras en la ubicación de las localizaciones son cruciales para fortalecer la competitividad del sector lácteo en una región que presenta desafíos logísticos. Esto quiere decir que se logró encontrar una solución óptima con el software CPLEX, esto puede conducir a una reducción significativa en los costos operativos. Al elegir ubicaciones estratégicas, se minimizan los gastos de transporte y almacenamiento, lo que beneficia tanto a los productores como a los consumidores finales. Se recomienda la implementación del modelo propuesto como una guía para futuras inversiones y estrategias operativas, así como la realización de estudios adicionales que evalúen el impacto de las deciiones logísticas en la cadena de suministro a lo largo del tiempo.
Rodriguez Magaña Erika Susana, Instituto Tecnológico Superior de Puruándiro
Asesor: Mg. German Herrar Vidal, Fundación Universitaria Tecnológico Comfenalco

PLANEACIóN Y DISTRIBUCIóN DE LA PRODUCCIóN


PLANEACIóN Y DISTRIBUCIóN DE LA PRODUCCIóN

Herrera Hernández Mónica, Tecnológico de Estudios Superiores de Jocotitlán. Rodriguez Magaña Erika Susana, Instituto Tecnológico Superior de Puruándiro. Asesor: Mg. German Herrar Vidal, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

Las empresas manufactureras que enfrentan problemas relacionados con la planeación y distribución de la producción no cuentan con información o referentes donde se mencionan situaciones similares o iguales en donde se especifiquen técnicas y herramientas que se utilizaron y que les sirva como guía o que lo puedan retomar las organizaciones, por lo que las problemáticas no las solucionan en un lapso de tiempo corto lo que genera un exceso o deficiencia en el inventario, un incremento de los costos tanto de producción como de distribución, inclusive que se tenga una cadena de suministro ineficiente ocasionando retrasos en la entrega de los pedidos e insatisfacción en los clientes.



METODOLOGÍA

Para la realización de este proyecto se llevaron a cabo una serie de pasos comenzando por la búsqueda de datos de investigaciones con respecto a la planeación y distribución de la producción, obteniendo un total de 209 artículos, los cuales se concentraron en una base de datos en excel, posteriormente se identificaron los objetivos, es decir, lo que los autores pretendían alcanzar con su investigación, después se extrajo el problema o desafío de cada artículo, así como las técnicas y herramientas empleadas para solucionar las problemáticas encontradas, además se citó en APA cada artículo y se obtuvo el identificador DOI, luego se analizaron los objetivos del año 1976 al 2024 y de los últimos cinco años, es decir, del 2020 al 2024, cabe destacar que esto también se aplicó pero considerando los problemas y finalmente se generó un análisis de las técnicas y herramientas para saber cuáles se emplean con mayor frecuencia y las que no son tan comunes, por lo que se empleó la técnica del paloteo y se creó una gráfica en la cual se visualizaron los resultados. 


CONCLUSIONES

Durante la realización de la estancia de verano se revisaron y analizaron 209 artículos acerca de la planificación y distribución de la producción. De acuerdo con los resultados se destaca que los principales objetivos que persiguen las empresas manufactureras son desarrollar modelos de optimización, minimizando los costos de producción y distribución y maximizando los niveles de servicio, aunque actualmente se tiene un énfasis en la planificación de la producción y distribución de tipo integrada. Para el caso de los problemas, los que se presentaron con mayor frecuencia fueron el gestionar los inventarios considerando los productos perecederos, también se tiene una preocupación por la optimización de los costos de múltiples productos en una cadena de suministro integrada y se hace alusión a que se gestione la planificación de la producción y distribución de una cadena de suministro verde de circuito cerrado, con respecto a la tendencia actual se tiene un enfoque en la gestión de una red de producción y distribución multiproducto, así como del inventario, de igual forma se centran en la optimización de una cadena de suministro verde que incluye varios centros de reciclaje, cabe destacar que se mantiene el enfoque por la parte ecológica. En cuanto a las técnicas y herramientas, se identificó que se emplea programación lineal y el algoritmo de optimización metaheurístico, mientras que entre las técnicas que se utilizaron menos se encuentran la simulación, programación matemática difusa y agentes inteligentes. Cabe destacar que esta experiencia fue muy grata y enriquecedora, debido a que logre adquirir conocimientos sobre la planeación y distribución de la producción, así mismo me ayudo a mejorar mi capacidad de investigación y de análisis. 
Rodriguez Mercado Joahan Isaac, Universidad de Guadalajara
Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara

PROGRAMAS PARA CALCULAR FUGACIDADES CON EL APOYO DE LA ECUACIóN DE VAN DER WAALS, REDLICH-KWONG Y PENG-ROBINSON.


PROGRAMAS PARA CALCULAR FUGACIDADES CON EL APOYO DE LA ECUACIóN DE VAN DER WAALS, REDLICH-KWONG Y PENG-ROBINSON.

Rodriguez Mercado Joahan Isaac, Universidad de Guadalajara. Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Sabemos que la resolución de problemas de termodinámica aplicada a la ingeniería química es una tarea a la que se le dedica mucho tiempo y que en ocasiones es posible cometer errores simples debido a la cantidad de operaciones implicadas, es por esto que es de interés programar los procedimientos que se vuelven más rutinarios para facilitar el cálculo de datos termodinámicos.



METODOLOGÍA

Se utilizó el lenguaje de Python para programar el cálculo de fugacidades utilizando 3 diferentes ecuaciones cúbicas de estado, Van der Waals, Peng-Robinson y Redlich-Kwong. Se programó el cálculo de fugacidades de sustancias simples utilizando como entrada de datos la presión, la temperatura y un fluido a seleccionar de la base de datos dada, esto para las 3 ecuaciones de estado. De manera similar se prosiguió para mezcla binaria y mezcla multicomponente de sustancias.


CONCLUSIONES

En base a lo desarrollado en esta investigación, se hizo notar la relevancia de la aplicación de lenguajes de programación en problemas de la ingeniería química, pues ayuda a ahorrar tiempo en la toma de decisiones o en el desarrollo de algún tipo de investigación. Sabemos la importancia de aprender los fundamentos de los cálculos termodinámicos, es por eso que es importante utilizar estas alternativas como apoyo pues el hacer el cálculo a mano puede generar errores, consume bastante tiempo y suele ser muy tedioso en la mayoría de los casos.
Rodríguez Núñez Juan Carlos, Universidad Tecnológica de La Selva
Asesor: Mtro. Armando Méndez Morales, Universidad Tecnológica de La Selva

CLASIFICADOR DE LIMONES PARA EL PROGRAMA SEMBRANDO VIDA


CLASIFICADOR DE LIMONES PARA EL PROGRAMA SEMBRANDO VIDA

Jiménez Ballinas Alan Alexis, Universidad Tecnológica de La Selva. Morales Rodríguez Mariana, Universidad Tecnológica de La Selva. Rodríguez Núñez Juan Carlos, Universidad Tecnológica de La Selva. Asesor: Mtro. Armando Méndez Morales, Universidad Tecnológica de La Selva



PLANTEAMIENTO DEL PROBLEMA

La industria agrícola, especialmente la producción de cítricos, demanda sistemas eficientes y precisos para la clasificación de frutos. La clasificación manual, tradicionalmente utilizada, es laboriosa, subjetiva y propensa a errores. La visión artificial, por su parte, ofrece una alternativa automatizada y objetiva para evaluar características como tamaño, forma, color y presencia de defectos en los frutos. La falta de un sistema eficiente de clasificación de limones en las unidades productivas del programa Sembrando Vida dificulta la determinación precisa del rendimiento de las plantaciones, la identificación de las variedades y la garantía de la calidad de los frutos destinados a la comercialización, lo que impacta negativamente en la rentabilidad de los productores.



METODOLOGÍA

Se recopilaron una gran cantidad de imágenes de limones de diferentes variedades, tamaños, colores y con distintos tipos de defectos. Para ello, se utilizaron imágenes en varias condiciones de iluminación, fondo y orientación de los limones para aumentar la robustez del sistema. A cada una de las imágenes se les realizó un etiquetado (labeling) delimitando la región específica del limón por medio de puntos, que representaban en coordenadas la posición del objeto. Esta anotación detallada permitió clasificar los limones en dos categorías principales: local y exportación. Una vez finalizado el proceso de etiquetado, se realizó la exportación de las imágenes ya etiquetadas para su posterior entrenamiento, dividiéndolas en tres partes: imágenes de entrenamiento, validación y prueba. Con ello, se llevó a cabo el entrenamiento de las redes neuronales de la visión artificial usando YOLO en su versión más reciente (YOLOv10). Las imágenes se procesaron en una resolución de 640x640 con un total de 30 épocas para 945 imágenes. Por otro lado, se trabajó con un prototipo a escala para poder realizar la clasificación. Este prototipo estuvo conformado por un área de depósito, una banda de transportación en la cual los limones se separaban por una división en la parte central, una cámara para la detección de las imágenes, dos áreas para clasificación (dos destinadas para exportación y dos para local), y por último, el área de descenso en donde los limones ya clasificados se dirigían a sus contenedores. Posteriormente, todo el sistema fue integrado en una aplicación web para el control y almacenamiento de los registros de cada clasificación por productor. En la aplicación web, se destinó un área para visualizar y definir las zonas de detección de imágenes. También se incluyó un formulario en el que cada productor podía registrar datos relevantes para la clasificación, como los datos del agricultor y la cantidad de limones en kg. Al iniciar el proceso, el sistema opera el prototipo y realiza la clasificación automáticamente. Una vez concluido el proceso, los resultados se muestran en la interfaz y los registros se almacenan en la base de datos.


CONCLUSIONES

Durante esta estancia de estadía se lograron adquirir una gran cantidad de conocimientos técnicos y sólidos sobre el campo de la visión artificial, algo que actualmente es muy utilizado en muchas industrias. Sin embargo, al ser un trabajo muy amplio, aún se encuentra en una fase inicial en la cual el entrenamiento de la red neuronal no está completado al 100%. Se espera poder mejorar el prototipo y llevar a cabo la mejora del entrenamiento de la red neuronal con una mayor cantidad de imágenes para que este sea más eficaz. Adicionalmente, el fortalecimiento tecnológico y la integración de estos avances en el programa "Sembrando Vida" pueden desempeñar un papel crucial en el apoyo de los vínculos económicos y sociales entre las zonas rurales y urbanas. La aplicación de la visión artificial, y otras tecnologías emergentes, como parte integral de este programa, podría facilitar la mejora de la conexión entre estos contextos, promoviendo tanto el desarrollo local como el potencial de exportación.
Rodríguez Ortega Carlos Alberto, Universidad Tecnologica de León
Asesor: Mg. Luis Anderson Coronel Rojas, Universidad Francisco de Paula Santander Seccional Ocaña

INTELIGENCIA ARTIFICIAL APLICADA A LA SEGURIDAD INFORMATICA


INTELIGENCIA ARTIFICIAL APLICADA A LA SEGURIDAD INFORMATICA

Rodríguez Ortega Carlos Alberto, Universidad Tecnologica de León. Asesor: Mg. Luis Anderson Coronel Rojas, Universidad Francisco de Paula Santander Seccional Ocaña



PLANTEAMIENTO DEL PROBLEMA

Planteamiento La integración de la inteligencia artificial en la auditoría informática representa un avance significativo en la manera en que se realizan las evaluaciones de sistemas y procesos tecnológicos. Tradicionalmente, las auditorías informáticas se basaban en técnicas manuales y procedimientos estandarizados que, aunque efectivos, a menudo eran limitados en su capacidad para manejar grandes volúmenes de datos y detectar patrones complejos. La IA promete transformar este campo mediante la automatización y la mejora de la precisión en la detección de irregularidades y riesgos. El planteamiento de esta investigación se centra en evaluar cómo la IA puede ser aplicada para optimizar el proceso de auditoría informática. Esto incluye la identificación de áreas específicas donde la IA puede proporcionar un valor añadido, la evaluación de las tecnologías emergentes en este campo, y la formulación de estrategias para su implementación efectiva. Se examinarán las capacidades actuales de la IA, como el aprendizaje automático y el procesamiento del lenguaje natural, y se investigará cómo estas tecnologías pueden ser utilizadas para analizar grandes volúmenes de datos de auditoría, identificar anomalías y proporcionar recomendaciones precisas.



METODOLOGÍA

Revisión Bibliográfica: Se realizará una exhaustiva revisión de la literatura existente sobre la aplicación de IA en auditorías informáticas. Esto incluirá la consulta de artículos académicos, libros, informes de investigación y estudios de caso para identificar las tecnologías actuales, sus aplicaciones prácticas y las mejores prácticas en el campo. Análisis de Tecnologías: Se evaluarán las tecnologías de IA relevantes, como el aprendizaje automático (machine learning), la minería de datos, el procesamiento del lenguaje natural y la inteligencia artificial explicativa. Se analizarán sus capacidades, ventajas y limitaciones en el contexto de la auditoría informática. Estudio de Caso: Se seleccionarán una o varias organizaciones que ya hayan implementado soluciones basadas en IA para auditorías informáticas. A través de entrevistas con los responsables de la auditoría, se recopilarán datos sobre su experiencia, los resultados obtenidos, y los desafíos enfrentados durante la implementación. Desarrollo de Modelos: Se desarrollarán y probarán modelos de IA específicos para auditorías informáticas. Estos modelos serán evaluados en términos de su capacidad para detectar irregularidades, generar informes y proporcionar recomendaciones basadas en datos históricos y actuales. Evaluación y Validación: Se llevará a cabo una evaluación exhaustiva de los modelos desarrollados, utilizando métricas de precisión, recall y otras pertinentes para determinar su efectividad. Se realizarán pruebas de validación para asegurar que los resultados obtenidos sean consistentes y fiables. Análisis de Impacto: Se analizarán los impactos de la implementación de IA en la eficiencia de los procesos de auditoría, la precisión de los resultados y la satisfacción de los clientes. También se evaluarán las implicaciones éticas y de privacidad asociadas. Elaboración de Recomendaciones: Basado en los resultados obtenidos, se elaborarán recomendaciones para la integración efectiva de la IA en las auditorías informáticas, considerando aspectos técnicos, operativos y éticos


CONCLUSIONES

En conclusión, la inteligencia artificial tiene el potencial de revolucionar la auditoría informática al mejorar la eficiencia, precisión y capacidad predictiva. Sin embargo, es fundamental abordar los desafíos asociados y establecer un marco claro para su implementación para maximizar sus beneficios y mitigar los riesgos.
Rodriguez Rodriguez Eduardo, Instituto Tecnológico Superior del Sur de Guanajuato
Asesor: Mtra. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo

ANáLISIS DE DATOS IMPLEMENTANDO EL APRENDIZAJE AUTOMáTICO PARA LA PREVENCIóN DE VIOLENCIA EN LA PAREJA


ANáLISIS DE DATOS IMPLEMENTANDO EL APRENDIZAJE AUTOMáTICO PARA LA PREVENCIóN DE VIOLENCIA EN LA PAREJA

García Casimiro Jazmín, Instituto Tecnológico Superior de Ciudad Serdán. Rodriguez Rodriguez Eduardo, Instituto Tecnológico Superior del Sur de Guanajuato. Romero Martinez Ana Paola, Instituto Tecnológico Superior del Sur de Guanajuato. Asesor: Mtra. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

La violencia a la mujer  ha sido una problemática que ha afectado  a mujeres de todas las edades y contextos socioeconómicos  radicando  principalmente  la violencia  por parte de la  pareja. La implementación de herramientas de aprendizaje automático en el análisis de datos recopilados a través de chatbots ofrece una oportunidad única para identificar patrones y señales tempranas de violencia. Este enfoque permite una intervención más rápida y efectiva, mejorando las estrategias de prevención y brindando apoyo a las víctimas de manera oportuna y personalizada.



METODOLOGÍA

Comenzamos nuestro proyecto con la modificación de la página de Mujer Segura, un portal dedicado a la prevención y reporte de incidentes de violencia de género. Para esto utilizamos laravel que es un framework de php, conocimientos básicos de CSS y de base de datos. Uno de los componentes más significativos que implementamos fue un mapa interactivo. Este mapa permite a los usuarios visualizar las áreas con más incidencias de violencia en todo el país. Para lograr esto empezamos utilizando una biblioteca de mapeo, que nos proporcionó la funcionalidad básica del mapa. Posteriormente, personalizamos los scripts para que pudieran manejar y mostrar datos específicos de incidencias de violencia. Además de agregar una tabla que muestra el estado, el tipo de violencia y la cantidad de incidencias. También, mejoramos la manera en que la página recolecta información a través de formularios. Anteriormente, los formularios eran complejos y poco intuitivos, lo que podía disuadir a las víctimas de reportar incidentes. Simplificamos el diseño y la estructura de los formularios, asegurando que sean fáciles de entender y completar. Implementamos validaciones y mensajes de ayuda para guiar a los usuarios durante el proceso de reporte.  Paralelamente a las mejoras en la página web, dedicamos esfuerzos a la investigación académica con el objetivo de aportar nuevas perspectivas al campo de la prevención de la violencia de género. Escribimos un artículo titulado "Machine Learning y Análisis del Lenguaje: Una Nueva Frontera en la Prevención de la Violencia Contra las Mujeres". Este artículo se basó en una revisión exhaustiva de la literatura existente sobre el uso de inteligencia artificial (IA) y machine learning en la prevención de la violencia. Comenzamos nuestra investigación explorando diversos estudios y artículos que documentaban el uso de técnicas de IA para predecir y prevenir la violencia contra las mujeres. Identificamos varias metodologías y enfoques que habían sido probados, y evaluamos sus resultados y limitaciones. Recolectamos distintos datasets que contenían información relevante sobre incidentes de violencia, características demográficas, y otros factores de riesgo. Utilizamos estos datasets para entrenar y evaluar varios modelos matemáticos y algoritmos de machine learning. Cada modelo fue evaluado en términos de su precisión, sensibilidad y especificidad para identificar patrones y factores de riesgo asociados con la violencia de género.  


CONCLUSIONES

Durante el desarrollo de este proyecto se adquirieron conocimientos teóricos, sobre la violencia de género los cuales se  aplicaron en la implementación de chatbots y técnicas de aprendizaje automático para el análisis de datos. Teniendo conocimiento de que el análisis de patrones aún está en curso y no se pueden presentar resultados definitivos. Ya que se espera que el uso de estas tecnologías permita identificar señales tempranas de violencia, y así mejorar las estrategias de intervención y ofrecer apoyo más eficaz y personalizado a las víctimas.  
Rodriguez Sanchez Arleth Michelle, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa

OPTIMIZACIóN DE RUTAS DE DISTRIBUCIóN PARA ESTACIONES DE SERVICIO EN BARRANQUILLA


OPTIMIZACIóN DE RUTAS DE DISTRIBUCIóN PARA ESTACIONES DE SERVICIO EN BARRANQUILLA

Almaraz Villalobos Vanessa, Instituto Tecnológico de Ciudad Juárez. Rodriguez Sanchez Arleth Michelle, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

El abastecimiento de combustibles líquidos en Barranquilla enfrenta serias ineficiencias debido a la ausencia de un planificador logístico adecuado que considere factores cruciales como la capacidad de carga de los vehículos, la ubicación estratégica de las estaciones de servicio y la demanda variable de combustible. Esta problemática se traduce en retrasos en la entrega, elevación de costos operativos y subutilización de recursos, lo que impacta negativamente la operatividad de las empresas de transporte y distribución. La falta de un sistema sistemático para la creación de rutas de abastecimiento impide optimizar tiempos y costos, generando un flujo logístico descoordinado. Con el objetivo de mitigar estas deficiencias, se propone el desarrollo e implementación de un software especializado que gestione de manera automatizada las rutas de abastecimiento. Este sistema permitirá una asignación óptima de los pedidos a los vehículos, considerando las restricciones de cada estación de servicio y facilitando una distribución efectiva del combustible. La adopción de esta tecnología tiene el potencial de transformar la logística de abastecimiento en la ciudad, mejorando la eficiencia operativa, reduciendo costos y tiempos de entrega, y garantizando una distribución equitativa entre los distintos vehículos.



METODOLOGÍA

La siguiente metodología describe detalladamente los pasos llevados a cabo durante la ejecución del presente proyecto, el cual se centra en la optimización del ruteo de vehículos en las estaciones de servicio de Barranquilla, utilizando un enfoque científico y herramientas de análisis de datos. Tipo de Estudio Este trabajo se clasifica dentro de la investigación aplicada científica, cuyo objetivo es medir variables específicas para predecir comportamientos futuros, en este caso, la fluencia vehicular por las rutas planeadas. Se adoptó un enfoque cuantitativo, que permite la formulación de un modelo matemático para el ruteo vehicular. Esta metodología se fundamenta en el análisis de datos numéricos y la aplicación de técnicas estadísticas para garantizar la validez y la confiabilidad del estudio. Instrumento para la Recolección de Datos La recolección de datos fue un proceso meticuloso que comenzó con una exhaustiva revisión bibliográfica en fuentes científicas reconocidas, como Science Direct y Google Académico. A través de la consulta de artículos previamente publicados, se identificaron estrategias efectivas para la optimización de tiempos y costos en el ruteo de vehículos. Además, se complementó la investigación con la revisión de páginas web especializadas y la información proporcionada por expertos en logística y transporte. Los datos recopilados fueron sistemáticamente organizados y analizados utilizando diversas herramientas de software, lo que facilitó la construcción de una base de datos robusta. A continuación, se detallan las herramientas utilizadas: Software Excel Excel fue la herramienta principal para la recopilación y organización de datos. Fue fundamental para crear y gestionar tablas, realizar cálculos matemáticos y analizar estadísticas. Utilizamos power query para automatizar procesos que facilitaron el posterior análisis de los datos. Esto permitió una eficiente manipulación de información y la configuración de una base de datos que sostiene todas las decisiones del proyecto. CPLEX Para abordar el problema de ruteo, se utilizó CPLEX, una herramienta avanzada en matemáticas de optimización y programación lineal. Esta aplicación es reconocida por su capacidad para resolver problemas complejos de manera eficiente y precisa. CPLEX permitió la construcción de un modelo que minimiza costos y tiempos de viaje, facilitando así la toma de decisiones informadas respecto a la ruta óptima para los vehículos. Power BI Power BI se empleó para el análisis visual y la representación gráfica de los datos recogidos. Esta herramienta facilita la identificación de patrones y tendencias significativas, lo que contribuye a una mejor interpretación de la información. La visualización de datos en Power BI potencia la presentación de resultados, lo que facilita el entendimiento del sistema general y de las dinámicas internas de las estaciones de servicio. Plan de Procesamiento y Análisis de Información El proceso de análisis comenzó con la recopilación de información mediante una revisión literaria detallada, que culminó en la creación de un estado del arte. Este estado del arte permitió no solo la recopilación de datos relevantes, sino también una comparación y análisis rápido de la información. La información sobre las distintas estaciones de servicio fue estructurada en una hoja de cálculo Excel, asegurando una organización eficiente. Posteriormente, la base de datos creada se utilizó para realizar análisis avanzados en Power BI, facilitando la visualización de los diversos rubros relacionados con las estaciones de servicio. A través de esta metodología, se busca obtener resultados precisos y efectivos que aporten al campo del ruteo vehicular, proponiendo soluciones que optimicen la logística y mejoren la fluencia vehicular en la ciudad de Barranquilla.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos sobre el establecimiento de una red de rutas de abastecimiento, que garantice la entrega oportuna de combustible a las estaciones de servicio. A lo largo del proceso, se utilizaron herramientas avanzadas como Excel, CPLEX y Power BI, que permitieron realizar análisis complejos y optimizar la toma de decisiones. Esta experiencia no solo enriqueció nuestro entendimiento teórico, sino que también facilitó la aplicación práctica de conceptos fundamentales en la planificación logística, contribuyendo así al desarrollo de habilidades valiosas en el área.
Rodriguez Sierra Rolan Davey, Universidad de Santander
Asesor: Mg. Nadia Judith Olaya Coronado, Universidad de la Costa

EVALUACIóN DE LA EFICACIA DE TECNOLOGíAS DE REMEDIACIóN PARA DESCONTAMINACIóN DE SUELOS, CON ENFOQUE EN BIORREMEDIACIóN, APLICADO A SUELOS CONTAMINADO CON HIDROCARBUROS EN COLOMBIA.


EVALUACIóN DE LA EFICACIA DE TECNOLOGíAS DE REMEDIACIóN PARA DESCONTAMINACIóN DE SUELOS, CON ENFOQUE EN BIORREMEDIACIóN, APLICADO A SUELOS CONTAMINADO CON HIDROCARBUROS EN COLOMBIA.

Rodriguez Sierra Rolan Davey, Universidad de Santander. Asesor: Mg. Nadia Judith Olaya Coronado, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La contaminación de suelos por hidrocarburos representa una amenaza significativa para el medio ambiente y la salud pública, derivada principalmente de derrames de petróleo, actividades industriales y descargas accidentales. En Colombia, este problema se ha intensificado debido a la expansión de la industria petrolera y la falta de regulaciones estrictas. Los suelos contaminados no solo afectan la biodiversidad y la fertilidad del suelo, sino que también presentan riesgos graves para las comunidades locales, incluyendo problemas de salud y la contaminación de fuentes de agua. A pesar de los avances en la tecnología de remediación, persiste una brecha significativa en la comprensión de la eficacia comparativa de estas tecnologías en contextos específicos como el colombiano. Los estudios existentes a menudo carecen de datos comparativos robustos entre distintas metodologías de remediación y no consideran suficientemente las condiciones ambientales particulares de Colombia. En particular, la biorremediación, una tecnología prometedora que utiliza microorganismos para degradar contaminantes, no ha sido evaluada exhaustivamente en el contexto de los suelos contaminados por hidrocarburos en Colombia. Por lo tanto, surge la necesidad de realizar una evaluación integral de la eficacia de diversas tecnologías de remediación, con un enfoque especial en la biorremediación. Este estudio tiene como objetivo llenar las lagunas de conocimiento y proporcionar una visión clara de las mejores prácticas para la descontaminación de suelos contaminados con hidrocarburos en Colombia. Al hacerlo, no solo contribuirá al avance científico, sino que también ofrecerá datos cruciales para la implementación de prácticas de remediación más efectivas y sostenibles.



METODOLOGÍA

Se realizó consulta de información en artículos y capítulos registrados en la base de datos científica Scopus, con el fin de garantizar un alto nivel de calidad de las publicaciones seleccionadas. Para delimitar la selección inicial de artículos, se construyó una ecuación de búsqueda utilizando términos clave específicos. La ecuación utilizada fue: TITLE-ABS-KEY ( "bioremediation" OR "biological remediation" OR "soil remediation" ) AND ( "hydrocarbon" OR "petroleum" ) AND ( "effectiveness" OR "efficiency" OR "effective" ) AND ( "Colombia" ), Esta ecuación de búsqueda se diseñó para identificar documentos que traten sobre la biorremediación o remediación biológica de suelos contaminados con hidrocarburos o petróleo, y que evalúen la efectividad o eficiencia de estos procesos. Para la inclusión de artículos en el análisis, se aplicaron cinco filtros sucesivos como criterios: El cual consta de un filtro temporal donde se seleccionaron artículos publicados entre los años 2000 y 2023, con el objetivo de incluir investigaciones recientes y relevantes, un filtro geográfico  donde se selecciona artículos que estudian casos en Colombia, paraque la información sea pertinente al contexto del país, un filtro de método de aplicación donde se diferenciaron los estudios según si la aplicación de la tecnología de remediación fue in situ (en el lugar de la contaminación) o ex situ (removiendo el suelo contaminado para tratarlo en otro lugar), un filtro por palabra clave donde se seleccionaron dos palabras como lo son hidrocarburo e hidrocarburos. Como criterio de exclusión se consideró aquellos que no cumplían para que un artículo sea incluido en el análisis como revisiones de tema o que no mostraron aplicación de biorremediación o fue en otro campo diferente a hidrocarburos. Estos filtros permitieron refinar la búsqueda y concentrar los resultados en estudios pertinentes y actualizados. Todo el material encontrado en la revisión se sintetizó en Excel con los siguientes ítems: apellidos y nombres de los autores, año de la publicación, ciudad, país o región, tipo o proceso de biorremediación, organismos utilizados, barreras y efectividad de los procesos.


CONCLUSIONES

El análisis de diversas tecnologías de remediación de suelos contaminados con hidrocarburos, con un enfoque particular en la biorremediación, revela importantes hallazgos y avances en este campo. En primer lugar, la diversidad de enfoques en biorremediación es notable, abarcando desde el uso de consorcios bacterianos específicos, como Lysinibacillus sphaericus, hasta la fitorremediación con plantas como Canavalia ensiformis. Esta variedad refleja la necesidad de soluciones personalizadas que se adapten a diferentes tipos de contaminantes y condiciones ambientales. La importancia de la diversidad microbiana se destaca como un factor crucial para la degradación eficiente de hidrocarburos en suelos contaminados. Los estudios metagenómicos han revelado la existencia de rutas metabólicas clave en comunidades microbianas, que facilitan una degradación más efectiva de los contaminantes. Además, las comparaciones entre la bioestimulación, la bioaumentación y la atenuación natural indican que las primeras dos técnicas pueden ser significativamente más efectivas en ciertos contextos, especialmente en suelos contaminados con mezclas de hidrocarburos como diesel y gasolina. La eficacia de la biorremediación depende en gran medida de factores ambientales como la salinidad, la temperatura y la humedad del suelo. Asimismo, las condiciones operacionales, como el uso de air sparging o emulsiones de aceite en agua, también juegan un papel crucial en la eficiencia de los procesos de remediación. Las tecnologías innovadoras, como la biología sintética, están emergiendo como una nueva era en la biorremediación de hidrocarburos, ofreciendo el potencial para diseñar microorganismos con capacidades degradativas mejoradas.
Rodriguez Vázquez Magdiel Dario, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. Maricela Aguilar Almanza, Instituto Tecnológico Superior de Irapuato

PROTOTIPO PARA EL CONTROL DE INVENTARIO, EMPLEANDO TECNOLOGíA RFID.


PROTOTIPO PARA EL CONTROL DE INVENTARIO, EMPLEANDO TECNOLOGíA RFID.

Ayala Mercado Eduardo, Instituto Tecnológico Superior de Irapuato. Correa González José Ulises, Instituto Tecnológico Superior de Irapuato. Granados Regalado Diego, Instituto Tecnológico Superior de Irapuato. Hernández Hdz Jonathan, Instituto Tecnológico Superior de Irapuato. Rodriguez Vázquez Magdiel Dario, Instituto Tecnológico Superior de Irapuato. Torres Morales Luis Daniel, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. Maricela Aguilar Almanza, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Objetivo    Desarrollar una alternativa viable para capturar datos del control de entradas, salidas y estatus de piezas de inventario con tecnología RFID, y almacenar los datos en un manejador de base de datos para consultas y/o modificaciones posteriores.  Problemática   La problemática identificada se da en una escuela de educación básica en una comunidad del Municipio de Irapuato, en la que la directora debe realizar inventario de material y mobiliario por lo menos una vez al finalizar el ciclo escolar. Actualmente el registro del material en inventario se almacena en archivos de Excel en los que la directora debe ir identificando salón por salón la existencia y estado de cada uno de los materiales mencionados. Antes de iniciar la revisión, debe asegurarse de realizar una copia de seguridad del archivo anterior para prevenir la pérdida de información o eventualidades. La revisión es tediosa ya que debe ir filtrando y haciendo notas en el mismo archivo, lo que es tardado y extenuante, hay ocasiones en que le lleva casi una hora concluir con el inventario en un solo salón, esto depende de la organización o ubicación del material o recurso.  



METODOLOGÍA

Metodología  El prototipo se desarrolló a través de la metodología XP (Extreme Programming/Programación Extrema).  Primero, se identificó la problemática central: la dificultad y el tiempo que conlleva revisar los elementos, se realizaron preguntas clave a la persona encargada, para entender a fondo el proceso actual y explorar alternativas que facilitarían el trabajo, se inició con el proceso de planificación donde se plantearon las posibles soluciones, tales como el desarrollo de una aplicación web, una aplicación móvil o de escritorio que cubriera las necesidades mediante el uso del prototipo.    Se optó por continuar con el desarrollo de una aplicación de escritorio, ya que es más beneficiosa para realizar los movimientos específicos que indicó el cliente en su problemática.  Antes de planearse las pestañas necesarias para desarrollar la aplicación de escritorio, se debían migrar los datos de Excel a una base de datos adecuada, se propuso usar SQLite3 para manejar los datos de forma local sin afectar el rendimiento del equipo, la migración se realizará una vez que la base de datos esté normalizada.  Como se mencionó anteriormente, se requiere normalizar las tablas antes de migrarlas. El cliente indicó que desea separar los datos A de los datos B, por lo que se procedió a realizar esta separación, asignando los campos requeridos para cada uno.  Aunque inicialmente se había definido que sería una aplicación de escritorio, es necesario tener en cuenta las pestañas a utilizar, inicialmente, se había pensado en una única pestaña que recibirá los datos de lectura del prototipo, sin embargo, tras analizar nuevamente la problemática, se identificó la necesidad de varias pestañas para la elaboración de la actividad, ya que se debe cubrir un sistema de inicio de sesión así como un menú para los diferentes campos que se quieren abarcar, por consiguiente, se propusieron las siguientes ideas:  Una pantalla encargada de realizar el Log-in.  Una pantalla encargada de fungir como Menú principal.  Una pantalla encargada de recibir los datos recabados por el prototipo y validar que existan en la base de datos.  Una pantalla que reciba y permita modificar cualquier campo de los datos recopilados por el prototipo.  Después de decidir las pantallas necesarias para la aplicación y determinar a dónde migrar los datos, se procede a desarrollar el prototipo para leer y enviar los datos a la aplicación de escritorio. 


CONCLUSIONES

Conclusión  Durante el verano, se adquirieron conocimientos teóricos y prácticos esenciales para simplificar y agilizar el proceso de inventario en la escuela mencionada. Se utilizaron tecnologías como Wifi, Bluetooth e infrarrojo para mejorar la eficiencia y precisión del registro y gestión de materiales. Sin embargo, debido a la extensión del trabajo, aún se encuentra en la fase de prototipo y no se pueden mostrar los datos obtenidos. Se espera una reducción de tiempo al realizar el inventario, así como un incremento en la eficiencia del inventario y en la búsqueda de este. 
Rodriguez Zambrano Steffania, Instituto Tecnológico de La Piedad
Asesor: Mg. Luis Francisco Lopez urrea, Fundación Universitaria del Área Andina

¿QUÉ TAN SEGURAS SON LAS PÁGINAS WEB A LAS QUE ACCEDEMOS?


¿QUÉ TAN SEGURAS SON LAS PÁGINAS WEB A LAS QUE ACCEDEMOS?

Rodriguez Zambrano Steffania, Instituto Tecnológico de La Piedad. Asesor: Mg. Luis Francisco Lopez urrea, Fundación Universitaria del Área Andina



PLANTEAMIENTO DEL PROBLEMA

En la era digital actual, el acceso a la información y la gestión de datos a través de portales y sitios disponibles en la red mundial de redes de computadores INTERNET, se constituye en algo muy importante para muchas organizaciones y empresas. Estas plataformas facilitan una gestión eficiente de sus registros, y son fundamentales para optimizar procesos y mejorar la experiencia del usuario. Los datos que registramos y gestionamos a través de los sitios o servicios que se ofrecen en la web, mediante una URL la cual es una cadena de caracteres utilizada para identificar algún recurso en internet y sea más sencillo localizarlo, estas contienen un protocolo que comúnmente es http, después un dominio, luego una ruta y finalmente los parámetros necesarios para información más concreta. Las bases de datos tienen un papel muy importante en el desarrollo de sitios web ya que proporcionan una manera estructurada de organización de datos lo cual es crucial para los sitios web que manejan grandes cantidades de información como usuarios y productos, utilizando consultas SQL estas bases de datos nos permiten recuperar información necesaria muy rápidamente lo cual es muy importante para que los sitios web muestren contenido actualizado según lo que el usuario desee ver. Las bases de datos ayudan a mantener la integridad y consistencia de datos además están optimizadas para manejar múltiples usuarios accediendo al mismo tiempo ya que son escalables y pueden crecer y manejar muchos datos, las bases de datos son compatibles con una gran cantidad de tecnologías y herramientas de desarrollo web esto facilita el trabajo al implementarlas en una página web.



METODOLOGÍA

Un análisis cuantitativo es de mucha ayuda porque con ello se puede medir la efectividad de las medidas de seguridad que se han implementado como por ejemplo son la tasa de vulnerabilidades detectadas, el tiempo de resolución de vulnerabilidades, la frecuencia de incidentes de seguridad, entre otras. Se complementa este análisis con un diseño cuasi experimental, en el que la investigadora montara una página web utilizando tecnologías como Vue, Node y mysql y se le integraran medidas de seguridad, después se llevara a cabo un análisis que identificara posibles vulnerabilidades de la página, se ejecutaran pruebas de penetración utilizando distintas herramientas para evaluar la resistencia de la página ante posibles ataques externos. Con base al análisis se formularán las posibles soluciones para corregir problemas de seguridad. La perspectiva analítica se desarrolla mediante la sistematización de la información recabada, lo cual facilita una comprensión profunda de las vulnerabilidades y ataques más frecuentes asociados con una configuración deficiente o insegura de bases de datos. De esta manera, la investigadora tiene en cuenta estas vulnerabilidades al diseñar el sitio propuesto, con el fin de evaluar posibles ataques a los que podría ser vulnerable debido a fallos en los controles de seguridad. Para ello, se utilizan diversas herramientas que permiten poner a prueba la seguridad del sitio mediante técnicas de inyección SQL. Esto permite a la investigadora validar el impacto de estas vulnerabilidades en la seguridad de los datos.


CONCLUSIONES

En el proyecto desarrollado se ha evaluado la seguridad de una aplicación web y cómo solucionar sus vulnerabilidades para que sea más difícil acceder a su información, se abarcaron distintos temas de seguridad incluyendo la protección de bases de datos, el uso del protocolo https, prevención de inyecciones SQL y Cross-Site Scripting, defensa contra ataques de fuerza bruta y otros tipos de vulnerabilidades. En una aplicación que contenga información de clientes las bases de datos son fundamentales ya que almacenan información crítica, es por eso que se implementó un cifrado de datos en reposo como en tránsito para proteger contra accesos indebidos, además de aplicar el principio de menor privilegio asegurando que solo el administrador tenga acceso a operaciones específicas. Se identifico la diferencia entre el uso de http y https y porque es mejor utilizar https para garantizar una comunicación segura entre el cliente y el servidor ya que HTTPS utiliza TLS para cifrar la información que transmite y protegerla contra ataques garantizando la integridad de los datos. Las inyecciones SQL son una gran amenaza para las aplicaciones web, es por eso que fue uno de los temas mas extensos en el artículo, en el que se muestra como es que funciona y permite a los atacantes ejecutar consultas maliciosas para manipular las consultas a la base de datos, es por eso que en el API se utilizan consultas parametrizadas que separan los datos de los comandos SQL y se implementa una validación rigurosa de las entradas del usuario para evitar la ejecución de código malicioso. En las entradas de aplicación surgen los ataques SQL, pero también surgen los ataques Cross-site scripting que, igual que las inyecciones SQL permite ingresar datos maliciosos, en este caso son scripts ya sea para sustraer cookies, secuestrar sesiones y otro tipo de ataques. Es por eso que se aplicaron técnicas para prevenir la ejecución de scripts maliciosos y restringir el tipo de contenido que puede ser ingresado al ejecutarlo. Se vieron además distintos tipos de ataques como fuerza bruta en la que el atacante ingresa posibles contraseñas hasta acceder, pero se solucionó mediante un control de ingreso de contraseñas incorrectas para mitigar esta vulnerabilidad, directory traversal en el que el atacante navega a través de las rutas para acceder a archivos confidenciales y se solucionó mediante una restricción de acceso a rutas. Mantener la seguridad en una página web no es sencillo ya que está expuesta a cualquier tipo de ataque, como se mencionó anteriormente existen muchos tipos de ataques a los sitios web, es por eso que se debe tener una vigilancia continua y saber adaptarse a las amenazas para proteger la información sensible que se maneje.
Rojano Flores Melissa Milena, Universidad de la Costa
Asesor: Mg. Lina Mayerly Lozano Suárez, Universidad de Investigación y Desarrollo

ANáLISIS DE LOS FACTORES QUE INFLUYEN EN EL COMERCIO INTERNACIONAL DE LAS CADENAS DE SUMINISTRO DE ALIMENTOS: UNA REVISIóN DE LITERATURA: 2014-2024


ANáLISIS DE LOS FACTORES QUE INFLUYEN EN EL COMERCIO INTERNACIONAL DE LAS CADENAS DE SUMINISTRO DE ALIMENTOS: UNA REVISIóN DE LITERATURA: 2014-2024

Rojano Flores Melissa Milena, Universidad de la Costa. Asesor: Mg. Lina Mayerly Lozano Suárez, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

Durante la última década, el comercio internacional de las cadenas de suministro de alimentos ha sido crucial para la economía global, afectando la disponibilidad, precios y calidad de los alimentos. Diversos factores como la globalización, avances tecnológicos, variaciones económicas, regulaciones gubernamentales y eventos imprevistos han influido en su operación. Este estudio aborda las siguientes preguntas clave: ¿Cuáles son los factores que han influido en el comercio internacional de alimentos entre 2014 y 2024? y ¿Cómo han impactado las fluctuaciones económicas y políticas gubernamentales? Cabe recalcar que, aunque entidades como el Banco Mundial y la OMC generan estadísticas de exportaciones, no analizan en detalle estos factores, por lo que se propone explorar ¿Qué correlaciones se han analizado entorno al comercio internacional y demás variables que engloban una cadena de suministros de alimentos en un país o región?, ¿Qué papel han jugado los avances tecnológicos? Esta revisión de la literatura busca proporcionar una base sólida para futuras investigaciones y estrategias de desarrollo, identificando tendencias emergentes en el comercio internacional de alimentos.



METODOLOGÍA

La literatura por considerar para el estudio fue tomada de la base de datos Scopus, donde se planteó una ecuación con diferentes palabras claves del tema, se aplicaron diferentes criterios de inclusión y exclusión, por ejemplo, se consideró una ventana de tiempo de 10 años (2014-2024), en el idioma de los documentos se incluyó el Inglés y Español y se excluyeron tipos de documento diferentes al conferencia, revisión y articulo. En total se consideraron 61 artículos de la esta. Después de la ecuación de búsqueda obtenida se descargó un archivo en formato CSV y con ayuda del software Vosviewer se crean mapas de coincidencias con la finalidad de tener el análisis bibliométrico de la investigación. Finalmente, se emplea la matriz RSL (Revisión sistemática de la literatura) de manera que se organice y analice la literatura existente.


CONCLUSIONES

Las principales tendencias de investigación identificadas en este estudio incluyen las exportaciones, donde se han analizado que afecta el volumen y los destinos de exportación de productos alimenticios, incluyendo barreras comerciales y políticas gubernamentales. Por el lado de las importaciones, la investigación se identifica cómo las políticas de importación, la demanda interna y los cambios en el consumo afectan las cadenas de suministro de alimentos. También se ha investigado la influencia de las fluctuaciones económicas globales y locales en los precios de los productos alimenticios, así como la creciente preocupación por las prácticas sostenibles y la reducción de emisiones en las cadenas de suministro de alimentos. Adicionalmente, se ha estudiado cómo las cadenas de suministro internacionales pueden garantizar la seguridad alimentaria en diferentes regiones, la importancia de la infraestructura y la logística eficientes para el funcionamiento de las cadenas de suministro también ha sido importante en la revisión. En resumen, esta revisión sistemática brinda una base sólida para futuras investigaciones y estrategias de comercio internacional donde se dé la necesidad de un enfoque multidimensional para abordar los desafíos y aprovechar las oportunidades en este campo dinámico.
Rojas Aguirre Diego, Instituto Tecnológico Superior de Irapuato
Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato

SISTEMA ELECTRONEUMáTICO PARA DOSIFICACIóN DE PRODUCTOS GRANULADOS Y EN POLVO


SISTEMA ELECTRONEUMáTICO PARA DOSIFICACIóN DE PRODUCTOS GRANULADOS Y EN POLVO

Rojas Aguirre Diego, Instituto Tecnológico Superior de Irapuato. Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

La distribución manual de fertilizantes en polvo o gránulos presenta problemas significativos en cuanto a precisión y eficiencia. El proceso manual de carga en camiones es impreciso y lento, susceptible a errores humanos en la medición y el vertido, lo que puede llevar a variaciones en las cantidades dosificadas y reducir la eficiencia. Además, el método es laborioso y requiere ajustes constantes para asegurar la cantidad correcta de fertilizante. Para solucionar estos problemas, se propone un sistema electroneumático que combine tecnologías electrónicas y neumáticas. Este sistema empleará sensores y actuadores para regular la cantidad de fertilizante, reduciendo errores y desperdicios. También permitirá la programación de configuraciones específicas para cada carga, optimizando la precisión y eficiencia en la dosificación y beneficiando a la industria agroquímica al mejorar la carga y reducir el impacto de los errores.



METODOLOGÍA

El proyecto se centró en el análisis de un tipo específico de fertilizante, optando por la urea, uno de los más utilizados en México según el INEGI. Se desarrolló un modelo matemático para calcular la cantidad de fertilizante a dosificar en un tiempo determinado, utilizando una hoja de cálculo en Excel. Se realizaron cálculos de presión, área de descarga, peso del producto, velocidad de salida y flujo del fluido para establecer la dosificación precisa. Con estos datos, se diseñó un circuito neumático para implementar los tiempos calculados. Se eligieron un contador y un temporizador neumáticos para simplificar el diseño y mejorar la precisión. El uso del contador neumático permitió un seguimiento exacto de los ciclos del actuador, reduciendo la complejidad del sistema al evitar la conexión de múltiples válvulas de deceleración en serie. El circuito neumático inicial incluye pulsadores que actúan como válvulas 3/2 con tiempos de activación variables. Esto permite configurar el ciclo de trabajo del cilindro y ajustar los intervalos de tiempo de dosificación. Esta configuración mejora la precisión y consistencia del proceso de dosificación. Funcionamiento del Circuito El circuito se compone de dos pulsadores que operan como válvulas 3/2 con tiempos de activación distintos. Al presionar un pulsador, se inicia el ciclo del cilindro, que se mueve hasta llenar el depósito de la válvula de deceleración, permitiendo que el cilindro regrese a su posición inicial. Simultáneamente, el contador neumático registra cada ciclo. El proceso se repite hasta completar los ciclos programados en el contador. Se desarrolló un circuito electroneumático basado en el neumático original, incorporando un control eléctrico. Este circuito incluye un cilindro de doble efecto, válvulas antirretorno, una electroválvula 5/2, una fuente de aire y una unidad de mantenimiento. Para el control eléctrico, se usan un botón pulsador normalmente abierto, relés, un contador-selector eléctrico, un relé con temporizador y sensores de proximidad. El sistema funciona con una alimentación de 24 voltios DC. Al presionar el botón pulsador, se activa un relé que controla el solenoide de la electroválvula, permitiendo la extensión del cilindro. Un sensor de proximidad envía señales al contador y al temporizador, que gestionan los ciclos y el retorno del cilindro. Al completar los ciclos preestablecidos, un relé final abre el circuito y detiene la secuencia neumática.


CONCLUSIONES

El desarrollo del proyecto resultó en un sistema electroneumático efectivo para la dosificación de fertilizantes por gravedad. La investigación inicial permitió elegir el fertilizante adecuado y establecer un modelo matemático para la dosificación precisa. El sistema electroneumático, al combinar componentes neumáticos y eléctricos, ha mejorado significativamente la precisión y consistencia de la dosificación, reduciendo errores humanos y optimizando los tiempos de proceso. La automatización del proceso ha reducido los tiempos muertos, demostrando la efectividad del sistema en mejorar la eficiencia operativa y la precisión en la industria.  
Rojas Arredondo Gisell Deliani, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. Dennise Ivonne Gallardo Alvarez, Instituto Tecnológico Superior de Irapuato

OPTIMIZACIóN DE LA VISUALIZACIóN DE DATOS EN POWER BI PARA LA ACREDITACION DE PROGRAMAS ACADéMICOS


OPTIMIZACIóN DE LA VISUALIZACIóN DE DATOS EN POWER BI PARA LA ACREDITACION DE PROGRAMAS ACADéMICOS

Cervantes Ortega Dana Keren, Instituto Tecnológico Superior de Irapuato. Hernández Robles Alma Raquel, Instituto Tecnológico Superior de Irapuato. Rojas Arredondo Gisell Deliani, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. Dennise Ivonne Gallardo Alvarez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Históricamente, la recopilación y presentación de información requerida para los estándares de acreditación en universidades ha dificultado el proceso de acreditación. En la actualidad, las instituciones educativas han comenzado a adoptar tecnologías BI (Business Intelligence) como herramienta de gestión de datos. Esta tecnología es amigable en el uso, tiene capacidad amplia para optimizar y analizar bases de datos, proporcionando a los responsables de la toma de decisiones una visión clara y detallada del desempeño de sus programas académicos. El objetivo principal de esta investigación es desarrollar una herramienta utilizando la tecnología BI como base para el proceso de acreditación de la carrera de Ingeniería en Gestión Empresarial del ITESI (Instituto Tecnológico Superior de Irapuato) y con ello crear una alternativa de cumplimiento de los estándares establecidos para la acreditación en una sola herramienta. 



METODOLOGÍA

Definición del Organismo Acreditador:El primer paso del proyecto consistió en identificar y definir el organismo acreditador en el que se basaría la optimización de la visualización de datos. Para este proyecto, se seleccionó el Comité Interinstitucional para la Evaluación de la Educación Superior (CIEES). Selección del Eje de Evaluación:Dado que el proyecto se realizó en un período limitado, se decidió enfocar la optimización en uno de los ejes de evaluación específicos de CIEES (estudiantes). Esto permitió una profundización adecuada en el análisis y visualización de datos dentro de un área manejable. Selección del Caso de Estudio:Para aplicar la metodología, se seleccionó la carrera de Ingeniería en Gestión Empresarial del ITESI como caso de estudio. Esta elección permitió una aplicación práctica y específica de las herramientas de Business Intelligence en un contexto real. Diseño de la Base de Datos:Con el eje de evaluación y el caso de estudio definidos, se procedió al diseño de una base de datos que pudiera contener toda la información relevante para el proceso de acreditación. Este diseño incluyó la estructuración de una tabla son sus respectivos campos. Población de la Base de Datos:Para evitar la publicación de datos confidenciales, la base de datos fue poblada con datos ficticios. Estos datos ficticios replicaron patrones y características reales de los datos institucionales, permitiendo así una prueba efectiva de las visualizaciones sin comprometer la privacidad. Desarrollo del Tablero en Power BI:Finalmente, se desarrolló un tablero de datos en Power BI. Este tablero fue diseñado para proporcionar una visualización clara y detallada de los datos relevantes al eje de evaluación seleccionado.


CONCLUSIONES

La implementación de la tecnología BI ayuda a observar mejor los datos que se obtienen para el proceso de acreditación de la carrera de Ingeniería en Gestión Empresarial, y con ello tomar mejores decisiones y de manera eficiente.  De acuerdo con los resultados obtenidos del cuestionario que se les aplicó a los alumnos de la carrera de Ingeniería en Gestión Empresarial, se obtuvo información sobre cómo califican los alumnos las instalaciones, su rendimiento académico y las habilidades que han desarrollado durante su formación académica. Esta información ayuda a tomar mejores decisiones en el proceso de acreditación de la carrera para poder mejor la calidad del programa educativo.  El proceso de acreditación de la carrera es fundamental para garantizar que los alumnos reciban una educación de calidad y, brindando confianza a los alumnos, se puede lograr obtener reconocimiento a nivel nacional; ayudando a los alumnos a tener reconocimiento en el mundo laboral. 
Rojas Galván Ricardo, Universidad Veracruzana
Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

OPTIMIZACIóN DE OSCILADORES CAóTICOS POR MEDIO DE ALGORITMOS GENéTICOS MEDIANTE EL CONTEO DE ÓRBITAS Y SU ESPECTRO EN EL TIEMPO


OPTIMIZACIóN DE OSCILADORES CAóTICOS POR MEDIO DE ALGORITMOS GENéTICOS MEDIANTE EL CONTEO DE ÓRBITAS Y SU ESPECTRO EN EL TIEMPO

Rojas Galván Ricardo, Universidad Veracruzana. Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La teoría del caos es una rama de las matemáticas, la física y otras ciencias (como la biología, la meteorología y la economía) que estudia ciertos tipos de sistemas complejos y sistemas dinámicos no lineales que son extremadamente sensibles a las variaciones en las condiciones iniciales. El comportamiento caótico se encuentra en muchos sistemas naturales, como el flujo de fluidos, las irregularidades del ritmo cardíaco, el clima y el tiempo. Este comportamiento puede ser analizado mediante el estudio de modelos matemáticos caóticos o a través de técnicas analíticas. Dentro del estudio del caos, se encuentran el caos determinista que se caracteriza por tener una evolución caótica azarosa pero con cualidades deterministas. Los sistemas caóticos determinisitas estan definidos por medio de atractores que es una figura extraña denotada por su caso y variante por sus condiciones iniciales. El comportamiento de los atractores viene dada por un grupo de ecuaciones diferenciales en el que se ven involucradas un set de variables, estas variables se encargaran de dictar el comportamiento caótico del atractor. Por otro lado, los algoritmos genéticos (AG) son herramientas metaheurísticas que permiten resolver problemas que, por medios aritméticos convencionales, serían muy difíciles de abordar. Estos algoritmos de optimización se basan en principios de la evolución biológica, específicamente en la manipulación de cromosomas, donde es preciso la evolución de los seres para sobrevivir por las siguientes generaciones. Utilizando técnicas como la cruza entre padres y las mutaciones, los algoritmos genéticos buscan obtener las mejores soluciones posibles y de esta manera optimizar sistemas. Con esto se mantiene que el poder propiciar caos en ciertos sistemas no recae totalmente en el azar, sino que debe existir un proceso deterministico para propiciarlo. Para poder solucionar esto, se plantea que los algoritmos genéticos pueden llevar a cabo el proceso de optimizar los osciladores caóticos.



METODOLOGÍA

El objetivo de los algoritmos genéticos diseñados es la maximización, dado que se busca incrementar el nivel de caos en los sistemas. Para lograr esto, se evaluaron diferentes métodos de cruza, mutación y elitismo, eligiendo finalmente la cruza NAM, la mutación bit-flip y el elitismo de reemplazo que darían buenos resultados para estos sistemas. Además, se definió un modo de evaluación personalizado basado en el espectro y las órbitas de estos sistemas. Adicionalmente, se incorporó un gráfico llamado Frente de Pareto, que permite obtener múltiples valores optimizados según los modos de evaluación propuestos. Los osciladores caóticos que se optimizaron fueron: el oscilador de Lorenz, Chen, Rössler y Lü. Estos osciladores operan de manera distinta, generando diferentes formas en sus atractores, por lo que se diseñaron algoritmos genéticos específicos para cada uno. Generalmente, el nivel de caos de estos sistemas se mide utilizando el exponente de Lyapunov, el cual se define como la velocidad a la que se separan dos órbitas con condiciones iniciales infinitamente cercanas. En este trabajo, se empleó una forma diferente de evaluar estos sistemas caóticos, utilizando el espectro del sistema y el conteo de sus órbitas. Se encontró que otro parámetro caótico se refleja en el número de frecuencias presentes en su espectro de tiempo, por lo que se usó este método como criterio de evaluación. Para mantener una evaluación más robusta, también se añadió el conteo de órbitas; cuando el atractor se forma, se contó el número de órbitas formadas, considerando la separación entre ellas. La necesidad de diseñar diferentes algoritmos surge de las distintas consideraciones que cada sistema requiere al ser evaluado. Para desarrollar esta práctica de optimización, se utilizó el software Matlab, que ofrece las capacidades computacionales necesarias para simular y optimizar los sistemas caóticos.


CONCLUSIONES

A nivel personal, se adquirieron nuevos conocimientos teóricos y prácticos sobre el estudio del caos y sus aplicaciones. En cuanto a la optimización, se comprendió el uso de los algoritmos genéticos, los cuales resultaron ser de gran utilidad para la optimización de sistemas complejos. A nivel técnico, los resultados obtenidos al aplicar algoritmos genéticos en la optimización de sistemas caóticos fueron satisfactorios. Este enfoque demostró ser eficaz, ya que permitió obtener buenos valores de optimización y, además, numerosos, lo que facilita tener varios valores de prueba dependiendo de la aplicación. Asimismo, el nuevo método de evaluación establecido fue satisfactorio, ya que resultó ser más preciso y sencillo de emplear que el exponente de Lyapunov.
Rojas Martin Karla Samantha, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

ESTABILIZACIóN VOLUMéTRICA DE ARCILLAS CON CENIZA VOLCáNICA


ESTABILIZACIóN VOLUMéTRICA DE ARCILLAS CON CENIZA VOLCáNICA

Rojas Martin Karla Samantha, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En años recientes, el problema de la expansividad de los suelos arcillosos ha ganado atención en la geotecnia, un fenómeno que antes solía ser subestimado en muchas construcciones. Aunque históricamente se han edificado urbanizaciones y otros proyectos sin considerar la expansividad del suelo, hoy es raro encontrar un suelo arcilloso que no sea identificado como potencialmente expansivo. La evaluación de esta característica se basa en factores como la composición mineralógica y la granulometría, pero para que se produzca hinchamiento o retracción, deben coincidir diversos factores naturales y humanos que afectan el equilibrio de humedad del suelo. Así, el manejo adecuado de la expansividad se ha vuelto crucial en el diseño y ejecución de obras. Definición del problema: Los suelos expansivos son suelos cohesivos con bajo grado de saturación y están compuestos de materiales finos como limos y arcillas. Estos suelos presentan un factor importante denominado potencial de expansión (Ministerio de Vivienda, Construcción y Saneamiento [MVCS], 2018). Esta propiedad se comporta en base a diversos factores como la presencia o no de las cargas superficiales, o por una disminución de los esfuerzos efectivos debido a una variación del contenido de humedad. Esta variación puede ser causada por la presencia de lluvias, vegetación o limitación de la evaporación por un tiempo prolongado. Otro factor importante es el tipo de mineral arcilloso y los cationes de absorción que influyen en la capacidad de expansión de las arcillas. Los suelos arcillosos, además, tienden a absorber grandes cantidades de agua luego de las lluvias y este se vuelve pegajoso y pesado; sin embargo, cuando se secan se contraen y agrietan. (Peralta Sandra, 2021)



METODOLOGÍA

En esta investigación bibliográfica se exploraron diversas fuentes de información sobre la expansión de los suelos arcillosos con el objetivo de encontrar posibles soluciones para mitigar este fenómeno.  


CONCLUSIONES

La incorporación de ceniza volcánica a suelos arcillosos representa una solución eficaz para abordar los problemas asociados con suelos expansivos. Este enfoque mejora significativamente las propiedades del suelo, reduciendo su capacidad de hinchazón y contracción, lo que minimiza los riesgos de deformaciones y daños estructurales. Como resultado, se obtiene un suelo más adecuado para la construcción, lo que no solo optimiza la durabilidad y seguridad de las infraestructuras, sino que también puede ser más rentable a largo plazo. En esencia, esta técnica ofrece una solución práctica y beneficiosa para los desafíos que presentan los suelos arcillosos, asegurando una base sólida y confiable para cualquier proyecto de construcción.  
Rojas Montaño Paola Ximena, Instituto Politécnico Nacional
Asesor: Dra. María Fátima Chilaca Rosas, Instituto Mexicano del Seguro Social

RADIóMICA EN NEURO-ONCOLOGíA E IMPLEMENTACIóN CON NUEVAS PLATAFORMAS PARA DIAGNóSTICO Y MANEJO


RADIóMICA EN NEURO-ONCOLOGíA E IMPLEMENTACIóN CON NUEVAS PLATAFORMAS PARA DIAGNóSTICO Y MANEJO

Rojas Montaño Paola Ximena, Instituto Politécnico Nacional. Asesor: Dra. María Fátima Chilaca Rosas, Instituto Mexicano del Seguro Social



PLANTEAMIENTO DEL PROBLEMA

Los gliomas de alto grado son tumores malignos del Sistema Nervioso Central (SNC), representando el 30.2% de estos. Estos tumores surgen de células gliales, incluyendo astrocitos, oligodendrocitos y células ependimarias, y se destacan por su alta agresividad. Según las directrices de la Organización Mundial de la Salud (OMS) de 2021, que incorporan la gravedad del tumor y características moleculares específicas, los glioblastomas son los más letales. En estos casos, el 68% de los pacientes tienen una supervivencia general (SG) de menos de un año, con una mediana de SG de 14.6 meses bajo tratamiento multimodal, que generalmente incluye cirugía, radioterapia y quimioterapia. Dada la naturaleza agresiva de estos tumores, es esencial mejorar la evaluación de su progresión a través de técnicas de diagnóstico avanzadas. La tomografía computarizada (TC) es frecuentemente la modalidad inicial utilizada para pacientes con síntomas neurológicos y sospecha de glioma, debido a su rápida disponibilidad. Sin embargo, la resonancia magnética (MRI) se emplea como una herramienta complementaria, proporcionando datos radiómicos detallados que ayudan a caracterizar mejor los tumores. En el contexto actual, la inteligencia artificial (IA) y el aprendizaje automático (Machine Learning) están emergiendo como tecnologías clave para el análisis de imágenes digitales. Estas herramientas permiten el reconocimiento de patrones y la clasificación de datos complejos, facilitando la predicción del comportamiento tumoral. El análisis radiómico, que incluye la medición de variaciones en la forma y textura del tumor, se beneficia enormemente de estas tecnologías, permitiendo una evaluación más precisa de la progresión de la enfermedad.



METODOLOGÍA

Se realizó un metanálisis epistémico integral sobre gliomas de alto grado, seleccionando 19 estudios que cumplieron con rigurosos criterios de calidad. Los estudios se clasificaron según temas: pronóstico de supervivencia global (SG) o supervivencia libre de progresión (SSP), progresión post-tratamiento, segmentación de tumores y otras estratificaciones. La clasificación se hizo con una lectura exhaustiva y un diagrama de Venn para identificar temas comunes. Los datos relevantes de cada estudio se registraron en mapas mentales con información clínica, radiómica, molecular y de procesos. Se construyeron dos tablas: una sobre las actividades realizadas y otra sobre los procedimientos, facilitando un análisis comparativo y la identificación de mejores prácticas. Se describieron los pasos de cada estudio en una hoja de ruta, integrando datos clínicos, moleculares y de imágenes. Este proceso incluyó el preprocesamiento de datos para eliminar ruido, la segmentación de imágenes para identificar regiones de interés (ROI) del tumor, y la extracción de características radiómicas, convertidas en valores numéricos representativos. Con los datos preprocesados y las características extraídas, se usaron algoritmos de aprendizaje automático, como redes neuronales profundas, máquinas de soporte vectorial y modelos de bosque aleatorio, para desarrollar modelos predictivos. Cada modelo fue entrenado con una parte de los datos y validado con el resto, evaluando su rendimiento con métricas de precisión, sensibilidad y especificidad. El proceso de entrenamiento y validación se ajustó iterativamente para optimizar el rendimiento. Finalmente, se propuso un pipeline combinando los mejores elementos de cada estudio y proporcionando un marco práctico para la clasificación y tratamiento de pacientes con gliomas de alto grado. Este enfoque facilitó la comparación de estudios y proporcionó una base sólida para el desarrollo de modelos radiómicos de IA aplicables en la práctica clínica.


CONCLUSIONES

Durante la estancia de verano, se demostró la efectividad de la inteligencia artificial (IA) y las plataformas de análisis de big data para gestionar e interpretar grandes volúmenes de datos radiómicos. La IA facilita el análisis detallado de características tumorales, crucial para la personalización del tratamiento. Más del 50% de los estudios emplearon características de segundo orden, útiles para determinar el microhábitat del tumor y diseñar planes de tratamiento quirúrgico adaptados a cada paciente. Es esencial desarrollar guías estandarizadas para la segmentación de regiones de interés (ROIs) en diversas patologías debido a la heterogeneidad que complica la identificación precisa del tumor primario y sus áreas de diseminación. La integración de tecnologías como LifeX y MATLAB facilitó el preprocesamiento, segmentación y extracción de características de imágenes de tomografía computarizada (CT) y resonancia magnética (MRI). Estas características radiómicas, convertidas en valores numéricos, son fundamentales para evaluar el pronóstico, predecir la supervivencia y la respuesta al tratamiento, así como para identificar biomarcadores no invasivos. La caracterización molecular precisa es clave para personalizar el tratamiento y diseñar terapias dirigidas a las características específicas de cada tumor. En resumen, el uso de IA y análisis radiómico mejora la gestión y tratamiento de gliomas de alto grado, ofreciendo herramientas avanzadas para decisiones clínicas más informadas y personalizadas.
Rojas Murillo Nair Jonas, Universidad Nacional de Ingeniería
Asesor: Mg. Jesus Jimenez Aguilar, Corporación Universitaria Americana

VENTAJAS Y OPORTUNIDADES DE APLICABILIDAD DE TECNOLOGíAS DE COGENERACIóN Y TRIGERENACIóN EN DIVERSOS SECTORES INDUSTRIALES Y CLíNICOS EN NICARAGUA


VENTAJAS Y OPORTUNIDADES DE APLICABILIDAD DE TECNOLOGíAS DE COGENERACIóN Y TRIGERENACIóN EN DIVERSOS SECTORES INDUSTRIALES Y CLíNICOS EN NICARAGUA

Rojas Murillo Nair Jonas, Universidad Nacional de Ingeniería. Asesor: Mg. Jesus Jimenez Aguilar, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

Nicaragua enfrenta varios desafíos en la implementación de tecnologías de cogeneración y trigeneración, a pesar de sus ventajas. Estas tecnologías ofrecen soluciones eficientes y sostenibles para las demandas energéticas del país, pero su adopción es limitada debido a la falta de infraestructura adecuada, altos costos iniciales y baja inversión estatal. Aunque existen leyes que promueven las energías renovables, la sociedad aún no adopta ampliamente estos sistemas, especialmente en sectores como el clínico, donde podrían generar ahorros y mejoras en la eficiencia. Las oportunidades para aplicar estas tecnologías son vastas, especialmente en sectores hospitalarios e industriales, que pueden beneficiarse significativamente. La accesibilidad a recursos como el biogás y el gas natural, junto con el interés en inversiones sostenibles, crea un ambiente propicio para la adopción de estas tecnologías. Con un enfoque estratégico en infraestructura y capacitación, Nicaragua tiene la oportunidad de liderar en la región en soluciones energéticas innovadoras, mejorando la competitividad y contribuyendo a un futuro más sostenible y eficiente. .



METODOLOGÍA

Se realizó una revisión de los conceptos de cogeneración y trigeneración aplicados en otros países, examinando sus métodos de aplicación, beneficios y normativas. Luego, se investigaron las principales normas en Nicaragua que promueven estas tecnologías y se encontró que los únicos sectores que las implementan son los ingenios azucareros y el Hospital Militar, que utiliza un sistema termosolar para calefacción y refrigeración. Se profundizó en las leyes nicaragüenses relevantes, destacando que aunque no hay leyes específicas para la cogeneración, la Ley No. 532 y la Ley No. 272 promueven las energías renovables con beneficios fiscales. Se compararon estas normativas con las de otros países, como España, que tiene más experiencia y menos impedimentos en la implementación de estas tecnologías. Se recolectó información sobre industrias que aplican estos sistemas, destacando los ingenios Monte Rosa y Casur, y el sistema termosolar del Hospital Militar, uno de los más grandes del mundo aplicado en hospitales. Una encuesta reveló el bajo conocimiento de la sociedad nicaragüense sobre estas tecnologías debido a la poca promoción e inversión. Se investigaron las tecnologías actuales de cogeneración y trigeneración, identificando componentes como motores de combustión interna, calderas, turbinas y sistemas de recuperación de calor. Se analizó la viabilidad de adquirir estos componentes en Nicaragua, considerando las estrictas regulaciones y las recientes plantas de generación de biogás y gas natural. Finalmente, se evaluó la aplicabilidad de estas tecnologías en el contexto nicaragüense, destacando el potencial del país debido a su abundancia de recursos, pero también la poca inversión y los altos costos iniciales. Se concluyó que estas tecnologías serían una excelente alternativa para diversificar la matriz energética del país y reducir la dependencia de combustibles fósiles, con el potencial de convertir a Nicaragua en un pionero regional en energía limpia, promoviendo el desarrollo económico.


CONCLUSIONES

Durante la estancia de verano se logró adquirir nuevos conocimientos teóricos de los sistemas de cogeneración y trigeneración y cómo hacer los estudios de factibilidad y viabilidad económica, social y energética, mejorando, mis habilidades investigativas. El gobierno debe fomentar otras políticas y lineamientos para que se pueda dar la transición energética y aprovechar las fuentes disponibles del país. Se espera que con el tiempo se mejore en este aspecto energético, para así tener mejores fuentes de información sobre las grandes oportunidades que ofrecen este tipo de sistemas energéticos.
Rojas Perez Ysis, Universidad Veracruzana
Asesor: Dr. Leydi Julieta Cárdenas Flechas, Fundación Universidad de América

SíNTESIS Y CARACTERIZACIóN DE ZIRCONIA A PARTIR DE ANODIZACION ELECTROQUíMICA


SíNTESIS Y CARACTERIZACIóN DE ZIRCONIA A PARTIR DE ANODIZACION ELECTROQUíMICA

Rojas Perez Ysis, Universidad Veracruzana. Asesor: Dr. Leydi Julieta Cárdenas Flechas, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

El presente estudio se enfocará en la síntesis y caracterización de nanopartículas de láminas de zirconia, con el objetivo de evaluar su eficiencia en la degradación fotocatalítica de contaminantes en mantos acuíferos. Se realizarán pruebas para determinar la tasa de degradación en función de la concentración de los contaminantes, proporcionando datos cruciales para optimizar el uso de este material en aplicaciones de tratamiento de aguas. Este enfoque permitirá avanzar en el desarrollo de soluciones innovadoras y efectivas para la remediación de ambientes acuáticos contaminados.



METODOLOGÍA

Revisión bibliográfica de anodización electroquímica. Corte y pulido de muestras (láminas de zirconia). Se pulirán con lijas de diferentes calibre de manera ascendente y paño.  Lavado, limpieza y ultrasonido de las muestras. Definición de las condiciones de anodizado. Realizar la corrosión potenciodinámicas en las láminas pulidas y cortadas.  


CONCLUSIONES

Los resultados obtenidos a partir de este estudio constituirán un aporte importante en el desarrollo de alternativas que lleven a la degradación fotocatalítica de los contaminantes en aguas residuales regiones de alta producción agrícola.
Rojas Torres Tania, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

VALIDACIóN DE DATOS EN ESTACIONES METEOROLóGICAS AUTOMáTICAS DE BAJO COSTO


VALIDACIóN DE DATOS EN ESTACIONES METEOROLóGICAS AUTOMáTICAS DE BAJO COSTO

Rojas Torres Tania, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El ser capaces de medir variables meteorológicas es de suma importancia en distintos aspectos como, la agricultura, la gestión del agua y la prevención de desastres naturales. Sin embargo, debido a la escasa disposición de estaciones meteorológicas, así como escaza información meteorológica, este problema se vuelve crítico en áreas remotas y de bajos recursos donde la información meteorológica precisa es vital. Por tal motivo, las estaciones meteorológicas automáticas de bajo costo han surgido como una alternativa accesible para la recolección de datos meteorológicos. Sin embargo, es necesario verificar la precisión y la fiabilidad de los datos recolectados por estas estaciones. Con base a la problemática anterior, el Grupo de Gestión Integral del Agua de la Universidad Michoacana de San Nicolás de Hidalgo, desarrollaron una red de estaciones meteorológicas automatizadas de bajo costo, denominado como Sistema Automatizado de Información Hidrologica (SAIH) para la ciudad de Morelia, Michoacán, en donde dichas estaciones recolectan datos de temperatura, humedad y precipitación. Por lo tanto, en la presente investigación se plantea el evaluar los datos obtenidos y optimizar estas estaciones para asegurar que proporcionen datos de calidad que puedan ser utilizados en aplicaciones prácticas.



METODOLOGÍA

La presente investigación esta dividida en 2 etapas: Evaluación de datos de estaciones SAIH, y optimización de las estaciones SAIH. Evaluación de datos: En esta etapa se utilizaron datos de precipitación, temperatura y humedad, de 8 estaciones meteorológicas del SAIH, con base en las cuales se realizaron las siguientes etapas de validación: Revisión de estructura de registro de datos: Con ayuda del lenguaje de programación de Python, se evaluaron los ciclos de lectura capturados por la estación, y se compararon con el ciclo minutal al cual tenía que registrarse cada dato, verificando así la fiabilidad de los datos registrados. Validación de los datos con base a los límites de los instrumentos de medición: Se realizó una investigación bibliográfica para la obtención de los rangos de lecturas de los sensores de temperatura y humedad (DHT22), y el pluviómetro, y para realizar la comparativa con respecto a los limites teóricos obtenidos, se procedió a llevar a cabo de manera experimental la determinación de dichos rangos de lectura. Validación de consistencia interna de los datos meteorológicos: Se realizó una medición de la variable de temperatura y humedad con más de 20 sensores DHT22, con la finalidad de observar si dichos sensores obtienen lecturas muy parecidas o iguales, considerando que las pruebas se realizaron en las mismas condiciones para todos los sensores. A su vez, en este apartado, se realizó la evaluación de datos obtenidos por una estación del SAIH y una estación meteorológica profesional  Validación de la coherencia espacial. Se contrastaron los datos de las estaciones del SAIH con estaciones meteorológicas convencionales de CONAGUA, considerando aquellas que fuesen más próximas a las estaciones estudiadas.   Optimización de datos: Una vez analizada cada una de las variables medidas por las estaciones del SAIH, se procedió a proponer alternativas para mejorar las lecturas de los datos de la variable, en donde algunas de las alternativas fueron: cambiar el protocolo de comunicación de wifi, por uno a base de radiofrecuencia, y el rediseño de las carcasas utilizadas para los sensores dht22.


CONCLUSIONES

En la presente investigación se evaluaron la fiabilidad, eficacia y precisión de los datos proporcionados por las distintas estaciones meteorológicas del SAIH, obteniendo, que el principal problema con las estaciones consiste en la inestabilidad en la comunicación del envío de datos; y en el caso de los sensores DHT22 tienen una variación en las lecturas, debido al calentamiento de las carcasas que los portan, provocando así lecturas erróneas en algunas estaciones; en el caso del pluviómetro, se detectó un error de medición provocado por pulsaciones electromagnéticas que registraba el aparato y que no hacía referencia a datos pluviométricos registrados, y finalmente, una vez realizando las evaluaciones pos-optimización en los datos de la estaciones, se observó una mejora en la recepción y calidad de los datos.
Rojas Valdez Herman Alexis, Universidad Autónoma de Sinaloa
Asesor: Dra. María Milagrosa del Carmen Pérez Sánchez, Universidad Autónoma de Yucatán

VIVIENDA ADECUADA, HáBITAT SUSTENTABLE Y COHESIóN SOCIAL: ALTERNATIVAS PARA INCIDIR EN LAS CONDICIONES DE POBREZA URBANA EN ZONAS VULNERABLES DE ATENCIóN PRIORITARIA EN TRES CIUDADES DE MéXICO (CIUDAD JUáREZ, MéRIDA Y MEXICALI). CASO MéRIDA. FONDO FORDECYT-PRONACES.


VIVIENDA ADECUADA, HáBITAT SUSTENTABLE Y COHESIóN SOCIAL: ALTERNATIVAS PARA INCIDIR EN LAS CONDICIONES DE POBREZA URBANA EN ZONAS VULNERABLES DE ATENCIóN PRIORITARIA EN TRES CIUDADES DE MéXICO (CIUDAD JUáREZ, MéRIDA Y MEXICALI). CASO MéRIDA. FONDO FORDECYT-PRONACES.

Rojas Valdez Herman Alexis, Universidad Autónoma de Sinaloa. Asesor: Dra. María Milagrosa del Carmen Pérez Sánchez, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

La vivienda como bien social contribuye a la mejora de la calidad de vida de los habitantes de una ciudad, siendo el principal medio para evaluar las condiciones de progreso y bienestar social. Proveer una vivienda adecuada es esencial para crear un ambiente en el que el hábitat sea sustentable y los residentes puedan convivir, fortaleciendo así la cohesión social. Este estudio se enfoca en vincular la investigación con la práctica para incidir en cambios que disminuyan la pobreza urbana y el rezago social en sectores vulnerables. Entender que la problemática de la vivienda no se presenta de manera uniforme en todo el país es crucial para esta investigación. Los aspectos de pobreza urbana tienen un origen multifactorial, derivado de la falta de oportunidades socioeconómicas, la ausencia de procesos de participación y organización de los habitantes para construir cohesión social, y ambientes deteriorados con obsolescencia acelerada que generan problemas urbanos adicionales. Estas condiciones, sumadas a la segregación, vulnerabilidad y falta de acceso al derecho a la ciudad, conforman un complejo panorama que requiere intervenciones específicas y contextualizadas.



METODOLOGÍA

El estudio de campo se llevó a cabo en la colonia Jacinto Canek en Mérida, Yucatán. Se realizó un proceso de invitación casa por casa, donde se registró a las personas interesadas utilizando un formato específico. Este formato incluía datos como el domicilio, número de teléfono, CURP, INE, la elección de tres colores para pintar su fachada, y sugerencias de plantas para su jardín. Esta información permitió una planificación detallada y personalizada de las intervenciones. Una vez registrados, se trabajó directamente con los residentes en la mejora de sus jardines y se presentaron propuestas para la pintura de las fachadas. Esta fase del proyecto no solo involucró la implementación de mejoras físicas, sino también el fomento de la participación comunitaria y el empoderamiento de los residentes, creando un sentido de pertenencia y colaboración. Además de los trabajos en la colonia, se asistió a un seminario interdisciplinario de Ingeniería y Arquitectura para el desarrollo social, sustentable y equitativo. Este seminario proporcionó un marco teórico y práctico adicional, enriqueciendo la comprensión y abordaje de los problemas urbanos desde una perspectiva interdisciplinaria.


CONCLUSIONES

Durante la estancia de verano, se lograron importantes avances en la modificación y mejora de los umbrales y fachadas de los residentes en la colonia Jacinto Canek. Estas intervenciones preliminares han mostrado un impacto positivo en la percepción de los residentes y en la cohesión social de la comunidad. Sin embargo, dado que se trata de un proyecto extenso y continuo, no se ha podido medir aún el impacto total de la modificación de los umbrales y fachadas en la colonia en relación con los objetivos planteados. Las observaciones preliminares indican que las intervenciones realizadas han comenzado a transformar el entorno físico y social de la colonia, mejorando la calidad de vida de sus habitantes y fomentando un mayor sentido de comunidad. Estos cambios apuntan hacia la creación de un hábitat más sustentable y cohesionado, alineado con los objetivos del proyecto de incidir en las condiciones de rezago social y a crear comunidades sostenibles.
Rojo Rojo Camilo Nelson, Instituto Tecnológico de Querétaro
Asesor: Dr. Edwin Gerardo Acuña Acuña, Universidad Latinoamericana de Ciencia y Tecnología

OPTIMIZATION OF URBAN MOBILITY WITH IOT AND BIG DATA TECHNOLOGY FOR THE INFORMATION AND KNOWLEDGE SOCIETY IN INDUSTRY 5.0


OPTIMIZATION OF URBAN MOBILITY WITH IOT AND BIG DATA TECHNOLOGY FOR THE INFORMATION AND KNOWLEDGE SOCIETY IN INDUSTRY 5.0

Almanza Ferruzca Ana, Instituto Tecnológico de Querétaro. Calderon Rojas Jesus Manuel, Universidad de Investigación y Desarrollo. Garcia Bayona Maria Fernanda, Universidad de Investigación y Desarrollo. Pérez Soto José Saúl, Universidad Tecnologica de León. Rojo Rojo Camilo Nelson, Instituto Tecnológico de Querétaro. Asesor: Dr. Edwin Gerardo Acuña Acuña, Universidad Latinoamericana de Ciencia y Tecnología



PLANTEAMIENTO DEL PROBLEMA

La optimización de la movilidad urbana en el contexto de ciudades inteligentes enfrenta desafíos significativos, particularmente en la gestión eficiente del tráfico y la reducción de la congestión. Según (Yan & Zhao, 2024) y (Aoki, 2024), el aumento de la urbanización y la creciente prevalencia de problemas de tráfico reflejan una crisis global de movilidad urbana, influenciada por la falta de infraestructura adecuada y la gestión ineficaz del tráfico. (Ku, 2024) y (Jones, 2023) señalan que esta situación ejerce una presión considerable sobre los sistemas urbanos, que a menudo carecen de los recursos y tecnología necesarios para proporcionar una gestión del tráfico adecuada. En este contexto, es esencial adoptar estrategias integrales que aborden de manera preventiva y oportuna los problemas de tráfico en el ámbito urbano, especialmente en ciudades inteligentes (Nikkhah, kahanali, & sharyari, 2023). (van der Meij et al., 2023) indican que los primeros síntomas de problemas de movilidad urbana incluyen congestiones recurrentes y tiempos de viaje impredecibles, que pueden evolucionar a condiciones más severas si no se detectan y tratan a tiempo. (Devianto et al., 2023) y (Samadi, Mirnezami, & Torabi Khargh, 2023) subrayan la importancia de implementar herramientas y métodos innovadores que permitan diagnósticos precisos y oportunos para prevenir la evolución de estos problemas. Para enfrentar este desafío en las ciudades inteligentes, es fundamental contar con herramientas tecnológicas que identifiquen y diferencien entre patrones de tráfico normales y anormales. (Tabash et al., 2023) destacan que el uso de tecnologías para la captura y análisis de datos de tráfico desempeña un papel crucial en la detección y diagnóstico temprano de problemas de congestión. Este enfoque innovador no solo elevaría los estándares en el diagnóstico, sino que también impulsaría intervenciones tempranas y personalizadas, mejorando la eficiencia del sistema de transporte urbano.



METODOLOGÍA

El estudio adoptó un enfoque cuantitativo, poniendo a prueba hipótesis mediante la medición numérica y el análisis estadístico para identificar patrones de tráfico y validar teorías (Ibrahim, 2022). Se desarrolló el objeto de investigación buscando regularidades y relaciones entre los componentes del estudio (Mohan, Paunova, & Lee, 2024). Se incluyó una subcategoría descriptiva para identificar las propiedades y características del fenómeno relacionado con las estrategias principales para evaluar la eficiencia del tráfico en intersecciones críticas dentro de ciudades inteligentes (Zhou, 2024). Asimismo, se añadió una subcategoría exploratoria para modelar detalladamente cada factor relevante en el uso de modelos basados en IA para la evaluación del tráfico (Wang, 2023). La muestra seleccionada consistió en 350 intersecciones críticas en el año 2024, donde se recopilaron datos de tráfico con el consentimiento de las autoridades municipales. El tamaño de la muestra se determinó utilizando el modelo de población finita, con una base de datos conocida de las intersecciones al momento del estudio. Los datos fueron recopilados a través de centros urbanos en América Latina, Norteamérica, Asia y Europa, garantizando una variabilidad geográfica y demográfica, y estableciendo una base sólida para el análisis comparativo y la extrapolación de los resultados (Zhou, Liu, & Li, 2024). 


CONCLUSIONES

El estudio demuestra que los sistemas basados en inteligencia artificial (IA) son capaces de detectar problemas de tráfico en intersecciones críticas con un alto nivel de precisión, evidenciado en los resultados obtenidos. Estos sistemas no solo mejoran la precisión, sensibilidad y especificidad en la clasificación de datos de tráfico, sino que también logran una clara discriminación entre condiciones normales y problemáticas.Los resultados del estudio ofrecerán una hoja de ruta para las partes interesadas, promoviendo una estrategia basada en la toma de decisiones informadas y resaltando el papel de la tecnología en la protección de infraestructuras, datos y personas. Desde una perspectiva teórica, las implicaciones incluyen el desarrollo de investigaciones tanto en el ámbito académico como empresarial. Este estudio abre la puerta a nuevos trabajos que exploren la relación entre diversos problemas de tráfico que afectan la eficiencia operativa de las intersecciones y cómo las tecnologías emergentes pueden contribuir a su detección, prevención y resolución.En conclusión, los sistemas basados en IA ofrecen una herramienta poderosa y eficaz para la evaluación y manejo del tráfico en intersecciones críticas, y su integración en ciudades inteligentes promete mejoras significativas en la calidad de vida y la eficiencia operativa de las generaciones futuras.
Rolon Chávez Jafeth Valente, Instituto Tecnológico Superior de Los Reyes
Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo

FACTORES GENERADORES DEL VALLE DE LA MUERTE


FACTORES GENERADORES DEL VALLE DE LA MUERTE

Madrigal Equihua Paola Ines, Instituto Tecnológico Superior de Los Reyes. Medina Ramirez Christian Ariel, Instituto Tecnológico Superior de Irapuato. Rolon Chávez Jafeth Valente, Instituto Tecnológico Superior de Los Reyes. Zepeda García Jesús Andany, Instituto Tecnológico Superior de Los Reyes. Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo



PLANTEAMIENTO DEL PROBLEMA

Dentro del marco de la innovación y el emprendimiento académico, el concepto denominado "valle de la muerte" continúa siendo un obstáculo crucial para la exitosa transición de proyectos desde su concepción inicial hasta su viabilidad económica, según investigadores (Björklund et al., 2020). Esta dificultad es especialmente relevante en instituciones de enseñanza superior como el Tecnológico Nacional de México, donde la generación y aplicación de conocimiento son metas esenciales. Es importante destacar que, en la actualidad el término "valle de la muerte" no se utiliza mucho en los Tecnológicos Nacionales de México. No existen investigaciones específicas sobre esta expresión debido a la falta de información proporcionada por las instituciones tecnológicas. En el contexto de las instituciones de educación superior mexicana, se ha resaltado la relevancia de los entornos de emprendimiento universitario para impulsar la innovación (Guerrero et al., 2019). No obstante, subsiste una brecha importante en la comprensión sobre cómo funcionan estos ecosistemas, en particular los mecanismos de financiamiento que operan en ellos, en cuanto a su influencia en la supervivencia y el éxito de los proyectos durante la denominada etapa del "valle de la muerte" en el Tecnológico Nacional de México. La financiación ha sido identificada como un elemento clave en la habilidad de los proyectos para superar este desafío crítico. No obstante, la verdadera repercusión de este factor ya sea positiva o negativa, aún no se ha esclarecido adecuadamente en el ámbito específico del Tecnológico Nacional de México. Esta entidad, como parte esencial del sistema educativo superior de México, muestra rasgos singulares que necesitan ser examinados minuciosamente para comprender cómo la financiación impacta en el éxito de los proyectos innovadores. Este estudio tiene como objetivo responder a las siguientes interrogantes de investigación: ¿De qué forma la financiación impacta en la capacidad de los proyectos del Tecnológico Nacional de México para superar el desafío del "valle de la muerte? La investigación de estas cuestiones es fundamental para desarrollar una comprensión más profunda de los mecanismos que facilitan o impiden el éxito de los proyectos innovadores en el contexto de la educación superior mexicana. Los resultados de este estudio podrían proporcionar información valiosa para la formulación de políticas y estrategias más efectivas de apoyo a la innovación y el emprendimiento en el Tecnológico Nacional de México y otras instituciones similares. Haciendo mención del Tecnológico Nacional de México Campus los Reyes, se destaca que el aspecto predominante en el valle de la muerte es la financiación, debido a la falta de recursos asignados para proyectos universitarios en el Tecnológico, lo cual necesita ser planificado con antelación para obtener la aprobación de los directivos.



METODOLOGÍA

Caracterizado por su enfoque exploratorio y descriptivo, se dedica a comprender y describir la relación entre la financiación, la innovación y su influencia en los proyectos de investigación del Tecnológico Nacional de México. Esto se enfoca principalmente en el desafío del "valle de la muerte" en el ámbito del emprendimiento académico. El objetivo de esta investigación es abordar un problema complejo y poco explorado, con el propósito de generar conocimiento que ayude a comprender los factores que afectan el éxito de los proyectos innovadores en la educación superior mexicana. A través de este enfoque, se busca responder preguntas específicas sobre cómo la financiación afecta la capacidad de los proyectos del Tecnológico Nacional de México para hacer frente al desafío del "valle de la muerte". Este enfoque facilita la exploración de un territorio poco estudiado y fomenta nuevas perspectivas que pueden enriquecer el ámbito del emprendimiento académico y la innovación tecnológica. Al detallar y analizar estas particularidades, se busca ofrecer una visión integral de la situación actual y de las posibles implicaciones para el diseño de políticas y estrategias de respaldo a la innovación en instituciones educativas semejantes.


CONCLUSIONES

El problema conocido como "valle de la muerte" supone un obstáculo importante para la innovación y el emprendimiento en el Tecnológico Nacional de México y, por ende, en la educación superior del país. Estudios han demostrado que la falta de financiamiento adecuado, la poca coordinación entre los actores del ecosistema de innovación y la escasa ayuda gubernamental son factores críticos que dificultan la transición de los proyectos desde la fase de investigación y desarrollo hacia su viabilidad comercial. Una forma de superar estos retos es mediante la adopción de un enfoque integral que incluya el fortalecimiento de los mecanismos de financiamiento, la promoción de una mayor colaboración entre universidades, centros de investigación, empresas y entidades financieras, así como la implementación de políticas públicas más efectivas que apoyen a los emprendedores en las fases clave de desarrollo de sus proyectos. La creación de un ecosistema sólido que respalde la creatividad y el espíritu emprendedor resulta fundamental para asegurar que las ideas innovadoras puedan prosperar y convertirse en ventajas tangibles para la sociedad.
Rolón Sánchez Edgar Andrés, Corporación Universitaria Remington
Asesor: Dr. Gregorio Ronquillo Maynez, Instituto Tecnológico de Chihuahua II

REVISIóN DE RECURSOS EDUCATIVOS DIGITALES LúDICOS PARA LA ENSEñANZA DE MATEMáTICAS EN EDUCACIóN PRIMARIA EN EL GOOGLE ESCOLAR DEL 2023 AL 2024.


REVISIóN DE RECURSOS EDUCATIVOS DIGITALES LúDICOS PARA LA ENSEñANZA DE MATEMáTICAS EN EDUCACIóN PRIMARIA EN EL GOOGLE ESCOLAR DEL 2023 AL 2024.

Rolón Sánchez Edgar Andrés, Corporación Universitaria Remington. Asesor: Dr. Gregorio Ronquillo Maynez, Instituto Tecnológico de Chihuahua II



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el uso de tecnologías educativas ha tomado un rol preponderante en la enseñanza, especialmente en áreas fundamentales como las matemáticas en educación primaria. A pesar de la abundancia de recursos disponibles, la efectividad y relevancia de estos materiales varía considerablemente. La falta de una guía clara sobre qué recursos son más adecuados y efectivos para la enseñanza lúdica de matemáticas en primaria plantea un desafío significativo para educadores e investigadores. Por lo tanto, es crucial realizar una revisión de la literatura reciente para identificar los recursos educativos digitales lúdicos disponibles en español entre los años 2023 y 2024.



METODOLOGÍA

Para llevar a cabo esta investigación, se utilizó Google Académico como herramienta de búsqueda. Se aplicaron filtros para especificar los años 2023 y 2024, y para seleccionar artículos en idioma español exclusivamente. A pesar de la opción de filtrar por tipo de publicación (artículos, revistas, tesis, proyectos de grado, monografías, maestrías, entre otros), se decidió no utilizar este filtro para obtener una visión más amplia y diversa de los recursos disponibles.  El texto utilizado para la búsqueda fue: software + educativo + lúdico + matemáticas + primaria. La búsqueda arrojó aproximadamente 9,300 resultados en un corto período de tiempo (0,06 segundos). Se dedicaron entre 3 a 4 horas diarias durante tres semanas para recopilar los primeros 100 artículos.  La información relevante se registró en una base de datos de Excel, categorizando los resultados por tipo de publicación, título, año de publicación, país, temática (matemáticas, tecnologías), URL, tipo de aplicación, nombre del software, edad usuarios, grado de educación, metodologías y fecha de búsqueda. La investigación se centró en la identificación y revisión de recursos educativos digitales lúdicos para la enseñanza de matemáticas en educación primaria, realizando una revisión de la literatura disponible en español entre 2023 y 2024. Esto permitió hacer una identificación detallada y categorizada de los recursos existentes.


CONCLUSIONES

De los 100 artículos recopilados, el 10% son de revistas Colombianas, 34% de Perú, 14% de Ecuador, 6% de México, 2% de Venezuela, 1% de Panamá y de Brasil, aunque no se identificó el origen en un 25%, por lo que pudiera ser mayor en alguno de estos países. La revisión realizada permitió identificar una variedad de recursos educativos digitales lúdicos disponibles en español, destacando la importancia de una búsqueda bien estructurada y categorizada para obtener resultados relevantes y útiles. La diversidad de los recursos encontrados subraya la necesidad de guías claras y específicas para que los educadores puedan seleccionar los materiales más efectivos.  Este trabajo proporciona una exploración del estado del arte para futuras investigaciones, para llevar a cabo aplicaciones prácticas en el ámbito educativo o para el desarrollo de recursos educativos, contribuyendo significativamente a la mejora de la enseñanza de matemáticas en educación primaria.
Romero Alcantara Regina, Instituto Politécnico Nacional
Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso

DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE


DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE

Cardona Arango Laura Camila, Universidad del Quindío. Mendoza Pérez Esther Valeria, Instituto Politécnico Nacional. Pinzón Giraldo Gabriela, Universidad del Quindío. Romero Alcantara Regina, Instituto Politécnico Nacional. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

La rápida urbanización y el aumento poblacional en México han intensificado el uso de recursos naturales y la producción de residuos, agravando los problemas ambientales. San Felipe del Progreso, con características rurales y semiurbanas, enfrenta desafíos específicos en sostenibilidad. Las casas tradicionales en la región dependen de energías no renovables y carecen de sistemas eficaces para la gestión del agua y los residuos, contribuyendo a emisiones de CO₂ y contaminación ambiental. La sobreexplotación de acuíferos y la gestión inadecuada de residuos sólidos son problemas críticos. La construcción de viviendas ecológicas autosustentables en San Felipe del Progreso puede abordar estos problemas a través de soluciones sostenibles. La adopción de energías renovables, como paneles solares, y sistemas de riego para huertos, así como el diseño bioclimático y el uso de materiales sostenibles, mejoran la eficiencia energética y reducen la dependencia de fuentes de energía no renovables. La recolección de agua de lluvia y la reutilización de aguas grises optimizan el uso del agua, mientras que los sistemas de compostaje y reciclaje disminuyen la generación de residuos.  Este enfoque no solo mejora la calidad de vida en la región, sino que también puede servir como modelo replicable para otras comunidades en México, alineándose con los objetivos de desarrollo sostenible de la Agenda 2030 de la ONU.



METODOLOGÍA

Para desarrollar una casa ecológica autosustentable en San Felipe del Progreso en siete semanas, se siguió una metodología estructurada con herramientas tecnológicas y visitas académicas. El docente investigador proporcionó un cronograma detallado de tareas y objetivos semanales, y se utilizó la plataforma Classroom para gestionar recursos y facilitar la comunicación. Se brindaron asesorías diarias y se proporcionó literatura adicional para enriquecer el aprendizaje. Se realizaron tres visitas académicas clave: a una casa ecológica en San Juan Coajomulco, a la ecoaldea "Los Carrizos" en San Miguel de Allende, y al Instituto Mexicano de la Tecnología del Agua en Jiutepec. Para recopilar datos climáticos, gráficos y planos, se usaron diversas plataformas como Weather Spark, Climate Consultant, AutoCAD, inventor de Autodesk y PvSyst. En las que se hicieron estudios y simulaciones que aseguraban el correcto diseño y permitieron analizar diversos procesos para mejorarlos y anticipar soluciones enfocadas a la optimización de los mismos. Se encuestó a los estudiantes del Tecnológico de Estudios Superiores de San Felipe del Progreso para obtener información sobre las necesidades de la comunidad. Con estos datos, se diseñó y construyó la casa, optimizando la orientación para maximizar la luz solar y la eficiencia energética, e implementando un sistema de climatización pasiva. Se realizaron evaluaciones periódicas y se ajustó el diseño según la retroalimentación del asesor. Las condiciones climáticas y otros factores ambientales fueron esenciales para adaptar la vivienda al entorno local. Las encuestas a la comunidad proporcionaron datos valiosos que guiaron el diseño para responder efectivamente a las necesidades locales.


CONCLUSIONES

La casa en San Felipe del Progreso fue diseñada para maximizar la captación de luz solar y mejorar la eficiencia energética, considerando la trayectoria del sol a lo largo del año. Se implementó un sistema de climatización pasiva con aislamiento adecuado, ventilación cruzada y materiales térmicamente eficientes, reduciendo la necesidad de calefacción y refrigeración artificiales. Se integraron diversas estrategias de diseño pasivo, como la optimización de la orientación y el uso de materiales de construcción eficientes. Se realizó un levantamiento exhaustivo de cargas eléctricas y servicios necesarios para dimensionar adecuadamente los sistemas energéticos y de recursos. Se diseñó e implementó un sistema de generación de energía renovable basado en paneles solares, permitiendo la autosuficiencia energética y la interconexión con la red de la Comisión Federal de Electricidad (CFE). También se instaló un sistema de iluminación eficiente con tecnología LED y un solario e invernadero para la producción de alimentos y confort térmico. Se seleccionaron materiales de construcción ecológicos para un excelente aislamiento térmico y acústico. Los baños secos reducen el consumo de agua y facilitan el reciclaje de nutrientes. Un calentador solar suministra agua caliente, mejorando la autosuficiencia energética. Se construyeron cisternas subterráneas para la recolección y almacenamiento de agua de lluvia, y se implementó un sistema completo de recolección y tratamiento de aguas pluviales para diversos usos, mejorando la sostenibilidad hídrica. El sistema de tratamiento de aguas grises diseñado permite su reutilización en el riego de áreas verdes y otros usos no potables, contribuyendo a la eficiencia y sostenibilidad del agua. De esta manera buscamos trasformar la forma en la que las viviendas son edificadas. Promover el conocimiento y hacerlo accesible a todo aquel involucrado. Las viviendas sustentables representan una solución integral a las nuevas necesidades consecuentes de la crisis climática. Nuestro proyecto proporciona las bases teóricas para la aplicación práctica en diseño y construcción de una casa ecológica autosustentable, con estas es posible cambiar los criterios utilizados actualmente en la toma de decisiones de edificaciones; este proyecto representa una propuesta ambiciosa para un futuro sostenible, sustentable y accesible, fácilmente replicable en todo el mundo.
Romero Andrade Joshua Alán, Universidad de Sonora
Asesor: Dr. César Antonio González Díaz, Instituto Politécnico Nacional

DISEÑO Y EVALUACIÓN DE UN SISTEMA EBI BASADO EN AD5933EBZ PARA DETERMINAR CONCENTRACIONES DE ADN


DISEÑO Y EVALUACIÓN DE UN SISTEMA EBI BASADO EN AD5933EBZ PARA DETERMINAR CONCENTRACIONES DE ADN

Romero Andrade Joshua Alán, Universidad de Sonora. Vázquez García Estefanía, Universidad Veracruzana. Asesor: Dr. César Antonio González Díaz, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La estimación de la concentracion de Acidos Desoxirribonucléicos (ADN) demanda de equipos basados en espectrofotometría Visible (Vis) y Ultravioleta (UV), tales equipos no siempre se encuentran disponibles en laboratorios de biologia molecular de bajos recursos. Tecnologías de biosensores emergentes para la detección de ADN utilizan métodos basados en marcado y/o funcionalización del analito y/o sustrato transductor, respectivamente, lo cual demanda de pre-procesos altamente especializados y reactivos de costo elevado. En este trabajo se propone explorar mediciones de bioimpedancia eléctrica multifrecuencia (EBI) como técnica libre de marcado y funcionalización para detectar diferentes concentraciones de ADN. Se propone el desarrolllo de un sistema EBI basado en la tarjeta de evaluación Analog Device Inc. AD5933EBZ, la cuál es un sistema convertidor de impedancia de alta precisión multifrecuencia.



METODOLOGÍA

1. Adecuación Sistema Microelectrodos - Sistema EBI para su Comunicación: Se estarán utilizando muestras de ADN de varios sujetos voluntarios, así como una muestra de control (Mili-Q). Dichas muestras serán colocadas en un sistema de microelectrodos adaptado para su conexión y comunicación con la Tarjeta de Evaluación AD5933EBZ mediante cable par trenzado y conector BNC macho. 2. Instrumentación (Configuración y Calibrado de Tarjeta de Evaluación AD5933EBZ): Calibración mediante circuitos RC (Modelo Cole-Cole). Estimación de resistencia de calibración para tarjeta de evaluación, además de implementación de resistencia de retroalimentación (FR) indicada por el fabricante. 3. Mediciones de Concentración de ADN por equipo Sciospec y TE AD5933EBZ y comparativa Mediciones de bioimpedancia eléctrica se realizan como mediciones de deflexión, midiendo la respuesta del sistema a una excitación eléctrica externa. Corriente es inyectada a la muestra o tejido bajo estudio (TUS) y caída de potencial generada es medida, o viceversa. Comparación de los datos obtenidos y graficados frente a mediciones realizadas en software Sciospec ISX3, con el fin de verificar correlación. 4. Organización de la base de datos obtenida con las mediciones realizadas. 5. Extracción de Características por Análisis de Bioimpedancia de ADN.   


CONCLUSIONES

Durante la estancia de investigación se analizó si la tarjeta de evaluación AD5933EBZ es eficiente para detectar diferentes concentraciones de ADN a través de la obtención de mediciones de bioimpedancia. Se llegó a la conclusión de que la tarjeta funciona en un determinado rango de frecuencias, por lo que sí es posible reemplazar el uso de otros sistemas de medición de concentraciones y pureza mucho más costosos por la tarjeta (procurando siempre que se utilice en el rango indicado). Se determinó que a futuro lo adecuado sería continuar con la extracción de características pero ahora haciendo uso de herramientas como la inteligencia artificial. 
Romero Bobadilla Oscar, Instituto Tecnológico de Piedras Negras
Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa

CALIDAD Y SOSTENIBILIDAD EN EL SECTOR AGROINDUSTRIAL. MEJORA CONTINUA Y PRáCTICAS INNOVADORAS PARA UN FUTURO RESPONSABLE.


CALIDAD Y SOSTENIBILIDAD EN EL SECTOR AGROINDUSTRIAL. MEJORA CONTINUA Y PRáCTICAS INNOVADORAS PARA UN FUTURO RESPONSABLE.

Ochoa Nava Fernanda Ximena, Instituto Tecnológico de Piedras Negras. Paz Chávez José Eduardo, Instituto Tecnológico de Piedras Negras. Rodriguez López Hannia Citlaly, Instituto Tecnológico de Piedras Negras. Romero Bobadilla Oscar, Instituto Tecnológico de Piedras Negras. Zerrweck Faz Anacristina, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La agroindustria en Colombia es crucial para la economía del país, abarcando desde la producción agrícola hasta la transformación y comercialización de productos. La diversidad climática permite cultivar una amplia gama de productos como café, banano, flores, cacao y palma de aceite, que no solo abastecen al mercado nacional, sino que también generan ingresos significativos por exportaciones. Sin embargo, el sector enfrenta desafíos como la necesidad de mejorar la infraestructura rural, adaptarse al cambio climático y adoptar tecnologías avanzadas para ser más productivo y sostenible. La calidad es un factor clave para la competitividad de la agroindustria colombiana, siendo fundamental cumplir con estándares rigurosos y obtener certificaciones internacionales como Buenas Prácticas Agrícolas (BPA) e ISO [1]. Además, las certificaciones de comercio justo y orgánicas ayudan a asegurar prácticas comerciales equitativas y sostenibles, lo cual es esencial para acceder a mercados globales exigentes. El apoyo gubernamental y la inversión en investigación y desarrollo son esenciales para fomentar la innovación y fortalecer la cadena de valor agrícola. Programas que promuevan la asociatividad y el acceso a créditos para pequeños y medianos productores son vitales para el crecimiento del sector. En conjunto, el desarrollo sostenible y la responsabilidad social empresarial son fundamentales para asegurar que el avance de la agroindustria beneficie a todos los actores involucrados, desde los agricultores hasta los consumidores.



METODOLOGÍA

Para la realización de esta investigación se inició con la elaboración de un estado del arte de una forma metódica sobre los temas de la agroindustrial, calidad, sostenibilidad, mejora continua y agricultura de precisión para un futuro responsable. Esta investigación está dirigida a los comerciantes, emprendedores y agricultores, para que tengan mayor consciencia sobre los beneficios a largo plazo que se obtienen al hacer uso y aplicación de las tecnologías de precisión aplicada en la agricultura, además de la aplicación de métodos y técnicas sostenibles para asegurar la producción y consumo responsable de los productos y fortalecer la resiliencia y capacidad de adaptación a riesgos relacionados con el clima. Posteriormente, se realizó un estudio mediante encuestas a los comerciantes locales sobre los temas investigados para saber si cuentan con conocimiento sobre estos temas y los beneficios que conlleva la aplicación de estas tecnologías. De igual manera se asistió a conferencias y expos en donde se pudo recabar más información respecto a la Agroindustria. Finalmente, se concluyó con el análisis de la información recabada que podemos tener una visión integral sobre la importancia de implementar tecnologías de precisión y prácticas sostenibles en la agroindustria.


CONCLUSIONES

Las encuestas realizadas fueron de gran ayuda, ya que nos permitieron darnos cuenta de que, aunque la mayoría de las personas cuentan con conocimientos básicos sobre la agricultura de precisión y las tecnologías asociadas, estos conocimientos no siempre cumplen con los estándares de calidad necesarios para aprovechar al máximo dichas tecnologías. Nuestra investigación ha demostrado que es esencial mantenerse en constante mejora e innovación en tecnologías de precisión. La evolución tecnológica es rápida, y para mantenernos competitivos y eficientes, debemos adoptar nuevas herramientas y técnicas que mejoren la precisión y la eficacia en las prácticas agrícolas. Además, la sostenibilidad se ha convertido en un componente crucial de la agricultura moderna. Las prácticas sostenibles no solo ayudan a preservar el medio ambiente, sino que también contribuyen a la salud a largo plazo de los cultivos y del suelo. Esto incluye el uso de tecnologías que permiten un uso más eficiente de los recursos, como el agua y los fertilizantes, y que reducen el impacto ambiental negativo.
Romero Cordero Jhojan, Corporación Politécnico de la Costa Atlántica
Asesor: Mtro. Javier Hilario Reyes Cordova, Universidad Tecnológica de Tehuacán

MEJORA DE LOS PROCESOS INSTITUCIONALES DE LA UNIVERSIDAD TECNOLóGICA DE TEHUACáN A PARTIR DE LA IMPLEMENTACIóN DE LA NORMA ISO 9001:2015


MEJORA DE LOS PROCESOS INSTITUCIONALES DE LA UNIVERSIDAD TECNOLóGICA DE TEHUACáN A PARTIR DE LA IMPLEMENTACIóN DE LA NORMA ISO 9001:2015

Avendaño Sánchez Zaira, Instituto Tecnológico Superior de Tierra Blanca. Collazos Bolaños Luisa Fernanda, Corporación Universitaria Remington. González Herrera Juan Alberto, Instituto Tecnológico de Querétaro. Romero Cordero Jhojan, Corporación Politécnico de la Costa Atlántica. Vega Hernández Adriana Sayuri, Instituto Tecnológico de Querétaro. Asesor: Mtro. Javier Hilario Reyes Cordova, Universidad Tecnológica de Tehuacán



PLANTEAMIENTO DEL PROBLEMA

En la constante necesidad de que en las instituciones de educación superior en México cuenten con un sistema que asegure la calidad de los procesos y servicios que se brindan dentro de la misma ha llevado a que todas estas instituciones busquen obtener la acreditación de un organismo que asegure que todos los procesos que se llevan a cabo dentro de las instituciones educativas cumplan con el principio de la mejora continua, a su vez la universidad tecnológica de tehuacán busca obtener la certificación en la norma iso 9001:2015, para poder demostrar ante la secretaría de educación pública que es una institución que cumple con los lineamientos básicos y que todos los procesos y servicios que se llevan a cabo dentro de la institución son de calidad y cumplen con el principio de la mejora continua por lo que una de las formas de poder lograrlo es a través de una casa certificadora que brinde el certificado y que lleva a cabo una evaluación de todos los procesos y servicios que brinda la institución y que se ven afectados por las partes interesadas, por lo que la presente investigación busca determinar si la certificación de la norma ISO 9001:2015 contribuye a la mejora de los procesos productivos en las instituciones de educación superior y los miembros de la comunidad universitaria perciben los beneficios de contar con dicha certificación, el poder evaluar los resultados que nos brinda el poder obtener una certificación como la norma ISO 9001:2015, permitirá determinar si la mejora continua contribuye hay crecimiento y desarrollo de las instituciones de educación superior, mejora las condiciones con respecto a un tiempo anterior, la presente investigación se lleva a cabo en el periodo de Enero a Septiembre del 2024, evaluando los indicadores del Programa Operativo Anual (POA) y esta supedito a la disponibilidad de la información que brinden las áreas de la Universidad tecnológica de Tehuacan.



METODOLOGÍA

La presente investigación parte del análisis de caso que ocurre en la universidad tecnológica de tehuacán y que parte de un estudio longitudinal que abarca del periodo de enero a septiembre del 2024, adicional a lo anterior el presente estudio comprende a toda la comunidad universitaria y a las partes interesadas que la conforman entendiendo qué se trata de un estudio descriptivo de cómo se lleva a cabo el proceso para lograr la certificación de la norma iso 9001:2015 en la universidad y cómo contribuye a la mejora de los procesos educativos y el alcance de los mismos en el círculo de Deming, que comprende planear, hacer, verificar y actuar que parte desde la alta dirección y el compromiso de la misma para poder llevar a cabo un proceso de certificación ya que la asignación y estrategias que mantiene la rectoría con respecto a dicha institución permiten establecer los alcances del sistema de gestión de la calidad y la evaluación de los mismos a través de algunos indicadores que ha desarrollado la institución y un análisis mixto, ya que se evalúan variables cuantitativas y cualitativas de la comunidad universitaria y se obtendrá información de primera mano mediante entrevistas a miembros de dicha comunidad para obtener su percepción con respecto a la implementación del sistema de gestión de la calidad y poder determinar mediante un análisis descriptivo de los múltiples beneficios que ofrece la universidad.


CONCLUSIONES

Lo que podemos apreciar de la presente investigación es que por cuestiones de tiempo no se podrá concluir de manera satisfactoria y que por la situación del programa delfín y el la corta estancia dentro de la misma no podremos ver de primera mano los resultados obtenidos pero sí podemos concluir que el proceso de la mejora continua dentro de las instituciones de educación superior es un proceso que se tiene que llevar a cabo de una manera muy particular de un análisis detallado y constante con la finalidad de entender qué lleva una institución de educación superior a buscar una certificación de calidad no solamente con el objetivo de cumplir con un mero requisito sino como la constante necesidad de la mejora continua de los procesos y el óptimo aprovechamiento de los recursos para lograr los fines con los que son desarrolladas las instituciones he aquí un avance que requiere más investigación y que no solamente corresponde a una cuestión de costos sino una situación en la que se tiene que atender los servicios educativos de calidad para que un alumno sea capaz de alcanzar estas metas y objetivos ya que no únicamente acude para llevar a cabo la generación del conocimiento sino para mejorar sus condiciones actuales y que las instituciones de educación superior son un medio para que éstas se logre no solamente buscando convenios con instituciones educativas homónimas sino con empresas a las que deberá de apoyar de una forma de otra brindando a alumnos de calidad y procesos y capacitación y todo aquello que le permita a la universidad mejorar su relación con las partes interesadas y con la comunidad misma en la que el desarrollo humano y la sostenibilidad junto con la sustentabilidad son mecanismos por los cuales tenemos que buscar un crecimiento constante.
Romero Coronado Steven Esteban, Universidad de la Guajira
Asesor: Mg. Cristhian Camilo Amariles López, Universidad Libre

ANÁLISIS COMPARATIVO ENTRE EL CONCRETO ASFÁLTICO TRADICIONAL MDC-19 Y EL CONCRETO DE EPS DILUIDO CON D-LIMONENO COMO MATERIAL AGLOMERANTE


ANÁLISIS COMPARATIVO ENTRE EL CONCRETO ASFÁLTICO TRADICIONAL MDC-19 Y EL CONCRETO DE EPS DILUIDO CON D-LIMONENO COMO MATERIAL AGLOMERANTE

Medina Romero Osneider David, Universidad de la Guajira. Romero Coronado Steven Esteban, Universidad de la Guajira. Asesor: Mg. Cristhian Camilo Amariles López, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

La construcción tiene un impacto significativo en el medio ambiente, lo que ha llevado a buscar alternativas más sostenibles. Aunque el poliestireno expandido (EPS), utilizado en envases y como aislante térmico, es muy contaminante debido a su falta de biodegradabilidad, se están investigando métodos para reutilizarlo en morteros y concretos. En el ámbito de la construcción de carreteras, el concreto asfáltico ha sido ampliamente utilizado debido a su resistencia, durabilidad, estabilidad y facilidad de aplicación. Sin embargo, se ha intentado reemplazar este concreto tradicional mediante tecnologías innovadoras más eficientes y sostenibles. Por lo tanto, se está comparando y analizando los resultados entre las mezclas de concreto asfáltico tradicional (MCD-19) y el concreto de EPS diluido en D-Limoneno.



METODOLOGÍA

Se contempló un proceso distribuido en diferentes etapas como el control de calidad de los materiales granulares, además de la fabricación de 30 briquetas Marshall de concreto modificado con variaciones en la proporción de EPS reciclado con valores entre el 4% y 9% y la realización de pruebas tanto destructivas como no destructivas para evaluar las propiedades físicas y mecánicas mediante estadística inferencial, todos los ensayos se realizaron en la Universidad Libre Seccional Pereira. 1. Granulometría de los agregados              El procedimiento consistió en verter el agregado en porciones en la torre de tamices y luego colocarlos en la tamizadora mecánica. Finalmente, se separó el material retenido en cada tamiz. 2. Ensayo: Máquina de los Ángeles   En primer lugar, se seleccionó una muestra de agregado grueso que comprendía en 2500 g de retenido en 3/8 y la misma cantidad de ¼, para completar 5000 g. Luego, se añadió el agregado al tambor, seguido de 11 esferas de acero, se cerró el tambor y se inició la rotación hasta completar 500 revoluciones. Posteriormente, el material desgastado se separó utilizando el tamiz No. 12, la muestra retenida en dicho tamiz se lavó y se colocó en el horno hasta alcanzar masa constante. Después de transcurrido ese tiempo, se registró la masa de la muestra y se calculó el porcentaje de pérdida. 3. Ensayo: Micro-Deval   El ensayo consistió en la selección de una porción del agregado grueso, compuesta por 1500 g, Posteriormente, se colocó la muestra en el recipiente de Micro-Deval, seguido se agregó 2 litros de agua y se dejó en remojo durante 1 hora. Pasado este tiempo, se añadieron 4825 g de esferas metálicas al recipiente, se colocó la tapa y se procedió a rotar la máquina con el material a una velocidad de 100 rpm (revoluciones por minuto) durante 2 horas. Transcurrido ese tiempo, se extrajeron las esferas metálicas, se lavó el agregado y se colocó en el horno hasta alcanzar masa constante. Por último, se registró la masa del material y se calculó el porcentaje de pérdida. 4. Fabricación de muestras: Diseño Marshall Se mezcló el agregado fino con una cantidad específica de D-limoneno para humedecerlo. Luego, se incorporó una cierta cantidad de EPS al proceso de mezclado, durante la mezcla, se añadió gradualmente el EPS y el D-limoneno simultáneamente para lograr una disolución adecuada, tambien se realizaron intervenciones manuales para asegurar la homogeneidad de la mezcla. posterior a eso, se incorporo el agregado grueso, después de obtener una mezcla homogénea que incluía tanto el agregado fino como el grueso, se vertió en moldes, utilizando una máquina compactadora, se aplicaron 75 golpes en cada cara de la muestra dentro del molde, finalmente, se extrajo la briqueta del molde con una prensa hidráulica. Este proceso se repitió para las 30 muestras, ajustando los porcentajes ascendentes de EPS (4%, 4.5%, 5%, 5.36%, 5.5%, 6%, 7%, 8% y 9%). 5. Ensayos no destructivos Tras extraer las muestras de los moldes, se tomaron las dimensiones de la muestra, altura y diámetro. También se registró la masa inicial de las muestras. Posteriormente, se dejó la muestra al aire libre durante 1 día, luego se introdujeron en el horno durante 3 días registrando la masa día a día, para el control del curado que comprende a la evaporación del D-limoneno. Después del curado de las muestras, se procedió a realizar el ensayo de velocidad de pulso ultrasónico (VPU). En este ensayo, se colocaron sensores en cada cara de la muestra. Luego de completar este ensayo, se sumergieron las 30 muestras en agua durante un período de 24 horas. Después de la inmersión, se registró la masa de la muestra sumergida en el agua, la masa en estado de saturación y superficialmente seca (SSS), con los datos obtenidos, se calculó la gravedad específica y la absorción. 6. Ensayo destructivo Ese ensayo consistió en sumergir las briquetas a baño maría a una temperatura de 60°C durante 30 minutos. Posteriormente, se procedió a ensayar una a una las muestras en la máquina Marshall para determinar la estabilidad y flujo. 


CONCLUSIONES

En los resultados obtenidos, se registran valores que superan lo que establece la normativa del instituto nacional de vías en comparación con el concreto asfaltico tradicional. Se registraron estabilidades que superan casi tres veces la estabilidad que indica la norma INVIAS en su artículo 450-22, más específicamente en la tabla 450-9, para mezclas de alto modulo. En cuanto al flujo, la mayoría está por encima del valor mínimo exigido, pero no quiere decir que no cumpla, esto debido a que los valores de estabilidad fueron altos, por ende, se mantiene y hasta algunas sobrepasan la relación estabilidad - flujo que exige la normativa. Teniendo en cuenta la relación estabilidad - flujo, el 76,92% de las muestras ensayadas superan el NT1 y el 61,53% de las muestras superan el NT2 y NT3.
Romero Martinez Ana Paola, Instituto Tecnológico Superior del Sur de Guanajuato
Asesor: Mtra. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo

ANáLISIS DE DATOS IMPLEMENTANDO EL APRENDIZAJE AUTOMáTICO PARA LA PREVENCIóN DE VIOLENCIA EN LA PAREJA


ANáLISIS DE DATOS IMPLEMENTANDO EL APRENDIZAJE AUTOMáTICO PARA LA PREVENCIóN DE VIOLENCIA EN LA PAREJA

García Casimiro Jazmín, Instituto Tecnológico Superior de Ciudad Serdán. Rodriguez Rodriguez Eduardo, Instituto Tecnológico Superior del Sur de Guanajuato. Romero Martinez Ana Paola, Instituto Tecnológico Superior del Sur de Guanajuato. Asesor: Mtra. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

La violencia a la mujer  ha sido una problemática que ha afectado  a mujeres de todas las edades y contextos socioeconómicos  radicando  principalmente  la violencia  por parte de la  pareja. La implementación de herramientas de aprendizaje automático en el análisis de datos recopilados a través de chatbots ofrece una oportunidad única para identificar patrones y señales tempranas de violencia. Este enfoque permite una intervención más rápida y efectiva, mejorando las estrategias de prevención y brindando apoyo a las víctimas de manera oportuna y personalizada.



METODOLOGÍA

Comenzamos nuestro proyecto con la modificación de la página de Mujer Segura, un portal dedicado a la prevención y reporte de incidentes de violencia de género. Para esto utilizamos laravel que es un framework de php, conocimientos básicos de CSS y de base de datos. Uno de los componentes más significativos que implementamos fue un mapa interactivo. Este mapa permite a los usuarios visualizar las áreas con más incidencias de violencia en todo el país. Para lograr esto empezamos utilizando una biblioteca de mapeo, que nos proporcionó la funcionalidad básica del mapa. Posteriormente, personalizamos los scripts para que pudieran manejar y mostrar datos específicos de incidencias de violencia. Además de agregar una tabla que muestra el estado, el tipo de violencia y la cantidad de incidencias. También, mejoramos la manera en que la página recolecta información a través de formularios. Anteriormente, los formularios eran complejos y poco intuitivos, lo que podía disuadir a las víctimas de reportar incidentes. Simplificamos el diseño y la estructura de los formularios, asegurando que sean fáciles de entender y completar. Implementamos validaciones y mensajes de ayuda para guiar a los usuarios durante el proceso de reporte.  Paralelamente a las mejoras en la página web, dedicamos esfuerzos a la investigación académica con el objetivo de aportar nuevas perspectivas al campo de la prevención de la violencia de género. Escribimos un artículo titulado "Machine Learning y Análisis del Lenguaje: Una Nueva Frontera en la Prevención de la Violencia Contra las Mujeres". Este artículo se basó en una revisión exhaustiva de la literatura existente sobre el uso de inteligencia artificial (IA) y machine learning en la prevención de la violencia. Comenzamos nuestra investigación explorando diversos estudios y artículos que documentaban el uso de técnicas de IA para predecir y prevenir la violencia contra las mujeres. Identificamos varias metodologías y enfoques que habían sido probados, y evaluamos sus resultados y limitaciones. Recolectamos distintos datasets que contenían información relevante sobre incidentes de violencia, características demográficas, y otros factores de riesgo. Utilizamos estos datasets para entrenar y evaluar varios modelos matemáticos y algoritmos de machine learning. Cada modelo fue evaluado en términos de su precisión, sensibilidad y especificidad para identificar patrones y factores de riesgo asociados con la violencia de género.  


CONCLUSIONES

Durante el desarrollo de este proyecto se adquirieron conocimientos teóricos, sobre la violencia de género los cuales se  aplicaron en la implementación de chatbots y técnicas de aprendizaje automático para el análisis de datos. Teniendo conocimiento de que el análisis de patrones aún está en curso y no se pueden presentar resultados definitivos. Ya que se espera que el uso de estas tecnologías permita identificar señales tempranas de violencia, y así mejorar las estrategias de intervención y ofrecer apoyo más eficaz y personalizado a las víctimas.  
Romero Palacios Kevin Alejandro, Instituto Tecnológico de Puebla
Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla

SISTEMA AUTOMATICO PARA LA DETECCION DE ESCHERICHIA COLI


SISTEMA AUTOMATICO PARA LA DETECCION DE ESCHERICHIA COLI

Romero Palacios Kevin Alejandro, Instituto Tecnológico de Puebla. Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

SISTEMA AUTOMATICO PARA LA DETECCION DE ESCHERICHIA COLI (SADEC) es un artefacto el cual será utilizado para la detección o prevención de la bacteria Escherichia coli. Este sistema se va a desarrollar con un microcontrolador PIC y unas tiras donde contendran la muestra y poderlas introducir dentro del SADEC con el fin de obseravar la presencia de la bacteria Escherichia coli. Para el diseño de la placa se realizó el análisis de entradas y salidas. Ya que la tira a la cual se introduciría al artefacto ya estaba construida y se esperaba que este mandara un diagnóstico fiable por medio de una interfaz visual.



METODOLOGÍA

Para comenzar hablaremos de las entradas de nuestro sistema los cuales serán las entradas T y la entrada INT el cual activara el sistema ya que este estará en modo de espera hasta que se Introduzca la tira de medición. Para las salidas tendremos los Leds los cuales serán la interfaz gráfica entre el usuario y el SADEC, así como una salida auxiliar para el correcto funcionamiento de la tira. La idea de este sistema es que siempre este en hibernación hasta que se le ingrese la tira con la muestra y de esta manera nos arroje un estado. Para el diseño del SADEC primero que nada se creara el diagrama para su funcionamiento y el comportamiento de cada caso esperado en las mediciones y el comportamiento del usuario con este mismo. Las salidas serán 5 Leds los cuales estarán conformados por un LED para mostrar que el sistema está encendido, el segundo mostrará que el SADEC ya esta en proceso de medición el tercero se encenderá solo en caso de que el sistema haya detectado la presencia de la bacteria, el cuarto sería el caso contrario, que no encontró la bacteria. El ultimo led será un indicador de error el cual se activará dependiendo de algún error en el momento de medición alguna discrepancia en las entradas de T. Una vez programado el microcontrolador se hicieron pruebas para las salidas y entradas del sistema por medio de compuertas para simular las entradas y salidas digitales. Se hicieron diferentes pruebas para ver el comportamiento y observar si se comportaba de la manera esperada. 


CONCLUSIONES

Podemos observar que el sistema funciona de manera correcta con las pruebas de entradas y salidas, pero aun nos falta la implementación de la tira donde tendremos la muestra, se espera que pronto se realicen las pruebas correspondientes para concluir que el prototipo funciona de manera correcta.
Romero Perez Bryan Ivan, Universidad Tecnológica de Tecamachalco
Asesor: Dr. Felipe Noh Pat, Universidad Autónoma de Campeche

CONVECCION NATURAL EN COLECTORES SOLARES PLANOS


CONVECCION NATURAL EN COLECTORES SOLARES PLANOS

Romero Perez Bryan Ivan, Universidad Tecnológica de Tecamachalco. Asesor: Dr. Felipe Noh Pat, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

Para la implementación de los colectores solares conlleva a las aplicaciones de la energía solar, por ejemplo, calentamiento de fluidos con colectores solares planos, requieren de la comprensión y la realización de un análisis energético mediante balances de energía en estos tipos de sistemas. Estos balances de energía se pueden ejemplificar en el análisis de colectores solares planos, para esto es importante determinar teóricamente el coeficiente global de pérdidas de calor de un colector solar instalado en cualquier sitio global, para de esta manera obtener experimentalmente el perfil de temperatura en la aleta de un calentador solar comercial de agua instalado en la universidad en dirección paralela y perpendicular al flujo de agua. Por último, llegar a evaluar experimentalmente la radiación solar de un colector solar plano en un software llamado openFoam para así representarlo en el programa ParaView y ver los fluidos que se presentan en ellos.



METODOLOGÍA

La Importancia que brinda la simulación numérica ofrece una plataforma poderosa para mejorar el diseño, reducir costos, optimizar procesos y tomar decisiones basadas en datos precisos. Su capacidad para modelar y predecir comportamientos complejos hace que sea una herramienta esencial en la investigación, el desarrollo y la operación de sistemas en una amplia gama de disciplinas. DESCRIPCIÓN DEL MÉTODO. Tenemos un colector solar de 1.5 m de alto y 3 m de ancho que está inclinado formando un ángulo de 20° con respecto a la horizontal. La distancia entre la cubierta de vidrio y la placa de absorción es de 3 cm y el lado posterior de ésta se encuentra intensamente aislado. La placa de absorción y la cubierta de vidrio se mantienen a las temperaturas de 80°C y 32°C, respectivamente. La emisividad de la superficie de vidrio es 0.9 y la de la placa de absorción es 0.8. Debemos determinar la razón de la pérdida de calor desde la placa de absorción por convección natural y por radiación.  MÉTODO INTERACTIVE HEAT TRANSFER. Uno de los subsecuentes pasos e importantes del procedimiento es la utilización del programa Interactive Heat Transfer, es un software libre y una herramienta que permite resolver problemas de transferencia de calor, actúa como si fuera una calculadora para resolver problemas que no podemos resolver a mano o las ecuaciones son más difíciles y más laborioso se puede aplicar para mecánica de fluidos y energía solar. Para ejecutar la operación lo que se necesita es observar adecuadamente el problema y los datos que nos está dando el colector solar plano para de esa manera ingresar los valores en el programa y empezar a hacer cálculos. (es de importancia recordar que se reflejo en los siguientes programas, OpenFoam, ParaView y en Interactive Heat Transfer Datos: Lx=0.0015ml         Ly=0.003ml Datos 1.0 An=20°C                Pab= 0.03ml Emi=0.9                 Pabs=0.8  Datos 1.1 Datos constantes g=9.81 Gravedad m/s2 Una vez observado los datos, abrimos el programa, Interactive Heat Transfer. Para meter los datos y las ecuaciones y así empezar a ver resultados las primeras ecuaciones que metimos, fueron para sacar las condiciones de frontera uno y dos. Condición de frontera 1                                Condición de frontera 2  TH=80+273.15k 3   =353.15             TC=32+273.15k    =305.15 SE CALCULA LA TEMPERATURA DE REFERENCIA. (a continuación, la siguiente ecuación). To= (TH+TC) /2 =329.15 Posteriormente agregue, propiedades del aire en el software para calcular los datos que faltaban y así obtener el número de nusselt para terminar los cálculos y pasarnos a otra serie de pasos en un software distinto. Posteriormente agregue, propiedades del aire en el software para calcular los datos que faltaban y así obtener el número de nusselt para terminar los cálculos y pasarnos a otra serie de pasos en un software distinto. PROPIEDADES DEL AIRE T=To Air property functions: From Table A.4 Units: T(K); 1 atm pressure rho = rho_T("Air",To)  Density, kg/m^3 cp = cp_T("Air",To)  Specific heat, J/kg·K mu = mu_T("Air",To)  Viscosity,  N·s/m^2 nu = nu_T("Air",To)   Kinematic viscosity, m^2/s k = k_T("Air",To)         Thermal conductivity, W/m·K alpha = alpha_T("Air",To)    Thermal diffusivity, m^2/s Pr = Pr_T("Air",To)    Prandtl number A continuación, calcule Ra y el número de Nusselt para de ahí sacar un último valor en el software OpenFoam y de igual manera así saber el resultado de esta problemática del colector solar plano.  Ra=1e4                            Ra=(g*beta*(TH-TC)*(H^3)*Pr)/(nu*nu) Nusselt Number calculate A=4*H*(0.1*H)                                                  Qref=k*A*(TH-TC)/H Qconv=6.685378e+02( Resultado de OpenFoam)                Nu=Qconv/Qref Donde en los datos finales quedaron:   TC=305.15 TO=329.15 TC=305.15 ZL=3 TH=3.53.15TC=305.15 XL=1.5 YL=0.03 RESULTADO FINAL: "748.5W"


CONCLUSIONES

A lo largo de la estancia de investigación se desarrolló una documentación científica relacionada con la simulación numérica de los colectores solares planos, dentro de esta investigación se pudo observar la importancia del saber que los flujos de energía son esenciales para el diseño, operación y optimización de una amplia gama de sistemas y procesos que se abarcan desde la mejora de la eficiencia energética y la reducción de costos, en lo largo de la estancia se pudo observar que estos tipos de análisis no solo nos pueden ayudar para los colectores solares sino también para maquinas o en industrias y motores que pueden sufrir de calentamientos, es importante saber las altas temperaturas que se generan, La finalidad de este programa es que el estudiante aprenda nuevas formas y distintas maneras de resolver este tipo de problemáticas, es de detallar los fundamentos matemáticos en el estudio de los colectores solares planos, espero que este trabajo que se realizó con mucho esfuerzo y dedicación contribuya al mejor entendimiento de los principios teóricos en los cuales se basa en el funcionamiento de un colector solar plano y en la parte de la simulación numérica que se abarcan métodos y procedimientos que se utilizaron en la caracterización del colector solar.
Romero Perez Lucio Angel, Universidad Politécnica de Altamira
Asesor: Dr. Carlos Arturo Hernández Gracidas, Benemérita Universidad Autónoma de Puebla

RECONOCIMIENTO DE EMOCIONES UTILIZANDO INTELIGENCIA ARTIFICIAL.


RECONOCIMIENTO DE EMOCIONES UTILIZANDO INTELIGENCIA ARTIFICIAL.

Marmolejo Jimenez Belen Elizabeth, Universidad Politécnica de Altamira. Romero Perez Lucio Angel, Universidad Politécnica de Altamira. Vega Robles Ana Lizbeth, Universidad Politécnica de Altamira. Asesor: Dr. Carlos Arturo Hernández Gracidas, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Este proyecto desarrolla un sistema de inteligencia artificial para identificar y clasificar emociones humanas a partir de expresiones faciales utilizando redes neuronales convolucionales (CNN). El objetivo es crear un modelo preciso para reconocer emociones como felicidad, tristeza, enojo, miedo y sorpresa. Se emplean técnicas avanzadas de procesamiento de imágenes y aprendizaje profundo para mejorar la precisión y generalización del modelo. También se exploran técnicas como Eigenrostros para la reducción de dimensionalidad y la optimización de parámetros para mejorar el rendimiento.



METODOLOGÍA

1. Preparación de datos 1.1 Fuente y descripción de los datos El conjunto de datos, extraído de Kaggle, incluye siete categorías de emociones: enojo, disgusto, miedo, felicidad, tristeza, sorpresa y neutral. Las imágenes están en escalas de grises, tienen un tamaño de 48x48 píxeles y los rostros están centrados y ocupan un espacio consistente en cada imagen. El conjunto consta de 28,709 ejemplos de entrenamiento y 2,589 ejemplos de prueba. 1.2 Preprocesamiento de imágenes Redimensionamiento y normalización de las imágenes. Técnicas de aumento de datos: rotación, traslación, cambio de escala y flip para ampliar el conjunto de datos de entrenamiento. 2. Desarrollo del modelo 2.1 Arquitectura del modelo El modelo utiliza una CNN con capas convolucionales, filtros, funciones de activación, capas densas y dropout. 2.2 Implementación de Eigenrostros La técnica de Eigenrostros utiliza el análisis de componentes principales (PCA) para reducir la dimensionalidad de las imágenes faciales. Esta técnica destaca las direcciones principales de variación en los datos, simplificando la posterior clasificación y reconocimiento facial. 2.3 Bloques de atención Los bloques de atención ayudan al modelo a enfocarse en las regiones más relevantes de las imágenes, mejorando la identificación de características cruciales para el reconocimiento de emociones. 3. Entrenamiento del modelo 3.1 Configuración del entrenamiento El modelo se entrena con lotes de 32 imágenes durante 100 épocas. La tasa de aprendizaje es 0.001 y se aplican técnicas de regularización como dropout para mejorar la generalización y evitar el sobreajuste. 3.2 Optimización de hiperparámetros Se utiliza búsqueda bayesiana para optimizar los hiperparámetros del modelo. Este método ajusta sus estimaciones basándose en resultados anteriores, encontrando configuraciones óptimas de manera más eficiente que la búsqueda aleatoria. 3.3 Uso del dropout El dropout previene el sobreajuste al apagar aleatoriamente un porcentaje de neuronas durante el entrenamiento, promoviendo un peso más uniforme entre las neuronas. 4. Evaluación del modelo 4.1 Balance del conjunto de datos Para mejorar la precisión, se equilibró el conjunto de datos eliminando la clase de disgusto y ajustando el número de ejemplos en cada clase: 3000 para entrenamiento y 830 para prueba por clase. 4.2 Métrica de evaluación Se utilizan las siguientes métricas para evaluar el modelo: Exactitud (Accuracy): Mide la cantidad de aciertos del modelo en los datos de prueba y entrenamiento. Pérdida (Loss): Observa la discrepancia entre las predicciones del modelo y los resultados reales. Matriz de Confusión: Detalla las predicciones del modelo, mostrando las emociones que el modelo confunde más y aquellas que clasifica con mayor precisión.


CONCLUSIONES

Análisis de Resultados Precisión del Modelo: El modelo de seis emociones (feliz, triste, enojado, sopresa, miedo y neutral) alcanzó una exactitud del 88% en entrenamiento y 55% en prueba. Aunque es efectivo, emociones como la tristeza tienen menor precisión comparada con emociones como felicidad o sorpresa. Impacto del Preprocesamiento y Aumento de Datos: Las técnicas de aumento de datos, como rotación y escalado, mejoraron la robustez del modelo ante variaciones en las imágenes, evitando el sobreajuste y mejorando el rendimiento en el conjunto de prueba. Evaluación de Arquitecturas de Redes Neuronales: Se probaron diversas arquitecturas de CNN. Las más profundas ofrecieron mayor precisión pero también un mayor riesgo de sobreajuste. Se encontró un equilibrio óptimo entre profundidad y capacidad de generalización. Desempeño en Diferentes Categorías de Emociones: El modelo clasifica algunas emociones con mayor facilidad que otras. Emociones como felicidad y tristeza tienen características faciales distintivas, facilitando su clasificación, mientras que el miedo presenta mayor variabilidad y menos ejemplos, dificultando su clasificación. El desarrollo del sistema de reconocimiento de emociones mediante CNN ha logrado avances significativos desde nuestro primer modelo hasta el último que se realizó. Aunque la precisión es destacable, hay áreas para mejorar, especialmente en la clasificación de ciertas emociones. Los resultados validan la efectividad de las técnicas empleadas y proporcionan una base sólida para futuros trabajos en este campo.
Romero Romero Monserrath, Universidad Veracruzana
Asesor: Dr. Leydi Julieta Cárdenas Flechas, Fundación Universidad de América

DEGRADACIóN FOTOCATALíTICA DE RESIDUOS QUE CONTAMINAN AFLUENTES POR MEDIO DE PENTóXIDO DE VANADIO Y NIOBIO.


DEGRADACIóN FOTOCATALíTICA DE RESIDUOS QUE CONTAMINAN AFLUENTES POR MEDIO DE PENTóXIDO DE VANADIO Y NIOBIO.

Romero Romero Monserrath, Universidad Veracruzana. Asesor: Dr. Leydi Julieta Cárdenas Flechas, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

El agua es esencial para la humanidad y se encuentra en todas las actividades sociales, económicas y ambientales. Sin embargo, se estima que el 80% de las aguas residuales industriales y municipales se vierten al ambiente sin tratamiento previo, causando efectos nocivos. Por lo que para mejorar la calidad del agua, se han explorado métodos como la degradación fotocatalítica de contaminantes industriales con pentóxido de vanadio y niobio, eficaces para eliminar contaminantes como la rodamina, el naranja de metilo y el negro de eriocromo. Esta investigación busca mejorar indicadores de calidad del agua.



METODOLOGÍA

Para la realización de la presente investigación, consistió en 3 etapas principales. La primera etapa constó en revisión de la literatura, tomando en cuenta principalmente una tesis ya estipulada por alumna de dicha universidad. Durante la segunda etapa se buscó obtener el cálculo de absorbancia a diferente longitud de onda, de agua de curtiembre contaminada, primeramente en agua "pura", posteriomente a escala 1:1, 2:1, 3:1 con respecto a agua destilada. Posteriormente se realizó la degradación fotocatalitica a escala 3:1 con una longitud de onda de 500, 600 y 700. Para la segunda etapa, se determinó la absorbancia a diferente longitud de onda, para escala 0:1, 1:1, 2:1 y 3:1 con rodamina, naranja de metilo y el azul de metileno. Finalmente en la 3ra etapa, se buscó obtener la degradación fotocatalitica de los contaminantes antes mencionados con los siguientes datos propuestos: Rodamina: A escala 1:1, con longitud de onda de 500, se realizaron 3 degradaciones. Naranja de metilo: A contaminante "puro", sin más disolventes, se realizaron dos degradaciones a longitud de onda de 300 y una degradación con longitud de onda de 350. Azul de metileno: A escala 3:1, con longitud de onda de 740, se realizaron 5 degradaciones con última prueba con Pentoxido de Vanadio al 1% de Nb. La degradación fotocatalítica se determina colocándose 75ml de muestra (rodamina, naranja de metilo, azul de metileno) dentro del sistema fotocatalizador disolviendo 0.02gr de pentóxido de vanadio con Nb., durante un lapso minimo de 1hr., tomando una pequeña muestra cada 15 minutos y determinando su absorbancia. Si la absorbancia del ultimo minuto, es menor, con respecto a la absorbancia del minuto cero, se completó la degradación, de lo contrario, se debe realizar nuevamente el experimento, enfocándose en los diversos factores que pudieron haber alterado la degradación, como la temperatura del ambiente, la disolución de la muestra, entre otros.


CONCLUSIONES

La degradación fotocatalítica de los contaminantes bajo diferentes longitudes de onda ha demostrado que la eficiencia del fotocatalizador varía significativamente según la longitud de onda utilizada.  En el caso de la degradación fotocatalítica de agua de curtiembre, se determinó que la degradación fotocatalítica realizada a una longitud de onda de 600 y de 700, mostró una disminución constante de la absorbancia.  En el caso de la degradación fotocatalítica de rodamina y el naranja de metilo, pudimos notar que fue todo un reto la degradación, pues se realizaron a diferentes longitudes de onda, y en ninguna de ellas se pudo obtener. Para el caso del azul de metileno, primeramente se realizaron tres degradaciones,  tomando muestras cada 15 minutos durante un lapso de 1hr. con la finalidad de determinar si era posible su degradación, posterior a ello, se realizaron dos más con diferentes condiciones experimentales, tomando muestras durante un lapao de 1:30hrs encontrándose buenos resultados.  Finalmente se espera continuar con la investigación, destacando enfocarse en la degradación fotocatalítica de rodamina y naranja de metilo, pues a pesar de tomar las mismas condiciones para las primeras degradación y otras condiciones para las últimas, no se pudo realizar la degradación. 
Romero Sánchez José Francisco, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan

DESARROLLO DE APLICACIONES MóVILES PARA SOLUCIóN DE PROBLEMáTICAS DE IMPACTO SOCIAL, ECONóMICO, ETC.


DESARROLLO DE APLICACIONES MóVILES PARA SOLUCIóN DE PROBLEMáTICAS DE IMPACTO SOCIAL, ECONóMICO, ETC.

Hernandez Blanco Angel Jesus, Instituto Tecnológico Superior de Uruapan. Romero Sánchez José Francisco, Instituto Tecnológico Superior de Uruapan. Rosas Ibarra Ricardo, Instituto Tecnológico Superior de Uruapan. Torres Loya Olga Christelle, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Uno de los mayores desafíos que enfrentan los desarrolladores de aplicaciones móviles es la fragmentación de plataformas. Con la gran cantidad de dispositivos y sistemas operativos diferentes en el mercado, puede ser difícil crear una aplicación que funcione en todos ellos.  Otro desafío común que enfrentan los desarrolladores de aplicaciones móviles es el rendimiento. Las aplicaciones móviles deben ser rápidas y fluidas para brindar una buena experiencia de usuario.



METODOLOGÍA

Las herramientas que se utilizaron para este proyecto de forma temprana son provenientes de servicios gratuitos como puede ser IDX, siendo este un codificador similar como lo es Visual Studio Code, teniendo al diferencia en que este servicio incluso nos permitirá realizar pruebas semejantes a las de un emulador, tales como un dispositivo móvil con sistema Android o de igual forma visualizando como una página web, todo ello basándose en la programación del lenguaje Dart bajo el framework Flutter, siendo este el apartado más importante ya que la aplicación funcionara con este sistema como motor. Dart permite generar un único código fuente que, al momento de compilar, posibilita la selección de diferentes plataformas de destino. Esta característica contribuye significativamente a la reducción del tiempo de producción de aplicaciones, eliminando la necesidad de escribir y mantener múltiples versiones del código para diferentes sistemas operativos. Flutter, desarrollado por Google, es un framework de código abierto que facilita la creación de aplicaciones nativas multiplataforma a partir de un único código base. Su motor gráfico Skia proporciona interfaces de usuario de alta calidad y rendimiento, ofreciendo una experiencia fluida y consistente en plataformas como iOS, Android, web y escritorio. Además, Flutter promueve un desarrollo ágil mediante su función de "hot reload" y cuenta con una amplia comunidad y recursos de soporte que optimizan el proceso de desarrollo. Uno de los objetivos principales de esta investigación es obtener una visión integral sobre las diversas herramientas, frameworks y plataformas disponibles que pueden abordar el desafío de la producción de código multiplataforma. Esta exploración permitirá identificar las soluciones tecnológicas más adecuadas para desarrollar aplicaciones eficientes en múltiples sistemas operativos, optimizando recursos y mejorando la experiencia del usuario. El entorno de desarrollo utilizado fue Project IDX, una plataforma en la nube de Google diseñada para simplificar la creación de aplicaciones web y móviles. Permite el acceso al entorno de desarrollo desde cualquier dispositivo con conexión a internet, facilitando la colaboración en tiempo real y eliminando la necesidad de configuraciones locales complejas. Además, la plataforma permite trabajar en proyectos sin necesidad de contar con hardware especializado, ya que los recursos son proporcionados por los servidores de Google. Al estar basado en la nube, Project IDX ofrece escalabilidad y recursos bajo demanda, permitiendo a los desarrolladores gestionar proyectos de cualquier tamaño sin preocuparse por limitaciones de hardware. Inicialmente, se analizó la sintaxis del lenguaje Dart y se construyeron programas sencillos. Este enfoque facilitó la familiarización con la sintaxis del lenguaje y las diversas herramientas proporcionadas por el framework Flutter para optimizar la producción de código, destacando entre ellas los widgets. En Flutter, los widgets son los componentes fundamentales para construir la interfaz de usuario, representando todos los elementos visuales e interactivos, como botones, textos e imágenes. Estos widgets están organizados jerárquicamente en un árbol, son inmutables y configurables, lo que permite realizar cambios mediante la creación de nuevos widgets en lugar de modificar los existentes. Los widgets se clasifican en varias categorías: widgets de diseño, que controlan la disposición; widgets de interfaz, que constituyen los elementos visibles; y widgets con estado, que pueden cambiar dinámicamente, frente a aquellos sin estado, que permanecen estáticos. Esta estructura permite crear interfaces complejas y dinámicas de manera eficiente. Una vez desarrollada una aplicación más compleja que incorpora diferentes tipos de menús para facilitar la navegación, se utilizó la herramienta de GitHub para trasladar el proyecto de manera local a Visual Studio Code Visual studio Code que nos permite agregar proyectos de flutter y poder visualizarlos cómo una aplicación de escritorio y emular el proyecto de flutter en un móvil Android virtual. además de poder vincularse con GitHub, lo que permite una conexión compartida entre las plataformas de project IDX y visual studio code, esto permite la visualización y edición en ambas plataformas. EJ:  Project IDX ←→ GitHub(Repositorio) ←→ Visual Studio Code


CONCLUSIONES

Flutter resuelve el problema de la fragmentación de plataformas al permitir a los desarrolladores crear aplicaciones con una única base de código que se puede compilar tanto para Android como para iOS. Esto elimina la necesidad de escribir y mantener código separado para cada plataforma, lo que ahorra tiempo, dinero y reduce la complejidad del desarrollo. También utilizando un motor de renderizado llamado Skia permite crear aplicaciones con un rendimiento nativo. Esto significa que las aplicaciones Flutter se ejecutan tan rápido y fluidas como las aplicaciones nativas escritas en Kotlin, C++ o Swift.
Romero Zárate Valentina, Instituto Politécnico Nacional
Asesor: M.C. Rodrigo Rodríguez Rubio, Instituto Tecnológico de Querétaro

IMPLEMENTACIóN DEL LABORATORIO DE CALIBRACIóN PARA MEDICIONES ELéCTRICAS CON LABVIEW


IMPLEMENTACIóN DEL LABORATORIO DE CALIBRACIóN PARA MEDICIONES ELéCTRICAS CON LABVIEW

Fuentes Osorio Edwin Yahir, Instituto Tecnológico de Reynosa. Guevara Garay Eder Joel, Universidad Politécnica de Altamira. Medel Toxtle Concepción Abigail, Benemérita Universidad Autónoma de Puebla. Romero Zárate Valentina, Instituto Politécnico Nacional. Asesor: M.C. Rodrigo Rodríguez Rubio, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En el Tecnológico Nacional Campus Querétaro existen las carreras de Ingeniería Electrónica, Eléctrica, Semiconductores Y Mecatrónica. Estas carreras realizan prácticas con mediciones eléctricas y cálculos, por lo que se requieren instrumentos de medición conocidos y fuentes de tensión directa confiables. Con base en la Guía BIPM/ISO para la expresión de la incertidumbre en las mediciones, se determina el nivel de confiabilidad y el error de cada instrumento con su incertidumbre.   La incertidumbre del resultado de una medición muestra la carencia de conocimiento concreto del valor del mensurando. Los componentes de incertidumbre se clasifican en dos categorías: tipo A y tipo B. La incertidumbre tipo "A" (UA) es obtenida de una distribución de frecuencia observada, mientras que la incertidumbre tipo B (UB) se obtiene de una función de probabilidad basada en las especificaciones del fabricante de cada instrumento. La raíz de la suma de los cuadrados de estas funciones hace lo que se conoce como la incertidumbre combinada (UC). La incertidumbre expandida (UE) es el producto de la incertidumbre combinada por un factor de cobertura k = 2. 



METODOLOGÍA

Inicialmente, se realizaron mediciones manuales de fuentes de tensión y resistores para observar la deriva térmica en los instrumentos. Las fuentes de tensión utilizadas en este caso fueron: Agilent y BK Precision 1785B, mientras que los resistores muestreados fueron los BP 601 A1, A2, y A3; un resistor variable Höchstbelastung y un resistor fijo. El multímetro Keithley 199 fue el instrumento de medición empleado.   La comunicación entre LabVIEW y el equipo físico del laboratorio se realizó a través de puertos GPIB, los cuales siguen la Norma IEEE 488 aplicada en el control de aparatos de medición.   Mientras tanto, se llevó a cabo un mantenimiento correctivo tanto a la fuente de tensión Amrel como al regulador de CA. Al primer dispositivo se sustituyeron dos capacitores y se hizo una limpieza a sus componentes, mientras que, al segundo se le aplicaron 3 capas de barniz, ya que generaba ruido por las vibraciones del transformador.  Para la recolección automática de datos de resistencia se realizaron mediciones de los siguientes resistores: BP 601 A1 (15 Ω), A2 (150 Ω), A3 (15 Ω); un resistor fijo (60 Ω), resistor variable Supreix (62 Ω), 2 resistores variables Höchstbelastung (33 Ω), resistor variable Elettronica Veneta (370 Ω). El circuito empleado para medir la magnitud de resistencia consistió en una conexión de cuatro terminales del resistor con el Óhmetro.  Al medir la tensión se conectó cada una de las fuentes directamente al Voltímetro. En el caso de las dos fuentes BK Precision se ajustó el intervalo automáticamente desde 0.01 V hasta 18 V, para la Agilent se ajustaron manualmente los intervalos y se tomaron muestras desde 1 V hasta 20 V y de -10 V a -20 V, por último, de la fuente Amrel se tomaron muestras para sus dos canales en el intervalo de 0.01 V hasta 30 V.  Para tomar las muestras de la magnitud de corriente se realizó un circuito en el cual se utilizó la fuente BK Precision 2 y se seleccionaron las décadas BP 601 A1 y A2, dado que los valores requeridos fueron 0.001 A, 0.005 A, 0.01 A, 0.05 A, 0.1 A, 0.5 A y 1 A. Una vez teniendo los componentes adecuados se realizaron las mediciones utilizando un Amperímetro y un Voltímetro para recolectar los valores.  En el caso de la potencia, se realizó un circuito en el cual la resistencia a muestrear se conectó en paralelo con el Voltímetro del Wattmetro, a su vez se conectan en serie con el Amperímetro del mismo y con la fuente.  Para el cálculo de incertidumbre se consideraron las siguientes: tipo A, tipo B, combinada y expandida. La UA se obtuvo a partir de las mediciones y utilizando su desviación estándar. La UB se divide en dos subtipos: B1 y B2. El primero se obtuvo mediante las especificaciones del manual, mientras que el segundo se obtuvo con la resolución del instrumento de medición.  Para calcular la incertidumbre expandida era indispensable obtener la incertidumbre combinada, que se obtuvo con una ecuación propuesta en la que se implican las magnitudes en relación con las mediciones y valores de los promedios de cada medición junto con su error. También, se requería conocer los grados efectivos de libertad de cada magnitud, tomando este valor como referencia se utilizó la tabla de T de Student para determinar el factor de cobertura respecto al nivel de confianza definido. Este dato servirá para obtener la incertidumbre expandida.  Con los valores obtenidos, se realizaron gráficos del promedio y su desviación estándar, el promedio con su error y el error con la incertidumbre expandida, esto con el fin de visualizar gráficamente la variación de cada valor por días y así determinar si el instrumento bajo a prueba es confiable y conocer su nivel de precisión y exactitud. 


CONCLUSIONES

Al analizar la incertidumbre de cada uno de los equipos mencionados en la metodología se determinó que los resistores más precisos, tomando como referencia la incertidumbre expandida (UE) de cada dispositivo; en cuanto a resistores fijos, el BP 601 A1 es el más preciso, con un factor de incertidumbre de 8%, mientras que, con los resistores variables, los más precisos son ambos dispositivos alemanes (Höchstbelastung) con una incertidumbre promedio de 5% entre un valor y otro en una escala de resistividad de 0% a 100%. Por otra parte, la fuente de tensión menos dispersa y más precisa fue la BK Precision 2, debido a esto fue viable usarla para el muestreo de corriente.  La caracterización de los equipos e instrumentos del laboratorio de Electrónica se realizó de manera satisfactoria, lo cual permitirá llevar a cabo prácticas de medición y cálculos más exactos y precisos que servirán de apoyo a la comunidad estudiantil del ITQ.  
Romualdo González Veronica, Universidad Politécnica de Atlacomulco
Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez

PROYECTO DE ROBóTICA PARA LA ENSEñANZA DE LA PROGRAMACIóN Y LA PRESERVACIóN DE LAS LENGUAS AUTóCTONAS


PROYECTO DE ROBóTICA PARA LA ENSEñANZA DE LA PROGRAMACIóN Y LA PRESERVACIóN DE LAS LENGUAS AUTóCTONAS

Crespo Sanchez Aura Susana, Instituto Tecnológico de San Luis Potosí. Martinez Dolores Bryan, Universidad Politécnica de Atlacomulco. Romualdo González Veronica, Universidad Politécnica de Atlacomulco. Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

La programación es una de las habilidades más demandadas actualmente, siendo esencial en múltiples campos profesionales y educativos. A medida que la tecnología avanza, la necesidad de trabajadores con competencias en programación no deja de crecer. Por lo tanto, existen diversas plataformas diseñadas para la enseñanza de la programación, las cuales varían en su enfoque dependiendo del nivel de conocimiento de sus usuarios, ya sean novatos o expertos. Para los novatos, especialmente niños y adolescentes, es importante contar con métodos de enseñanza que sean atractivos y accesibles. Plataformas como code.org utilizan estrategias de "drag and drop" (arrastrar y soltar) para facilitar el aprendizaje, mientras que para los más avanzados se emplean ejercicios complejos y específicos. Scratch, por ejemplo, es una de las herramientas más populares para la enseñanza introductoria de la programación debido a su enfoque visual y amigable.  Sin embargo, a pesar de la disponibilidad de estas plataformas, existe una problemática significativa en el método de enseñanza de la tecnología y la programación a niños, especialmente en el contexto de fomentar el interés en la tecnología y la ingeniería. La falta de enfoques educativos que integren la robótica y la programación de una manera que también preserve y promueva las lenguas autóctonas es un desafío que debe ser abordado.



METODOLOGÍA

Al inicio, se planteó la idea y el diseño del proyecto, que consiste en una estructura de base con un pilar en el cual se colocan bloques con instrucciones, que se reciben en el robot y este las ejecuta según el orden en que se colocaron los bloques. Se realizan de una a dos reuniones por semana para demostrar avances, corregir errores o hacer pruebas de funcionamiento. Durante las primeras semanas, se realizó una investigación profunda sobre los sensores y materiales que se utilizaron en el proyecto. Para comprender el funcionamiento de los sensores, se llevaron a cabo pruebas de funcionamiento y se comenzó con la conexión del hardware utilizando Arduinos para la conexión de cajas que se detectan usando sensores infrarrojos. Estas señales se transmiten mediante módulos Bluetooth, juntados en un arreglo que recibe el Arduino base. Se ensambló el brazo robótico Dofbot de Yahboom y se logró la conexión Bluetooth del Arduino principal con la Raspberry Pi. Para finales del primer mes, se iniciaron las pruebas de comunicación entre Arduinos y la investigación e instalación de las librerías necesarias para la conexión con la Raspberry Pi para mover el brazo robótico. Se codificaron los programas necesarios para ejecutar los movimientos del brazo una vez recibida la instrucción del bloque. También se desarrollaron códigos para la detección de colores a través de una imagen, utilizando la cámara del robot para detectar cubos de colores, los cuales tienen una instrucción predeterminada. De esta manera, el robot los detecta y se mueve según el orden en que se colocaron. Una vez que los Arduinos se comunicaban entre sí y enviaban las instrucciones al Arduino principal, se iniciaron las pruebas para asegurar una conexión correcta y que el brazo ejecutara las instrucciones enviadas. Se diseñó el estilo de la caja que contiene los bloques utilizados en el proyecto y se mandaron a imprimir en 3D. Se redactó la documentación del desarrollo del proyecto y los manuales de usuario necesarios para su uso, con o sin capacitación, además de pequeñas actividades para el aprendizaje de programación básica para los niños y niñas que lo utilicen.


CONCLUSIONES

Durante la estancia de verano, se lograron adquirir conocimientos teóricos de robótica, electrónica y programación, y ponerlos en práctica al desarrollar el proyecto movilizando el brazo robótico mediante bloques con sensores. Además, se diseñó una manera práctica de enseñar y aprender programación básica. Se espera que el proyecto fomente el interés por la programación y la ingeniería en niños y niñas desde una edad temprana.
Rosaldo Rosaldo Adame Angel Manuel, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Mtro. Ricardo Luna Santos, Universidad Tecnológica de Xicotepec de Juárez

REINGENIERíA DEL FRONT-END Y BACK-END DEL PROYECTO IHOME


REINGENIERíA DEL FRONT-END Y BACK-END DEL PROYECTO IHOME

Moreno Godínez Olga Elizabeth, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Rosaldo Rosaldo Adame Angel Manuel, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Mtro. Ricardo Luna Santos, Universidad Tecnológica de Xicotepec de Juárez



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, las reingenierías han tomado un papel importante con respecto a solventar las necesidades  del cliente referente a los productos y servicios que se ofrece, al mantenerse a la vanguardia de las tecnologías actuales, y no quedarse en un estado anticuado en donde se pueda volver obsoleta con el paso del tiempo, lo que generalmente es algo primordial en cuanto a software; de igual forma, se utiliza para complementar el estado anterior de un software base, y volver a este en un nuevo software realizando una optimización en sus funcionalidades y rediseñando su estructura; es el caso de la aplicación web iHome antes de la reingeniería, presentaba APIs incompletas e interfaces con potencial a mejorar; a lo largo de la instancia del proyecto, se tomo como objetivo implementar un nuevo diseño de las interfaces de la aplicación, en la que se utilizó una nueva paleta de colores y un cambio en la estructura que tenía, así mismo, se realizó la integración de nuevos componentes y la reutilización de los antiguos, complementando con una nueva estructura y agregando más funcionalidades al front-end; en cuanto a back-end, se realizó la integración de nuevas funcionalidades, complementando las existentes, además, se implementaron nuevas peticiones get, delete, update a las APIs existentes, así mismo, la integración de la API  del login. en cuanto a APIs, se maneja herramientas como swagger, para realizar pruebas de optimización al realizar envíos y obtención de datos.



METODOLOGÍA

Al utilizar la reingeniería de procesos seguimos su metodología la cual se basa en las cuatro áreas fundamentales que se exponen a continuación: Reenfoque: en la cual se hizo revisión de la documentación existente sobre aplicaciones de casas inteligentes y análisis de las tendencias actuales; así mismo, la recolección de feedback de los usuarios actuales de la aplicación "IHOME" y la identificación de las funcionalidades clave y las áreas de mejora. Rediseño: en el se hizo la creación de wireframes y prototipos utilizando herramientas como Figma, posteriormente, la implementación del nuevo diseño de UI utilizando Angular y Tailwind CSS y la realización de pruebas de usabilidad con usuarios finales para validar el diseño. Reorganización: se llevó a cabo la refactorización del código del front-end utilizando Angular y TypeScript; además, la reestructuración del backend con Node.js para mejorar la gestión de datos y la comunicación entre el servidor y el cliente; y de igual manera, la implementación de una arquitectura modular y componentes reutilizables. Mejora: Se hicieron mejoras en la realización de consultas y procesamiento de datos en el back-end; además, de la validación de información para evaluar la capacidad de la aplicación para identificar que la información sea correcta. Proceso de Pruebas: Front-end: en este caso se llevaron a cabo  pruebas de usabilidad, realizadas para evaluar la inductividad y facilidad de uso de la nueva interfaz; de igual forma, se realizarón pruebas de integración, asegurando que los diferentes componentes del front-end funcionen de manera correcta. Back-end: en esta tuvo lugar las pruebas de rendimiento, las cuales evaluarón la capacidad del sistema para manejar múltiples solicitudes simultáneamente; así mismo, se realizó pruebas de envío de información, verificando la precisión y eficiencia en la transmisión de datos entre el servidor y el cliente.


CONCLUSIONES

El análisis de los resultados sugiere que la reingeniería de aplicaciones existentes puede ser una estrategia eficaz para adaptarse a los avances tecnológicos y a las cambiantes necesidades de los usuarios. La combinación de un reenfoque, rediseño, reorganización y mejora permitió abordar las carencias identificadas en la aplicación original. Futuras investigaciones podrían explorar la integración de tecnologías emergentes, como la inteligencia artificial y el aprendizaje automático, para ofrecer funciones aún más avanzadas y personalizadas en aplicaciones de casas inteligentes. En conclusión, la reingeniería de la aplicación "IHOME" no solo logró cumplir con las expectativas y objetivos establecidos, sino que también proporcionó valiosos conocimientos y experiencias para los desarrolladores. Los resultados obtenidos validan la eficacia del proceso de reingeniería y destacan su potencial para mejorar significativamente las aplicaciones de casas inteligentes, beneficiando tanto a los usuarios como a los desarrolladores.
Rosales Carrisoza Daniela Michelle, Universidad Politécnica de Atlautla
Asesor: Dr. Aurelio Enrique Lopez Barron, Universidad de Guadalajara

EVALUACIóN DEL USO DE LA INTELIGENCIA ARTIFICIAL EN LOS ESTUDIANTES UNIVERSITARIOS DE LA INGENIERíA EN TELEMáTICA


EVALUACIóN DEL USO DE LA INTELIGENCIA ARTIFICIAL EN LOS ESTUDIANTES UNIVERSITARIOS DE LA INGENIERíA EN TELEMáTICA

Ledezma Constantino Mar Andrea, Universidad Politécnica de Atlautla. Palma Pedraza Marilu, Universidad Politécnica de Atlautla. Rosales Carrisoza Daniela Michelle, Universidad Politécnica de Atlautla. Asesor: Dr. Aurelio Enrique Lopez Barron, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La rápida evolución de la IA está transformando diversos sectores, incluyendo el ámbito educativo. La Ingeniería Telemática (ITEL), como campo de estudio que se ocupa del diseño, implementación y gestión de redes de comunicación, no es ajena a esta transformación. Se espera que los futuros ingenieros en telemática posean las competencias necesarias para utilizar la IA de manera efectiva en su práctica profesional. La falta de información sobre la percepción en los estudiantes universitarios de ITEL con relación a cuáles son las IA que conocen, cuál es su percepción de la utilidad de las IA generativas, como consideran su facilidad de uso, su privacidad y seguridad, los riesgos y desafíos y finalmente, como consideran que debe ser el rol del docente con el uso de la IA. Lo anterior, con la finalidad de generar un panorama que sirva de base para la toma de decisiones para así mejorar la formación de los futuros graduados de esta carrera. El creciente avance de la tecnología, y así mismo, el progresivo requerimiento de contar con competencias en IA que plantea retos para la educación superior. Nos lleva a cuestionarnos si los planes de estudio y métodos de enseñanza están preparando adecuadamente a los estudiantes para un buen desarrollo y conocimiento tecnológico actual donde la IA esta dominando. Esta es la problemática principal que esta investigación pretende abordar.



METODOLOGÍA

El diseño de esta investigación es de tipo no experimental mixto. De acuerdo con Cortés (2012) el tipo de diseño de investigación no experimental se realiza sin manipular deliberadamente las variables y donde el investigador no provoca el fenómeno, si no que únicamente lo observa y lo analiza. En cuanto al método mixto de acuerdo con Gómez (2006) se refiere a la integración o combinación entre los enfoques cuantitativo y cualitativo. Ambos enfoques se combinan en todo el proceso de investigación, o al menos, en la mayoría de sus etapas. En resumen, el diseño de investigación mixto en paralelo es el que pretende implementarse en este estudio. Con este diseño de investigación, se pretendió dar respuesta las interrogantes de este estudio combinando los enfoques cualitativos y cuantitativos para la posterior interpretación y análisis de los resultados. Para llevar a cabo el procedimiento de este estudio de evaluación del programa de la Ing. Telemática se planteo lo siguiente: Primera etapa:  Etapa donde se obtuvo la información que dio respuesta a las preguntas de estudio de evaluación del programa educativo de la Ing. Telemática.  El tipo de investigación mixto implementado en esta etapa es la encuesta identificada como cuestionario CUIA. Para la aplicación de este instrumento, se mandó el cuestionario CUIA a la muestra obtenida de estudiantes por medio de correo electrónico junto con la información sobre la investigación y sus objetivos, así como las instrucciones para completar el cuestionario. Para el análisis de datos obtenidos de los ítems de preguntas cerradas del cuestionario CUIA, se aplicó la estadística descriptiva. De acuerdo con Cortés (2012), la estadística descriptiva consiste en describir los datos y los valores para cada variable, es decir resume y organiza los datos obtenidos. Para el procesamiento de estos datos se utilizó en el Software SPSS, versión 18.0. Los datos cuantitativos obtenidos de este instrumento se concentraron en una matriz, con la finalidad de ser procesados estadísticamente calculando la media, la moda y la frecuencia para cada ítem. Con este fin, se utilizó el software SPSS, versión 18.0. Para procesar las respuestas de las preguntas abiertas y las respuestas proporcionadas por el estudiante, donde se les pidió que explicaran su elección de las preguntas cerradas en los cuestionarios CUIA, se implementó también la técnica de análisis de contenido. Este análisis se realizó por medio de la codificación que fue asignada a las unidades relevantes obtenidas del contenido de las respuestas proporcionadas (Hernández, Fernández y Bapista, 2010)


CONCLUSIONES

Durante la estancia de verano de la Investigación Científica y Tecnológica del Pacífico, se pudo concluir que la inteligencia artificial tiene un impacto significativo en la educación universitaria, particularmente en la carrera de Ingeniería en Telemática. La evaluación del uso de inteligencia artificial por parte de los estudiantes de esta disciplina reveló varios aspectos cruciales. Primero, se constató que los estudiantes que integran herramientas de inteligencia artificial en sus estudios y proyectos muestran una mejora considerable en la personalización de su aprendizaje. Estas tecnologías permiten a los estudiantes adaptar los recursos y métodos a sus necesidades individuales, mejorando así la eficiencia y la efectividad del aprendizaje. Además, el uso de la inteligencia artificial facilita la accesibilidad a una vasta cantidad de información y recursos educativos, lo que enriquece el proceso educativo y fomenta una mayor autonomía en el aprendizaje. Los estudiantes se benefician al poder resolver problemas complejos y desarrollar habilidades críticas mediante la aplicación de estas tecnologías.
Rosales Gómez Adrian, Instituto Politécnico Nacional
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

ESTACIóN NIMBUS, SISTEMA DE MONITOREO AMBIENTAL


ESTACIóN NIMBUS, SISTEMA DE MONITOREO AMBIENTAL

Cortes Facio Juan Diego, Instituto Tecnológico de Morelia. de Jesús Martínez Carlos Alberto, Instituto Politécnico Nacional. Feliciano Pioquinto Jorge Osvaldo, Instituto Tecnológico Superior de Ciudad Hidalgo. Piceno Reyes Guillermo Eduardo, Instituto Tecnológico de La Piedad. Pineda Ibarra Alexandra, Instituto Tecnológico Superior de Ciudad Hidalgo. Rosales Gómez Adrian, Instituto Politécnico Nacional. Vargas Castro Jonathan Antonio, Instituto Tecnológico de Morelia. Vidal Gómez Yessica Gisel, Instituto Politécnico Nacional. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la región de los Valles, Jalisco, la agricultura enfrenta desafíos significativos debido a la variabilidad climática y la falta de datos meteorológicos precisos y actualizados. Estos problemas afectan la planificación de cultivos y la gestión de recursos hídricos, esenciales para la producción agrícola sostenible. Según el Instituto Nacional de Estadística y Geografía (INEGI), la región de Jalisco ha experimentado fluctuaciones en temperatura y precipitaciones que impactan directamente en la productividad agrícola. La falta de estaciones meteorológicas eficientes en la región agrava esta situación, limitando la capacidad de los agricultores para tomar decisiones informadas y oportunas. La problemática principal está en el ingenio azucarero de la región, estos desafíos son particularmente pronunciados. La producción de caña de azúcar requiere condiciones climáticas específicas y una gestión adecuada del agua. La falta de datos precisos dificulta la planificación y optimización de las actividades agrícolas, resultando en pérdidas económicas y una menor eficiencia en la producción.



METODOLOGÍA

Para el desarrollo de la estación de monitoreo ambiental, se siguió un proceso sistemático que involucró diversas fases de diseño, implementación y pruebas. A continuación, se detallan los pasos específicos llevados a cabo: Fase de Diseños Selección de Sensores: Se eligieron sensores adecuados para medir temperatura, humedad, precipitación pluvial, altitud, presión atmosférica, velocidad y dirección del viento, índice UV, calidad de aire (partículas), luminosidad, CO2. Los sensores seleccionados fueron DHT11 para temperatura y humedad, BMP180 para presión atmosférica, y anemómetros y veletas para medir velocidad y dirección del viento. Diseño de la estructura: Utilizando SolidWorks, se diseñaron los soportes y la carcasa para los sensores y las placas electrónicas Raspberry Pi y la Arduino Nano. Se realizaron varias iteraciones del diseño para asegurar estabilidad y protección contra condiciones climáticas adversas. FORTALECIMIENTO DE LA Fase de Implementación Montaje de Hardware: Los componentes físicos fueron hechos utilizando una impresora 3D con filamento PLA. Los sensores fueron montados en sus respectivos soportes y conectados a la Raspberry Pi y Arduino Nano. Configuración de la Raspberry Pi: Se configuró la Raspberry Pi con Raspbian OS y se instalaron las bibliotecas necesarias para la lectura de los sensores (Adafruit_DHT, BMP180, y PySerial para el anemómetro y la veleta). Así mismo con la Nano. Desarrollo de la Interfaz: Se desarrolló una interfaz de usuario utilizando Flask, un microframework de Python, para permitir la visualización en tiempo real de los datos recopilados. La interfaz incluye gráficos y alertas para condiciones climáticas extremas. Fase de Pruebas. Pruebas en Campo: La estación de monitoreo ambiental fue instalada en el Centro Universitario de los Valles de la Universidad de Guadalajara, ya que está rodeado de zonas agrícolas. Se realizaron pruebas durante un periodo de tres semanas para recolectar datos y ajustar la calibración de los sensores. Validación de Datos: Los datos recolectados fueron comparados con los registros de estaciones meteorológicas oficiales para validar la precisión de las mediciones. Se encontraron discrepancias menores que fueron ajustadas mediante calibración adicional.


CONCLUSIONES

Durante el desarrollo de la estación de monitoreo ambiental, se logró adquirir conocimientos teóricos y prácticos en el diseño e implementación de sistemas de monitoreo medio ambientales utilizando tecnologías accesibles como la Raspberry Pi, Ardunio Nano y la impresión 3D. La integración de sensores y el desarrollo de una interfaz de usuario intuitiva permitieron la recolección y visualización de datos meteorológicos en tiempo real. Los resultados obtenidos durante el periodo de pruebas demostraron que la estación de monitoreo ambiental proporciona datos precisos y confiables, la cual contribuirá esencialmente para la planificación agrícola en región de los Valles, Jalisco. La comparación de los datos recolectados con los registros de estaciones meteorológicas oficiales validó la precisión de las mediciones, y los ajustes realizados mejoraron aún más su exactitud. En el contexto del ingenio azucarero, la estación de monitoreo ambiental permitiría ajustar las prácticas de riego y manejo de cultivos, mejorando la eficiencia y reduciendo pérdidas. Esto subraya la importancia de contar con datos climáticos precisos para optimizar la producción agrícola y enfrentar los desafíos específicos de la región. A pesar de los avances logrados, el proyecto aún se encuentra en fases de prototipado. Se espera continuar con la recolección de datos a largo plazo para analizar patrones climáticos y su impacto en la agricultura local. Futuras mejoras en la calibración de sensores y la expansión de la red de estaciones de monitoreo ambiental podrían proporcionar una cobertura más amplia y datos aún más precisos. Además, se prevé que el uso continuo de esta tecnología contribuirá a incrementar la sostenibilidad y productividad agrícola en la región. El conocimiento adquirido y las técnicas desarrolladas pueden ser aplicadas en otros contextos y regiones, proporcionando una herramienta valiosa para enfrentar los desafíos del cambio climático y la variabilidad meteorológica en la agricultura. Desarrollo del proyecto "ESTACIÓN NIMBUS” Video: https://drive.google.com/file/d/1awq5EhNIY7j6gRyHKIEVdf6mNa2rBiaP/view?usp=sharing  
Rosales Solís Jesús, Universidad Veracruzana
Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia

HACIA UN FUTURO SOSTENIBLE: DISEñO Y EFICIENCIA ENERGéTICA EN ECOVIVIENDAS


HACIA UN FUTURO SOSTENIBLE: DISEñO Y EFICIENCIA ENERGéTICA EN ECOVIVIENDAS

Ramos Barajas Christopher Alexander, Universidad Vizcaya de las Américas. Rosales Solís Jesús, Universidad Veracruzana. Vilchiz Linares Vivian, Universidad Vizcaya de las Américas. Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la necesidad de soluciones habitacionales que sean ambientalmente sostenibles y eficientes energéticamente es imperativa. A pesar de los avances en tecnologías como los paneles solares y los sensores de movimiento para la automatización de iluminación, aún persisten desafíos significativos en su implementación práctica y efectiva en entornos residenciales. Estos desafíos incluyen la optimización de la integración de sistemas solares para maximizar la captación y almacenamiento de energía, así como la adecuada sincronización y control de dispositivos mediante tecnologías móviles conectadas por WiFi. Además, la adaptabilidad de estas tecnologías a diversas condiciones climáticas y geográficas es crucial para garantizar su funcionalidad y eficiencia a largo plazo. La falta de estudios detallados y prototipos bien desarrollados específicamente orientados a estas tecnologías en contextos residenciales limita su adopción generalizada y efectiva. Por lo tanto, es fundamental abordar estos desafíos mediante la investigación y desarrollo de soluciones prácticas que puedan ser implementadas de manera accesible y efectiva en viviendas sustentables del mundo real.



METODOLOGÍA

La creciente preocupación por el cambio climático y el agotamiento de los recursos naturales ha impulsado el desarrollo de viviendas sustentables. Estas viviendas no solo buscan minimizar el impacto ambiental, sino también mejorar la eficiencia energética y la calidad de vida de sus habitantes. En este marco teórico se abordarán los conceptos fundamentales de la sustentabilidad en la construcción, la integración de paneles solares y la automatización mediante sensores para la mejora de la seguridad y eficiencia. Concepto de Viviendas Sustentables Las viviendas sustentables se caracterizan por el uso eficiente de los recursos naturales y la reducción de emisiones contaminantes. Según la Organización de las Naciones Unidas (ONU), una vivienda sustentable debe considerar aspectos como la eficiencia energética, el uso de materiales ecológicos, la gestión adecuada del agua y la integración de tecnologías que mejoren la habitabilidad sin comprometer el entorno. Integración de Paneles Solares en Viviendas Los paneles solares son dispositivos que convierten la energía solar en electricidad. Esta tecnología es fundamental en las viviendas sustentables, ya que permite la generación de energía limpia y renovable. Funcionamiento de los Paneles Solares Los paneles solares están compuestos por células fotovoltaicas que transforman la luz solar en corriente eléctrica. Esta electricidad puede ser utilizada directamente en la vivienda o almacenada en baterías para su uso posterior. La instalación de paneles solares no solo reduce la dependencia de fuentes de energía fósiles, sino que también puede significar un ahorro económico a largo plazo. Automatización y Sensores en Viviendas Sustentables La automatización del hogar mediante sensores y dispositivos inteligentes mejora la eficiencia energética y la seguridad. En el caso específico de la maqueta desarrollada, se han integrado sensores de movimiento y una bocina para alertar sobre cualquier actividad inusual. Sensores de Movimiento Los sensores de movimiento son dispositivos que detectan la presencia de personas o animales en un área específica. Funcionan mediante la emisión de ondas (infrarrojas, ultrasónicas, etc.) y la detección de cambios en el entorno. Control de encendido y apagado de focos led La tarjeta SP8266 se conectará a la placa Arduino R3 para poder controlar las luces led, esto se podrá hacer por medio de un dispositivo móvil (teléfono celular) el cual por medio de la red inalámbrica se podrá controlar el encendido y apagado de las luces desde cualquier parte del mundo por medio de una aplicación vinculada que se llama Blynk loT.


CONCLUSIONES

    Como resultado del proyecto se obtiene un prototipo de casa inteligente sustentable, el cual es alimentada por medio de energía solar, esta energía se acumula en una pila que trae el mismo panel solar y el cual tiene su propio regulador de energía.      Se implementó un sensor de fotocelda la cual controla las tiras led de 12 volts. Este sensor funciona o activa cundo llaga la noche o se tapa el sensor y queda obscuro.     Al igual se llevó a la practica la conexión de dos sensores de movimiento, los cuales están conectados a un zumbador o alarma. Estos sensores se activan cuando una persona esta cerca de ellos y realiza cualquier movimiento.       Por último, se realizó la conexión de la tarjeta SP8266, la cual es una tarjeta que se vincula con red Wifi para poder controlar desde un dispositivo móvil el encendido y apagado del foco de luz fría. El proceso que se acaba de explicar se puede apreciar en la siguiente liga: https://youtube.com/shorts/thqx7LzH6l0?feature=share Como conclusión se obtiene que las viviendas sustentables representan una solución viable y necesaria frente a los desafíos ambientales actuales. La integración de paneles solares y los sensores de movimiento, no solo contribuye a la reducción del impacto ambiental, sino que también mejora la calidad de vida y la seguridad de los habitantes. Además, el control de dispositivos mediante un dispositivo móvil conectado a una red Wifi añade un nivel adicional de convivencia y eficiencia energética. Este sistema permite a los usuarios encender y apagar luces y alarmas desde cualquier ubicación incluso en cualquier parte del mundo donde se tenga acceso a alguna red Wifi, ofreciendo un manejo intuitivo y flexible de la iluminación en el hogar. El desarrollo y estudio de maquetas y prototipos son pasos esenciales para la implementación y optimización de estas tecnologías en la vida real, asegurando su funcionalidad y adaptabilidad a diferentes entornos residenciales. Video del prototipo: https://youtube.com/shorts/thqx7LzH6l0?feature=share Articulo realizado con el investigador: https://docs.google.com/document/d/1m1p-XtH_5jObLeWnPf9S5f4VjbnD_v_l/edit?usp=sharing&ouid=107585600411323756748&rtpof=true&sd=true
Rosas Archiveque Amado, Universidad de Sonora
Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)

EVALUACIóN DE LA PRECISIóN EN LOS PRONóSTICOS DE PIEZAS ENTREGADAS Y ANáLISIS DE LA VARIABILIDAD EN HORARIOS DE SALIDA EN EL TRANSPORTE DE MERCANCíAS


EVALUACIóN DE LA PRECISIóN EN LOS PRONóSTICOS DE PIEZAS ENTREGADAS Y ANáLISIS DE LA VARIABILIDAD EN HORARIOS DE SALIDA EN EL TRANSPORTE DE MERCANCíAS

Beltran Manzano Aylin Guadalupe, Instituto Tecnológico de Ciudad Juárez. Cabral Rivera Frida Nayeli, Instituto Tecnológico de Ciudad Juárez. Rosas Archiveque Amado, Universidad de Sonora. Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En el ámbito del transporte de mercancías, la precisión en los pronósticos de piezas entregadas y la coordinación de los horarios de salida son fundamentales para asegurar la eficiencia operativa y la satisfacción del cliente. Sin embargo, se ha observado que existen discrepancias significativas entre las piezas pronosticadas y las realmente entregadas, así como variabilidad en los horarios de salida entre diferentes rutas. Estas discrepancias pueden llevar a ineficiencias logísticas, incrementos en costos y afectación en la calidad del servicio. Los problemas identificados son inexactitud en los pronósticos de piezas entregadas, las diferencias significativas entre las cantidades de piezas pronosticadas y las entregadas generan desafíos en la gestión de inventarios, planificación de recursos y cumplimiento de plazos. Esto puede deberse a limitaciones en los modelos de pronóstico o a factores no anticipados en la cadena de suministro. El otro problema es Variabilidad en los Horarios de Salida entre Ciudades, esto por la inconsistencia en los horarios de salida puede reflejar una falta de coordinación y planificación, lo que impacta en la optimización de rutas y tiempos de entrega. Esta variabilidad puede estar influenciada por factores específicos de cada ciudad, como infraestructura, regulaciones locales, o condiciones de tráfico. Este reporte busca identificar y cuantificar estas discrepancias y variabilidades, y explorar las posibles causas y soluciones para mejorar la precisión en los pronósticos y la eficiencia en la gestión de los horarios de salida. El análisis detallado proporcionará una base para el desarrollo de estrategias de mejora en la logística del transporte de mercancías, con el objetivo de optimizar los procesos operativos y reducir costos.



METODOLOGÍA

Para realizar el análisis estadístico pertinente se tomaron en cuenta varias actividades principales como la  recopilación de datos que consiste en identificar de dónde provienen los datos. La frecuencia con la que estos son recopilados, así como definir claramente las variables medidas. Se tiene que llevar a cabo una limpieza de datos para que estos tengan coherencia y así mismo decidir cómo se van a manejar los datos atípicos si es que existen. El primer paso es realizar el análisis de datos mediante una apreciación general de los datos. Después de esto se deben de visualizar los datos por medio de los diferentes gráficos existentes así como agregar anotaciones que puedan explicar anomalías o cambios en los datos. Por último se debe hacer la interpretación de los datos de acuerdo al contexto en el que se está trabajando, comprobando que las hipótesis que sean planteadas se acepten o rechacen según sea el caso.


CONCLUSIONES

El presente estudio ha demostrado que el uso de RStudio en la optimización de procesos logísticos y en el análisis de datos en el sector del transporte de piezas puede ser altamente efectivo. A través del análisis detallado de las diferencias entre las piezas pronosticadas y las realmente entregadas, se ha evidenciado que existen discrepancias significativas que pueden abordarse y minimizarse mediante el uso de técnicas avanzadas de análisis de datos y modelado predictivo. Uno de los hallazgos más importantes de este estudio es la identificación de patrones de error y variabilidad en los pronósticos, particularmente en ciertos estados como Veracruz y Ciudad de México, que presentaron las mayores discrepancias. Estos resultados subrayan la necesidad de ajustar los modelos predictivos y los procesos logísticos para mejorar la precisión y eficiencia en la entrega de piezas. La aplicación de la prueba t para muestras pareadas ha revelado una diferencia estadísticamente significativa entre los pronósticos y los valores reales, con un valor p extremadamente pequeño, lo que nos permite rechazar la hipótesis nula de que no hay diferencia significativa entre los pronósticos y los valores reales. Esta diferencia media, aunque cuantitativamente pequeña (aproximadamente 0.599), es crucial para entender y mejorar los procesos logísticos. El uso de RStudio ha facilitado no solo el análisis y visualización de grandes volúmenes de datos, sino también la implementación de algoritmos complejos que pueden predecir y optimizar la logística del transporte de piezas. La capacidad de RStudio para manejar datos de manera eficiente y su interfaz amigable han sido factores clave en la realización de este estudio. En conclusión, este proyecto ha permitido demostrar que la incorporación de herramientas avanzadas de análisis de datos como RStudio puede conducir a mejoras significativas en la eficiencia y precisión de los procesos logísticos en el sector del transporte de piezas. La capacidad de identificar y corregir discrepancias, así como de optimizar rutas y procesos, representa un avance importante hacia la modernización y mejora continua de la logística en esta industria. Esta investigación no solo aporta una metodología robusta para la optimización de procesos logísticos mediante el uso de RStudio, sino que también sienta las bases para futuras investigaciones que puedan expandir y aplicar estos hallazgos a otras áreas del transporte y la logística, impulsando así la innovación y eficiencia en el sector.
Rosas Cano Florencia Itzel, Instituto Tecnológico de Ciudad Juárez
Asesor: Mg. Yulieth Vanessa Palomino Perez, Corporación Politécnico de la Costa Atlántica

LOGíSTICA 4.0 Y 5.0 EN LA CADENA DE SUMINISTRO: UNA REVISIóN SISTEMáTICA UTILIZANDO LA METODOLOGíA PRISMA


LOGíSTICA 4.0 Y 5.0 EN LA CADENA DE SUMINISTRO: UNA REVISIóN SISTEMáTICA UTILIZANDO LA METODOLOGíA PRISMA

Alvarez Cristian Eduardo, Instituto Tecnológico de Ciudad Juárez. Rosas Cano Florencia Itzel, Instituto Tecnológico de Ciudad Juárez. Asesor: Mg. Yulieth Vanessa Palomino Perez, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

Las ciudades inteligentes representan el futuro de la urbanización, prometiendo mejoras significativas en la calidad de vida y en la eficiencia de la gestión urbana a través de tecnologías avanzadas. En el contexto de la Logística 4.0 y 5.0, tecnologías como la inteligencia artificial, el Internet de las Cosas (IoT), el Big Data y el Blockchain son esenciales para la transformación digital. Sin embargo, hay una falta de claridad y marcos definidos sobre cómo aplicar eficazmente estas tecnologías para optimizar la logística y las cadenas de suministro en las ciudades inteligentes. Este estudio pretende llenar este vacío proporcionando una revisión sistemática de la literatura, con el objetivo de identificar los progresos actuales, los retos existentes y las oportunidades futuras en la implementación de tecnologías 4.0 y 5.0 en la logística de las ciudades inteligentes.



METODOLOGÍA

Para realizar una revisión exhaustiva y estructurada, se siguieron las directrices de la declaración PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-Analyses). Búsqueda inicial La búsqueda inicial se llevó a cabo en junio de 2024, añadiendo los términos "Logistics 4.0" y "Logistics 5.0" utilizando bases de datos académicas como Science Direct, Google Académico y ProQuest. Debido a las restricciones de acceso en Web of Science y Scopus, se decidió omitir estas bases de datos de la búsqueda sistemática. Búsqueda sistemática La combinación de términos que mostró mejores resultados en los tres buscadores fue la siguiente: ("Logistics 4.0 OR Supply Chain 4.0), (Logística 5.0 OR Cadena de suministro 5.0 OR Logistics 5.0 OR Supply Chain 5.0). La estrategia de búsqueda inicial arrojó un total de 814 resultados y antes de proceder a la selección de artículos, se definieron los siguientes criterios de inclusión y exclusión. Criterios de Inclusión Artículos centrados en la cadena de suministro. Artículos científicos recientes (2021-2024). Uso de los tecnicismos descritos anteriormente. Estudio del concepto en un contexto tecnológico. Artículos en español o inglés. Los artículos deben tener acceso directo. Criterios de Exclusión Artículos sobre procesos industriales. Artículos anteriores a 2021. Páginas web. Según estos criterios, inicialmente se consideraron adecuados 229, después se seleccionaron 64 artículos basados en la lectura del título. Tras leer los resúmenes, se descartaron 11 artículos que no cumplían con los criterios de inclusión, y tras eliminar 5 artículos por ser duplicados o que no tuvieran relación al tema en particular, se tomaron al final 48 artículos los cuales fueron seleccionados para la revisión sistemática, añadiendo 1 libro como literatura. Búsqueda manual Al revisar la literatura se encontró factible el uso de un libro como fuente de información. Análisis e interpretación de resultados Herramientas como Mendeley y Zotero se utilizaron para gestionar las referencias, mientras que hojas de cálculo de Excel facilitaron la síntesis y análisis de los datos extraídos. RStudio, mediante la librería Bibliometrix se empleó para la elaboración de gráficos y la visualización de los datos obtenidos.


CONCLUSIONES

Los resultados de la revisión sistemática indican que la mayoría de las investigaciones se centran en revisiones de literatura y estudios de caso que buscan consolidar el conocimiento existente y explorar aplicaciones prácticas de las tecnologías emergentes en el ámbito logístico. Entre las principales contribuciones se identificaron modelos conceptuales y revisiones tecnológicas que destacan la importancia del IoT, Big Data, IA y Blockchain en la digitalización y optimización de la cadena de suministro en las ciudades inteligentes. Sin embargo, se observó una limitación significativa en la aplicabilidad y generalización de los hallazgos debido a la dependencia de muestras pequeñas y enfoques sectoriales específicos. Esto subraya la necesidad de más investigaciones empíricas y estudios a gran escala que aborden la integración de estas tecnologías en diferentes ámbitos. A pesar de las limitaciones identificadas, los hallazgos resaltan el potencial de estas tecnologías para transformar la cadena de suministro, mejorando su eficiencia, sostenibilidad y resiliencia. Además, se destacó la importancia de considerar aspectos sociales y éticos en la implementación de tecnologías de la Industria 4.0 y 5.0, sugiriendo futuras investigaciones que exploren la interacción entre estas tecnologías y las funciones de la cadena de suministro en un marco más amplio de sostenibilidad y responsabilidad social. En general, este estudio sirve como una guía valiosa para investigadores y profesionales interesados en comprender y aprovechar el poder de las tecnologías emergentes en la logística de las ciudades inteligentes.
Rosas Ibarra Ricardo, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan

DESARROLLO DE APLICACIONES MóVILES PARA SOLUCIóN DE PROBLEMáTICAS DE IMPACTO SOCIAL, ECONóMICO, ETC.


DESARROLLO DE APLICACIONES MóVILES PARA SOLUCIóN DE PROBLEMáTICAS DE IMPACTO SOCIAL, ECONóMICO, ETC.

Hernandez Blanco Angel Jesus, Instituto Tecnológico Superior de Uruapan. Romero Sánchez José Francisco, Instituto Tecnológico Superior de Uruapan. Rosas Ibarra Ricardo, Instituto Tecnológico Superior de Uruapan. Torres Loya Olga Christelle, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Uno de los mayores desafíos que enfrentan los desarrolladores de aplicaciones móviles es la fragmentación de plataformas. Con la gran cantidad de dispositivos y sistemas operativos diferentes en el mercado, puede ser difícil crear una aplicación que funcione en todos ellos.  Otro desafío común que enfrentan los desarrolladores de aplicaciones móviles es el rendimiento. Las aplicaciones móviles deben ser rápidas y fluidas para brindar una buena experiencia de usuario.



METODOLOGÍA

Las herramientas que se utilizaron para este proyecto de forma temprana son provenientes de servicios gratuitos como puede ser IDX, siendo este un codificador similar como lo es Visual Studio Code, teniendo al diferencia en que este servicio incluso nos permitirá realizar pruebas semejantes a las de un emulador, tales como un dispositivo móvil con sistema Android o de igual forma visualizando como una página web, todo ello basándose en la programación del lenguaje Dart bajo el framework Flutter, siendo este el apartado más importante ya que la aplicación funcionara con este sistema como motor. Dart permite generar un único código fuente que, al momento de compilar, posibilita la selección de diferentes plataformas de destino. Esta característica contribuye significativamente a la reducción del tiempo de producción de aplicaciones, eliminando la necesidad de escribir y mantener múltiples versiones del código para diferentes sistemas operativos. Flutter, desarrollado por Google, es un framework de código abierto que facilita la creación de aplicaciones nativas multiplataforma a partir de un único código base. Su motor gráfico Skia proporciona interfaces de usuario de alta calidad y rendimiento, ofreciendo una experiencia fluida y consistente en plataformas como iOS, Android, web y escritorio. Además, Flutter promueve un desarrollo ágil mediante su función de "hot reload" y cuenta con una amplia comunidad y recursos de soporte que optimizan el proceso de desarrollo. Uno de los objetivos principales de esta investigación es obtener una visión integral sobre las diversas herramientas, frameworks y plataformas disponibles que pueden abordar el desafío de la producción de código multiplataforma. Esta exploración permitirá identificar las soluciones tecnológicas más adecuadas para desarrollar aplicaciones eficientes en múltiples sistemas operativos, optimizando recursos y mejorando la experiencia del usuario. El entorno de desarrollo utilizado fue Project IDX, una plataforma en la nube de Google diseñada para simplificar la creación de aplicaciones web y móviles. Permite el acceso al entorno de desarrollo desde cualquier dispositivo con conexión a internet, facilitando la colaboración en tiempo real y eliminando la necesidad de configuraciones locales complejas. Además, la plataforma permite trabajar en proyectos sin necesidad de contar con hardware especializado, ya que los recursos son proporcionados por los servidores de Google. Al estar basado en la nube, Project IDX ofrece escalabilidad y recursos bajo demanda, permitiendo a los desarrolladores gestionar proyectos de cualquier tamaño sin preocuparse por limitaciones de hardware. Inicialmente, se analizó la sintaxis del lenguaje Dart y se construyeron programas sencillos. Este enfoque facilitó la familiarización con la sintaxis del lenguaje y las diversas herramientas proporcionadas por el framework Flutter para optimizar la producción de código, destacando entre ellas los widgets. En Flutter, los widgets son los componentes fundamentales para construir la interfaz de usuario, representando todos los elementos visuales e interactivos, como botones, textos e imágenes. Estos widgets están organizados jerárquicamente en un árbol, son inmutables y configurables, lo que permite realizar cambios mediante la creación de nuevos widgets en lugar de modificar los existentes. Los widgets se clasifican en varias categorías: widgets de diseño, que controlan la disposición; widgets de interfaz, que constituyen los elementos visibles; y widgets con estado, que pueden cambiar dinámicamente, frente a aquellos sin estado, que permanecen estáticos. Esta estructura permite crear interfaces complejas y dinámicas de manera eficiente. Una vez desarrollada una aplicación más compleja que incorpora diferentes tipos de menús para facilitar la navegación, se utilizó la herramienta de GitHub para trasladar el proyecto de manera local a Visual Studio Code Visual studio Code que nos permite agregar proyectos de flutter y poder visualizarlos cómo una aplicación de escritorio y emular el proyecto de flutter en un móvil Android virtual. además de poder vincularse con GitHub, lo que permite una conexión compartida entre las plataformas de project IDX y visual studio code, esto permite la visualización y edición en ambas plataformas. EJ:  Project IDX ←→ GitHub(Repositorio) ←→ Visual Studio Code


CONCLUSIONES

Flutter resuelve el problema de la fragmentación de plataformas al permitir a los desarrolladores crear aplicaciones con una única base de código que se puede compilar tanto para Android como para iOS. Esto elimina la necesidad de escribir y mantener código separado para cada plataforma, lo que ahorra tiempo, dinero y reduce la complejidad del desarrollo. También utilizando un motor de renderizado llamado Skia permite crear aplicaciones con un rendimiento nativo. Esto significa que las aplicaciones Flutter se ejecutan tan rápido y fluidas como las aplicaciones nativas escritas en Kotlin, C++ o Swift.
Rosete Felipe Hania, Universidad Politécnica de Atlacomulco
Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América

PROPUESTA PARA LA IMPLEMENTACIÓN DEL USO DE UN INVERNADERO DE NOPAL MEDIANTE LA APLICACIÓN DE INTELIGENCIA ARTIFICIAL (IA)


PROPUESTA PARA LA IMPLEMENTACIÓN DEL USO DE UN INVERNADERO DE NOPAL MEDIANTE LA APLICACIÓN DE INTELIGENCIA ARTIFICIAL (IA)

Rosete Felipe Hania, Universidad Politécnica de Atlacomulco. Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Su enfoque hacia la productividad del cultivo de nopal es la variabilidad en los rendimientos debido a factores como la falta de control preciso de las condiciones ambientales y el riego. Esto puede llevar a cambios sucesivos en la producción, lo que impacta directamente en la rentabilidad de los agricultores dedicados a este cultivo. La falta de tecnologías avanzadas para monitorear y ajustar de manera eficiente las condiciones dentro de los invernaderos de nopal puede resultar en una productividad fluctuante. La dependencia de métodos tradicionales y la ausencia de herramientas modernas como sensores para medir la humedad del suelo, la temperatura, la luz y otros parámetros clave pueden limitar el potencial de producción de manera significativa. Por lo tanto, proponer la creación de un invernadero de nopal con sistemas basados en Inteligencia Artificial (IA) que permitan un monitoreo continuo y una gestión automatizada de las condiciones ambientales podría ser una solución efectiva para mejorar la productividad del cultivo. La IA puede analizar datos en tiempo real, tomar decisiones precisas y ajustar automáticamente variables como el riego, la ventilación y la iluminación para optimizar el crecimiento y desarrollo de los nopales, lo que se traduciría en una mayor productividad y estabilidad en los rendimientos para los agricultores, ayudando a promover la innovación tecnológica en la agricultura y mejorar la infraestructura para aumentar la productividad de manera sostenible. Y abordar el problema de la productividad fluctuante en los invernaderos de nopal a través de la implementación de tecnologías basadas en IA no solo beneficiaría a los agricultores y al sector agrícola, sino que también contribuiría al cumplimiento del ODS 9 al fomentar la innovación y mejorar las infraestructuras para un desarrollo sostenible. 



METODOLOGÍA

La producción de nopales en invernaderos ha ganado popularidad debido a sus beneficios, como la optimización del uso del agua y la protección contra condiciones climáticas extremas. Sin embargo, enfrenta desafíos como los altos costos de inversión inicial, el control climático y el manejo integrado de plagas y enfermedades. En la agricultura de nopal, las enfermedades como fungosis, bacteriosis y virosis representan problemas importantes que afectan la salud de las plantas. La implementación de la Inteligencia Artificial (IA) en la agricultura, específicamente en el cultivo de nopales en invernaderos, promete beneficios significativos. La IA puede optimizar recursos, predecir cosechas, detectar plagas y enfermedades, automatizar tareas y personalizar el cultivo. Las tecnologías de IA como sistemas automatizados, aprendizaje automático, visión por computadora y sistemas expertos se proponen para mejorar la producción de nopales y los datos clave que se recopilarán y analizarán mediante IA incluyen variables ambientales, consumo de agua y nutrientes, estado fenológico de las plantas, plagas y enfermedades, y rendimiento de la cosecha. Se espera que la implementación de IA impacte en la eficiencia, productividad y sostenibilidad al optimizar la operación del invernadero, mejorar la toma de decisiones, aumentar la productividad y reducir costos. Aunque el presupuesto estimado para la implementación de IA en un invernadero de nopal puede ser significativo, ya que, la inversión en tecnologías con Inteligencia Artificial (IA) para la agricultura registrará un crecimiento desde US$ 700 millones en 2019 a más de US$ 2 mil 400 millones para el 2025. La agricultura es una industria que genera cada vez más datos, lo que se ha convertido en una fuente valiosa de información para los agronegocios y su eficiente aplicación es fundamental para tomar decisiones informadas y mejorar la eficiencia de las operaciones. Un correcto manejo de datos, potenciado con la implementación de la inteligencia artificial (IA) es clave para lograr un incremento de la producción y mejora en la calidad de los productos, pero se espera un retorno de inversión positivo a través de la optimización de recursos, el aumento de la productividad y la mejora en la calidad de los productos. Experiencias previas en la aplicación de IA en la agricultura indican avances en el monitoreo de cultivos, detección de enfermedades y sistemas expertos, destacando su potencial transformador. Y los posibles desafíos al incorporar IA en el cultivo de nopales incluyen aspectos técnicos, operativos y humanos, que requieren superar obstáculos como la infraestructura, la privacidad de datos, la capacitación de habilidades y la aceptación de nuevas tecnologías. Abordar estos desafíos con colaboración, capacitación y enfoque estratégico será clave para una integración exitosa de la IA en el cultivo de nopales, mejorando así la productividad y sostenibilidad en la agricultura. 


CONCLUSIONES

Durante mi estancia de verano se logró adquirir conocimientos teóricos del nopal y de la inteligencia artificial aplicada a los invernaderos, ya que, representa una oportunidad prometedora para mejorar la producción agrícola, optimizar recursos y brindar un enfoque innovador y sostenible para el cultivo de nopales. La combinación de tecnología y agricultura puede potenciar el rendimiento, calidad y eficiencia en la producción de este cultivo tradicional, ya que, su enfoque hacia la productividad del cultivo de nopal es la variabilidad en los rendimientos debido a factores como la falta de control preciso de las condiciones ambientales y el riego. Esto puede llevar a cambios sucesivos en la producción, lo que impacta directamente en la rentabilidad de los agricultores dedicados a este cultivo. Debido a la falta de tecnologías avanzadas para monitorear y ajustar de manera eficiente las condiciones dentro de los invernaderos de nopal puede resultar en una productividad fluctuante. La dependencia de métodos tradicionales y la ausencia de herramientas modernas como sensores para medir la humedad del suelo, la temperatura, la luz y otros parámetros clave pueden limitar el potencial de producción de manera significativa.
Rubalcaba Ortiz Brayan Valentin, Instituto Tecnológico de Pachuca
Asesor: Mg. Nemesio Miguel Daza Marquez, Universidad Simón Bolivar

EVALUACIóN DE LODOS PAPELEROS Y CENIZA VOLANTE COMO SUSTITUTOS PARCIALES DEL CEMENTO EN MEZCLAS DE MORTERO


EVALUACIóN DE LODOS PAPELEROS Y CENIZA VOLANTE COMO SUSTITUTOS PARCIALES DEL CEMENTO EN MEZCLAS DE MORTERO

Rubalcaba Ortiz Brayan Valentin, Instituto Tecnológico de Pachuca. Asesor: Mg. Nemesio Miguel Daza Marquez, Universidad Simón Bolivar



PLANTEAMIENTO DEL PROBLEMA

La industria cementera enfrenta un desafío debido a sus elevadas emisiones de dióxido de carbono (CO2), que representan aproximadamente el 7% de las emisiones globales. Este impacto ambiental es consecuencia de la descomposición del carbonato de calcio y del alto consumo energético durante el proceso de clinkerización. Con la proyección de que la demanda de Cemento Portland Ordinario (OPC) se duplicará para 2050, es importante buscar alternativas que reduzcan la huella de carbono asociada con la producción de cemento. En este contexto, la reutilización de subproductos industriales, como lodos papeleros y ceniza volante, surge como una solución para mitigar el impacto ambiental de la construcción. Los lodos papeleros, generados durante la fabricación de papel, contienen fibras de celulosa y compuestos minerales. Dado que estos lodos tienen una composición alta en calcio y silicio, pueden ser útiles como materiales cementantes suplementarios. Por otro lado, la ceniza volante, un residuo de la combustión del carbón en plantas termoeléctricas, está posee propiedades puzolánicas.  El objetivo de esta investigación es evaluar la viabilidad técnica de utilizar lodo papelero y ceniza volante como reemplazos parciales del cemento en mezclas de mortero. Se llevará a cabo una serie de experimentos para caracterizar las propiedades físicas y mecánicas de estos materiales, incluyendo su impacto en la trabajabilidad, densidad, resistencia a la compresión, absorción por capilaridad y pH del mortero. La incorporación de estos materiales podría no solo contribuir a una gestión más eficiente de residuos, sino también mejorar las propiedades del mortero, haciendo de esta una opción viable para la construcción sostenible. Los resultados de este estudio proporcionarán una base científica sólida para la adopción de prácticas de construcción más sostenibles, alineadas con los objetivos de reducción de emisiones y optimización de recursos naturales.



METODOLOGÍA

En el presente estudio se evaluó el uso de lodo papelero y ceniza volante como materiales alternativos en mezclas de mortero. El lodo papelero, obtenido de una planta de producción de papel, fue secado y posteriormente incinerado a tamaño de partícula fino. La ceniza volante, proveniente de plantas termoeléctricas que utilizan carbón, también fue secada y tamizada para obtener una distribución uniforme del tamaño de partícula. Para caracterizar los materiales, se llevaron a cabo análisis de para identificar la estructura. Adicionalmente, se midió el pH de las suspensiones de los aglutinantes utilizando un peachímetro digital, con una relación volumétrica de agua destilada de 1:1, para evaluar su comportamiento ácido-base. Las mezclas de mortero se prepararon siguiendo normas estándar para asegurar una correcta formulación. Las muestras se moldearon en cubos de 50 mm × 50 mm × 50 mm y se curaron en agua con una solución de cal para asegurar un curado consistente. Para evaluar el desempeño del mortero, se realizaron pruebas de trabajabilidad del mortero fresco, densidad en estado fresco y endurecido, resistencia a la compresión a los 28 y 90 días, y absorción por capilaridad. También se midió el pH del mortero endurecido para determinar su alcalinidad. Estos análisis proporcionaron una visión integral sobre la efectividad de los aglutinantes alternativos y su potencial para mejorar las propiedades del mortero.


CONCLUSIONES

Este estudio ha demostrado que la utilización de lodos papeleros y ceniza volante como sustitutos parciales del cemento en mezclas de mortero presenta un buen enfoque para reducir el impacto ambiental de la industria de la construcción. La investigación revela que la mezcla con 10% de ceniza volante y 10% de lodo papelero (MF10P10) logra mantener una resistencia a la compresión aceptable, aunque inferior a la mezcla contol. En contraste, la mezcla con 20% de lodo papelero (MF10P20) mostró una disminución significativa en la resistencia a la compresión, lo que subraya la importancia de controlar y optimizar las proporciones de los materiales reciclados. La reducción en la resistencia mecánica de la mezcla MF10P20 puede atribuirse al exceso de lodo papelero, que afecta negativamente la trabajabilid. Los resultados sugieren que, aunque la inclusión de materiales reciclados como lodos papeleros y ceniza volante puede contribuir a la sostenibilidad y la En conclusión, este estudio proporciona una base científica sólida para la incorporación de subproductos industriales en la producción de mortero, ofreciendo una alternativa sustentable y eficiente para la industria de la construcción. La optimización y la caracterización de estos materiales reciclados son esenciales para maximizar sus beneficios ambientales y funcionales, promoviendo así una construcción más verde y responsable.
Rubio Espinosa Gabriel, Instituto Politécnico Nacional
Asesor: Dr. José Antonio Castillo Torres, Instituto Politécnico Nacional

EFICIENCIA ENERGéTICA EN EDIFICACIóNES


EFICIENCIA ENERGéTICA EN EDIFICACIóNES

Rubio Espinosa Gabriel, Instituto Politécnico Nacional. Asesor: Dr. José Antonio Castillo Torres, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El calentamiento global ha aumentado en las últimas décadas, en el año 2023 se registró un aumentado de 1.36°C con respecto a las mediciones  en el siglo XIX (inicio de la industria). Una de las razones para este aumento son las emisiones de gases de efecto invernadero (GEI), que han ido creciendo con los años. Las emisiones de GEI se deben, principalmente, a la quema de combustibles fósiles para la producción de energía eléctrica o para la generación de calor. Según la Secretaría de Energía de México en el Balance Nacional de 2023, el sector formado por los edificios residenciales, comerciales y públicos consumen casi el 18% del total de la energía producida en el país.  El FIDE en 2019 reportó que las viviendas ubicadas en climas cálidos y que contaban con la instalación de un equipo de aire acondicionado de enfriamiento, el pago por el consumo de energía eléctrica debida a estos equipos correspondía al 35% del total. El uso de estos aires es para mantener niveles de confort térmico. El actual estudio realizado en la estancia se centró en un edificio de aulas de las instalaciones que se están construyendo para la Unidad Profesional Interdisciplinaria de Ingeniería Campus Palenque (UPIIP) del Instituto Politécnico Nacional. La UPIIP está localizada en el municipio de Palenque, Chiapas, catalogado con clima cálido húmedo. En este municipio es frecuente encontrar la instalación de sistemas de aire acondicionado, esto quiere decir que se tiene un alto consumo de energía eléctrica y por tanto un inherente emisión de GEI. En particular se estudió un edificio de aulas de las nuevas instalaciones de la UPIIP que cuentan con sistemas de aire acondicionado de enfriamiento. El objetivo del estudio es evaluar con programas de uso libre y gratuito el efecto que pueden tener estrategias de diseño bioclimático en la disminución del consumo de energía con adecuaciones menores que no comprometan el proyecto que se está construyendo.



METODOLOGÍA

Se realizó un modelo 3D del edificio 1 de aulas en el programa SketchUp con las herramientas del software OpenStudio, basándose en los planos arquitectónicos del edificio. El modelo incluye ventanas, puertas y elemento de sombreamiento. Se asignarón zonas térmicas para cada aula. No se encontró un archivo de clima de Palenque, se utilizó el archivo de clima de Villahermosa por considerarse un clima parecido. Se modelo al aire acondicionado mediante cargar térmicas ideales. Lo siguiente fue asignar los materiales a la simulación, adjuntando también sus propiedades térmicas (calor especifico, conductividad térmica y densidad, absortancia solar) de cada material, los materiales fueron concreto, yeso, tabla roca, y se agregó el aire, solo para mantener una estructura completa de la composición de los muros. Para efectos prácticos de la simulación se omitieron las que son llamadas cargas en el programa, es decir que se realizaron las simulaciones asumiendo que los espacios están vacíos, (sin inmobiliario, personas etc.). Inmediato a esto se procedió a poner las condiciones para los aires acondicionados usados en el edificio, se programó que estos se enciendan de 7:00 AM a 3:00 PM, al pasar los 23°C al exterior, operando a 25°C, después se programó un calendario que indique los días en los que el sistema este activo, es decir que el aire acondicionado solo estará activo los días programados y en un horario de 7:00 AM a 3:00 PM. Una vez establecidos estos datos en la simulación se obtuvieron los datos de consumo de energía por cada aula de los cuales se obtiene el gasto energético total por año de cada espacio, sin embargo, este gasto energético es dado en Jules (J), y en una interpretación de energía calorífica, por lo que se requiere una conversión a kilo Watts (kW) de energía eléctrica que consumiría el edificio. Para dicha conversión se realizó una investigación sobre el COP de los aires acondicionados usados en el edificio para tener una relación matemática entre la energía térmica y la eléctrica. Para observar de una mejor forma el gasto energético, se indago sobre el precio de la energía eléctrica en la zona, teniendo una tarifa del tipo 1B, según CFE, con esta tarifa se deben restar 175 kW, que se cobran de forma diferente, y se calcula el costo del resto de la energía aparte, al final ambos costos se suman, se observo que el costo total por año sería de 56,364.50 $. Debido al alto costo que tendría con las condiciones dadas, se realizaron 3 simulaciones más, siguiendo el mismo proceso hasta el análisis de los datos, con la diferencia de que en una se optó por que todo el exterior del edificio este pintado en blanco, es decir una absortancia solar de 0.2, así teniendo un porcentaje de ahorro del 32% y un costo de 38,226.28 $, la segunda variación siendo en el aire acondicionado, programando que este varié su temperatura de operación en función al clima de la época en la que se encuentre, es decir, el aire acondicionado no estará operando siempre igual, esta variación mostro un porcentaje de ahorro del 72% y un costo de 15,702.06, por último se realizó una simulación combinando ambas variaciones, mostrando un porcentaje de ahorro del 88% y un costo de 6,646.56$.


CONCLUSIONES

Para la mayor eficiencia energética y ahorro de costos en el edificio, es esencial tomar en cuenta la estructura, color, materiales, sistemas de enfriamiento etc., aplicando únicamente al edificio de Aulas 1 de la UPIIP, se encontró una forma de reducir los gastos aproximados que tendría el edificio hasta en un 88%, aplicando una programación de las temperaturas del setpoint en el aire acondicionado y pintando todo el edificio de color blanco. Métodos como este pueden ser aplicados a todo el campus e incluso a otras edificaciones, sin embargo, se destaca que se omitieron algunas variables que también afectan en los resultados, y que además se presentan en otras edificaciones por lo que se puedan encontrar otros métodos para la resolución de la problemática, aplicando a otras zonas.
Ruelas Estrada Edwin Alain, Universidad de Sonora
Asesor: Mg. Isabel Cristina Echeverri Ocampo, Universidad Autónoma de Manizales

BIOMARCADORES EN DEPRESIóN CON SEñALES DE ELECTROENCEFALOGRAFíA


BIOMARCADORES EN DEPRESIóN CON SEñALES DE ELECTROENCEFALOGRAFíA

Jimenez Medina Dominick Mateo, Universidad de Guadalajara. Rocha Páramo Joselyn, Universidad Autónoma de Baja California. Ruelas Estrada Edwin Alain, Universidad de Sonora. Asesor: Mg. Isabel Cristina Echeverri Ocampo, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

La depresión es un trastorno mental complejo y multifacético que afecta significativamente a millones de personas en todo el mundo. Según la Organización Mundial de la Salud (OMS), se estima que aproximadamente 280 millones de personas sufren de depresión, lo que representa el 3.8% de la población mundial. A pesar de los avances significativos en el campo de la psiquiatría y la psicología, el diagnóstico de la depresión sigue basándose en gran medida en evaluaciones clínicas y cuestionarios subjetivos. Estos métodos, aunque útiles, presentan limitaciones importantes debido a su naturaleza subjetiva y a la variabilidad en la presentación de los síntomas. La falta de herramientas diagnósticas objetivas y cuantificables dificulta la identificación precisa de la depresión y, en consecuencia, la personalización de los tratamientos. La búsqueda de biomarcadores específicos para la depresión ha emergido como una estrategia crucial para abordar estas limitaciones. Los biomarcadores son indicadores biológicos que pueden medirse objetivamente y proporcionar información sobre procesos patológicos, estados de enfermedad o respuestas a intervenciones terapéuticas. En el contexto de la depresión, los biomarcadores podrían ofrecer una forma más precisa y objetiva de diagnosticar el trastorno, monitorizar su progresión y evaluar la eficacia de los tratamientos.



METODOLOGÍA

Para identificar las investigaciones más recientes y relevantes sobre el uso de señales de EEG en el estudio de la depresión, se creó una cadena de búsqueda específica utilizando las palabras clave "depression", "mental health", "EEG" y "electroencephalography". Esta cadena se aplicó en diversas bases de datos, incluyendo Scopus, PubMed, ScienceDirect y Google Scholar. Los criterios de inclusión consideraron artículos publicados en inglés y español, realizados en los últimos cinco años y que utilizaran EEG como herramienta principal para la evaluación de la actividad cerebral. Se excluyeron artículos que investigaban otros trastornos neurológicos además de la depresión o estudios con más de cinco años de antigüedad. La revisión inicial consistió en la lectura de títulos y resúmenes de los artículos obtenidos, permitiendo una selección preliminar de estudios relevantes. Los artículos filtrados se organizaron en tablas comparativas para contrastar las metodologías empleadas y los resultados obtenidos. Junto con la revisión literaria, se planteó una metodología para indagar en los resultados recopilados, para esto se seleccionó un sujeto control y un sujeto con diagnóstico sugerente de depresión, se procesaron las señales obtenidas y se realizó un análisis de conectividad funcional en ambos casos. Para el procesamiento de las señales EEG, tanto del sujeto control como del sujeto con depresión, se aplicó un filtro pasa banda, centrando la señal en el rango de frecuencias de interés y eliminando señales de ruido. Posteriormente, se identificaron y eliminaron diferentes artefactos haciendo un análisis de componentes independientes (ICA).  El análisis de conectividad funcional se realizó utilizando el método wPLI, evaluando la consistencia de los desfases entre señales de EEG. Finalmente, se compararon los resultados de las señales EEG de los dos sujetos de prueba para identificar diferencias significativas en los ritmos cerebrales y la conectividad funcional. Los datos obtenidos de los artículos revisados y los experimentos propios se integraron para proporcionar una visión comprensiva de la utilidad del EEG como herramienta diagnóstica en la depresión.


CONCLUSIONES

La presente investigación se fundamenta en la revisión de literatura reciente y en un estudio experimental que analiza el uso de señales de electroencefalografía (EEG) en la identificación de biomarcadores para la depresión. A través del análisis detallado de las ondas cerebrales se observaron alteraciones significativas, especialmente en las ondas delta, que oscilan en el rango de 4Hz a 7Hz y están asociadas con un estado de reposo. El protocolo experimental incluyó pruebas con ojos cerrados y abiertos, aplicando diferentes estímulos en cada periodo. Los resultados de estas pruebas demostraron que el EEG es una herramienta viable y eficaz para el diagnóstico y tratamiento de la depresión. Mediante el uso de filtros específicos, fue posible identificar con mayor claridad las ondas cerebrales, permitiendo una comparación detallada entre los sujetos de prueba. Se encontró que las ondas alpha y beta mostraron cambios significativos en individuos con depresión, revelando diferencias notables en los ritmos cerebrales, coherencia y conectividad funcional entre individuos con depresión y sujetos sanos. Estas diferencias se correlacionaron con la severidad de los síntomas depresivos. La implementación de algoritmos de aprendizaje automático, como Máquinas de Vectores de Soporte (SVM), Bosques Aleatorios, Potenciación del Gradiente, Redes Neuronales Convolucionales (CNN) y Redes LSTM (Long Short-Term Memory), permitió una clasificación precisa de individuos con y sin depresión. Estos algoritmos buscan identificar patrones específicos en las señales EEG para su implementación como biomarcadores, mejorando así la precisión del diagnóstico y la personalización de los tratamientos. Los hallazgos obtenidos respaldan el uso de biomarcadores no solo para diagnosticar la depresión, sino también para monitorear su progresión y respuesta al tratamiento. Esto abre nuevas posibilidades para desarrollar herramientas diagnósticas y terapéuticas más efectivas y personalizadas. La capacidad de estos biomarcadores para proporcionar una medida objetiva de la actividad cerebral y su relación con los estados emocionales y cognitivos ofrece una ventaja significativa sobre los métodos tradicionales basados en evaluaciones clínicas y cuestionarios subjetivos.
Ruiz Franco Mayra Alejandra, Corporación Universitaria Minuto de Dios
Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)

ANáLISIS ESTADíSTICO DE DATOS LOGíSTICOS Y DE TRANSPORTE EN UNA EMPRESA MEXICANA USANDO EL LENGUAJE R.


ANáLISIS ESTADíSTICO DE DATOS LOGíSTICOS Y DE TRANSPORTE EN UNA EMPRESA MEXICANA USANDO EL LENGUAJE R.

Oliveros Almenarez Carolina Vanessa, Universidad de la Costa. Ruiz Franco Mayra Alejandra, Corporación Universitaria Minuto de Dios. Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El propósito principal de este estudio es realizar un análisis estadístico de datos logísticos y de transporte en una empresa mexicana, utilizando el lenguaje R. Este análisis busca transformar los datos recolectados por la organización en información valiosa que permita generar una visión más amplia y profunda de sus operaciones. Los datos disponibles incluyen información detallada sobre municipios de origen, municipios de destino, fechas, horas de salida, tiempo pronosticado y tiempo real de llegada. Mediante este análisis, se podrán identificar ineficiencias en las rutas de transporte, así como demostrar patrones en la demanda que ayudarán a optimizar la planificación logística. La importancia de este propósito radica en el potencial de estos datos para ofrecer percepciones cruciales que pueden transformar las operaciones de la empresa, mejorando su eficiencia y reduciendo sus desperdicios. Por lo tanto, el análisis de datos no solo es una herramienta de mejora, sino una necesidad estratégica para mantenerse competitivo en el mercado. Utilizando el lenguaje R, este estudio pretende aprovechar plenamente el valor de los datos logísticos y de transporte de la empresa para ofrecer insights accionables y mejorar sus operaciones.



METODOLOGÍA

El análisis comenzó desarrollando en RStudio el código necesario para obtener una tabla de frecuencias que permita observar la cantidad de viajes realizados entre distintos lugares de origen y destino, tanto dentro de la misma ciudad como entre diferentes ciudades. Los datos se exportaron a un archivo de Excel para facilitar su análisis. Posteriormente, se implementó un diagrama de dispersión para visualizar la relación entre los tiempos reales y pronosticados de transporte. El análisis del diagrama mostró una correlación positiva entre ambas variables, aunque con una significativa dispersión a medida que los tiempos aumentan. Se aplicó una prueba de correlación para confirmar esta tendencia. Para profundizar en el análisis, se generó un diagrama de cajas y bigotes utilizando el paquete ggplot2, revelando que el modelo de pronóstico tiende a subestimar los tiempos de transporte, especialmente para tiempos más largos.  Se aplicó el test t de Student para comparar los tiempos de transporte pronosticados con los tiempos reales. Los resultados mostraron una diferencia estadísticamente significativa entre las medias de ambos conjuntos de datos, con los tiempos pronosticados siendo, en promedio, 0.60 unidades más largos que los tiempos reales. Se realizaron pruebas de normalidad utilizando histogramas y la prueba de Shapiro-Wilk, confirmando que los datos no se distribuyen de manera normal. Por ello, se optó por la prueba no paramétrica de Kruskal-Wallis, que mostró diferencias significativas entre las variables "Tiempo-Real" y "Tiempo-Pronosticado". Finalmente, se evaluaron específicamente los datos de Veracruz mediante histogramas y pruebas de normalidad, aplicando nuevamente la prueba de Kruskal-Wallis, confirmando diferencias significativas entre los tiempos reales y pronosticados en esta ciudad.


CONCLUSIONES

En la estancia de verano, se adquirieron conocimientos teóricos y prácticos fundamentales para realizar este análisis estadístico de datos logísticos y de transporte en una empresa mexicana, utilizando el lenguaje R. Este estudio reveló con frecuencias la cantidad de viajes realizados entre lugares de origen y destino, destacando que la mayor cantidad de viajes, 61.554, se realiza en Veracruz. Este hallazgo sugiere una alta demanda de transporte en la ciudad, probablemente debido a una mayor densidad de población y actividad económica. Esta información es crucial para la planificación urbana y la mejora de los servicios de transporte en Veracruz. El diagrama de cajas y bigotes muestra que el modelo de pronóstico tiende a subestimar los tiempos de transporte, especialmente en los casos de tiempos más largos. Además, el diagrama de dispersión indica una correlación positiva entre los tiempos reales y los pronosticados. Sin embargo, también se observa una dispersión significativa a medida que los tiempos aumentan, lo que sugiere variabilidad en las predicciones para tiempos más largos. La mayoría de los puntos se concentran en la parte inferior izquierda del gráfico. La prueba t de Student confirma una diferencia estadísticamente significativa entre los tiempos reales y los tiempos pronosticados, con los tiempos pronosticados siendo, en promedio, 0.60 unidades más largos que los tiempos reales. Este resultado indica que el modelo de pronóstico tiende a sobreestimar los tiempos de transporte. Además, las pruebas de normalidad y Kruskal-Wallis corroboraron que las distribuciones de los tiempos reales y pronosticados no son normales y presentan diferencias significativas.  
Ruiz Garnica Isabella, Institución Universitaria Pascual Bravo
Asesor: Mg. Sandra Lucia Aguirre Franco, Unidad Central del Valle del Cauca

COMPARACIóN DE LOS CONTEXTOS ORGANIZACIONALES DE LA EMPRESA COOPERATIVA DOS PINOS (COSTA RICA) Y COLANTA (COLOMBIA) EN EL MARCO DE LA RESPONSABILIDAD SOCIAL EMPRESARIAL.


COMPARACIóN DE LOS CONTEXTOS ORGANIZACIONALES DE LA EMPRESA COOPERATIVA DOS PINOS (COSTA RICA) Y COLANTA (COLOMBIA) EN EL MARCO DE LA RESPONSABILIDAD SOCIAL EMPRESARIAL.

Herrera Carvajal Juliana, Institución Universitaria Pascual Bravo. Ruiz Garnica Isabella, Institución Universitaria Pascual Bravo. Asesor: Mg. Sandra Lucia Aguirre Franco, Unidad Central del Valle del Cauca



PLANTEAMIENTO DEL PROBLEMA

La responsabilidad social empresarial (RSE) es vital para las organizaciones que buscan equilibrar el crecimiento económico con el bienestar social y ambiental. Este proyecto compara las estrategias de dos empresas líderes del sector lácteo: Dos Pinos en Costa Rica y Colanta en Colombia. Se busca entender cómo estas prácticas varían según los contextos organizacionales específicos.



METODOLOGÍA

El objetivo principal es comparar los contextos organizacionales de Dos Pinos y Colanta en este ámbito. Se analizan y comparan sus estrategias, destacando enfoques comunes y diferenciadores, y se evalúa cómo sus estructuras organizacionales afectan la efectividad de sus programas.


CONCLUSIONES

La responsabilidad social en el sector lácteo es fundamental para el desarrollo sostenible de las empresas, mejorando las condiciones sociales, ambientales y económicas. La implementación de programas fortalece la cadena de suministro y contribuye a la competitividad. Además, la innovación en el diseño de productos y servicios, junto con la integración de estrategias de mercadeo, gestión financiera y procesos de producción eficientes, es crucial para la competitividad de las empresas lácteas. La planificación, organización, dirección y control son esenciales para garantizar la eficiencia en la producción y comercialización. Este estudio ofrece una comprensión profunda de cómo Dos Pinos y Colanta abordan la responsabilidad social desde sus contextos organizacionales y administrativos, proporcionando valiosas lecciones para otras empresas del sector lácteo.
Ruiz González César Alfonso, Universidad Autónoma de Chiapas
Asesor: Dra. María Milagrosa del Carmen Pérez Sánchez, Universidad Autónoma de Yucatán

VIVIENDA ADECUADA, HáBITAT SOSTENIBLE Y COHESIóN SOCIAL. ALTERNATIVAS PARA INCIDIR EN LAS CONDICIONES DE POBREZA URBANA EN ZONAS VULNERABLES DE ATENCIóN PRIORITARIA EN TRES CIUDADES DE MéXICO (CIUDAD JUáREZ, MéRIDA Y MEXICALI). “JARDíN MULTIPROPóSITO”.


VIVIENDA ADECUADA, HáBITAT SOSTENIBLE Y COHESIóN SOCIAL. ALTERNATIVAS PARA INCIDIR EN LAS CONDICIONES DE POBREZA URBANA EN ZONAS VULNERABLES DE ATENCIóN PRIORITARIA EN TRES CIUDADES DE MéXICO (CIUDAD JUáREZ, MéRIDA Y MEXICALI). “JARDíN MULTIPROPóSITO”.

Ruiz González César Alfonso, Universidad Autónoma de Chiapas. Asesor: Dra. María Milagrosa del Carmen Pérez Sánchez, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

La vivienda adecuada es aquella que cumplen ciertos estándares y condiciones mínimas para garantizar que las personas puedan vivir con seguridad, salud y dignidad. Como factor negativo, en el área de estudio que es en la colonia Jacinto Canek ubicado al Sur de la ciudad de Mérida Yucatán, se presenta un desarrollo social, habitacional y urbano deficiente, por varios factores, por lo que distintas familias carecen de ciertos servicios básicos, produciendo múltiples desventajas de seguridad y salud. El crecimiento población, produce un desarrollo de la mancha urbana de la ciudad de Mérida, con ello produciendo un alto problema para la ciudad y al mismo tiempo para las personas que por necesidad de refugio aceptan vivir en esas condiciones habitacionales y sociales. En consecuencia, a ello, los colonos carecen de sistema de alcantarillado, saneamiento, energía eléctrica, agua potable entre otros. Por lo que la intervención que se está realizando en dicha zona de estudio es para poder a contribuir al mejoramiento social de la colonia con la mejora de la imagen y paisaje urbano.  



METODOLOGÍA

El desarrollo del proyecto como ya se mencionó se está desarrollando en la colonia Jacinto Canek ubicado en la Ciudad de Mérida. La importancia de trabajar junto a un equipo multidisciplinario es desarrollar distintas actividades de bien común y poder crear estrategias de crecimiento en la zona de intervención. El trabajo para el mejoramiento de la colonia se ha venido trabajando dese el año 2022 con fines para el bienestar de los colonos. Este trabajo de investigación se desarrolló con una serie de pasos para lograr resultados acertivos, los cuales fueron los siguientes: I. II. III. IV. V. VI. Primer Contacto del equipo de trabajo Multidisciplinario con las personas de la colonia Jacinto Canek. Análisis de la fase preliminar ( análisis urbano y diseño arquitectónico). Visita y registro de las personas Primeras imágenes de la propuesta de Diseño de Jardín multipropósito. Elaboración de Jardines. Siembra de Semillas y Árboles. I._El equipo de trabajo involucrado en este proyecto tuvieron una comunicación directa con las personas interesadas y se les explicó cual era el propósito de la intervención, dejando en claro que debería ser un trabajo colaborativo entre los investigadores y los colonos y que se pretendía realizar un diseño del Umbral de las viviendas y la remodelación de fachadas obtenindo pintura gratis. II._Se empezó a estudiar las condiciones urbanas y sociales que tenía la colonia para poder intervenir de una mejor manera y desarrollar los jardines multipropósitos de una mejor manera, enfocadonos a la importancia de la flora que debería tener la colonia, ya que dentro del análisis de estudio es una colonia con falta de vegetación. III._Las personas interesadas en participar en el proyecto se registraron y nos tenían que regalar copia de INE y Comprobante de Domicilio y así mismo se les pedía que contaran con toda la actitud y ganas posible de colaborar con el proyecto ayudandonos a mejorar sus humbrales y a pintar su propia fachada. IV._ Se empezó a desarrollar el diseño de los jardínes multipropósitos de las dos familias que nos tocaron por pareja, tomando en cuenta que se podría realizar dicho jardín con ayuda de materiales reciclados. Tomando en cuenta eso, se realizó los primeros bocetos de ideas para los jardínes y al mismo tiempo idea de plantas que se pretendían cembrar. V._Posteriormente se empezó a diseñar los jardines, empezando por la limpeza del jardín en la parte que se iba a realizar y a empezar a poner todo nuestro ingenio de tal modo que el jardín diera una mejor vista a la fachada. En este caso se usó grava, piedras, y llantas para la imagen de la fachada. VI._Posterior a eso, se sembraron las semillas que nos otorgaron para las familias, esas semillas eran de tomate, lechuga, betabel, calabacín, cilantro, melón entre otros. Esto con la finalidad de que las personas pudieran tener su propio huerto sustentable.


CONCLUSIONES

La intervención que se realizó en Jacinto Canek ayudó al mejoramiento de la imagen y paisaje urbano de una manera favorecedora para las personas. Además de sumar a la calidad de vida de los colonos con la implementación de la siembra de semillas comestibles y árboles. El intervenir en Jacinto Canek tuvo un impacto positivo amplio, desde el mejoramiento de la salud y contar con una vivienda más digna y así mismo promover el desarrollo económico, hasta preservar el medio ambiente y el patrimonio cultural. 
Ruiz Gonzalez Citlali, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica

DESARROLLO DE UN PROTOTIPO PARA EL MONITOREO Y CONTROL DE ASPERSORES CON TECNOLOGíA DE INTERNET DE LAS COSAS ORIENTADO AL MEJORAMIENTO DE LA CALIDAD DEL AIRE EN EL SECTOR MINERO Y SUS POBLACIONES ALEDAñA.


DESARROLLO DE UN PROTOTIPO PARA EL MONITOREO Y CONTROL DE ASPERSORES CON TECNOLOGíA DE INTERNET DE LAS COSAS ORIENTADO AL MEJORAMIENTO DE LA CALIDAD DEL AIRE EN EL SECTOR MINERO Y SUS POBLACIONES ALEDAñA.

Garcia de Jesus Flor Lizeth, Tecnológico de Estudios Superiores de San Felipe del Progreso. Mauro Ramírez Violeta, Tecnológico de Estudios Superiores de San Felipe del Progreso. Ruiz Gonzalez Citlali, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

La minería es una actividad de las principales fuentes de contaminación ambiental, especialmente a la calidad del aire. La emisión de polvo y partículas durante el trabajo minero puede afectar gravemente la salud de los trabajadores y las comunidades cercanas. Es por eso que surge la idea de desarrollar un prototipo que aporte a la problemática de la contaminación del aire del sector minero de La Guajira. Integrando tecnologías como el Internet de las cosas (IoT) que pueda apoyar tecnológicamente la aspersión inteligente, con el objetivo de mejorar la calidad del aire de esa zona, de manera eficiente y efectiva, contribuyendo el bienestar de los trabajadores y comunidades vecinas.



METODOLOGÍA

Se realizó una investigación documental acerca de las plataformas que ofrece servicios en la nube que ayudarán con el monitoreo y almacenamiento de datos en tiempo real, de las cuales se destacan AWS, Azure y Google Cloud. Resaltando las características de cada una de estas herramientas para elegir la mejor opción.  De acuerdo a la información obtenida sobre estas plataformas se optó por la de AWS ya que es una opción superior en ciertos aspectos, como experiencia que se tiene desde su lanzamiento en 2006 y que fue uno de los principales servicios en la nube con una amplia gama de servicios con infraestructura robusta y que actualmente ha sido evolucionada y ofreciendo nuevos servicios con el tiempo, a diferencia de Google Cloud y Azure. AWS ofrece una mayor cantidad de servicios y características con una red de datos más extensa en regiones y zonas disponibles a diferencia de sus competidores, lo que permite a los usuarios desplegar sus aplicaciones de una manera más eficiente a sus clientes finales. Además de ser considerada más grande y activa, ya que cuenta con una comunidad de usuarios y desarrollares activa y extensa. Dentro de los costos suele ser un tanto complejo, aunque también suele ser más accesible dependiendo de las áreas, tiene también sus servicios gratuitos, pero por la variedad de opciones y necesidades de cada prototipo que puedan ser beneficiosos para diferentes tipos de cargas de trabajo. Por otro lado, está la innovación continua de la misma, constantemente introduce nuevos servicios y mejoras, manteniéndose a la vanguardia de la tecnología en la nube.


CONCLUSIONES

A lo largo de nuestra investigación, realizamos la comparación de diferentes plataformas y elegir una para trabajar de acuerdo a las necesidades del proyecto, gracias a la información obtenida pudimos saber cómo podríamos escoger la mejor entre ellas y por qué, es algo que podríamos resaltar ya que nuestro deber es asegurarnos que herramientas son eficientes e innovadoras para proyectos futuros relacionados con el internet de las cosas. Asimismo, tuvimos la oportunidad de poner en práctica algunos temas que ya habíamos visto en nuestra trayectoria académica, esta aplicación práctica reforzó nuestros conocimientos y contribuyo en nuestra formación profesional. En resumen, ser colaboradoras en el desarrollo de prototipos nos genera nuevas experiencias y ayuda a fortalecer nuestros conocimientos y generar nuevos referentes a la tecnología IoT adquiriendo nuevas competencias como futuros profesionales.
Ruiz Lopez Amberth Darlene, Universidad Veracruzana
Asesor: Mtra. Selene López Cameras, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.

ELABORACIóN DE UNA LOSETA DE TIERRA ALIGERADA Y COMPACTADA A BASE DE MATERIALES LOCALES DE LA FINCA ZOQUE, ACALA, CHIAPAS, MéXICO.


ELABORACIóN DE UNA LOSETA DE TIERRA ALIGERADA Y COMPACTADA A BASE DE MATERIALES LOCALES DE LA FINCA ZOQUE, ACALA, CHIAPAS, MéXICO.

Herrera Alejo Maria Guadalupe, Universidad de Ixtlahuaca. Illescas Mena Natalia, Universidad Autónoma de Baja California. Ruiz Lopez Amberth Darlene, Universidad Veracruzana. Asesor: Mtra. Selene López Cameras, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.



PLANTEAMIENTO DEL PROBLEMA

En la actualidad es un hecho que el sector de la construcción brinda una base física y tangible a la sociedad, pero, así como tiene beneficios estos producen grandes emisiones de contaminantes y residuos. Un ejemplo de ello son los residuos originados por la construcción de infraestructura urbana y desarrollado inmobiliario. los cuales terminan en sitios de disposición de materiales no tratados y generan focos de contaminación ambiental. Ante esta problemática, surge la necesidad de investigar y desarrollar alternativas constructivas sustentables que mitiguen el impacto ambiental y promuevan un entorno habitable y saludable. En este contexto, se plantea como objetivo principal de esta investigación el estudio de las características y propiedades de un material de construcción alternativo: Losetas a base de materiales naturales, como la tierra y la paja, son biodegradables y no tóxicos, siempre que provengan de fuentes no contaminadas. Esto significa que, al final de su vida útil, pueden reintegrarse en el medio ambiente sin causar daño, a diferencia de muchos materiales modernos que son difíciles de reciclar y pueden contener sustancias perjudiciales.



METODOLOGÍA

El proceso para la elaboración del producto se llevo acabo siguiendo las etapas del método LUMEX el cual consta de 6 etapas que se explican a continuación. La primera etapa del proceso implica la identificación de los elementos naturales disponibles en la finca zoque que se utilizarán para la creación de la pieza final. Entre los elementos naturales se incluyen los diferentes tipos de tierra que existen en el predio, además de las fibras que se utilizaran. La segunda etapa del proceso consiste en la extracción de los recursos naturales necesarios, utilizando maquinaria especializada para asegurar la eficiencia y calidad del material recolectado. La extracción se llevó a cabo en la finca Zoque, se utilizó una payloader con una capacidad de 3 m³. La tercera etapa se centra en la producción de la materia prima necesaria para la fabricación de las losetas, esta se llevó a cabo en las oficinas de LUMEX Durante esta fase, se implementan técnicas y procedimientos específicos para tamizar y cribar los materiales recolectados, tales como la paja y la tierra rosa y jagüey. La cuarta etapa del proceso implica la tecnificación del material constructivo. En esta fase, los materiales previamente cribados y clasificados se organizan según el tamaño de sus granos. Este ordenamiento es fundamental, ya que considera la interacción con elementos como el agua, el aire y el suelo. La correcta combinación de estos materiales resulta en un material de construcción, con propiedades específicas deseadas para las losetas de tierra. Durante esta fase, se elaboraron losetas con diferentes proporciones de materiales hasta encontrar las combinaciones óptimas que satisfagan los requisitos específicos del proyecto. La mezcla óptima se logró en la loseta número 25, la cual obtuvo una consistencia plástica ideal para su moldeado. Esta loseta presentó caras homogéneas y aristas bien formadas, lo que fue un punto destacado en su evaluación. La ultima etapa es la sistematizacion,en esta  se realiza la producción en serie de 10 losetas, con base en las proporciones de la loseta 25  hasta llegar a un objetivo de 30 losetas como minino, pare ello se ajustan las proporciones a esas cantidades


CONCLUSIONES

El estudio realizado para evaluar la hipótesis planteada sobre la fabricación de losetas con materiales naturales utilizando el método LUMEX ha sido exitoso en confirmar la validez de nuestra hipótesis. Las proporciones utilizadas en la mezcla (75 ml de tierra rosa, 25 ml de tierra Jagüey, 200 ml de paja, 85 ml de cal en pasta y 50 ml de agua) demostraron ser efectivas para alcanzar los objetivos. La mezcla de materiales, utilizando las proporciones precisas, resultó en una consistencia plástica óptima. Este resultado permitió que la loseta se moldeara fácilmente y que el desmoldeo se realizara sin dificultades, además esta consistencia da pie a la elaboración de estas piezas en diversos formatos debido a la estabilidad alcanzada. Por otro lado, las propiedades mecánicas de la loseta, tales como su ligereza, resistencia a la caída y a la inmersión, fueron evaluadas satisfactoriamente. La loseta final, con un peso de 170 gramos, resultó significativamente más ligera en comparación con las losetas de tierra cruda tradicionales. Esta ligereza se logró gracias a la inclusión de paja como fibra natural, que no solo redujo el peso, si no que este enfoque no solo fomenta la colaboración de diversos grupos de la comunidad, sino que también reduce las barreras físicas que tradicionalmente limitan su participación en tareas de construcción. Además, la loseta ligera pretende ser eficiente y práctica, contribuyendo a procesos constructivos más accesibles.  
Ruiz Renteria Kevin Zaid, Instituto Tecnológico de Morelia
Asesor: Dr. Jose Lemus Ruiz, Universidad Michoacana de San Nicolás de Hidalgo

UNIóN Y CARACTERIZACIóN DE CARBURO DE TUNGSTENO (WC) A NíQUEL USANDO INTERCAPAS DE COBRE-ZINC


UNIóN Y CARACTERIZACIóN DE CARBURO DE TUNGSTENO (WC) A NíQUEL USANDO INTERCAPAS DE COBRE-ZINC

Ruiz Renteria Kevin Zaid, Instituto Tecnológico de Morelia. Asesor: Dr. Jose Lemus Ruiz, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los materiales compuestos de carburo de tungsteno y cobalto (WC-Co), también denominados CERMET, son ampliamente utilizados en aplicaciones industriales debido a su alta dureza y resistencia al desgaste. Sin embargo, la unión de WC-Co con otros metales, como el níquel (Ni), sigue representando un desafío técnico significativo. Las uniones metalúrgicas son esenciales para mejorar la durabilidad y rendimiento de componentes en diversas industrias, incluyendo la automotriz, aeroespacial y de herramientas de corte. En México, la industria manufacturera enfrenta la necesidad de desarrollar procesos de unión efectivos que permitan combinar las propiedades excepcionales de WC-Co con la ductilidad y resistencia a la corrosión del níquel. A pesar de los avances tecnológicos, las técnicas de unión existentes no siempre garantizan una interfaz libre de defectos y con propiedades mecánicas optimizadas. El objetivo de este estudio es investigar la efectividad de las técnicas de unión en fase sólida y fase líquida (Brazing) utilizando una aleación de cobre-zinc (Cu-Zn) como material de aporte, para unir WC-Co con Ni. Las uniones se realizarán a temperaturas de 970°C y 1000°C, y se analizarán las características metalográficas y mecánicas de las uniones obtenidas. Este estudio busca proporcionar una metodología mejorada para la unión de estos materiales mediante una adecuada preparación de la superficie acorde al método de unión, con el fin de optimizar sus aplicaciones industriales y contribuir al avance tecnológico en el campo de los materiales compuestos.



METODOLOGÍA

Se cortaron muestras de 3mm de espesor de barras comerciales de 6mm de diámetro y 25 mm de longitud, de WC-Co6% y Ni usando una cortadora de precisión de disco de diamante, las muestras se prepararon mediante desbastado con lijas de SiC y números de 600, 800, 1000 y 1500, finalizando con un pulido mecánico con una suspensión de alúmina de 0.1, 0.3 y 0.05. Se buscó promover rugosidad en las superficies en contacto de un par de muestras de WC y Ni, para las uniones de brazing mediante desbastado. Las uniones se realizaron en un dado de grafito, colocando una muestra de WC-Co6% en contacto directo con una muestra de Ni, mientras que las muestras con rugosidad se unieron con una aleación Cu-Zn en el medio. El dado se colocó dentro de un horno con un ciclo térmico a 970°C durante 30 minutos en una atmósfera controlada de argón (Ar). Este proceso se repitió a una temperatura de 1000°C. Tras el proceso de unión, se desmontaron las muestras unidas y se colocaron en resina, realizando un corte transversal a la unión con una cortadora de precisión con disco de diamante. Las uniones se prepararon para observar la interfase de unión por microscopía óptica y microscopía electrónica de barrido (SEM).


CONCLUSIONES

Es posible producir ensambles híbridos WC/Ni y Ni/Cu-Zn/Ni controlando la temperatura y tiempo de unión. Una elevada temperatura de 1000°C con un elemento de unión Cu-Zn puede ocasionar una interacción en la interfase excesiva, comprometiendo la integridad de la unión. Estos factores combinados permiten optimizar la unión y mejorar las propiedades mecánicas del material unido cerámico/metal resultante.
Ruiz Valencia Daniel Francisco, Universidad de Sonora
Asesor: Dr. Dagoberto Cabrera German, Universidad de Sonora

SíNTESIS DE PELíCULAS DE SULFURO DE COBALTO POR MéTODOS DE SILAR A PARTIR DE LOS PRECURSORES SULFATO DE COBALTO Y TIOACETAMIDA.


SíNTESIS DE PELíCULAS DE SULFURO DE COBALTO POR MéTODOS DE SILAR A PARTIR DE LOS PRECURSORES SULFATO DE COBALTO Y TIOACETAMIDA.

Ruiz Valencia Daniel Francisco, Universidad de Sonora. Asesor: Dr. Dagoberto Cabrera German, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de las películas delgadas de materiales depositados ha llevado a un rápido y valioso desarrollo de tecnologías, entre estas celdas solares, transistores, LEDs, lentes, sensores, etc. Debido a estos resultados, se busca el desarrollo continuo de la tecnología de películas delgadas para mantener, abaratar y ambientalizar dichas tecnologías. También es importante señalar que el desarrollo de estas tecnologías ha sido liderado principalmente por países como EE. UU., Alemania y China, dejando atrás a países como México en esta rama. Esto lleva a situaciones problemáticas, como la dependencia de productos de los grandes desarrolladores y, en el caso específico de México, que tiene muchos recursos potenciales en áreas como la energía solar, el control por entidades externas. Por lo tanto, es importante que México desarrolle sus propias técnicas. De los muchos materiales relevantes para los productos de películas delgadas utilizados en estas tecnologías, están los sulfuros metálicos, que en general podrían y pueden ser utilizados en celdas solares, sensores de gas, dispositivos de almacenamiento magnético, etc. Uno de estos es el sulfuro de cobalto, el cual es elegido como área de desarrollo. El problema principal es que la información disponible sobre la deposición en vidrio de estas películas delgadas de sulfuro de cobalto es escasa y con pocos reportes. Por lo tanto, se requiere el desarrollo de técnicas de deposición estandarizadas y económicas, así como sus condiciones necesarias. Por ende, en el curso de la investigación de verano, se estudiarán los parámetros para la formación de películas delgadas de sulfuro de cobalto mediante el método SILAR (Adsorción y Reacción Iónica Sucesiva en Capas) con sulfato de cobalto y tioacetamida como precursores.



METODOLOGÍA

Se utilizaron los precursores de tioacetamida (TA) en polvo, trietilamina (TEA) en polvo y sulfato de cobalto hidratado (CoSO₄) en polvo, proporcionados por el laboratorio de semiconductores y dieléctricos de la Universidad de Sonora, para hacer soluciones madres acuosas de 0.5 M, 50% v/v y 0.1 M, respectivamente, que posteriormente se utilizaron para los experimentos en cantidades correspondientes a dichos experimentos. El experimento general consistió en un proceso SILAR en el cual un sustrato, en este caso un portaobjetos de microscopio de vidrio de 76.2 mm x 25.4 mm x 2 mm, es sumergido en la solución catódica del sulfuro de cobalto. Después se sumerge en agua desionizada para enjuagar, posteriormente entra en la solución aniónica fuente de sulfuros de la tioacetamida y, finalmente, se vuelve a sumergir en agua desionizada. Denotando que el tiempo de inmersión de cada paso es dependiente del experimento, las soluciones y el agua desionizada se mantuvieron en matraces de precipitado de 150 ml con el mismo volumen de solución y a una temperatura de 60°C. Los experimentos primordiales sirvieron para la determinación de las condiciones para el depósito del sulfuro de cobalto en los sustratos. En estos se trabajó con bajas concentraciones sobre sustratos no tratados, llegando finalmente a las condiciones de trabajo finales, donde la solución catódica consistía en 75 ml de solución madre, omitiendo el uso de TEA, y la solución anódica de 30 ml de TA y 10 ml de hidróxido de sodio 0.5 M (NaOH). En estos mismos experimentos primordiales se llegó a la necesidad de un tratamiento para el sustrato, obteniendo un baño químico de sulfato de aluminio e hidróxido de amonio, buscando la formación de una capa de hidróxido de aluminio en el sustrato. Con esta configuración se realizaron cuatro series de sustratos. Las primeras tres consistieron en un calentamiento a baño térmico a 60°C por 15, 30 y 45 minutos, y la última consistió en reposo de 24 horas a temperatura ambiente. Cada una de las series dejó disponibles cuatro sustratos. Estos cuatro sustratos se utilizaron para pruebas en base a las condiciones de trabajo finales, modificando la concentración del sulfato de cobalto, quedando dos pruebas de 75 ml, una de 50 ml y una de 37 ml. Al finalizar cada proceso de SILAR, el sustrato fue lavado con una piseta de agua desionizada, secado con una secadora de aire caliente y guardado en un estuche de portaobjetos, evaluando en el proceso la habilidad de la película para mantenerse en el sustrato.


CONCLUSIONES

La estancia de verano de investigación fue de gran utilidad para obtener conocimientos y habilidades prácticas de laboratorio, especialmente en el área de recubrimientos y la síntesis de partículas sólidas, mostrándose en el desarrollo exitoso de algunas películas delgadas de sulfuro de cobalto en sustratos de vidrio con altas concentraciones. Aun así, la repetibilidad y asentamiento del método de síntesis requieren más pruebas y disponibilidad de tiempo, principalmente en los tratamientos de bajas concentraciones, así como la necesidad de realizar los análisis electrofísicos de correspondientes.
Saavedra Ochoa Samantha Elizabeth, Universidad de Guadalajara
Asesor: Dr. Omar Avalos Alvarez, Universidad de Guadalajara

DETECCIóN DE TUBERCULOSIS MEDIANTE CLASIFICACIóN DE IMáGENES CON REDES NEURONALES CONVOLUCIONALES


DETECCIóN DE TUBERCULOSIS MEDIANTE CLASIFICACIóN DE IMáGENES CON REDES NEURONALES CONVOLUCIONALES

Saavedra Ochoa Samantha Elizabeth, Universidad de Guadalajara. Asesor: Dr. Omar Avalos Alvarez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La tuberculosis es una enfermedad infecciosa causada por la bacteria Mycobacterium tuberculosis, que afecta principalmente los pulmones y se transmite por el aire. De acuerdo con la Organización Mundial de la Salud, en 2022, la tuberculosis continuó siendo la segunda causa de muerte por un único agente infeccioso en el mundo, después del COVID-19, con 7,5 millones de personas diagnosticadas, la cifra más alta desde 1995. La pandemia de COVID-19 causó interrupciones en los servicios de salud, lo que probablemente retrasó el diagnóstico y tratamiento de la tuberculosis en años anteriores. En total, se estima que 10,6 millones de personas contrajeron la enfermedad en 2022, y 1,3 millones murieron a causa de ella. A pesar de ser curable y prevenible, la tuberculosis sigue siendo una crisis de salud pública y una amenaza para la seguridad sanitaria global. La detección temprana es crucial para un tratamiento eficaz y la prevención de su propagación. En esta investigación, se busca desarrollar un sistema de procesamiento de imágenes para la mejora del diagnóstico mediante el uso de tecnologías de clasificación de imágenes, analizando pruebas basadas en análisis de sangre clasificadas como positivas y negativas, en función de presencia o ausencia de tuberculosis. Esto facilitará la detección temprana de tuberculosis, mejorando los resultados de salud, contribuyendo a controlar la propagación de la enfermedad.      



METODOLOGÍA

A continuación, se detallan los pasos seguidos en el proceso. Investigación de Métodos para Clasificación de Imágenes: Se exploraron diferentes métodos y se seleccionó las redes neuronales convolucionales (CNN) por su eficiencia en la clasificación de imágenes, simplificación de procesos de convolución y reducción de complejidad computacional. Instalación de Dependencias: Se configuró el entorno de desarrollo usando Python y las librerías TensorFlow/Keras, NumPy, Matplotlib, Time y OS para construir y entrenar los modelos de CNN. Carga de Datos: Se recopilaron 110 imágenes positivas, 89 negativas y 32 desconocidas del dataset. Estas imágenes se usaron para entrenar, validar y probar los modelos. Escalado de Datos: Se normalizaron las imágenes para que los valores de los píxeles estuvieran entre 0 y 1, mejorando la eficiencia del modelo. División de Datos: El conjunto de datos se dividió en 70% para entrenamiento y 30% para validación, con 106 imágenes positivas y 85 negativas utilizadas para entrenamiento y 4 imágenes de cada clase para evaluación. Arquitectura del Modelo CNN: Se probaron diversas arquitecturas de CNN con 3, 4 y 5 capas convolucionales, con distintos filtros de convolución de tamaño 3x3 y 5x5 (CNN16-32-16, CNN16-32-64, CNN16-32-32, CNN32-32-32, CNN64-32-16, CNN16-32-64-128 y CNN16-32-128-256). Se usaron capas de convolución con funciones de activación 'ReLU', capas de agrupación máxima para reducir dimensionalidad, capas densas para combinar y procesar las características extraídas y la función 'sigmoid' en la capa de salida para convertir el valor de salida entre 0-1.  Entrenamiento: Los modelos se entrenaron durante 20 épocas utilizando los datos de entrenamiento y validación. Se utilizó el optimizador 'adam' y se evaluó el rendimiento a través de métricas de pérdida y exactitud. Graficación de Rendimiento: Se generaron gráficos para visualizar la pérdida y exactitud durante el entrenamiento, permitiendo comparar el rendimiento de las diferentes arquitecturas. Guardado del Modelo: Los modelos entrenados se guardaron para su uso posterior, evitando la necesidad de reentrenamiento. Evaluación: Se utilizó la métrica de matriz de confusión para evaluar el rendimiento de los modelos en un conjunto de prueba con 4 imágenes positivas y 4 negativas. Se calcularon métricas como exactitud, precisión, tasa de verdaderos positivos (TPR), tasa de verdaderos negativos (TNR) y F1 Score. Clasificación de Imágenes Desconocidas: Las distintas arquitecturas entrenadas se usaron para clasificar las 32 imágenes desconocidas en casos positivos y negativos, registrando el tiempo de clasificación. Tabla de Comparación: Se elaboró una tabla comparativa de los resultados obtenidos en la clasificación de imágenes desconocidas para evaluar el rendimiento de las diferentes arquitecturas propuestas.      


CONCLUSIONES

De acuerdo con los resultados obtenidos, los mejores clasificadores de las imágenes de prueba etiquetadas como positivas y negativas fueron aquellos con 3 capas convolucionales con tamaños de filtro de 5x5, logrando reducir en su mayoría, los tiempos transcurridos durante la clasificación de las 32 imágenes desconocidas y mostrando mejores resultados de clasificación entre positivos y negativos. Futuros trabajos podrían enfocarse en desarrollo de arquitecturas híbridas con otros métodos de clasificación de imágenes, la adaptación a distintas calidades de imágenes, la implementación en sistemas de tiempo real y el entrenamiento y la evaluación de los modelos con un conjunto de datos más grandes para aumentar la precisión, eficiencia y aplicabilidad del clasificador. A lo largo del proceso de investigación desarrollado durante el verano, se adquirieron conocimientos sobre las redes neuronales convolucionales (CNN), donde se exploró cómo construir y evaluar modelos de redes neuronales convolucionales, observando el comportamiento de diversas arquitecturas y comparando sus resultados. Este aprendizaje fue el fruto de una investigación, tanto teórica como práctica, del diseño de arquitecturas y herramientas utilizadas en la programación de redes neuronales convolucionales.  La retroalimentación constante de los investigadores expertos que nos acompañaron a lo largo de la estancia no solo enriqueció el proceso, sino que también inspiró un compromiso más profundo con el proyecto de investigación. Este viaje de descubrimiento y desarrollo ha sido una experiencia enriquecedora, reafirmando mi pasión por el aprendizaje continuo y la inteligencia artificial.      
Saavedra Sáenz Yulissa, Instituto Tecnológico de Matamoros
Asesor: Dra. Gloria Sandoval Flores, Universidad Autónoma de Tamaulipas

ANALISIS FISICOQUIMICO Y MICROBIOLOGICO DE AGUAS DE POZO.


ANALISIS FISICOQUIMICO Y MICROBIOLOGICO DE AGUAS DE POZO.

Saavedra Sáenz Yulissa, Instituto Tecnológico de Matamoros. Sánchez Luna Sarahí, Instituto Tecnológico de Matamoros. Asesor: Dra. Gloria Sandoval Flores, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

México enfrenta una crisis de escasez de agua que requiere atención inmediata. Según datos de la Conagua, el 74.43% del territorio mexicano se vio afectado por condiciones anormalmente secas. El acceso al agua potable es esencial para la salud y el bienestar, la demanda de agua está aumentando debido al crecimiento poblacional y las necesidades agrícolas, industriales y energéticas. La mitad de la población mundial enfrenta escasez de agua grave durante al menos un mes al año, situación que empeorará con el cambio climático. Se necesita acción urgente, la construcción de pozos de agua subterránea, es una alternativa, pero es crucial asegurar la potabilidad de esta agua. El análisis del agua subterránea es crucial para detectar la presencia de contaminantes que puedan ser perjudiciales para la salud.



METODOLOGÍA

Se analizaron tres pozos de agua de Matamoros. Para la toma de muestra se utilizó la NOM-230-SSA1-2002. A todos los análisis se les hizo un duplicado por muestra de agua de cada pozo y se calculó el promedio de los resultados pH: Se utilizó el método NMX-AA-008-SCFI-2016, midiendo el pH con un equipo calibrado. Se sumergieron los electrodos en las muestras, hasta que las lecturas se estabilizaran, registrando al menos tres lecturas. Conductividad: Siguiendo la norma NMX-AA-093-SCFI-2000. Los electrodos del medidor se sumergieron en las muestras de agua, se esperó hasta la estabilización de las lecturas para registrar los valores. DQO: Utilizando el método NMX-AA-030-1-SCFI-2012, se transfirieron 10 mL de la muestra a un matraz de reacción, añadiendo varios reactivos. La mezcla se llevó a ebullición y se mantuvo así durante 110 minutos. Se tituló el exceso de dicromato de potasio con sulfato ferroso amoniacal. Cloruros Totales: Siguiendo la norma NMX-AA-073-SCFI-2001, Se procedio con la valoración al adicionar la disolución indicadora y se valoró con nitrato de plata hasta el cambio de color. Dureza Total: Basado en la norma NMX-AA-072-SCFI-2001, se utilizó una muestra de 50 mL en un matraz Erlenmeyer, ajustando el pH a 10 y añadiendo un indicador. La muestra se tituló con EDTA hasta el cambio de color. Materia Flotante: Se siguió la norma NMX-AA-006-SCFI-2010, vertiendo la muestra a través de una malla metálica para retener la materia flotante. Sólidos disueltos: Sólidos Totales: Según la norma NMX-AA-034-SCFI-2015, se evaporó la muestra a sequedad en un horno a 105 °C y se registró la masa. Sólidos Totales Volátiles: El residuo se calcinó a 550 °C, luego se secó nuevamente a 105°C y se registró la masa. Sólidos Disueltos Totales: La muestra filtrada se evaporó a sequedad a 105 °C y se registró el peso. Sólidos Sedimentables en Agua: Usando el método NMX-AA-004-SCFI-2013, se colocó la muestra en un cono Imhoff, dejándola sedimentar por aproximadamente una hora y se registró el resultado. Aceites y Grasas: Se acidificaron las muestras con ácido sulfúrico 1:1. Se prepararon matraces de extracción y se filtraron las muestras usando un embudo Büchner con papel filtro, conectados a una bomba de vacío previamente limpiados con tierra de diatomeas y agua, se transfirió la muestra acidificada al embudo. Se utilizó un cartucho de extracción y un equipo de reflujo con hexano, calentando a temperatura controlada durante 4 horas. El remanente se evaporó a 70°C por media hora para registrar el peso. Enumeración de Mohos y Levaduras: Siguiendo la NOM-111-SSA1-1994, se preparó el medio de cultivo de agar papa dextrosa. Se colocaron 1 ml de la muestra en cajas Petri con el medio fundido a 45°C. Después de mezclar y solidificar el medio, las cajas se incubaron a 25°C durante 3-5 días


CONCLUSIONES

Previamente se realizó el análisis de agua de pozo de la ciudad de Reynosa con el objetivo de proporcionar una visión clara de la calidad del agua en ambas regiones. pH: En ambas ciudades los valores cumplen los límites permitidos, con Reynosa ligeramente más básico (7.79) en comparación con Matamoros (7.65). Conductividad: Reynosa presentó una conductividad significativamente mayor (1288.7 µS) que Matamoros (488.315 µS). El segundo pozo de Matamoros excedió los límites permitidos, indicando alta concentración de sales disueltas. DQO: En Reynosa (1382.4 mg/L) fue considerablemente más alta que en Matamoros (220.8 mg/L). Solo el primer pozo de Matamoros cumplió con los parámetros, mientras que los otros dos superaron los límites. Cloruros Totales: Reynosa tuvo un promedio de 613.67 mg/L. En Matamoros, el primer y tercer pozo tuvieron concentraciones menores, pero el segundo pozo tuvo un valor significativamente alto. Dureza: Reynosa presentó una dureza de 480 mg/L. Los pozos uno y dos de Matamoros tuvieron una dureza mayor, mientras que el tercer pozo tuvo un valor menor que el promedio de Reynosa. Solidos disueltos: Solo se analizaron en el segundo pozo de Matamoros, que mostró altos niveles de sólidos disueltos (3030 mg/L) y sólidos suspendidos (86 mg/L), excediendo los límites normativos. Sólidos sedimentables, grasas y aceites, materia flotante y enumeración de mohos y levaduras: Los análisis mostraron que solo el segundo pozo de Reynosa tenía sólidos sedimentables dentro de los límites permisibles, y en las demás determinaciones los resultados fueron negativos. Observamos que el agua en Reynosa presentó niveles más altos de contaminantes en comparación con Matamoros. En los tres pozos de Matamoros se encontraron parámetros que exceden los límites permisibles para consumo humano, con altas concentraciones de cloruros, dureza, conductividad y DQO, lo que indica la presencia de contaminantes orgánicos e inorgánicos. La cercanía del segundo pozo a la costa (1.6 km) y su exposición a la intemperie podrían explicar estos altos niveles de contaminantes. Esto subraya la necesidad de un monitoreo y tratamiento exhaustivos, especialmente en áreas costeras. Ambas ciudades necesitan mejorar la calidad del agua de sus pozos mediante estrategias de tratamiento adecuadas y un monitoreo continuo para proteger la salud pública y asegurar agua potable segura
Saenz Garcia Hammer Ali, Instituto Tecnológico de Toluca
Asesor: Mtro. Segundo Victor Olivares Muñoz, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas

PELíCULAS BIOACTIVAS BASADAS EN RESIDUOS AGROINDUSTRIALES PARA EXTENDER LA VIDA úTIL DE FRESAS.


PELíCULAS BIOACTIVAS BASADAS EN RESIDUOS AGROINDUSTRIALES PARA EXTENDER LA VIDA úTIL DE FRESAS.

Medina Magaña Lizeth, Instituto Tecnológico Superior de Puruándiro. Saenz Garcia Hammer Ali, Instituto Tecnológico de Toluca. Salas Wences Arlyn, Instituto Tecnológico de Acapulco. Villa Juarez Nicol Karelyx, Instituto Tecnológico de Acapulco. Asesor: Mtro. Segundo Victor Olivares Muñoz, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas



PLANTEAMIENTO DEL PROBLEMA

Las fresas tienen un tiempo de vida útil muy corto, de 2 a 3 días sin refrigeración, lo que causa pérdidas económicas y desperdicio de alimentos. Existe una necesidad de soluciones naturales y sostenibles para extender su vida útil. Este proyecto busca desarrollar biopelículas a base de aceites esenciales de cáscara de lima, combinados con Tween 20, glicerol, pectina y almidón, para extender la vida útil de las fresas de 2-3 días a 6-12 días sin refrigeración. Se evaluará la efectividad de estas biopelículas para inhibir el crecimiento microbiano y mantener la calidad de las fresas.



METODOLOGÍA

Obtener y evaluar resudious de cascara de lima. Selecionar la fresa cumpliendo con las caracteristicas requeridas. Extraer aceite escencial de lima. Medir los biopolimeros utilizados: Aceite esencial de lima, tween, gliserol, almidón, pectina. Incorporar y mezclar elementos requeridos para las boipeliculas con agua destilada. .Recubrir la fresa en la mezcla obtenida. Reposar la fresa durante el tiempo requerido a temperatura ambiente.


CONCLUSIONES

Realizando uno de los tratamientos se obtuvo un resultado esperado, ya que la fresa con la boipelicula aparentemente estaba mas brillora, con una tonalidad mas rojiza. En comparación con las que no tenian las biopeliculas, estas estaban mas opacas y rugosas. Mencionando que el proyecto no se a concluido, debido a que lleva mas tiempo y pruebas con dististos tratamientos los cuales se llevaran a cabo en meses posteriores, sin embargo, con el tratamiento realizado se tuvueron buenos resultados.
Sagbay Samaniego Bryan Stalin, Universidad Católica de Cuenca
Asesor: Dra. Cristina Juárez Landín, Universidad Autónoma del Estado de México

DESARROLLO DE UN MODELO DE INTELIGENCIA ARTIFICIAL PARA EL CONTROL DE CALIDAD EN LA PRODUCCIóN DE FRUTAS


DESARROLLO DE UN MODELO DE INTELIGENCIA ARTIFICIAL PARA EL CONTROL DE CALIDAD EN LA PRODUCCIóN DE FRUTAS

Sagbay Samaniego Bryan Stalin, Universidad Católica de Cuenca. Asesor: Dra. Cristina Juárez Landín, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

El control de calidad en la industria de frutas enfrenta varios desafíos significativos debido a la dependencia de métodos tradicionales de inspección manual. Uno de los principales problemas es la subjetividad en la evaluación de la calidad, ya que diferentes inspectores pueden aplicar criterios distintos, lo que lleva a evaluaciones inconsistentes. Esto puede resultar en que productos defectuosos sean aprobados o que frutas en buen estado sean rechazadas. Además, factores como la fatiga y la falta de concentración pueden afectar la precisión de la evaluación. Otro desafío es la baja velocidad de inspección, ya que el proceso manual es lento y laborioso, limitando la productividad de la línea de producción. La necesidad de examinar cada fruta individualmente impide un ritmo eficiente, crucial para satisfacer la demanda del mercado y mantener la competitividad. Esto se traduce también en altos costos operativos, ya que el control de calidad manual requiere una considerable cantidad de mano de obra, aumentando los gastos asociados y contribuyendo a un uso ineficiente de los recursos. Asimismo, los métodos de inspección manual tienen limitaciones en la detección de defectos, especialmente aquellos internos o signos tempranos de deterioro. La evaluación visual externa no siempre es suficiente, lo que puede resultar en que productos de baja calidad lleguen al consumidor, afectando la satisfacción del cliente y la reputación de la marca. Por último, la efectividad del control de calidad manual depende en gran medida de la experiencia y habilidades de los inspectores, lo que requiere formación continua y puede generar costos adicionales. La rotación de personal y la variabilidad en las habilidades individuales también pueden impactar la consistencia del control de calidad. En conjunto, estos factores subrayan la necesidad de explorar métodos más eficientes y objetivos para garantizar la calidad del producto en la industria de frutas.



METODOLOGÍA

La metodología para aplicar el método de aplicaciones rápidas en el desarrollo de un sistema de visión artificial para el control de calidad de frutas se puede estructurar de la siguiente manera: 1. Definición del Problema: Identificar y definir claramente el problema a resolver, que en este caso es la necesidad de un sistema eficiente para clasificar la calidad de las frutas. 2. Recolección de Datos: Recopilar imágenes de frutas en diferentes estados (buen estado y mal estado) desde diversas fuentes, asegurando que el conjunto de datos sea representativo. 3. Preprocesamiento de Datos: Utilizar ImageDataGenerator para normalizar las imágenes y aplicar aumentos de datos. Esto incluye reescalar las imágenes y generar variaciones que ayuden a mejorar la robustez del modelo. 4. Desarrollo Rápido del Modelo: Implementar un modelo de red neuronal convolucional (CNN) utilizando una arquitectura básica. Esto se puede hacer de manera rápida utilizando frameworks como TensorFlow y Keras. 5. Entrenamiento del Modelo: Entrenar el modelo con el conjunto de datos preparado, monitoreando la precisión y la pérdida durante el proceso. Utilizar un número reducido de épocas inicialmente para obtener resultados rápidos. 6. Evaluación Inicial: Realizar una evaluación inicial del modelo utilizando un conjunto de validación. Analizar los resultados para identificar áreas de mejora. 7. Iteración y Mejora: Basándose en la evaluación inicial, realizar ajustes en la arquitectura del modelo, los hiperparámetros o el conjunto de datos. Repetir el proceso de entrenamiento y evaluación. 8. Implementación y Pruebas: Una vez que el modelo alcanza un rendimiento satisfactorio, implementarlo en un entorno de prueba. Realizar pruebas con imágenes nuevas para validar su eficacia en condiciones reales.


CONCLUSIONES

La implementación de sistemas de visión artificial representa una solución innovadora y efectiva para los desafíos del control de calidad en la producción de frutas. Esta tecnología no solo mejora la precisión y velocidad de las inspecciones, sino que también reduce costos operativos y aumenta la productividad. A medida que la industria alimentaria busca adaptarse a las crecientes demandas del mercado, la visión artificial se posiciona como una herramienta clave para garantizar la calidad y competitividad de los productos. 
Sagrero Márquez Francisco Javier, Instituto Politécnico Nacional
Asesor: Dr. José Hugo Barrón Zambrano, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

DISEñO EN SOLIDWORKS DE UN BRAZO ROBóTICO ALIMENTADOR PARA PERSONAS CON DISCAPACIDAD


DISEñO EN SOLIDWORKS DE UN BRAZO ROBóTICO ALIMENTADOR PARA PERSONAS CON DISCAPACIDAD

Sagrero Márquez Francisco Javier, Instituto Politécnico Nacional. Asesor: Dr. José Hugo Barrón Zambrano, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La psicomotricidad es fundamental en el desarrollo de un ser humano pues esta implica todo aquello que haga que el cuerpo se mueva y su razón, involucrando las áreas motrices, cognitivas y sensoriales. Una persona es capaz de mover las partes de su cuerpo en conjunto con finalidades concretas, permitiendo llevar una vida plena y autónoma.  En consecuencia, una discapacidad motriz es la ausencia de dicho movimiento por fallas en los sistemas nervioso, muscular u óseo. Desde una perspectiva social y cultural la discapacidad son las dificultades que presentan algunas personas para participar en actividades propias de la vida cotidiana y surgen como consecuencia de la interacción entre una dificultad específica para manipular objetos o acceder a diferentes espacios, lugares y actividades que realizan todas las personas.1 El proyecto tiene como finalidad el diseño de un modelo de brazo robótico enfocado en asistir la alimentación de personas con discapacidad para hacer más sencilla y regresar un poco de autonomía a la actividad diaria. La idea de este diseño es que sea versátil por lo cual se buscó que se pudiera adaptar a cualquier superficie plana mediante un sistema de fijado. De igual forma tuvo en consideración la simplicidad del mecanismo para su futura implementación asi como utilizar los menos elementos posibles para intentar facilitar su acceso.



METODOLOGÍA

Se usó el software de SolidWorks pues brinda muchas facilidades como el diseño individual de piezas, el ensamble e interacción de estas y la animación y simulación de movimiento. Se inicio con el modelado del mecanismo principal el cual cuenta con 8 eslabones, asi como el dimensionado de estos. Una vez comprobada la movilidad deseada se comenzó con la base de brazo que permita la rotación del alimentador. La base consta de 5 piezas: La primera pieza entra en contacto directo con la superficie, la segunda funge como eje y va fijada a la junta 4, a la pieza 1 y al actuador del Dynamixel, alrededor de esta pieza se inserta un rodamiento ISO 1050. La pieza 3 es un anillo el cual cubre el mecanismo de rotación y la pieza 5 en la cual se monta todo el brazo. El diseño continúa con los soportes laterales que cuentan con el espacio para atornillar los Dynamixel. Uno de estos soportes tiene un espacio extra para unir un eslabón necesario para la movilidad. El siguiente paso fue adaptar el mecanismo del inicio a esta plataforma, donde se cambiaron las dimensiones pues se consideró estaba sobredimensionado. Se añadieron dos piezas a cada lado sobre las cuales se montó un pasador el cual permite a los eslabones girar libremente. Conseguido esto el diseño se procedió con el diseño de los demás eslabones y el pasador entre cada eslabón para permitir su movilidad. Para el actuador final, debido a la finalidad del diseño se pensó en una pieza simple que fuera capaz de sostener una cuchara o un tenedor. Se consideró el uso de un servomotor que permita girar la cuchara para facilitar la recolección del alimento. Finalmente se diseñó y adapto un sistema que permita fijar la base del alimentador a la superficie sobre la cual se encuentran los alimentos para evitar que se pueda llegar a caer y a su vez permita moverse constantemente entre una superficie y otra. Este sistema de fijado tiene dos piezas y se desliza adentro de la base y se atornilla hasta ajustarse al grosor deseado.


CONCLUSIONES

El diseño de un robot alimentador para personas con discapacidad representa un avance en la integración de la tecnología en la atención a las necesidades de personas en condiciones diversas que limitan su autonomía. Este proyecto busca mejorar la calidad de vida poniendo la tecnología al alcance de las personas mediante una futura implementación y con ayuda de leyes control, visión y otras ramas de investigación que se puedan sumar. El proceso de diseño de este robot permitió desarrollar aprendizaje en diversas áreas, desde entender la situación con la que se enfrentan muchas personas, hasta la mecánica que conlleva el movimiento y entender, aplicar y explorar las herramientas que nos brinda el software utilizado.
Salas Alfaro Alejandra, Instituto Tecnológico de Piedras Negras
Asesor: Mg. Jairo Alonso Palacio Morales, Instituto Tecnológico Metropolitano

DISEñO DE DISPOSITIVO DE METROLOGíA AMBIENTAL DE BAJO COSTO PARA EL MONITOREO DE LA CALIDAD DEL AGUA Y AIRE: CASO DE ESTUDIO EN PIEDRAS NEGRAS Y MEDELLíN


DISEñO DE DISPOSITIVO DE METROLOGíA AMBIENTAL DE BAJO COSTO PARA EL MONITOREO DE LA CALIDAD DEL AGUA Y AIRE: CASO DE ESTUDIO EN PIEDRAS NEGRAS Y MEDELLíN

Salas Alfaro Alejandra, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Jairo Alonso Palacio Morales, Instituto Tecnológico Metropolitano



PLANTEAMIENTO DEL PROBLEMA

Muchos estudios epidemiológicos han demostrado que el material particulado PM2.5 se ha asociado con una variedad de problemas de salud graves, pueden llevar a enfermedades respiratorias como el asma, bronquitis crónica, entre otros. Según la Organización Mundial de la Salud (OMS), la contaminación del aire es responsable de millones de muertes cada año.  El desarrollo de un dispositivo de bajo costo facilita el acceso a herramientas de monitoreo, con un acceso a valores precisos y en tiempo real sobre la calidad del aire, los ciudadanos pueden conocer más sobre la contaminación y así poder implementar medidas preventivas durante los periodos de alta contaminación.  La contaminacion por PM2.5 es un problema significativo tanto en Colombia como en México. En los últimos años se ha visto un gran crecimiento de contaminacion atmosférica se ha tenido un alto porcentaje de Material Particulado que exceden los niveles establecidos. Esto se debe a que en las grandes ciudades la congestión vehicular es alta, asi como también las emisiones de fábricas y plantas industriales, incluyendo la quema de combustibles fósiles. .



METODOLOGÍA

Primero se realizo una idea para el modelado 3D en la pagina Onshape para luego imprimirlo en una impresora 3D.   Para los sensores a utilizar (SHT3O, que es para medir la temperatura y humedad y el sensor PMS1003 Sensor de polvo y material particulado) se necesito un arduino nano 33 IoT para calibrarlos, primero se calbraron por separado  asi ver como funcionaban, el sensor PMS1003 nos dio valores de PM10 y PM2.5 que son los mas importantes a utilizar y se realizaron pruebas para confirmar sus funciones. El sensor SHT30 dio los resultados de temperatura y hhumedad e igualmene se realizaron pruebas en diferentes ambientes para ver si cambiaban los valores.   Se investigo sobre el indice de calidad del aire para tener conocimiento sobre si la concentracion de contaminacion era buena o mala y en la programacion de los dos sensores se agrego un funcion tipo semaforo para dar una idea de si el aire de acuerdo a los valores de concentracion de maerial particulado PM2.5 era bueno o dañino para la salud, verde si era bueno, amarillo si es moderado y el rojo si es dañino para la salud.


CONCLUSIONES

Durante este verano se pudo avanzar mucho en este proyecto, en base a la idea principal que era diseñar un dispositivo de bajo costo se pudo cumplir ya que los materiales utilizados entraron en el limite de precio. Los sensores utilizados fueron calibrados en el programa arduino ide y dan los valores correctamente, asi como tambien el diseño 3D pudo ser impreso y la progrmacion final del dispositivo casi es terminada. Los resultados por obtener son hacer pruebas finales con el semaforo y los leds y terminar la parte de atras del diseño 3d, como es un proyecto muy extenso aun nos faltan muchas cosas por tomar en cuenta.
Salas López Erick Josafat, Universidad Autónoma de Ciudad Juárez
Asesor: Dra. Alejandra Cruz Bernal, Universidad Politécnica de Guanajuato

ANáLISIS EN FRECUENCIA PARA DETERMINAR LA CALIDAD DEL PIMIENTO APLICADO A UN CLASIFICADOR KNN


ANáLISIS EN FRECUENCIA PARA DETERMINAR LA CALIDAD DEL PIMIENTO APLICADO A UN CLASIFICADOR KNN

Salas López Erick Josafat, Universidad Autónoma de Ciudad Juárez. Asesor: Dra. Alejandra Cruz Bernal, Universidad Politécnica de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Bell pepper is the third most important solanaceous plant worldwide after tomato and potato, with 57 million tons produced annually and Mexico being the second largest producer worldwide with 2.8 million tons, only behind China with 16.6 million tons. Being positioned as a global leader in pepper exports, the cultivation and study of this vegetable is of great importance for the country (1). The visual appearance of an agro-food product is considered an indirect metric of other quality attributes such as flavor. Among these attributes, we have size, shape, texture, mass, brightness, color and others, the most relevant being color. Color is a perceptual phenomenon that depends on the observer and the conditions in which it is observed and in agro-food products such as fruits and vegetables it is derived from natural pigments, of which many change as they go through the maturation process and likewise, the color characteristics are used to detect defects in the quality of the products. A product must look fresh, have a normal size and have a color associated with the fruit or vegetable without imperfections or signs of deterioration (2). In the case of the pepper, it is of great interest in gastronomy because it comes in a great variety of colors (green, yellow, orange, red and purple) and is preferred when it is already at a stage of maturity that reaches a solid color (3).



METODOLOGÍA

This research determines the quality of bell peppers from a set of images by using a machine learning algorithm. The following steps will be used to achieve the overall goal. Step 1: Data Collection. A set of 117 images of bell peppers will be used, the images have different stages of maturation of the pepper. Step 2: Data Preprocessing. For the machine learning algorithm model, frequency analysis using quaternions and FFT will be used to develop the machine learning model.  Step 3: Machine Learning Model Development. The kNN algorithm will be used to determine the quality of bell peppers, in this step class labels, and the split of training and testing data will be made. Step 4: Validation and Results. The results of the kNN algorithm will be presented. Accuracy will be the validation metric of choice to show the precision of the kNN algorithm to determine the quality of bell peppers.  


CONCLUSIONES

In this study, a supervised ML algorithm known as k-Nearest Neighbor (kNN) algorithm in combination with Frequency Analysis was trained in a total of 117 bell pepper images to determine three stages of quality: healthy, overripe, and rotten. The results of the algorithm were successful with a precision of 1.00 for healthy, and 0.86 for overripe. This further proves the applicability of machine learning algorithms in the prediction of the quality of bell peppers.  
Salas Salazar Gael Mizraim, Universidad Politécnica de Sinaloa
Asesor: M.C. Iliana Amabely Silva Hernández, Universidad Politécnica de Sinaloa

ANÁLISIS Y DISEÑO DE APLICACIÓN COMPUTACIONAL DE MODELADO DE INSTRUMENTOS DIDÁCTICOS PARA IDENTIFICAR CANALES DE APRENDIZAJE MEDIANTE EL USO DE ARQUITECTURAS DE AGENTES


ANÁLISIS Y DISEÑO DE APLICACIÓN COMPUTACIONAL DE MODELADO DE INSTRUMENTOS DIDÁCTICOS PARA IDENTIFICAR CANALES DE APRENDIZAJE MEDIANTE EL USO DE ARQUITECTURAS DE AGENTES

Salas Salazar Gael Mizraim, Universidad Politécnica de Sinaloa. Asesor: M.C. Iliana Amabely Silva Hernández, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La educación y formación de una persona se conforma a partir de un ecosistema social muy diverso, ya sea una institución, medios comunicativos, o incluso plataformas de aprendizaje. Todos y cada uno de ellos en mayor o menor medida aportan algo a la identidad y los saberes de los individuos. En el caso de la educación formal sigue siendo un reto generar las mejores condiciones para el aprendizaje en grupos heterogéneos en donde los estilos y canales que en cada estudiante predomina son difíciles de identificar a simple vista para un docente lo que conlleva un desequilibrio natural en el proceso formativo de un grupo. En 1988 Richard Bandler y John Grinder, publicaron y validaron el modelo conocido como VAK (Visual, Auditory, Kinesthetic), basado en el sistema de programación neurolingüística a la hora de describir cómo trabaja y se estructura la mente humana. Esto nos ofrece un conocimiento general sobre tres diferentes canales de aprendizaje por los que cada ser humano puede aprender en mayor o menor medida, definiendo así su estilo dominante o preferente. Basándose en el modelo VAK, para resolver esta problemática se realiza una aplicación computacional que ayude a detectar, evaluar e identificar el modelo de aprendizaje correspondiente a cada estudiante, con la finalidad de poder generar estrategias de enseñanza y aprendizaje, específicamente del nivel educativo básico (primaria).



METODOLOGÍA

Para la realización de este proyecto se analizaron las tecnologías necesarias para el desarrollo del modelado de agentes inteligentes, en este caso sobre el modelo de agentes basados en utilidad. Para describir el comportamiento y entorno se trabaja con el modelo REAS (Rendimiento, Entornos, Actuadores, Sensores), y para la parte del modelado se usan técnicas de Ingeniería de requisitos, así como de ingeniería de software basada en agentes, específicamente en un agente basado en utilidad cuyo objetivo es identificar el modelo de aprendizaje de cada estudiante basándose en la realización de diferentes instrumentos didácticos, que tienen la finalidad de ser dinámicos e interactivos a partir de los modelos de aprendizaje ya antes mencionados. Para identificar la medida de rendimiento que utiliza nuestro agente e identificar los modelos de aprendizaje, se realizó un enfoque de dependencia en cada uno de los instrumentos didácticos, determinando un porcentaje de confiabilidad que se calcula con cada resultado dado en cada uno de los intrumentos realizados. En el caso del entorno, se podrán inferir los canales de aprendizaje con base en las respuestas dadas por el usuario para posteriormente elegir los instrumentos o actividades didácticas para ser utilizadas en el proceso formativo. Al ser una aplicación computacional en la que el usuario debe interactuar para que el agente pueda tomar una decisión, y las elecciones o respuestas dadas por el usuario no puedan ser controladas por el agente, el entorno será estocástico. Para finalizar con las propiedades del entorno, se especifica que tiene una arquitectura compuesta por un solo agente, el cual puede controlar solamente los intrumentos que se le presentarán al usuario en base a los resultados obtenidos, por esto se denomina que el entorno tendrá un solo agente basado en utilidad, el cual tendrá un control parcial sobre el entorno.


CONCLUSIONES

El desarrollo de esta aplicación es de gran importancia, ya que es un instrumento muy importante para el estudio de los canales de aprendizaje en estudiantes de nivel básico (primaria), puesto que se puede obtener información para clasificar y agrupar a los alumnos que comparten canales de aprendizaje, recopilar datos estadísticos y a partir de ello plantear estrategias para una educación más colaborativa y eficaz tanto para los estudiantes, docentes, así como para la institución educativa en la que se están formando.
Salas Wences Arlyn, Instituto Tecnológico de Acapulco
Asesor: Mtro. Segundo Victor Olivares Muñoz, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas

PELíCULAS BIOACTIVAS BASADAS EN RESIDUOS AGROINDUSTRIALES PARA EXTENDER LA VIDA úTIL DE FRESAS.


PELíCULAS BIOACTIVAS BASADAS EN RESIDUOS AGROINDUSTRIALES PARA EXTENDER LA VIDA úTIL DE FRESAS.

Medina Magaña Lizeth, Instituto Tecnológico Superior de Puruándiro. Saenz Garcia Hammer Ali, Instituto Tecnológico de Toluca. Salas Wences Arlyn, Instituto Tecnológico de Acapulco. Villa Juarez Nicol Karelyx, Instituto Tecnológico de Acapulco. Asesor: Mtro. Segundo Victor Olivares Muñoz, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas



PLANTEAMIENTO DEL PROBLEMA

Las fresas tienen un tiempo de vida útil muy corto, de 2 a 3 días sin refrigeración, lo que causa pérdidas económicas y desperdicio de alimentos. Existe una necesidad de soluciones naturales y sostenibles para extender su vida útil. Este proyecto busca desarrollar biopelículas a base de aceites esenciales de cáscara de lima, combinados con Tween 20, glicerol, pectina y almidón, para extender la vida útil de las fresas de 2-3 días a 6-12 días sin refrigeración. Se evaluará la efectividad de estas biopelículas para inhibir el crecimiento microbiano y mantener la calidad de las fresas.



METODOLOGÍA

Obtener y evaluar resudious de cascara de lima. Selecionar la fresa cumpliendo con las caracteristicas requeridas. Extraer aceite escencial de lima. Medir los biopolimeros utilizados: Aceite esencial de lima, tween, gliserol, almidón, pectina. Incorporar y mezclar elementos requeridos para las boipeliculas con agua destilada. .Recubrir la fresa en la mezcla obtenida. Reposar la fresa durante el tiempo requerido a temperatura ambiente.


CONCLUSIONES

Realizando uno de los tratamientos se obtuvo un resultado esperado, ya que la fresa con la boipelicula aparentemente estaba mas brillora, con una tonalidad mas rojiza. En comparación con las que no tenian las biopeliculas, estas estaban mas opacas y rugosas. Mencionando que el proyecto no se a concluido, debido a que lleva mas tiempo y pruebas con dististos tratamientos los cuales se llevaran a cabo en meses posteriores, sin embargo, con el tratamiento realizado se tuvueron buenos resultados.
Salas Xochipa Alan Agustin, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Sandra Lorena Galarza Molina, Pontificia Universidad Javeriana

MEDIDAS DE ADAPTACIóN DE LOS SUDS DEL CAMPUS PUJ CALI ANTE EL CAMBIO CLIMáTICO


MEDIDAS DE ADAPTACIóN DE LOS SUDS DEL CAMPUS PUJ CALI ANTE EL CAMBIO CLIMáTICO

Salas Xochipa Alan Agustin, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Sandra Lorena Galarza Molina, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

Este proyecto tiene como objetivo identificar medidas de adaptación ante los efectos del cambio climático en los Sistemas Urbanos de Drenaje Sostenible (SUDS) del campus de la Pontificia Universidad Javeriana (PUJ) en Cali. Se busca cuantificar los servicios ecosistémicos que estos SUDS proveen en términos de regulación y mejoramiento de la calidad del flujo de escorrentía, así como la generación de confort térmico.   Resultados Esperados:   - Cuantificación de Servicios Ecosistémicos   - Evaluación de la capacidad de los SUDS para regular y mejorar la calidad del flujo de escorrentía.   - Medición del impacto de los SUDS en la generación de confort térmico en el campus.   - Implementación de Medidas de Adaptación   - Diseño e implementación de medidas de adaptación específicas basadas en los resultados del modelado y las correcciones realizadas.   - Mejoras en la infraestructura de drenaje sostenible del campus para hacer frente a los efectos del cambio climático.   - Mejora en la Gestión de Escorrentías   - Optimización del sistema de drenaje para reducir el riesgo de inundaciones y mejorar la calidad del agua.   - Aumento de la resiliencia del campus frente a eventos climáticos extremos.  



METODOLOGÍA

1. Conocimiento de las Ubicaciones de la Pontificia Universidad Javeriana Cali    - Se realizaron visitas al campus de Cali para identificar las áreas donde se implementarán las medidas de adaptación en los SUDS.    - Durante estas visitas, se tomaron notas detalladas sobre las características geográficas, la infraestructura existente y las condiciones climáticas específicas del campus.   2. Revisión de los Avances Previos del Proyecto    - Se revisaron los documentos y estudios previos relacionados con los SUDS del campus, incluyendo levantamientos topográficos y modelos iniciales realizados en el programa SWMM (Storm Water Management Model).    - Se evaluaron las observaciones y recomendaciones de trabajos anteriores para identificar áreas de mejora y ajustar el enfoque del proyecto.   3. Conocimiento del Modelado en el Programa SWMM    - Se estudió el modelado ya existente en el programa SWMM para entender el comportamiento actual de los SUDS bajo diferentes escenarios de lluvia y condiciones climáticas.    - El análisis de estos modelos permitió identificar puntos críticos y áreas que requieren mejoras.   4. Correcciones en el Programa SWMM en Comparación con los Planos de AutoCAD    - Se compararon los modelos de SWMM con los planos de AutoCAD existentes para identificar y corregir discrepancias.    - Las correcciones incluyeron ajustes en los diámetros de las tuberías y niveles de las cajas de registro, asegurando que los modelos reflejen con precisión la infraestructura existente.   5. División de las Cuencas en Subcuencas para el Modelado en SWMM    - Las cuencas establecidas se dividieron en subcuencas más pequeñas para facilitar un modelado más detallado y preciso en SWMM.    - Esta división permitió una mejor comprensión del comportamiento hidrológico en áreas específicas y la implementación de medidas de adaptación más focalizadas.   Información del Alcantarillado del Campus   El alcantarillado combinado se define como el conjunto de tuberías y canales que conforman el sistema de evacuación y transporte de las aguas lluvias y residuales (RAS, 2000). En contraste, el alcantarillado separado se refiere al sistema constituido por un alcantarillado de aguas residuales y otro de aguas lluvias que recolectan en forma independiente en un mismo sector (RAS, 2000). La Pontificia Universidad Javeriana de Cali, con un campus de 16 hectáreas que incluye 29 edificaciones, 4 humedales y varias acequias. La Pontifica Universidad Javeriana de Cali cuenta con un sistema de drenaje separado.   Objetivo de Modelar el Sistema de Alcantarillado de la PUJC   El objetivo de modelar la situación actual del sistema de alcantarillado del campus de la Pontificia Universidad Javeriana Cali (PUJC) utilizando el software SWMM (Storm Water Management Model). Mediante esta modelación, se busca analizar y prever las consecuencias de posibles cambios en el sistema de alcantarillado, como la ampliación o reducción de algunos de los lagos existentes, la creación de un nuevo lago dentro de las instalaciones de la universidad, o la implementación de un nuevo humedal. El uso del modelo SWMM permitirá evaluar los efectos de estas modificaciones, proporcionando datos precisos sobre cómo podrían impactar en la gestión del agua en el campus. Además, se pretende investigar cómo las aguas pluviales se comportarían bajo diferentes escenarios de lluvia, con el fin de determinar la viabilidad de disminuir las inundaciones en el campus durante eventos de lluvia muy intensos. Esta modelación es crucial para desarrollar estrategias de manejo sostenible del agua y mejorar la infraestructura del campus, asegurando que el sistema de alcantarillado pueda adaptarse a futuras necesidades y condiciones climáticas.


CONCLUSIONES

Conclusión   El proyecto de adaptación de los SUDS en el campus de la Pontificia Universidad Javeriana Cali ante el cambio climático ha avanzado significativamente con la realización de levantamientos topográficos, el conocimiento y ajuste de modelados detallados en SWMM, y la implementación de correcciones necesarias. La división en subcuencas ha permitido un análisis más preciso y la identificación de medidas de adaptación efectivas. La implementación de un sistema de alcantarillado separado no solo protegerá el medio ambiente, sino que también contribuirá a los objetivos de sostenibilidad de la PUJ, mejorando la resiliencia del campus frente a los desafíos climáticos futuros y maximizando los servicios ecosistémicos proporcionados por los SUDS.
Salazar Hernandez Jonathan, Instituto Tecnológico de Matamoros
Asesor: Dra. Eva Aguila Almanza, Benemérita Universidad Autónoma de Puebla

PREPARACIóN, ESTUDIO Y APLICACIóN DE RECUBRIMIENTOS ALIMENTARIOS FUNCIONALES


PREPARACIóN, ESTUDIO Y APLICACIóN DE RECUBRIMIENTOS ALIMENTARIOS FUNCIONALES

Salazar Hernandez Jonathan, Instituto Tecnológico de Matamoros. Asesor: Dra. Eva Aguila Almanza, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En México, se estima que se genera una cantidad de 227 mil toneladas al año de camarón, del los cuales 100 mil toneladas son residuos de los mismos. De estos residuos del camarón, específicamente del exoesqueleto, se puede obtener quitina que es un polímero que en reacción alcalina se desacetila para producir quitosano, el cual es un biopolímero que se puede emplear como aditivo alimentario debido a que se ha reportado en la literatura, que es antimicrobiano, anticolesterolémico, antioxidante, no tóxico y biocompatible, entre muchas otras propiedades. Adicionalmente, se ha identificado como una fibra alta en proteína que puede ser ingerida sin generar ningún daño alterno. Por tal motivo, se buscará aprovechar el valor agregado de los residuos de exosqueletos de camarón en el desarrollo y aplicación de películas de quitosano en zarzamoras frescas, buscando prolongar su tiempo de vida y mejorar sus propiedades antioxidantes hasta obtener frutos secos similares a las ya conocidas pasas de uva.



METODOLOGÍA

Obtención de quitosano Para obtener quitosano del camarón, se aprovecha la quitina presente en el exoesqueleto del camarón, para lo cual se verifica el procedimiento siguiente: 1. Los exoesqueletos de camarón se lavan eliminando cualquier resto orgánico y se secan a 110 0C durante 24 horas. 2. Ya pasado el secado, se procede a pulverizar y tamizar los exoesqueletos. A continuación, se desmineraliza el material pulverizado en una solución de HCl 0.6 M, se deja reposar a 30 0C durante 3 horas con agitación constante; esto con la finalidad de eliminar sales y metales adheridos al exoesquelto. 3. Terminando la desmineralización, se somete a un proceso químico que consiste en la desproteinización con el objetivo de eliminar el material orgánico presente en el exoesqueleto. Para la despigmentación de muestra quitina se agregara una solución de NaClO en una proporción de 1:10 m/v y se agita durante 20 minutos, pasando los 20 minutos se lavara varias veces con agua destilada y se dejará secar a 60 0C. 4. Como último paso, para la obtención del quitosano a partir de la quitina presente en el material libre de minerales y proteínas, se lleva a cabo un proceso de desacetilación que consiste en llevar a reacción la quitina en una solución de NaOH al 50% m/v en proporción de 1:7, se deja reaccionar durante 2 horas a una temperatura entre 115-120 0C con agitación constante. Como último paso, se lava el producto obtenido en repetidas ocasiones y se dejará secar durante 1 día a una temperatura de 600C. Aplicación de las películas de quitosano en frutos rojos Como primer paso se recolectaron frutos rojos, en este caso se usaran las zarzamoras, dividiéndose en 8 lotes que tendrán diferentes condiciones: 4 lotes tendrán la aplicación de películas de quitosano con glicerina, y los otros 4 lotes se les aplicará una película de quitosano, glicerina y aceite de chía. La aplicación de las películas será por medio de inmersión en soluciones de los diferentes componentes a manejar. Las variables a manejar en cada lote son los tiempos de inmersión en las soluciones (5 y 10 segundos) y la temperatura a la cual se conservarán (temperatura ambiente y temperatura de refrigeración, 5 0C). Como control se utilizaron zarzamoras sin recubrimiento. Todas las zarzamoras fueron almacenadas durante 15 días y se evaluaron los cambios en la calidad en intervalos de 3 días. Para la preparación de las soluciones a manejar se tomaron en cuenta los siguientes parámetros: a) para la solución de quitosano con glicerina se preparó a 1% m/v de quitosano y 1% m/v de glicerina, b) para la solución de quitosano, glicerina y chía se preparó a 1% m/v de quitosano, 1% m/v de glicerina y 3% m/v de aceite de chía. Los frutos con recubrimiento y el control no mostraron diferencia en el contenido de fenoles totales y capacidad antioxidante. Los recubrimientos en cambio, redujeron significativamente la población microbiana sin afectar la calidad después de 7 días a temperatura ambiente y 15 días a 5 0C. En control presentó 8 días de vida de anaquel.


CONCLUSIONES

Los resultados muestran que los recubrimientos comestibles de quitosano y los enriquecidos con chía, pueden prolongar la vida de anaquel de zarzamoras por 15 días a 15 0C. A temperatura ambiente y en condiciones de alta humedad como se mantuvieron la mitad de las zarzas, mantienen calidad hasta el día 10, con marcada deshidratación. Lo que se espera obtener de este proyecto es un producto similar a las pasas secas, pero en este caso usando zarzamoras y con la aplicación de las películas de quitosano y quitosano-chía es conservar sus propiedades antioxidantes, obteniendo un producto nutritivo.
Salazar Ibarra Isela Donahi, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

ESTRATEGIAS DE INTRALOGíSTICA EN EMPRESAS DEL SUR DE SINALOA


ESTRATEGIAS DE INTRALOGíSTICA EN EMPRESAS DEL SUR DE SINALOA

Hernández Mayorquin Andrea Monserrat, Universidad Politécnica de Sinaloa. Salazar Ibarra Isela Donahi, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La intralogística también conocida como logística interna se refiere a la gestión y optimización de los flujos de materiales, capital e información dentro de una organización. Su objetivo principal es garantizar la fluidez de diversos procesos productivos, que en este verano de investigación se abordan el proceso de abastecimiento con enfoque operativo en proveedores, almacén e inventario. En la actualidad en la región de Mazatlán ubicada en el Sur de Sinaloa, las organizaciones productivas (empresas) del sector servicio mantienen una constante en su productividad y calidad en sus operaciones, dentro de las mismas operan procesos de logística interna, en esta investigación para el procesamiento y análisis de datos  lo abordaremos con la siguiente categorización: Eventos, Turismo, Comercial y Transporte, analizando factores como el almacenaje, inventario y proveedores, es decir el proceso de abastecimiento para la continuidad de la cadena productiva. En un ámbito de desarrollo económico de la región de Mazatlán en el Estado de Sinaloa, la cual pone a prueba la conciencia en estrategias de intralogística en un ámbito de calidad en procesos productivos, con una atención principal en las empresas de servicios, siendo necesario abordar la problemática compleja con relación al tema del objetivo 9.- Industria, innovación e infraestructura de los ODS de la ONU incluidos en la agenda 2030 al realizar un estudio preliminar que nos proporcione un conocimiento para la reflexión y difusión del conocimiento derivado del impacto del crecimiento económico en la sociedad y su conciencia en la sustentabilidad.  



METODOLOGÍA

Para nuestro estudio científico se utiliza la metodología de investigación cuantitativa de tipo campo la cual consiste en la recolección de datos directamente de la realidad donde ocurren los hechos, sin manipular o controlar variable alguna, con una extensión del estudio de investigación de campo con medios de instrumentos impresos, el nivel de la investigación descriptiva donde se busca el diagnosticar la relación de los hechos. Como primera etapa del verano de investigación se define el título del proyecto siendo Estrategias de Intralogística en empresas del Sur de Sinaloa describiendo el objetivo general el cual es Investigar y analizar los principios, metodologías y herramientas de gestión de calidad  y procesos productivos, con el fin de identificar propuestas de estrategias efectivas para la mejora continua, optimización de la eficiencia operativa y la satisfacción del cliente, contribuyendo así a la competitividad y sostenibilidad de las organizaciones, así también, se inicia con la búsqueda de información basada en fuentes auditadas sobre el tema del proyecto, posteriormente se realiza un análisis teórico de lo encontrado para proceder a el método de recolección de datos a través de un instrumento de tipo encuesta con 62 reactivos, de los cuales 6 reactivos son en el ámbito logístico, se orientó el estudio a las preguntas ¿Se selecciona y evalúa a los proveedores con métodos asertivos? y ¿Se aplica una gestión precisa en el inventario y almacenamiento?, ambas con posibles respuestas con la siguiente escala (5) Muy de acuerdo, (4) De acuerdo, (3) En desacuerdo, (2) Muy en desacuerdo, (1) No sé, el instrumento se aplicó a empresas de diferentes sectores que para el procesamiento de datos se categorizo en turístico, comercial, transporte y eventos, con una muestra recabada de 26 encuestas contestadas por los responsables de área en campo en diversas empresas. Con los datos recabado por el instrumento se analiza la información de forma gráfica y estadística descriptiva para realizar una argumentación sustentada ante una hipótesis preliminar de que si la empresa del sector servicio aplican métodos y gestión pertinente para desarrollar procesos productivos y de calidad en el ámbito intralogística.


CONCLUSIONES

De los resultados del análisis gráfico y estadístico descriptivo se argumenta que las empresas del giro servicios ubicadas en la región de Mazatlán Sinaloa desde una perspectiva del personal en campo con relación a la gestión de proveedores describe que están muy de acuerdo (50%) en que utilizan métodos asertivos con los proveedores, se detecta que un 15 % de los encuestados no describe si utilizan métodos asertivos con los proveedores, mientras que un 35 % describe como de acuerdo en que utiliza métodos asertivos con los proveedores. Seguidamente en el ámbito de almacenamiento e inventario, arroja que más de la mitad con un 54 % aplican una gestión que facilita y agiliza los procesos de operaciones dentro del contexto del área de almacén, sin embargo se presenta un porcentaje del 15 % el cual indica que deberían de aplicar una mejor gestión que contribuyan a la mejora de los diferentes procesos que se desenvuelven en este rubro. Se puede argumentar que las empresas del Sur de Sinaloa en la región de Mazatlán en su gran mayoría utilizan metodologías y herramientas de gestión de calidad  y procesos productivos, con el fin de identificar propuestas de estrategias efectivas para la mejora continua en el ámbito Intralogística, contribuyendo así a la competitividad y sostenibilidad de las organizaciones, la cual aporta al ODS2030 al que contribuye: Desarrollar infraestructuras resilientes, promover la industrialización inclusiva y sostenible, y fomentar la innovación.
Salazar Sanchez Nicolle Sofia, Universidad Simón Bolivar
Asesor: Mg. Diego Andrés Restrepo Restrepo Leal, Universidad Cooperativa de Colombia

EMISIONES DE DIOXIDO DE CARBONO GENERADAS POR VEHICULOS EN CANADA


EMISIONES DE DIOXIDO DE CARBONO GENERADAS POR VEHICULOS EN CANADA

Salazar Sanchez Nicolle Sofia, Universidad Simón Bolivar. Asesor: Mg. Diego Andrés Restrepo Restrepo Leal, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

En 2022, las emisiones de CO2 en Canadá han crecido 20,082 megatoneladas, con un total de 582,073 megatoneladas, con lo que Canadá está entre los diez países más contaminantes en lo que respecta a emisiones de dióxido de carbono. Formado por 184 países, Canadá pertenece al grupo de países que más CO2 emiten por habitante. Para que un motor de combustión interna mueva un vehículo por la carretera, debe convertir la energía almacenada en el combustible en energía mecánica para impulsar las ruedas. Este proceso produce dióxido de carbono (CO2). Quemar 1 L de gasolina produce aproximadamente 2,3 kg de CO2. Esto significa que el vehículo canadiense medio, que quema 2.000 litros de gasolina al año libera unos 4.600 kg de CO2 a la atmósfera. La gasolina contiene átomos de carbono e hidrógeno. Durante la combustión, el carbono del combustible se combina con oxígeno del aire para producir dióxido de carbono. El peso adicional proviene del oxígeno. La gasolina es una mezcla compleja de varios tipos de moléculas de hidrocarburos. La composición varía según la fuente de crudo, refinería, época del año, edad del producto y condiciones de almacenamiento. En consecuencia, la densidad de la gasolina y el contenido exacto de carbono variará. En procesos de combustión típicos, algunos de los hidrocarburos escapan del cilindro sin quemarse, produciendo sustancias orgánicas volátiles. Además, parte del carbono no se oxida completamente, que produce monóxido de carbono. Las emisiones de CO2 del tubo de escape varían según el tipo de combustible debido a sus diferentes densidades. Los combustibles hidrocarburos más densos, como el diésel, contienen más carbono y, por lo tanto, producen más CO2 para un volumen dado de combustible.



METODOLOGÍA

Luego de realizar diferentes cursos en kaggle para adquirir los conocimientos necesarios para el análisis de datos, se escogió un dataset de acuerdo con los gustos de cada estudiante para realizar con este un análisis más detallado de la información brindada en el dataset, también se realizaron gráficos para interpretar y caracterizar la información de forma interactiva. El dataset escogido para llevar a cabo este resumen se llama "Carbon Dioxide Emission by Cars" con el que se realizaron ocho gráficas para clarificar la interpretación de la información con ayuda de python e importando librerías como pandas, numpy, seaborn y matplotlib. En la primera gráfica se logra observar un diagrama de barras con el promedio de emisiones de CO2 emitidas por el vehículos según la clase a la que pertenece, de esta gráfica se puede deducir que la clase de vehículos que más emisiones producen son las VANS de pasajeros y de carga; y la clase de vehículos que menos emisiones produce son los compactos. En la gráfica 2, se tiene un diagrama de dispersión para mostrar la relación entre el consumo de combustible y las emisiones de CO2, en este se observa un comportamiento lineal en la gráfica porque a medida que aumenta el consumo de combustible también crecen las emisiones de CO2, aunque algunos puntos tienen una desviación, esto puede deberse a factores como el tipo de vehículo, la eficiencia del motor, el estilo de conducción, y otros factores mecánicos y ambientales. Los datos de la gráfica incluyen una variedad de vehículos con distintos niveles de eficiencia por eso el consumo de combustible varía aproximadamente entre 5 y 22.5 L/100 km y las emisiones de CO2 varían entre 100 y 450 g/km. Para el diagrama 3, se elaboró un histograma del porcentaje de combustible que se transforma en dióxido de carbono, la mayoría de los valores se agrupan entre el 20% con un valor máximo de 160, a diferencia de la mínima desviación que hay en la gráfica. Se desarrolló en la Figura 4 un diagrama de barras que muestra cuántos vehículos se están evaluando según el número de cilindros que tiene para un análisis más exhaustivo en las 3 gráficas posteriores. Para comenzar, la gráfica 5 será la primera en la que se observará el consumo de combustible en relación con la cantidad de cilindros del vehículo con ayuda de un diagrama de dispersión. La gráfica 6, muestra un diagrama de caja y bigote con el consumo de combustible (en L/100 km) que aumenta con el número de cilindros del vehículo. Los vehículos con 3 cilindros tienen un consumo muy bajo y poca variabilidad alrededor de 5 L/100 km, mientras que los vehículos con 12 cilindros tienen un consumo muy alto y poca variabilidad alrededor de 22.5 L/100 km. La variabilidad del consumo aumenta con el número de cilindros, y hay valores atípicos presentes en las categorías de 4 a 6 cilindros. Cómo se logra representar en la gráfica 7 con el diagrama de distribución de la densidad del consumo de combustible (en L/100 km) segmentada por el número de cilindros del motor de los vehículos, se puede analizar que entre más cilindros tenga el vehículo, mayor será su consumo de combustible, los vehículos con 3 y 4 cilindros tienen un consumo relativamente bajo, los que poseen 5 y 6 cilindros tienen un consumo medio, y para los vehículos con 8, 10 y 12 cilindros su consumo es elevado. Teniendo en cuenta también que hay otros factores que pueden influir en el consumo de combustible. 


CONCLUSIONES

Este enfoque de las emisiones de carbono producidas por los vehículos en Canadá asegura una visión exhaustiva a través de su análisis y distintos tipos de gráficos, se evidencio que entre mayor número de cilindros más combustible consumen los vehículos y por consiguiente a emitir más dióxido de carbono. Por otro lado, entre las clases de vehículos analizados los que se destacaron por causar mayores emisiones fueron las Vans. Esta investigación busca promover la sostenibilidad y concientizar a la población para mitigar el impacto ambiental.
Salazar Vega Miryam, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla

REALIDAD AUMENTADA COMO TECNOLOGíA APLICADA A LA EDUCACIóN


REALIDAD AUMENTADA COMO TECNOLOGíA APLICADA A LA EDUCACIóN

Hernández Bravo Jesus Eduardo, Benemérita Universidad Autónoma de Puebla. Salazar Vega Miryam, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la educación enfrenta desafíos significativos para adaptarse a las necesidades de los estudiantes en un mundo cada vez más digital. La brecha entre la educación tradicional y las herramientas tecnológicas disponibles puede limitar el acceso a oportunidades de aprendizaje efectivas y personalizadas. En México, el sistema educativo tiene dificultades para brindar una educación de calidad y equitativa a todos los estudiantes, especialmente en áreas rurales y marginadas. Además, la falta de integración de tecnologías computacionales en el aula puede dificultar la motivación y el compromiso de los estudiantes. Por lo tanto, es necesario explorar y desarrollar soluciones que integren tecnologías computacionales innovadoras en la educación, para mejorar la calidad y accesibilidad del aprendizaje, y preparar a los estudiantes para los desafíos del mundo actual.



METODOLOGÍA

Se seleccionó como público dirigido a alumnos de educación básica en la rama de las Ciencias de la Salud, con el fin de dar conocimiento a los alumnos de manera interactiva e innovadora a través de una aplicación móvil que haga uso de la realidad aumentada. La aplicación mostrará en realidad aumentada algunos modelos 3D e información escrita y audible de los sistemas del cuerpo humano que seleccionamos (Sistema Digestivo, Sistema Óseo, Sistema Respiratorio y Sistema Circulatorio) a través de pequeñas tarjetas que contienen imágenes de estos organismos que se proporcionaran al alumnado. Una vez arranquen la aplicación aparecerán varias opciones en donde encontraran el apartado para escanear con la cámara del dispositivo móvil las imágenes que más llamen su atención. Mientras más imágenes escaneen más Conocimiento irán obteniendo y se mostrará en otra opción de la aplicación el avance que tienen de cada sistema. Para asegurarnos del correcto uso y el conocimiento adquirido desarrollamos un pequeño mini-juego en el que construirán el sistema que seleccionen con las partes de este que aparecen como opciones en la pantalla. Desarrollamos esta aplicación con el motor de videojuegos de Unity junto con la librearía de Vuforia que nos permite trabajar con la realidad aumentada en los dispositivos móviles.


CONCLUSIONES

Durante la estancia se aplicaron tecnologías para que los estudiantes tuvieran una forma innovadora de aprender, en este caso con el uso de dispositivos móviles y la realidad aumentada. Se mostró y probo la aplicación en un grupo de alumnos de entre 5 a 15 años donde la experiencia que tuvieron con la aplicación resulto agradable, innovadora y desafiante, donde el alumno obtuvo un conocimiento nuevo o reforzo lo antes ya visto gracias al uso de esta aplicación. La realidad aumentada como tecnología para la educación fue innovador para varios alumnos y despertando un interés en las tecnologías utilizadas, así como experimentar de manera más realista, en este caso, los sistemas del cuerpo humano. Sin duda este tipo de tecnología abren el camino para que se desarrollen y brinden muchas más alternativas de aprendizaje moderno.
Salceda Cervantes Cynthia Lizette, Universidad de Guadalajara
Asesor: Dr. Gilberto Osorio Gómez, Universidad EAFIT

LIFE CYCLE ASSESSMENT OF A SOLAR BRICK


LIFE CYCLE ASSESSMENT OF A SOLAR BRICK

Caloca Hernández Miryam Lizette, Universidad de Guadalajara. Salceda Cervantes Cynthia Lizette, Universidad de Guadalajara. Asesor: Dr. Gilberto Osorio Gómez, Universidad EAFIT



PLANTEAMIENTO DEL PROBLEMA

La universidad de EAFIT se encuentra desarrollando un ladrillo fotovoltaico el cual se orienta verticalmente en muros y fachadas de edificaciones que no soportan cargas estructurales. Para dicho producto se presenta un Análisis de Ciclo de Vida que se enfocó en analizar los elementos principales que conforman el ladrillo fotovoltaico, analizando su impacto ambiental en conjunto, y considerando su propósito como producto sostenible, con la meta de justificar su proceso de manufactura, y viabilidad de uso a gran escala, en un entorno real para de esta forma tener en cuenta consideraciones a la hora de realizar la manufactura de sus componentes como por ejemplo la producción de su cubierta mediante impresión en PLA o por medio de estrusión en PVC.



METODOLOGÍA

Para el Análisis de Ciclo de Vida se utilizaron las metodologías de LCA ReCiPe Midpoint y ReCiPe Endpoint con apoyo del Software OpenLCA y bases de datos de acceso libre. Se tomaron en consideración las 4 fases que un LCA requiere, desde la deficinión del alcance y objetivos del sistema (ladrillo solar), la realización y análisis de su inventario pertinente, su evaluación de impacto ambiental y la interpretación de resultados.


CONCLUSIONES

Mediante el estudio realizado y teniendo en cuenta las restricciones y límites del sistema especificadas en el trabajo, se determinó, ante la comparativa y para cada una de las tres categorías de impacto ambiental (tanto en la metodología Midpoint como Endpoint), que la manufactura de la cubierta genera menor impacto ambiental si se realiza en extrusión de PVC que mediante impresión 3D en PLA. Basado en los resultados cuantificables considerando un solo ladrillo solar y específicamente hablando de la metodología Midpoint, se conoce que para la extrusión de PVC se tiene un impacto respecto al cambio climático de 16.26 kg CO₂ eq contra 56.923 kg CO₂ eq para la impresión 3D en PLA. Asimismo, hay una comparativa de 0.026 kg PM₁₀ eq contra 0.067 kg PM₁₀ eq respectivamente para la categoría de formación de material particulado, y una diferencia de 0.001 kg 1,4-DB eq entre la impresión en PLA y la extrusión en PVC. Para el caso de la metodología Endpoint, se conocen los cambios porcentuales para cada una de las categorías. La categoría de cambio climático presenta un mayor impacto, con un 246.15% de la impresión en PLA respecto a la manufactura con PVC, así como un 61.11% más perjudicial en la categoría de formación de material particulado y un 16.67% mayor en la categoría de ecotoxicidad terrestre. Cabe destacar que, aunque se demostró mayor material particulado en la impresión 3D, se sabe que dichas partículas suelen no ser nocivas para la salud debido a su composición característica de un biomaterial. Asimismo, mediante los resultados obtenidos, se concluye que es necesario acceder a bases de datos especializadas en cada proceso de manufactura y extracción de materia prima para realizar un Análisis de Ciclo de Vida más completo y exacto.
Saldaña García Alejandro, Instituto Tecnológico de Morelia
Asesor: Mg. Rene Ramirez Fernandez, Corporación Universitaria Americana

APROVECHAMIENTO DEL BIOGáS GANADERO PARA LA GENERACIóN DE ENERGíA ELéCTRICA: UN ENFOQUE DE ENERGíAS RENOVABLES


APROVECHAMIENTO DEL BIOGáS GANADERO PARA LA GENERACIóN DE ENERGíA ELéCTRICA: UN ENFOQUE DE ENERGíAS RENOVABLES

Rangel Chávez Gael Mateo, Instituto Tecnológico de Morelia. Saldaña García Alejandro, Instituto Tecnológico de Morelia. Asesor: Mg. Rene Ramirez Fernandez, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

Las zonas rurales ganaderas enfrentan limitaciones significativas debido a la falta de acceso a electricidad fiable, afectando el desarrollo económico y la calidad de vida. Además, el manejo inadecuado de las heces del ganado contribuye a la emisión de gases de efecto invernadero, exacerbando el cambio climático. Este proyecto busca solucionar estos problemas proporcionando una fuente de energía renovable mediante el aprovechamiento del biogás producido por las heces del ganado para generar electricidad. Así, se reducirá la emisión de gases nocivos y se mejorará el acceso a la energía en comunidades rurales de forma accecible y preactica para su funcionamiento autonomo.



METODOLOGÍA

En la metodología del presente proyecto, se llevó a cabo una exhaustiva investigación de diversas fuentes académicas y técnicas para recopilar información relevante sobre el aprovechamiento y calidad del biogás. Esta fase inicial implicó una revisión bibliográfica de estudios previos, artículos científicos y normativas relacionadas con la producción y utilización del biogás, permitiendo obtener un marco teórico sólido. Posteriormente, se procedió a la elaboración de varios prototipos diseñados específicamente para optimizar el proceso productivo del biogás. Estos prototipos fueron desarrollados y probados en condiciones controladas para evaluar su eficacia en la mejora de la calidad del biogás. A su vez, se realizaron prototipos pensados como una alternativa sustentable en la generación de energía de fácil acceso y monitoreo, donde permitiera almacenar la energía generada con un sistema de conexión adecuado para el uso domestico dando una autonomía constante bajo condiciones específicas. Las pruebas incluyeron la simulación de los prototipos planteados para la eficiencia de conversión, la reducción de impurezas,.estructura del sistema para la generación, almacenamiento y uso de energía, así como la simulación de las conexiones tanto eléctricas como electrónicas de cada parte implicada. Los resultados obtenidos fueron analizados y comparados con los estándares internacionales para asegurar que el producto final cumpla con los requisitos necesarios para su aprovechamiento eficiente y seguro. Esta metodología combinó la investigación teórica con el desarrollo práctico, asegurando un enfoque integral y aplicado al proyecto productivo.


CONCLUSIONES

Este proyecto demuestra el potencial del biogás derivado de las heces de ganado como una fuente viable de energía renovable para la generación de electricidad en zonas rurales. Mediante la implementación de un sistema eficiente de filtrado y medición de la pureza del metano, se puede garantizar un combustible adecuado para los generadores eléctricos, proporcionando una solución sostenible y económica. Obteniendo además como una alternativa más dentro del uso de energía renovable en al provechamiento del biogás, implementando un sistema eléctrico basado en investigaciones documentales y simulaciones realizadas dentro del mismo proyecto garantizando así obtener resultados satisfactorios para nuestra problemática   La adopción de este enfoque no solo facilita el acceso a electricidad en áreas remotas, mejorando la calidad de vida y el desarrollo económico, sino que también contribuye significativamente a la reducción de emisiones de gases de efecto invernadero, mitigando el impacto ambiental del manejo inadecuado de residuos ganaderos. Este proyecto, por lo tanto, representa una integración exitosa de tecnologías limpias para la promoción de energías renovables y el manejo sostenible de desechos, ofreciendo un modelo replicable con los estándares internacionales para comunidades rurales alrededor del mundo. 
Saldaña Rodríguez Victor Manuel, Instituto Tecnológico de Matamoros
Asesor: Dr. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas

ANáLISIS Y EVALUACIóN DE MéTODOS ERGONóMICOS Y SUS APLICACIONES EN EL ENTORNO LABORAL


ANáLISIS Y EVALUACIóN DE MéTODOS ERGONóMICOS Y SUS APLICACIONES EN EL ENTORNO LABORAL

Saldaña Rodríguez Victor Manuel, Instituto Tecnológico de Matamoros. Asesor: Dr. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La evolución tecnológica y la digitalización ha cambiado el escenario del puesto de trabajo y las empresas deben evolucionar con ello aplicando soluciones ergonómicas actualizadas. Aunque la ergonomía es uno de los aspectos más importantes en lo relacionado con la salud del trabajador, sigue teniendo un amplio espacio de mejora para su implantación dentro del sector industrial. El trastorno musculoesquelético es una lesión o enfermedad de los tejidos blandos de la extremidad superior, hombros y cuello, espalda baja y extremidad inferior. Es causado principalmente o empeorado por factores de riesgo en el área de trabajo, tal como esfuerzos continuos y repetidos o posturas y maniobras incómodas. Incluidos están los trastornos de los músculos, nervios, tendones, ligamentos, articulaciones, cartílagos y discos de la columna vertebral. Las afecciones médicas generalmente se desarrollan gradualmente durante un lapso de tiempo y no son el resultado de un solo evento.



METODOLOGÍA

De acuerdo con el objetivo 9 de los objetivos del desarrollo sostenible 2023, se pretende construir infraestructuras resilientes, promover la industrialización sostenible y fomentar la innovación Para poder lograr este objetivo se debe invertir en infraestructuras tales como transporte, energía y tecnologías de la información y la comunicación todo esto para poder mejorar o tratar de evitar tener riesgos a causa de un amala ergonomía. Es crucial para lograr un desarrollo sostenible y empoderar a las comunidades de muchos países. Para alcanzar el Objetivo 9 en 2030, es esencial apoyar a los PMA, invertir en tecnologías avanzadas, reducir las emisiones de carbono y aumentar el acceso a la banda ancha móvil. Los factores de riesgo de trastornos musculoesqueléticos se encuentran en la mayoría de las ocupaciones, desde el sector de la construcción, fabricación, restaurantes, tiendas minoristas y oficinas. Si bien las posibilidades de sufrir lesiones en el trabajo son muchas, a continuación les muestro algunos de los factores comunes de riesgo: Movimientos repetitivos Fuerza excesiva Posturas incomodas Vibración Fuerza Temperaturas frías Posturas estáticas Estrés de contacto Ya sea que se tratando de cambiar de posición, levantando objetos de forma correcta o tomando los descansos adecuados, todos pueden hacer algo para prevenir los MSD y se cuenta con ciertos principios ergonómicos comunes los cuales pueden reducir los riesgos de MSD y pueden adaptarse fácilmente a todas las organizaciones y áreas de trabajo: Mantener una postura neutra Evitar la repetición excesiva Ajustar las superficies de trabajo Evitar estirarse para alcanzar objetos Controlar los factores ambientales Reducir la fatiga visual Levantar los objetos adecuadamente Comprender los factores de riesgo Conocer las señales o síntomas de MSD Los empleadores son responsables de proporcionar un área de trabajo segura y saludable para sus trabajadores. En el área de trabajo, el número y la gravedad de los MSD que resultan del esfuerzo físico excesivo, y sus costos asociados, pueden reducirse sustancialmente aplicando principios ergonómicos. Los elementos con los cuales los empleadores pueden proteger a sus trabajadores son lo siguientes: Proporcionar apoyo administrativo Involucrar a los trabajadores Proporcionarles capacitación Identificar los problemas Implementar soluciones para controlar riesgos Evaluar el progreso


CONCLUSIONES

Durante la estancia en el verano se logró reforzar los conocimientos previamente adquiridos en el tecnológico, así como aprendimos a evaluar los diferentes métodos ergonómicos dentro de la industria y la manera en que estos pueden ser aplicados para tratar de reducir los riesgos laborales y así poder cuidar a nuestros trabajadores. De igual manera vimos que siempre hay que ver por la salud de nuestros trabajadores dentro de nuestra empresa, para poder así obtener un ambiente saludable para ellos y que se puedan desempeñar en sus actividades de la mejor manera siempre cuidando sus diferentes posturas para evitar que tengan alguna MSD. Por último, la importancia que es dar a conocer a nuestros trabajadores los diferentes tipos de MSD para que ellos al detectar la más mínima señal de una MSD acudan a servicios médicos de la empresa para que ellos puedan iniciar con una evaluación el área de trabajo donde se está produciendo estos malestares y así de esta manera poder evadir o neutralizar un factor común de riesgo.
Salgado Herberth Fernanda Lizbeth, Instituto Tecnológico de Matamoros
Asesor: Dra. Valeria Jordana Gonzalez Coronel, Benemérita Universidad Autónoma de Puebla

DISEñO DE MATERIALES POLIMéRICOS


DISEñO DE MATERIALES POLIMéRICOS

Gallegos Delgado Jesus Armando, Instituto Tecnológico de Matamoros. Salgado Herberth Fernanda Lizbeth, Instituto Tecnológico de Matamoros. Asesor: Dra. Valeria Jordana Gonzalez Coronel, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La investigación de los polímeros hidrosolubles se ha profundizado y se ha logrado determinar una gran variedad de aplicaciones, como: espesantes en la formulación de pinturas, en cosméticos, en la industria farmacológica, en tratamiento de aguas residuales y en la extracción de petróleo. Sin embargo, el proceso de polimerización en masa presenta desafíos importantes, como el hecho de que parte del monómero se queda sin reaccionar, la mezcla reaccionante posee una alta viscosidad y además tiene una dificultad en el control térmico. Todo esto afecta la eficiencia y la pureza del polímero producido. Debido a la necesidad de espesantes en diversas aplicaciones como pinturas, extracción de petróleo, alimentos, cosméticos, etc., se hace indispensable el estudio de materiales poliméricos que tengan propiedades reológicas capaces de cumplir con esa funcionalidad. Por ello la obtención de este tipo de polímeros y el análisis de su estructura es importante. Este enfoque busca optimizar el proceso de polimerización, minimizar las impurezas y garantizar un producto final de alta calidad adecuada para sus diversas aplicaciones industriales



METODOLOGÍA

La metodología para la obtención de la poliacrilamida consistió en realizar una polimerización en solución, utilizando acetonitrilo como disolvente y ACVA como iniciador. Se desgasificó y eliminó el oxígeno utilizando nitrógeno, con el fin de prevenir la inhibición de la polimerización. La reacción se llevó a cabo durante el lapso de una hora, observándose atentamente los primeros minutos para asegurar la correcta progresión. Pasado el tiempo, se detuvo la reacción y se dejó enfriar la solución, posteriormente se filtró y se realizó un lavado con metanol (eliminando de esta forma cualquier posible residuo), se repitió este procedimiento dos veces, finalmente se colocó lo obtenido en la estufa a 50°C durante cuatro horas, una vez transcurrido el tiempo se obtiene la poliacrilamida. Con la poliacrilamida obtenida se realizaron dos técnicas de espectrofotometría; FTIR para identificar los grupos funcionales presentes y RMN para determinar la estructura molecular del polímero, con estas técnicas se confirmó la presencia de poliacrilamida. Además se utilizó un viscosímetro Ubbelohde para medir el peso molecular del polímero.


CONCLUSIONES

Este proyecto proporcionó una mejor comprensión del proceso de polimerización por radicales libres y la caracterización de polímeros hidrosolubles, como la poliacrilamida, con potenciales aplicaciones en diversas industrias. Se logró sintetizar poliacrilamida mediante polimerización en solución usando acetonitrilo como disolvente y ACVA como iniciador. La caracterización por espectroscopia de infrarrojo y resonancia magnética nuclear confirmó la estructura del polímero, y el uso del viscosímetro Ubbelohde ayudó a determinar su peso molecular, validando la pureza y propiedades esperadas del producto final
Salgado Sandoval Edward, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Christian Abraham Dios Castillo, Universidad Tecnológica del Perú

IMPLEMENTACIóN DE TECNOLOGíAS E-COMMERCE PARA MIPYMES DE GASTRONOMíA.


IMPLEMENTACIóN DE TECNOLOGíAS E-COMMERCE PARA MIPYMES DE GASTRONOMíA.

Aguilar Montes Sabine Michelle, Instituto Tecnológico Superior de Apatzingán. Salgado Sandoval Edward, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Christian Abraham Dios Castillo, Universidad Tecnológica del Perú



PLANTEAMIENTO DEL PROBLEMA

Proyectos complementarios:  La implementación de una plataforma de prueba de comercio electrónico, conlleva a capacitar a los usuarios potenciales en el uso de tecnologías de información. Por esa razón, se obtuvieron resultados en los siguientes proyectos de investigación, conexos al presente:  Implementación de tecnologías e-commerce para mipymes de gastronomía. Resultados de investigación en Ingeniería de Sistemas e Informática Modelo Tecnológico andragógico para optimizar el rendimiento académico estudiantil universitario en escenarios pandémicos.  Percepción y prácticas evaluativas de los docentes universitarios



METODOLOGÍA

Implementación de tecnologías e-commerce para mipymes de gastronomía. Resultados de investigación en Ingeniería de Sistemas e Informática El objetivo de investigación es implementar tecnologías ecommerce en las MiPyME de gastronomía que permitan la productividad y competitividad en la ciudad de Chiclayo. Descripción General del Proyecto Ecommerce principal: Muestra categorías, productos, login de clientes, carrito de compras, formas de pago. Plataforma de gestión: Gestor de productos, clientes, usuarios y roles, pedidos, ventas y reportes, análisis de ventas. Percepción y prácticas evaluativas de los docentes universitarios La educación universitaria tiene entre sus objetivos formar a la juventud en las competencias profesionales que aseguren su éxito en su vida laboral; actualmente, para evaluar los aprendizajes de estas competencias se continúa clasificándose, usando exámenes escritos.  El primer objetivo se logró usando el enfoque cuantitativo a través del cuestionario ActEval y el cualitativo mediante el análisis documental. Los hallazgos respecto a la percepción de los docentes indican que ellos valoran la importancia de la evaluación y tienen las competencias para llevarlas a la práctica, sin embargo, reconocen no llevarlas a la práctica frecuentemente.   Modelo Tecnológico andragógico para optimizar el rendimiento académico estudiantil universitario en escenarios pandémicos​ Problemática Los sujetos investigados son adultos que estudian y trabajan y afirmaron que poseen escaso conocimiento sobre el manejo de las herramientas tecnológicas, presentan problemas de salud, algunos cursos como inglés son difíciles de comprender por la modalidad on line, también manifiestan que tienen saturación de conectividad, equipos y programas informáticos de Microsoft office desfasados. ​ Objetivos Diagnosticar el rendimiento académico en diversas dimensiones del programa de estudiantes universitarios de carreras de gente que trabaja en escenario pandémico.​ Diseñar el Modelo Tecnológico andragógico para optimizar el rendimiento académico estudiantil universitario en escenarios pandémicos.​


CONCLUSIONES

Implementación de tecnologías e-commerce para mipymes de gastronomía. Resultados de investigación en Ingeniería de Sistemas e Informático Los resultados obtenidos respecto a las prácticas de evaluación son los siguientes: Las tareas evaluativas que se describen en los 30 sílabos seleccionados en la revisión documental se agrupan en las siguientes categorías: examen parcial, examen final, práctica calificada, proyecto, participación en clase, tarea de investigación y sustentación oral. Los sílabos analizados fueron codificados y analizados utilizando la siguiente tabla, indicando en cada uno, las tareas evaluativas halladas en el documento. La tarea con mayor porcentaje es la práctica calificada (73%), seguida de la  participación en clase (67%), en el tercer lugar, el proyecto (60%). Les siguen el examen final y el proyecto con el mismo porcentaje (40%) y en los últimos lugares, el examen parcial (33%) y la sustentación oral (30%). Percepción y prácticas evaluativas de los docentes universitarios Los resultados obtenidos después de haber aplicado el cuestionario ActEval son los siguientes: en la primera dimensión, con una media global de 5.37, en una escala del 1 al 6; los docentes perciben una significativa importancia sobre las prácticas evaluativas en el proceso de aprendizaje, esto se ve en las medias y desviaciones obtenidas en la aplicación del cuestionario, con una media de: 5.67. La competencia de los docentes es percibida por ellos con un valor alto, pero menor al criterio anterior; este criterio ocupa el segundo lugar con una media de 5.27. Finalmente, el criterio de utilización tiene el menor puntaje, aunque éste sigue siendo alto en la escala, con una media de 5.18. Modelo Tecnológico Andragógico para Optimizar el Rendimiento Académico en Escenarios Pandémicos La educación en línea durante la pandemia ha revelado múltiples desafíos para los estudiantes adultos que trabajan y estudian simultáneamente. Estos desafíos incluyen el manejo limitado de herramientas tecnológicas, problemas de salud, dificultades en la comprensión de ciertos cursos y saturación de conectividad. El desarrollo de un modelo tecnológico andragógico busca optimizar el rendimiento académico de estos estudiantes al abordar sus necesidades específicas y mejorar su interacción con las plataformas educativas. Los resultados indican que la modalidad virtual presenta limitaciones significativas para los estudiantes adultos, destacando la necesidad de un enfoque educativo más adaptativo y soportado tecnológicamente.
Salinas Aguero Abril, Instituto Tecnológico de Acapulco
Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional

VALORACIóN INTEGRAL DEL SARGAZO: CULTIVOS MICROBIOLóGICOS, EXTRACCIóN DE POLISACáRIDOS Y PRODUCCIóN DE BIOGáS.


VALORACIóN INTEGRAL DEL SARGAZO: CULTIVOS MICROBIOLóGICOS, EXTRACCIóN DE POLISACáRIDOS Y PRODUCCIóN DE BIOGáS.

Salinas Aguero Abril, Instituto Tecnológico de Acapulco. Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Actualmente las grandes floraciones del alga parda comunmente conocida como sargazo afectan más a las regiones costeras del Caribe y otras costas del Pacífico, repercutiendo en los ecosistemas, causando la muerte masiva de especies y representando grandes pérdidas económicas a la industria del turismo. Por ello, con el fin de promover su manejo sostenible y aprovechamiento biotecnológico, el presente proyecto evaluó el uso del sargazo en la producción de medios para cultivos microbiológicos, la extracción de polisacáridos valiosos y el análisis de su potencial para la producción de biogás.   



METODOLOGÍA

Se formularon tres agares, con 10, 20 y 30 g/L de sargazo, los cuales fueron inoculados con Trametes hirsuta, Trametes versicolor y Pleurotus sp. y digestato de bioreactor anaerobio, de los cuales mostraron un mejor crecimiento las cajas que fueron sembradas con T. hirsuta en concentración de 20g y 30g de sargazo, sin embargo, la densidad del crecimiento en estas cajas mostró ser muy bajas en comparación con las cajas que contenían agar de papa como grupo de control.  


CONCLUSIONES

La extracción de polisacáridos dio como resultado la obtención de 10.78 ± 0.66 de alginato y 2.80 ± 0.24 de fucoidan por cada 10 g de sargazo procesado, pero ay que tomar en cuenta que estos rendimientos corresponden a extractos sin liofilizar; así mismo se determinó que se requiere una inversión de MXN$ 858.81 ± 187.745279 para sólo 40g de sargazo, sin contar los costos del servicio de luz, lo que dificulta la viabilidad del proceso. Los residuos del sargazo de post-extracción de polisacáridos se utilizaron como sustrato en ensayos de Potencial Bioquímico Metanogénico en monodigestión y en co-digestión con residuos alimenticios; tras 14 días, sólo los frascos con harina de sargazo (sin procesar) y harina de sargazo con residuos alimenticios (proporción 1:1 según los g de sólido volátil) generaron 88.94± 14.08 en el caso de la harina de sargazo y 97.96± 0.54 de biogás/g sólido volátil, El hecho anterior se puede atribuir a que  lo inóculos no se encontraban en buenas condiciones por la temperatura de refrigeración; incluso los lavados con alcohol para la extracción de polisacáridos pudieron interferir en la  actividad de crecimiento de los microorganismos del inoculo provocando un retardo en la producción de biogás.  Aunque aún se necesita profundizar más en el estudio de estas propuestas para optimizar su aprovechamiento, este proyecto contribuyó a la gestión de conocimiento, ya que nos brinda una visión más amplia de las alternativas que se pueden implementar para mitigar los impactos negativos del sargazo.
Salinas Cortés Maura Kiabeth, Instituto Tecnológico del Altiplano de Tlaxcala
Asesor: Dra. Erika Annabel Martínez Mirón, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE AMENAZAS Y MEDIDAS DE PROTECCIóN EN CONTRA DE ATAQUES DE SUPLANTACIóN DE IDENTIDAD (PHISHING) EN REDES SOCIALES.


ANáLISIS DE AMENAZAS Y MEDIDAS DE PROTECCIóN EN CONTRA DE ATAQUES DE SUPLANTACIóN DE IDENTIDAD (PHISHING) EN REDES SOCIALES.

Salinas Cortés Maura Kiabeth, Instituto Tecnológico del Altiplano de Tlaxcala. Asesor: Dra. Erika Annabel Martínez Mirón, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Dados los avances tecnológicos y que las personas se registran con mayor frecuencia en redes sociales, el incremento en los índices de ciber ataques es constante, en particular, con relación a la suplantación de identidad (phishing). Por tanto, concentrar información al respecto y ponerla a disposición de la sociedad es necesario y relevante, para amortizar el impacto de tal tipo de ciberataque.   El phishing es una manera fraudulenta en el que se solicita información bancaria, personal, entre otra, por medio de falsos correos electrónicos, mensajes de texto, además de mensajes en redes sociales.   Alrededor de 3.400 millones de correos se envían diariamente al rededor del mundo. Tan solo en 2022, el FBI reportó un total de 800.944 ciberdelitos, siendo los ataques de phishing, el primer lugar con 300.497 denuncias. Como es de esperarse, el phishing también ha crecido en México de manera exponencial en lo que va del año 2024 el número de ataques aumentó un 617% comparado con el año anterior. Bloqueando alrededor de 4000 ataques por minuto; siendo el sector financiero uno de los más afectados. Debido a este panorama, educar y crear conciencia son factores clave para ayudar a la población a protegerse de posibles ataques de phishing con métodos como la verificación de remitentes y desconfiar de enlaces adjuntos son algunas estrategias contra este tipo de delitos.



METODOLOGÍA

Baena (1985) indica que la investigación documental es una técnica que consiste en la selección y recopilación de información por medio de la lectura y crítica de documentos y materiales bibliográficos (p. 72). Se utiliza la investigación documental como método principal de análisis. Examinando documentos digitales, haciendo fichas electrónicas y resúmenes descriptivos de los temas seleccionados. El registro de la información es de suma importancia y la revisión bibliográfica debe ser selectiva que ayude al objetivo de estudio, para esta investigación se están considerando palabras clave como ciberataque, phishing, tipos de phishing y técnicas para prevenir el phishing.


CONCLUSIONES

Durante la estancia, se han revisado 14 documentos, cuyos autores son de América Latina (Argentina, Colombia, Ecuador, Guyana, México y Panamá, entre otros). También, dos artículos de Estados Unidos de Norteamérica traducidos del inglés. La información obtenida de estos trabajos es sobre los tipos de ataques phishing, entre ellos: 1) Estafas phishing por correo electrónico. Se trata de enviar correos electrónicos masivos a usuarios aleatorios.   2) Spear phishing (de la traducción ‘lanza’, dicho así por atacar a usuarios específicos). Generalmente, el phisher ya cuenta con una víctima previamente evaluada con nombre hasta inclusive familiares. 3) Whaling (proveniente de ‘ballena’, se refiere a una clase de victima en especial). Esta variedad de ataque va dirigida a personal de un rango alto tales como directores ejecutivos. 4) Smishing (conformado por la inicial S a la que hace referencia por SMS). Habitualmente se trata de mensajes provenientes de instituciones bancarias, solicitando claves o números de cuenta. 5) Vishing (combinado de ‘voz’ y ‘phishing’). Por medio de llamadas telefónicas se solicitan datos usando el teclado del teléfono. 6) Pharming (puede traducirse como cultivo). Los usuarios son redirigidos a sitios falsos mediante el uso de direcciones DNS falsas para realizar la estafa. 7) Phishing en redes sociales. Los atacantes se hacen pasar por marcar reales para que los consumidores los contacten por medio de redes sociales como Facebook entre otras. Considerando los ataques cibernéticos mencionados, las medidas de protección recomendadas son evitar aceptar correos electrónicos de dudosa procedencia, no usar la misma contraseña para correos personales, cuentas bancarias y redes sociales, no acceder a internet desde lugares públicos, verificar que el sitio web comience con https, mantener el software de seguridad actualizado en todos nuestros equipos, pero sobre todo, no contestar ningún mensaje que nos resulte sospechoso. Por todo lo anterior, es preciso divulgar este tipo de conocimiento y otros temas de ciberseguridad a la población en general, para así ayudar a que tomen las medidas necesarias y protejan su información.
Salinas Sánchez Marycruz, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Diego Alfredo Tlapa Mendoza, Universidad Autónoma de Baja California

APLICACIóN DE INTELIGENCIA ARTIFICIAL Y LEAN HEALTHCARE EN LABORATORIOS CLíNICOS PúBLICOS Y CALIDAD 4.0 PARA LA MEJORA DE PROCESOS DE EMPAQUE EN LA INDUSTRIA VINíCOLA


APLICACIóN DE INTELIGENCIA ARTIFICIAL Y LEAN HEALTHCARE EN LABORATORIOS CLíNICOS PúBLICOS Y CALIDAD 4.0 PARA LA MEJORA DE PROCESOS DE EMPAQUE EN LA INDUSTRIA VINíCOLA

Salinas Sánchez Marycruz, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Diego Alfredo Tlapa Mendoza, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

A pesar del avance significativo de la tecnología en los últimos años, sectores como el de la salud y la industria vinícola aún enfrentan desafíos críticos que impactan su eficiencia y calidad. La implementación de simulación de procesos y deep learning en estas áreas, poco exploradas en México, tiene el potencial de revolucionar la manera en que se gestionan los desafíos que presentan estos sectores, proporcionando soluciones tecnológicas avanzadas que optimizan los procesos y mejoran significativamente la calidad y la sostenibilidad.   En los laboratorios clínicos públicos, uno de los principales retos es la inspección de muestras de sangre, la cual está sujeta a errores humanos que pueden generar retoma de muestras, retrasos en el análisis y riesgos de contaminación. La falta de tecnología adecuada y la ausencia de guías sobre posibles errores y acciones de mejora agravan estos problemas. La necesidad de incrementar la inspección de muestras mediante tecnología avanzada, generar un análisis de riesgos y contar con información precisa sobre el nivel de inspección actual son áreas críticas que demandan soluciones innovadoras.   En la industria vinícola, la calidad del empaque es fundamental para proteger el producto y asegurar la satisfacción del cliente. Sin embargo, el proceso de empaque de vino enfrenta distintos problemas que pueden llevar a cuestiones de calidad, como errores de etiquetado y la falta de una botella en las cajas enviadas. Además, el empaque del vino es uno de los mayores desafíos de sostenibilidad en el sector, ya que involucra diversos niveles, desde los materiales y formatos utilizados hasta la logística de comercialización y las percepciones y actitudes de los consumidores. La aplicación de inteligencia artificial (IA) y herramientas avanzadas de análisis de datos tiene el potencial de mejorar significativamente la calidad, flujo de trabajo y eficiencia de los procesos de manufactura. Sin embargo, la información sobre el uso de la ciencia de datos en los procesos industriales en México es escasa, lo que plantea un desafío adicional para la implementación efectiva de estas tecnologías. Ambos proyectos requieren un enfoque integral que combine el desarrollo de tecnologías avanzadas, como modelos de deep learning (DL) para la inspección de muestras de sangre y la mejora de procesos de empaque en la industria vinícola, con la implementación de metodologías de mejora continua como lean healthcare y Calidad 4.0



METODOLOGÍA

Determinar técnicas y métodos de inspección apoyados por tecnologías de Industria 4.0, aplicables tanto en laboratorios clínicos como en la industria vinícola. Revisión de literatura científica en bases de datos. Etiquetado y Balanceo de imágenes para entrenamiento de los modelos de Deep Learning para el sector salud como el sector vinícola. Visita de campo a laboratorio clínico para la toma de tiempos en el flujo de pacientes. Analizar los resultados del modelo, indicando valores de precisión por encima del 95%. Probar y validar el modelo de análisis para estimar los impactos económicos, ambientales y sociales, utilizando una base de datos exhaustiva. Programar módulo de Raspberry Pi 5 con modelos pre-cargados y cámaras para la detección de objetos. Creación de carcasas de montaje mediante diseño por computadora e impresión 3D para módulos de Raspberry Pi 5 y cámaras. Elaboración de simulación de procesos del estado actual mediante software para el análisis de flujo de la cadena de suministro. Evaluar la simulación de procesos mediante los distintos tipos de distribución, logrando una comparativa de resultados entre escenarios propuestos. Además, durante la estancia el Dr. Diego Tlapa Mendoza impartió un curso de Lean Six Sigma y de MSA (measurement System Analysis) abordando temas introductorios de la misma temática tales como Lean Six Sigma y Tecnologías Digitales para la Mejora de Procesos, recolección de datos, Distribución Normal y Teorema del límite Central, Prueba de Hipótesis, incluyendo la importancia del uso de software estadístico Minitab y de la interpretación de resultados por medio de gráficas.


CONCLUSIONES

A lo largo de la estancia de verano se logró adquirir conocimientos teóricos de los distintos tipos de distribuciones estadísticas para ponerlos en práctica durante el desarrollo de la simulación en la fase inicial (pre-analítica) del proceso de atención y flujo de pacientes dentro del laboratorio clínico con la ayuda de dos softwares (Promodel y Arena) para posteriormente analizar y evaluar resultados mediante la comparación de tiempos con distintas distribuciones, lo que representa un avance característico en el proyecto Aplicación de inteligencia artificial y lean healthcare en laboratorios clínicos públicos. Del mismo modo se trabajó en entrenar el modelo Deep Learning por medio de etiquetado de imágenes en el software Roboflow logrando un balance entre las clases que debe aprender el mismo. Por otra parte, se culminó el diseño del módulo Raspberry Pi 5 con cámara y carcasa el cual será utilizado en ambos proyectos siendo de suma importancia para comprobar por primera vez su funcionamiento en tiempo real dentro de la vinícola lo cual presento áreas de mejora para el entrenamiento del modelo. Sin embargo, al ser proyectos que se encuentran en desarrollo requiriendo de prueba y error, los resultados que se obtuvieron a lo largo de la estancia del verano científico gracias a la participación de cada uno de los integrantes del equipo fue significativa por lo que se espera seguir trabajando durante los próximos dos años para alcanzar un resultado deseado. Además, se obtuvo de manera individual conocimientos enriquecedores en la formación académica gracias al curso impartido por el Dr. Diego Tlapa Mendoza sobre temas introductorios de Lean Six Sigma y Measurement System Analysis (MSA, donde destaca la importancia del uso del software estadístico Minitab y la interpretación de resultados por medio de gráficas.
Salmerón Bastidas César Noel, Universidad Autónoma de Sinaloa
Asesor: Dr. Joaquín Flores Valenzuela, Universidad Autónoma de Sinaloa

MATERIALES NANOESTRUCTURADOS EN ZEOLITAS Y ARCILLAS


MATERIALES NANOESTRUCTURADOS EN ZEOLITAS Y ARCILLAS

Rodríguez Gámez Brianda Lizbeth, Universidad Autónoma de Sinaloa. Salmerón Bastidas César Noel, Universidad Autónoma de Sinaloa. Vazquez Navarro Lucia Vanessa, Universidad Autónoma de Sinaloa. Asesor: Dr. Joaquín Flores Valenzuela, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Esta investigación surgió debido a que observamos las altas cantidades de colorantes contaminantes que existen en el medio ambiente, haciendo énfasis en el agua. Por ello, es posible utilizar alternativas para su eliminación mediante un proceso de fotocatálisis.



METODOLOGÍA

Preparación del Equipo Preparación del Laboratorio Limpieza y Organización: Limpiar y organizar el espacio de trabajo para asegurar un entorno seguro y ordenado. Inventario de Equipos: Verificar la disponibilidad y estado de todos los equipos e instrumentos necesarios. Calibración de Instrumentos Verificación de Funcionamiento: Asegurarse de que todos los instrumentos están funcionando correctamente. Calibración: Realizar la calibración de equipos como balanzas, espectrómetros, microscopios, etc., según las especificaciones del fabricante. Adquisición de Materiales Lista de Materiales: Crear una lista detallada de todos los materiales y reactivos necesarios. Compra y Recolección: Adquirir y/o recolectar los materiales adicionales que no estén disponibles en el laboratorio. Experimentación con Zeolita A4 Preparación de Reactivos y Muestras Preparación de Soluciones: Preparar las soluciones y reactivos necesarios para la experimentación con zinc. Preparación de Muestras: Preparar las muestras de zinc siguiendo los protocolos específicos establecidos. Ejecución del Experimento Protocolos: Ejecutar el experimento siguiendo los protocolos detallados previamente definidos. Registro de Datos: Registrar todos los datos experimentales de manera precisa y detallada. Control de Calidad Verificación de Datos: Verificar la precisión y reproducibilidad de los datos recolectados. Experimentos de Control: Realizar experimentos de control si es necesario para asegurar la validez de los resultados. Secado de Muestras Preparación para el Secado Selección del Método de Secado: Seleccionar el método de secado más adecuado (Mufla). Preparación de las Muestras: Preparar las muestras para el proceso de secado, asegurando que están listas para ser secadas sin alteraciones. Proceso de Secado Condiciones de Secado: Secar las muestras siguiendo las condiciones específicas (temperatura y tiempo). Monitoreo: Monitorear continuamente el proceso de secado para evitar la degradación de las muestras. Almacenamiento de Muestras Secas Condiciones de Almacenamiento: Almacenar las muestras secas en condiciones adecuadas para su preservación. Etiquetado y Registro: Etiquetar y registrar cada muestra de manera precisa para facilitar su identificación posterior. Caracterización de Muestras Selección de Técnicas Analíticas Identificación de Técnicas: Seleccionar las técnicas analíticas necesarias para la caracterización de las muestras de zeolita (FTIR). Preparación para la Caracterización Preparación de Muestras: Preparar las muestras según los requerimientos de cada técnica analítica. Verificación de Equipos: Asegurarse de que los equipos de análisis están correctamente calibrados y en buen estado de funcionamiento. Realización de la Caracterización Análisis: Realizar los análisis utilizando las técnicas seleccionadas. Registro y Análisis de Datos: Registrar y analizar los datos obtenidos para determinar las propiedades del zinc. Interpretación de Datos Análisis Comparativo: Interpretar los datos obtenidos y compararlos con la literatura existente. Identificación de Discrepancias: Identificar posibles discrepancias y discutir sus causas.


CONCLUSIONES

Ya que se obtuvieron las nanopartículas de la zeolita A4 con cobre, se procede a analizar los resultados arrojados, para buscar una función en su correcta aplicación.
Sánchez Alarcón Cinthia Elizabeth, Universidad Tecnológica de Nayarit
Asesor: Dra. Ma. del Rocio Maciel Arellano, Universidad de Guadalajara

SMART CITIES - INTERNATIONAL CONFERENCE DIGRA 2024, UNDER THE THEME “PLAYGROUNDS”


SMART CITIES - INTERNATIONAL CONFERENCE DIGRA 2024, UNDER THE THEME “PLAYGROUNDS”

Carballo Zapién Miguel Angel, Universidad de Guadalajara. Sánchez Alarcón Cinthia Elizabeth, Universidad Tecnológica de Nayarit. Valencia Zavala Irving Miguel, Universidad Tecnológica de Nayarit. Asesor: Dra. Ma. del Rocio Maciel Arellano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El proyecto "Smart Cities - International Conference DiGRA 2024, under the theme ‘Playgrounds’", presentado en la conferencia DiGRA 2024, se centró en explorar el potencial del metaverso en la educación a través de la gamificación. Utilizando la plataforma Roblox, se recrearon experiencias basadas en la conferencia, demostrando cómo los entornos virtuales pueden enriquecer el aprendizaje.  



METODOLOGÍA

Semana 1: Organización y Planificación El equipo definió objetivos, investigó proyectos similares y tecnologías aplicables, y desarrolló un diagrama de Gantt con tareas y cronogramas. También se identificaron recursos necesarios y se estableció un plan de comunicación. Semana 2: Desarrollo de Conceptos y Prototipos Iniciales Se generaron y seleccionaron conceptos para la integración de videojuegos en sistemas de movilidad. Se desarrollaron prototipos iniciales utilizando herramientas como Unity y Unreal Engine, los cuales fueron probados y ajustados según el feedback recibido. Semana 3: Desarrollo e Integración El equipo desarrolló e integró funcionalidades del videojuego en sistemas de movilidad existentes, asegurando la cohesión y resolviendo problemas de integración. Se documentó el progreso y los desarrollos realizados. Semana 4: Pruebas Finales y Presentación Se realizaron pruebas de usuario, se implementaron mejoras basadas en el feedback, y se preparó una presentación final del proyecto, incluyendo una demostración del videojuego y resultados de las pruebas. Semana 5: Optimización y Refinamiento Se optimizó el proyecto basado en el feedback de las pruebas. Se mejoraron funcionalidades, se garantizó la estabilidad del sistema y se añadieron funcionalidades adicionales. La documentación fue actualizada y se realizó una revisión interna. Semana 6: Preparación para el Lanzamiento Se definió la estrategia de lanzamiento, se realizaron pruebas beta y se ajustaron según el feedback. Se prepararon materiales de comunicación y se realizó un ensayo general del lanzamiento. Semana 7: Lanzamiento y Seguimiento Post-Lanzamiento El proyecto fue lanzado y monitoreado en tiempo real. Se estableció un canal de soporte para usuarios y se recogió feedback para identificar áreas de mejora. Se definió un plan de mantenimiento y mejora continua del proyecto.    


CONCLUSIONES

El proyecto ha mostrado que la gamificación en entornos virtuales mejora la motivación y el compromiso de los estudiantes. Las fases de pruebas, optimización y refinamiento aseguraron la funcionalidad y estabilidad del sistema, permitiendo una transición suave al uso real. Este proyecto establece una base sólida para futuras investigaciones y desarrollos en el campo de la educación gamificada, aportando valiosas lecciones y prácticas aplicables en otros contextos educativos y tecnológicos.  
Sanchez Barrientos Josue Adbiel, Instituto Tecnológico de Matamoros
Asesor: Dr. Carlos Juarez Toledo, Universidad Autónoma del Estado de México

ANáLISIS DE INJERENCIA DE SEñALES EN CIRCUITOS CON AMPLIFICADORES OPERACIONALES Y AJUSTE DE PESOS


ANáLISIS DE INJERENCIA DE SEñALES EN CIRCUITOS CON AMPLIFICADORES OPERACIONALES Y AJUSTE DE PESOS

Sanchez Barrientos Josue Adbiel, Instituto Tecnológico de Matamoros. Asesor: Dr. Carlos Juarez Toledo, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

En sistemas electrónicos, es crucial controlar cómo diversas señales de entrada afectan la señal de salida, especialmente en aplicaciones donde la precisión es vital, como en comunicación y control. Este proyecto aborda el problema de entender la influencia de estas señales en un circuito con amplificadores operacionales y cómo la modificación de los "pesos" (resistencias) afecta los valores máximos y mínimos de la salida. La investigación busca mejorar la comprensión de estos efectos para optimizar el diseño y ajuste de sistemas electrónicos, asegurando su eficiencia y funcionalidad en aplicaciones críticas.



METODOLOGÍA

Diseño del Circuito: Se construyó un circuito utilizando amplificadores operacionales en configuración de suma y amplificación. Las señales de entrada se aplicaron a través de resistencias ajustables, permitiendo variar los "pesos" asignados a cada señal. Configuración de Pruebas: Se realizaron pruebas variando las amplitudes de las señales de entrada y ajustando las resistencias para modificar los pesos. Se registraron las respuestas del circuito en términos de voltaje de salida. Análisis de Influencia: Se evaluó la influencia de cada señal de entrada en la salida mediante el análisis de la variación de la señal de salida frente a los cambios en las entradas y los pesos. Verificación de Valores Máximos y Mínimos: Se llevaron a cabo pruebas específicas para determinar los límites de la señal de salida (máximos y mínimos) bajo diferentes configuraciones de pesos, identificando cómo estos afectan la amplitud de la salida.


CONCLUSIONES

Influencia de las Señales de Entrada: El análisis demostró que las señales de entrada con pesos mayores tienen una influencia significativa en la señal de salida. Esto permite priorizar o mitigar la influencia de ciertas señales mediante el ajuste de las resistencias en el circuito. Control Preciso de la Salida: La capacidad de ajustar los pesos proporciona un control preciso sobre la señal de salida, lo que es esencial para aplicaciones que requieren gestionar la influencia de señales externas o internas. Optimización del Circuito: Los resultados indican que, mediante una configuración adecuada de los pesos, es posible optimizar la respuesta del circuito para aplicaciones específicas, como el filtrado de señales o la priorización en sistemas de comunicación y control.
Sanchez Bautista Vanesa, Universidad Politécnica de Atlautla
Asesor: Mg. Andrés Polo Roa, Fundación Universitaria Agraria de Colombia

LOGíSTICA APLICADA A LA PRODUCCIóN DE HIDRóGENO COMO FUENTE DE ENERGíA NO CONVENCIONAL PARA PAíSES EMERGENTES: CASO MéXICO-COLOMBIA


LOGíSTICA APLICADA A LA PRODUCCIóN DE HIDRóGENO COMO FUENTE DE ENERGíA NO CONVENCIONAL PARA PAíSES EMERGENTES: CASO MéXICO-COLOMBIA

Meléndez Paez Luis Rosendo, Universidad Politécnica de Atlautla. Sanchez Bautista Vanesa, Universidad Politécnica de Atlautla. Asesor: Mg. Andrés Polo Roa, Fundación Universitaria Agraria de Colombia



PLANTEAMIENTO DEL PROBLEMA

Se espera que para 2050 la población llegue a 10 mil millones de personas, es por ello que el impacto ambiental será mayor y las emisiones contaminantes tanto en vehículos como en fábricas aumentará considerablemente.



METODOLOGÍA

Búsqueda sistemática de artículos de investigación que hablen sobre producción, transporte, logística y cadena de suministro de hidrógeno como fuente de energía no convencional.


CONCLUSIONES

México y Colombia en su esfuerzo por transitar una mejor economía mas sostenible, están adaptando el hidrógeno como una solución clave para reducir las emisiones de gases. Ambos países muestran un compromiso significativo con la sostenibilidad ambiental, reflejado en el desarrollo de proyectos de hidrógeno verde y la implementación de tecnologías de captura de carbono para producir hidrógeno azul. Este enfoque comparte la voluntad de explorar colaboradores internacionales y destacan la importancia de las estrategias de hidrógeno en sus planes de desarrollo energético.
Sanchez Bello Jose Fernando, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla

DISEñO Y IMPLEMENTACIóN DE UN ROBOT SCARA CON IMPLEMENTACIóN DE UN ESQUEMA DE CONTROL PD.


DISEñO Y IMPLEMENTACIóN DE UN ROBOT SCARA CON IMPLEMENTACIóN DE UN ESQUEMA DE CONTROL PD.

Sanchez Bello Jose Fernando, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, el estudio y la implementación de sistemas mecatrónicos en la industria han generado nuevos formatos de exploración y experimentación para el diseño de robots industriales. Este avance tiene como objetivo principal permitir la realización de pruebas y simulaciones antes de construir el sistema físico. De esta manera, se busca determinar si el sistema propuesto será capaz de cumplir con las tareas específicas para las cuales se ha diseñado. La necesidad de validar y optimizar el diseño de sistemas mecatrónicos antes de su implementación física presenta varios desafíos. A menudo, los recursos y el tiempo disponibles para la experimentación y prueba de estos sistemas son limitados, lo que puede resultar en la implementación de soluciones que no cumplen completamente con los requisitos operativos. Hoy en día existen herramientas que permiten el poder obtener toda la información necesaria para poder diseñar y implementar sistemas reales a través de sistemas digitales que se llaman sistemas ciberfísicos.



METODOLOGÍA

Para el desarrollo de este proyecto se inició con el modelado dinámico del robot SCARA mediante el uso de las propiedades matemáticas y ecuaciones de movimiento de Euler-Lagrange, donde en este proceso implica el uso de la cinemática directa, la cinemática diferencial, aplicar las norma euclidiana para obtener la rapidez para, la cual esta implícita en el uso de la energía cinética y potencial del sistema, ya teniendo ese paso se utiliza el langrangiano que es a resta de la energía cinética  con la potencial, ya teniendo el lagrangiano se utiliza la ecuación de movimiento de Euler-Lagrange donde se obtendrá las variables de estado del sistema dinámico que son posición, velocidad y rapidez, donde así se tendrá el modelo dinámico del robot SCARA.   Después de tener el modelo dinámico se realizó un modelo en SolidWorks representativo del sistema que servirá como si fuera el sistema real aplicando de los materiales que se quieran diseñar, esto sirve ya que SolidWorks brinda información necesaria que será después útil para el simulador que se plantea del sistema ciberfísico, una vez que se tiene este modelado se hace la conexión de Simulink-SolidWorks mediante la herramienta de multibody simscape donde permitirá exportar el modelo CAD a Simulink y poderlo utilizar en el simulador, este simulador de control de lazo cerrado se compone de 2 plantas uno que es el modelado dinámico obtenido anteriormente y la información obtenida por SolidWorks para sustituir los datos al modelo y la planta que es el modelo CAD el cual representa al modelo real, también este lazo de control está compuesto de un control PD tangente hiperbólica, un  observador dinámico de estados y una trayectoria deseada, con estos elementos se puede  hacer una simulación para ver el comportamiento de ambos ejemplos del robot SCARA. Durante este proceso del simulador se tuvo que realizar el análisis de estabilidad de Lyapunov para conocer si el esquema de control es estable y el robot pueda cumplir con la tarea deseada, al realizar este análisis se demostró que existe el punto de equilibrio y es único y que cumple con las dos condiciones de Lyapunov para ser estable, con esto se garantiza que el sistema funcionará correctamente. Después de tener el simulador funcionando se pasó a realizar el robot en físico en este caso este sistema se hizo con materiales reutilizados para evitar la compra de nuevos materiales, de esta manera se realizó el ensamblaje del sistema y posteriormente se pasó a ir calibrando los motores con encoder para que cumpla con las posiciones que se piden, ya que se tuvo el control de los 3 grados se le aplico una trayectoria para que tanto el sistema virtual como físico sigan la trayectoria al mismo tiempo haciendo que lo que pase en uno pase en el otro.  


CONCLUSIONES

Durante esta estancia de verano se aprendio y extendio los conociminetos de robtica y control aplicados tanto de manera teorica como física donde, permitio ver como se debe realizar el proceso para implementar un sistema real, y aplicarlo de manera correcta, durante estos resultados se comprbo como el modelado del sistema puede ser descrito de varias formas, como se debe elegir un esquema de control para el tipo de tarea y sobre todo la satisfación que se tiene al lograr que algo funcione correctamente. Así como la siguiente liga donde se muestra el funcionamiento del sistema ciberfísico aplicado: https://youtube.com/shorts/yZqikbpo1K4?feature=share
Sánchez Chávez Ariadne Itzel, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Noé Alba Baena, Universidad Autónoma de Ciudad Juárez

METODOLOGíA PARA ROBUSTECER LOS PROCESOS MEDIANTE EL CRUCE DE FACTORES INTERNOS Y EXTERNOS CON ELEMENTOS DE MANUFACTURA ESBELTA


METODOLOGíA PARA ROBUSTECER LOS PROCESOS MEDIANTE EL CRUCE DE FACTORES INTERNOS Y EXTERNOS CON ELEMENTOS DE MANUFACTURA ESBELTA

Sánchez Chávez Ariadne Itzel, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Noé Alba Baena, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

El entorno que rodea a una organización es dinámico y complejo, por lo que el estudio es fundamental para poder formular estrategias efectivas para adaptarse a los cambios en el mercado y la industria. Es necesario la implementación de estrategias que evalúen factores externos y factores internos para brindar herramientas que permitan que la estrategia sea robusta. La delimitación del problema se centra en el área de ensamblaje, en donde se detectan una serie de factores internos y externos, que propician un bajo porcentaje de productividad y calidad. Como resultado, se tiene un alto impacto desde el punto de vista económico, operativo, sustentable y social. Por lo tanto, se busca robustecer los procesos de ensamblaje de la industria manufacturera mediante técnicas proporcionadas por la filosofía de la manufactura esbelta.



METODOLOGÍA

El robustecimiento de procesos viene de la técnica de diseño experimental desarrollada por el Dr. Genichi Taguchi para la generación de productos o procesos robustos. Se le conoce como producto o proceso robusto a los productos o procesos que tienen menor sensibilidad a imperfecciones de manufactura y en general al efecto que producen los factores que se encuentran en el medio y son difíciles de controlar. Para el desarrollo de la metodología comenzamos con la etapa de identificar y medir los factores externos y su relación con la variable de respuesta del proceso, mediante un registro de incidencias de los ausentismos de la célula de ensamble, las piezas construidas y las horas evaluadas. De ello, calculamos el porcentaje de ausentismo y productividad por medio de 2 formulas. Se utiliza un gráfico de dispersión para visualizar la relación entre las variables, estos gráficos permiten identificar patrones o tendencias en los datos, así como sugerir si hay una relación entre las variables. El grafico de dispersión nos muestra la relación ausentismo y productividad y se calcula la R^2 junto con el coeficiente de correlación para cuantificar el efecto que tiene la variable de respuesta productividad y el factor externo ausentismo mediante una formula. Se continua con el siguiente factor externo a evaluar que es la calidad del proveedor, el cual se refleja en el proceso al producir piezas defectuosas. Se registran las piezas inspeccionadas, las piezas malas y las horas evaluadas, para calcular los PPMs con la Fórmula 4. En el segundo paso identificamos y cuantificamos los factores internos y su relación con la variable de respuesta del proceso mediante la herramienta entrenamiento cruzado el cual consiste en enumerar las estaciones de trabajo en columnas y los operadores en renglones, se coloca un marcador que indica el nivel de competencia de cada operador. Un círculo sin relleno significa que  el operador no conoce la estación de trabajo, un círculo con un cuarto de circulo sombreado significa que el operador es nuevo en la estación, pero conoce el proceso lo que representa un 25% de dominio, un círculo sombreado a la mitad significa que operador conoce el proceso sin embargo realizas piezas con defectos y representa un 50% del dominio, un círculo sombreado tres cuartos significa que realiza el proceso sin defectos pero aún no alcanza el tiempo de ciclo de la estación lo que representa un 75% y un círculo completamente sombreado significa un 100% de conocimiento y dominio de la estación. A partir de esto se grafica el nivel del porcentaje del entrenamiento cruzado y la productividad obtenida en las horas evaluadas y se calcula la R^2 junto con el coeficiente de correlación para cuantificar el efecto que tiene la variable de respuesta productividad y el factor interno entrenamiento cruzado. El siguiente factor para evaluar es el factor interno carga de trabajo el cual consiste en el análisis de tiempo estándar que implica medir el tiempo requerido para completar cada tarea en una línea de producción. Esto proporciona información sobre el tiempo de ciclo de cada estación de trabajo y ayuda a identificar oportunidades para repartir la carga de trabajo. Mediante un estudio de tiempos se reparte la carga de trabajo en diferentes escenarios los cuales comprende desde 3 hasta 6 operadores. Se grafica el tamaño de grupo de la carga de trabajo y la productividad obtenida en las horas evaluadas y se calcula la R^2 junto con el coeficiente de correlación para cuantificar el efecto. Avanzamos a la etapa de mejoramiento de la productividad y el lead time. Donde se pueden utilizar herramientas tales como: diseño de experimentos o arreglo ortogonal. Una vez implementada la mejora se realiza una corrida de comprobación para conocer los valores de la variable productividad y lead time. Continuamos con la experimentación y tratamiento de los datos, donde se intenta identificar y cuantificar los factores externos y su relación con la variable de respuesta del proceso.  Graficamos estos mismos datos y se muestra la relación del factor externo ausentismo y la variable de respuesta de productividad, el cual presenta una R^2 de 0.884 y un coeficiente de correlación de -0.938. Se realiza un registro de las incidencias de las piezas inspeccionadas, piezas malas, PPMs y la productividad relacionada al PPM. Se obtiene la relación del factor externo PPMs y la variable de respuesta productividad, el cual tiene una R^2 de 0.7818 y coeficiente de correlación de -0.957. En la siguiente etapa identificamos y cuantificamos los factores internos y su relación con la variable de respuesta del proceso. Se seleccionan los factores internos del proceso entrenamiento cruzado y balanceo de línea para interactuar con la variable de respuesta productividad. El factor interno carga de trabajo se desarrolla para 4 escenarios: el primero con 3 operadores, el segundo con 4 operadores, el tercero con 5 operadores y el cuarto con 6 operadores. Obtenemos la relación del factor interno balanceo de línea y la variable productividad el cual presenta un R^2 de 0.605 y coeficiente de correlación de 0.780. 


CONCLUSIONES

Durante esta estancia logre adquirir muchos conocimientos básicos de la investigación, poder recabar información desde cero, conocer heramientas que me ayuden a darle un tratamiento a estos datos obtenidos y usarlos a mi favor o de acuerdo a mi objetivo planteado. El verano de investigación es algo corto y al ser un proyecto demasiado extenso, no alcance a corroborar lo resultados obtenidos, conclusiones y plan de ejecución, sin embargo me llevo la enseñanza de poder indagar en nuevos temas y poder investigar para compartir el concomiento con mis compañeros y colegas.    
Sánchez Conchas Carlos Elyer, Instituto Tecnológico de Tepic
Asesor: Mg. Oscar Chamarravi Guerra, Fundación Universidad de América

CARACTERIZACIóN METALOGRAFICA DE MATERIALES MECáNICOS UTILIZADOS EN LA ACUñACIóN DE MONEDAS COLOMBIANAS


CARACTERIZACIóN METALOGRAFICA DE MATERIALES MECáNICOS UTILIZADOS EN LA ACUñACIóN DE MONEDAS COLOMBIANAS

Sánchez Conchas Carlos Elyer, Instituto Tecnológico de Tepic. Asesor: Mg. Oscar Chamarravi Guerra, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Se requiere realizar la caracterización de los materiales metálicos que se utilizaron en la acuñación de las monedas colombianas con el fin de obtener la información de las mismas, las microfotografías que se obtengan, contribuirán a realizar la evaluación estructural de los materiales a ser analizados.



METODOLOGÍA

En la primera semana, recibí por parte del tutor la inducción e introducción al proyecto y se realizó la clasificación de los materiales en ferrosos y no ferrosos. En la segunda semana, se cortaron algunas probetas de los materiales ferrosos y no ferrosos, para algunos se realizó en encapsulamiento en resina. En las semanas 3, 4 y 5, se realizó el proceso de desbaste y pulimiento de todas las probetas, con papel de lija de diferente granulometría y paños especiales con abrasivos de alúmina y pasta de diamante. Las últimas semanas 6 y 7, se atacaron químicamente todas las probetas con su respectivo reactivo para poder revelar su microestructura y finalmente realizar los registros fotográficos en el microscopio a diferentes aumentos guardando la información en medios de almacenamiento digital.


CONCLUSIONES

• Se construyó una tabla con la clasificación de los materiales ferrosos y no ferrosos. • Se registró la clasificación de los reactivos de ataque químico para cada tipo de material. • Se realizó la microfotografía de todas las probetas analizadas. • Se obtuvo un registro de microfotografías a diferentes aumentos para su posterior evaluación. • Toda esta investigación servirá como apoyo y/o soporte para futuros proyectos de temas relacionados.
Sánchez Cornejo Jesús, Instituto Tecnológico de Jiquilpan
Asesor: Mg. Cèsar Augusto Rodrìguez Ledesma, Instituto Tecnológico Metropolitano

REDES NEURONALES ARTIFICIALES


REDES NEURONALES ARTIFICIALES

Sánchez Cornejo Jesús, Instituto Tecnológico de Jiquilpan. Asesor: Mg. Cèsar Augusto Rodrìguez Ledesma, Instituto Tecnológico Metropolitano



PLANTEAMIENTO DEL PROBLEMA

En el presente documento se expresa como las redes neuronales trabajan para poder brindarnos un reconocimiento de patrones por medio del aprendizaje y asociación.                                                                                                                                                                                      inspirada en el modelo de red neuronal de John Holpfield.   Se comprueba que las redes neuronales realmente simulan el aprendizaje al reconocer una vocal previamente aprendida ingresando por medio de una cuadricula creada en una plataforma informática con el lenguaje de programación Java cualquiera de las 5 vocales del alfabeto.



METODOLOGÍA

Primero, se definieron el problema y los objetivos del proyecto. Luego, se prepararon los datos mediante la creación de matrices de 5x5 que representan las vocales A, E, I, O y U. Posteriormente, se implementó la red de Hopfield utilizando la clase HopfieldClasico, inicializando una matriz de pesos de tamaño 25x25. Se diseñó una interfaz gráfica con Swing para permitir a los usuarios dibujar una vocal en una matriz de 5x5, donde cada celda puede alternar entre activado (negro) y desactivado (blanco). Finalmente, se realizaron pruebas funcionales y de precisión para asegurar el correcto funcionamiento y la exactitud del sistema al reconocer patrones de vocales ingresados por los usuarios.


CONCLUSIONES

El proyecto de implementación de una red de Hopfield para el reconocimiento de vocales en una interfaz Java ha demostrado la capacidad de las redes neuronales para aprender y reconocer patrones de manera eficiente. A través de la metodología detallada y un enfoque sistemático en el diseño, implementación y evaluación, se logró desarrollar un sistema funcional que puede identificar vocales dibujadas en una matriz de 5x5. Este sistema no solo valida la teoría detrás de las redes neuronales de Hopfield, sino que también muestra su aplicabilidad práctica en el campo del reconocimiento de patrones.
Sanchez Fonseca Hector Luis, Instituto Tecnológico Superior de Irapuato
Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato

DISEñO DE SISTEMA ELECTRONEUMáTICO PARA DOSIFICACIóN DE FERTILIZANTE GRANULADO O EN POLVO POR GRAVEDAD


DISEñO DE SISTEMA ELECTRONEUMáTICO PARA DOSIFICACIóN DE FERTILIZANTE GRANULADO O EN POLVO POR GRAVEDAD

Sanchez Fonseca Hector Luis, Instituto Tecnológico Superior de Irapuato. Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

La dosificación manual de fertilizantes en polvo o granulado enfrenta problemas de precisión y eficiencia. El método tradicional es propenso a errores humanos y es lento, ya que requiere constantes ajustes para garantizar la cantidad correcta de fertilizante. Para solucionar estos problemas, se propone un sistema electroneumático que combina tecnología electrónica y neumática, mejorando la precisión y eficiencia en la dosificación mediante sensores y actuadores. Este sistema permitirá configurar intervalos específicos y reducirá errores y desperdicios, optimizando así el proceso de carga y beneficiando a la industria agroquímica.



METODOLOGÍA

Para definir el alcance del proyecto, se eligió un tipo específico de fertilizante con el propósito de analizar sus propiedades físicas y realizar estudios necesarios. En este caso, se seleccionó la urea, ya que, según datos del INEGI, está entre los diez fertilizantes más utilizados en México. Con las propiedades físicas del fertilizante determinadas, se desarrolló un modelo matemático para calcular la cantidad de fertilizante dispensada en un periodo determinado. Los cálculos relacionados con el tiempo y el peso de la dosificación se llevaron a cabo utilizando una hoja de cálculo en Excel. Se calcularon áreas, volúmenes y flujos para establecer la cantidad de producto dispensado en un intervalo específico. Primero, se calculó la presión del fluido usando la fórmula altura x gravedad x densidad. Con esta presión, se determinó el área de salida de la tolva. Utilizando esta área, se calculó el peso del producto con la fórmula área x presión. Luego, se determinó la velocidad del fluido al salir de la tolva con la ecuación √2 x 9.81 x altura. A partir de esta velocidad, se calculó el flujo del fluido usando la relación velocidad x área de salida. Estos datos se ingresaron en una hoja de cálculo en Excel para obtener resultados exactos sobre áreas, volúmenes, tiempos y cantidad de fertilizante dispensado, permitiendo un control preciso de la dosificación mediante la apertura y cierre de la escotilla de suministro. Tras desarrollar el modelo matemático, se diseñó un circuito neumático para implementar los tiempos calculados. Se optó por utilizar un contador y temporizador neumático para simplificar el diseño y aumentar la precisión. El contador neumático se eligió para evitar la complejidad de múltiples válvulas de deceleración en serie, permitiendo un seguimiento preciso de los ciclos del actuador y reduciendo la cantidad de componentes necesarios. El primer circuito neumático incluye pulsadores que funcionan como válvulas 3/2 con diferentes tiempos de activación, permitiendo configurar el ciclo de trabajo del cilindro. Al presionar un pulsador, el contador registra los ciclos hasta que el cilindro se retrae, permitiendo su reposicionamiento. Esta configuración ajusta los intervalos de tiempo de dosificación, mejorando la precisión y consistencia del proceso. La implementación del contador ha demostrado ser ventajosa, simplificando el diseño y optimizando el rendimiento, lo que ha facilitado el desarrollo de un circuito electroneumático más compacto y eficiente. Basado en el circuito neumático inicial, se creó un nuevo circuito electroneumático que mantiene la funcionalidad original pero con un control eléctrico simplificado. Este circuito incorpora un cilindro de doble efecto, válvulas estranguladoras antirretorno, una electroválvula 5/2, una fuente de aire y una unidad de mantenimiento, junto con componentes eléctricos como un botón pulsador normalmente abierto, relevadores, un contador-selector eléctrico, un relé con temporizador y sensores de proximidad. El sistema eléctrico opera con una alimentación de 24 voltios de corriente continua. Al presionar el botón pulsador, se activa un relevador que controla el solenoide de la electroválvula, permitiendo el movimiento del cilindro. Al final del recorrido del cilindro, un sensor de proximidad envía una señal al contador y al temporizador, gestionando los ciclos de trabajo y el retorno del cilindro. El contador y el temporizador gestionan el ciclo hasta completar los ciclos preestablecidos, momento en el cual otro relevador detiene la secuencia neumática. El diagrama de estado muestra cómo el cilindro se extiende, mantiene su posición durante el tiempo del temporizador y luego se retrae, repitiendo el ciclo de acuerdo al contador, facilitando así la comprensión del funcionamiento del cilindro en el sistema electroneumático.


CONCLUSIONES

Los resultados obtenidos del sistema electroneumático son notables. Se plantea dosificación más precisa y consistente al ajustar con exactitud los intervalos de tiempo requeridos. El nuevo circuito electroneumático, que combina componentes neumáticos y eléctricos, ha demostrado una notable mejora en la reducción de errores humanos y en la optimización de los tiempos de proceso. La capacidad del sistema para operar de forma cíclica y programable asegura una dosificación uniforme y eficiente del fertilizante. Este avance en la automatización del proceso ha resultado en una significativa reducción de tiempos muertos. La electroneumática ha demostrado ser una solución efectiva y avanzada para la dosificación de fertilizantes, evidenciando su capacidad para mejorar la eficiencia operativa y la precisión en la industria.
Sánchez Garduño Alma Itzel, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Ing. José Miguel Tellez Zepeda, Universidad Tecnológica de Tecamachalco

ESTUDIO DE CORRELACIóN DE LA TEMPERATURA AMBIENTE Y GRADOS BRIX EN LA FERMENTACIóN PARA LA OBTENCIóN DE MEZCAL DE MAGUEY MAPISAGA EN EL VALLE DE YEHUALTEPEC, PUEBLA


ESTUDIO DE CORRELACIóN DE LA TEMPERATURA AMBIENTE Y GRADOS BRIX EN LA FERMENTACIóN PARA LA OBTENCIóN DE MEZCAL DE MAGUEY MAPISAGA EN EL VALLE DE YEHUALTEPEC, PUEBLA

Sánchez Garduño Alma Itzel, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Ing. José Miguel Tellez Zepeda, Universidad Tecnológica de Tecamachalco



PLANTEAMIENTO DEL PROBLEMA

La producción de mezcal a partir del maguey mapisaga en el valle de yehualtepec, puebla, está muy influenciada por las condiciones climáticas entre abril y julio, el proceso de fermentación puede acelerarse debido a las bajas y altas temperaturas del ambiente, las cuales están influenciadas por la humedad de la temporada de lluvias, y pueden tener efectos negativos en la calidad del mezcal. Los grados Brix, son las mediciones que indica la cantidad de azúcar fermentable en el proceso. Debido a esto, es esencial tener el correcto control de estos factores para mantener el mezcal en óptimas condiciones de calidad y productividad, ya que la temperatura y los niveles de azúcar durante la fermentación afectan directamente al mezcal del maguey mapisaga. La producción de mezcal a partir del maguey mapisaga en el valle de Yehualtepec, puebla, está muy influenciada por las condiciones climáticas entre abril y julio, el proceso de fermentación puede acelerarse debido a las bajas y altas temperaturas del ambiente, las cuales están influenciadas por la humedad de la temporada de lluvias, y pueden tener efectos negativos en la calidad del mezcal. Los grados Brix, son las mediciones que indica la cantidad de azúcar fermentable en el proceso. Debido a esto, es esencial tener el correcto control de estos factores para mantener el mezcal en óptimas condiciones de calidad y productividad, ya que la temperatura y los niveles de azúcar durante la fermentación afectan directamente al mezcal del maguey mapisaga.



METODOLOGÍA

Se definen las variables a considerar para evaluar la relación entre la eficiencia de la fermentación y la calidad del mezcal fermentado de acuerdo a la temperatura ambiente: Variable independiente: La temperatura del ambiente durante el proceso de fermentación. Variables dependientes: Los grados de Brix del bagazo en el proceso de fermentación, Tiempo que lleva fermentar. En rancho la lagunilla" en yehualtepec, Puebla fue donde se hace la recolección de datos de abril a junio, se detecta que la temperatura esta entre los 20°C a 28°C debido a las lluvias de junio, con frecuencia se evaluan los grados Brix del bagazo en la fermentación, y presenta valores Brix que oscilaban entre 7 y 3 grados. Las mediciones de temperatura y Brix de un recipiente se tomaron durante un período de diez días la correlación entre estas variables y la temperatura se investigó mediante una regresión lineal simple, que permitió visualizar la línea de regresión mediante un diagrama de dispersión y estableció la correlación entre los grados brix y la temperatura. El nivel de significancia de 0,05 se logró mediante el análisis de varianza anova para validar la prueba de hipótesis tanto el coeficiente de correlación como el coeficiente de determinación se utilizaron para medir la fuerza y la dirección de la correlación entre las variables.


CONCLUSIONES

Los niveles brix del maguey mapisaga están influenciados por las condiciones climáticas, siendo la temperatura el factor principal que afecta la calidad del mezcal, son necesarias temperaturas adecuadas para lograr el proceso de fermentación óptimo, con una temperatura de fermentación ideal de 3 grados Brix. La calidad del mezcal se ve impactada negativamente por la dificultad de manejar temperaturas extremas y altos niveles de humedad, estos hallazgos resaltan la necesidad de un manejo efectivo de las condiciones ambientales y del cultivo de maguey para garantizar una calidad constante en el producto final.
Sánchez González Saúl Alberto, Universidad de Guadalajara
Asesor: Dra. Rosario González Gonzalez, Instituto Tecnológico de Aguascalientes

CARACTERIZACIóN DE PLáSTICOS TIPO BOLSA ETIQUETADOS COMERCIALMENTE COMO BIODEGRADABLE, OXO-BIODEGRADABLES Y COMPOSTABLES POR ESPECTROSCOPíA INFRARROJA


CARACTERIZACIóN DE PLáSTICOS TIPO BOLSA ETIQUETADOS COMERCIALMENTE COMO BIODEGRADABLE, OXO-BIODEGRADABLES Y COMPOSTABLES POR ESPECTROSCOPíA INFRARROJA

Sánchez González Saúl Alberto, Universidad de Guadalajara. Asesor: Dra. Rosario González Gonzalez, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

El uso de plásticos en la vida cotidiana es omnipresente, y una de las preocupaciones más grandes es su impacto ambiental debido a su lenta degradación. Con el fin de mitigar este problema, se han desarrollado diversos tipos de bolsas plásticas de polietileno con leyendas que las describen como degradables, biodegradables, compostables, oxo-biodegradables, entre otras. Sin embargo, existe una necesidad de caracterizar estos productos para verificar si realmente cumplen con las propiedades anunciadas y qué modificaciones o aditivos se han aplicado en comparación con las bolsas de polietileno estándar, que no contienen aditivos ni modificaciones.   En este estudio, se caracterizaron cualitativamente 50 muestras de bolsas plásticas de polietileno utilizando espectroscopía IR, específicamente mediante la técnica de Reflectancia Total Atenuada (ATR). El análisis se llevó a cabo en la ciudad de Aguascalientes, en el Instituto Tecnológico Nacional (ITA), donde se realizaron cinco barridos por muestra para obtener resultados precisos y consistentes.   Esto es fundamental para entender los grupos funcionales presentes, los posibles aditivos y las modificaciones aplicadas a estas bolsas plásticas. Con ello, se busca determinar si los grupos funcionales presentes son insaturados, con dobles o triples enlaces. La correcta caracterización de estos materiales no sólo es relevante desde un punto de vista técnico y científico, sino también para garantizar la veracidad de la información presentada a los consumidores y evaluar el impacto ambiental real de estos productos.  



METODOLOGÍA

La metodología aplicada puede ser dividida en tres secciones las cuales fueron desarrolladas paulatinamente durante la estancia en el Instituto Tecnológico de Aguascalientes, estas son: 1.- TOMA DE ESPECTROS IR Alrededor de 50 muestras con las características deseadas fueron muestreadas en toda la ciudad de Aguascalientes para su posterior análisis utilizando espectroscopía IR, utilizando espectrosfotómetro IR, ThermoScientific, modelo Isc10  utilizando el accesorio de Reflectancia Total Atenuada, utilizando un espejo de Germanio. El espectro de cada muestra se obtuvo realizando el promedio de 5 espectros individuales, con el objetivo de verificar y promediar los datos obtenidos.     2.- PROCESAMIENTO DE ESPECTROS IR Los espectros IR fueron analizados y procesados utilizando el software OriginPro, y los datos fueron tabulados en Microsoft Excel, identificando las bandas consideradas características o más importantes de cada espectro.   3.-ANÁLISIS E INTERPRETACIÓN DE ESPECTROS IR Finalmente se llevó a cabo un análisis cualitativo en donde se determinaron los grupos funcionales adicionales a los característicos del de polietileno.  


CONCLUSIONES

En las bolsas etiquetadas como degradables, se detectaron picos que no son característicos del polietileno puro. Por ejemplo, la banda en 3409 cm⁻¹ podría indicar la presencia de grupos OH, como alcoholes o humedad, mientras que las bandas alrededor de 1644 cm⁻¹ y 1578 cm⁻¹ sugieren la existencia de insaturaciones (enlaces C=C) o grupos carbonilos (C=O). Estos hallazgos apuntan a la adición de componentes que alteran la estructura del polietileno, posiblemente para acelerar su degradación a través de procesos de oxidación o la introducción de impurezas.   Las bolsas biodegradables mostraron una serie de picos adicionales en 3409 cm⁻¹, 1732 cm⁻¹ y en la región de 1652-1045 cm⁻¹, indicando modificaciones sustanciales en la composición del material. Estos picos son indicativos de oxidación, absorción de agua o la inclusión de aditivos como ésteres y alcoholes, que no están presentes en el polietileno no modificado. La mayor variedad de picos y su intensidad reflejan la presencia de diferentes grupos funcionales, lo cual sugiere un diseño intencionado para facilitar la biodegradación del material bajo ciertas condiciones ambientales.   En el caso de las bolsas oxo-biodegradables, se identificaron bandas que sugieren la presencia de grupos hidroxilo y carbonilos. Estas bandas, junto con otras que indican estructuras aromáticas o productos de degradación con dobles enlaces C=C, no se encuentran en el polietileno puro. La aparición de estas bandas adicionales puede estar asociada con aditivos que contienen enlaces C-O, introducidos con el propósito de facilitar la degradación del material. Estos componentes adicionales parecen estar diseñados para facilitar la fragmentación y eventual biodegradación del polietileno al romper las cadenas moleculares más fácilmente bajo condiciones ambientales específicas.   Las bolsas compostables mostraron picos adicionales y variaciones en las intensidades de las bandas características del polietileno puro, lo que indica la presencia de aditivos que alteran su estructura química. Se observaron bandas correspondientes a grupos O-H y C=O, que sugieren la inclusión de aditivos que introducen funcionalidades como alcoholes, éteres o aminas. La aparición de picos adicionales asociados con enlaces dobles C=C o estructuras aromáticas señala modificaciones que podrían hacer el material compostable, promoviendo su descomposición en ambientes de compostaje controlados.   En conjunto, estos hallazgos demuestran que los diferentes tipos de bolsas con aditivos, aunque siguen siendo fundamentalmente de polietileno, contienen modificaciones químicas que les otorgan características potencialmente degradables, biodegradables, oxo-biodegradables o compostables.    Estos cambios están diseñados para facilitar la degradación del material, ya sea por procesos ambientales naturales o mediante la intervención de microorganismos, destacando la importancia de la modificación química para mejorar la sostenibilidad de los plásticos en el medio ambiente. Sin embargo, la eficacia y el impacto real de estos aditivos requieren un estudio más profundo y pruebas prolongadas para evaluar su rendimiento y efectos en diversas condiciones de uso y disposición final.  
Sánchez Guerrero María Alejandra, Instituto Tecnológico de Morelia
Asesor: Mtro. Héctor Alejandro Galvez López, Universidad de Guadalajara

ACTUALIZACIóN DEL ARTíCULO CIENTíFICO LLAMADO "A SURVEY ON UNMANNED AND AUTOMATED VEHICLES IN WAREHOUSE ON INDOOR INVENTORY AND LOCALIZATION"


ACTUALIZACIóN DEL ARTíCULO CIENTíFICO LLAMADO "A SURVEY ON UNMANNED AND AUTOMATED VEHICLES IN WAREHOUSE ON INDOOR INVENTORY AND LOCALIZATION"

Pita Pérez Erika, Instituto Tecnológico de Morelia. Sánchez Guerrero María Alejandra, Instituto Tecnológico de Morelia. Asesor: Mtro. Héctor Alejandro Galvez López, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la gestión de la cadena de suministro, el almacenamiento de artículos presenta varios desafíos significativos, especialmente en lo que respecta a la gestión del inventario en almacenes. Es fundamental considerar aspectos como la clasificación de artículos entrantes, almacenados y salientes, así como prestar atención a las áreas, dimensiones, metodología de almacenamiento y tamaño de los artículos para optimizar la eficiencia. Para los artículos almacenados, es importante considerar la metodología de almacenamiento adecuada según sus características. Esto implica utilizar sistemas de almacenamiento que maximicen el uso del espacio y faciliten la accesibilidad. La organización debe ser tal que permita una fácil localización y recuperación de los productos, utilizando herramientas tecnológicas como sistemas GPS y software de gestión de almacenes para mejorar la precisión y eficiencia en la gestión del inventario.  



METODOLOGÍA

Para llevar a cabo la actualización del artículo científico enfocado en el manejo de inventario y la localización de artículos en almacenes mediante vehículos autónomos, se adoptó una metodología sistemática y rigurosa. El primer paso consistió en una lectura exhaustiva del artículo original para identificar las áreas específicas que requerían actualización y mejora. Este análisis inicial permitió establecer una hoja de ruta clara sobre los temas centrales y los puntos donde la información necesitaba ser reforzada o actualizada con datos y estudios más recientes. Posteriormente, se realizó una búsqueda exhaustiva de fuentes formales y académicas que trataran los temas abordados en el artículo original. Utilizando bases de datos científicas, revistas especializadas y publicaciones recientes, se recopilaron artículos, estudios de caso y revisiones de literatura relevantes. El objetivo fue obtener una visión amplia y actualizada sobre las últimas investigaciones y avances tecnológicos en el manejo de inventario y el uso de vehículos autónomos en almacenes. Con la información recopilada, se procedió a la integración de los nuevos datos en el texto original. Para ello, se revisaron y reescribieron las secciones del artículo que trataban sobre metodologías de manejo de inventario, tecnologías de localización y el papel de los vehículos autónomos en la optimización de procesos logísticos. Cada actualización fue respaldada con citas y referencias a los estudios y artículos más recientes, asegurando que el texto no solo reflejara las últimas tendencias y descubrimientos, sino que también mantuviera un alto nivel de rigor científico. Como último, se dio formato al nuevo texto, asegurando coherencia y cohesión en la redacción. Se cuidaron los aspectos formales del documento, como la estructura, el estilo académico y la correcta citación de las fuentes utilizadas. Este proceso culminó en una versión actualizada del artículo, enriquecida con información contemporánea y respaldada por una sólida base de datos, lo que garantiza su relevancia y utilidad para investigadores y profesionales encargados en el área de la automatización en almacenes.  


CONCLUSIONES

La actualización de un artículo científico sobre el manejo de inventario y la localización de artículos en almacenes mediante vehículos autónomos ofrece múltiples aprendizajes y beneficios. En primer lugar, permite adquirir un conocimiento profundo y actualizado sobre los últimos avances tecnológicos y metodológicos en el campo de la logística y la gestión de inventarios. Este proceso facilita la comprensión de cómo las innovaciones, como los vehículos autónomos, están transformando las operaciones en los almacenes, mejorando la eficiencia y reduciendo los costos operativos. Además, trabajar en la actualización de un artículo científico refuerza las habilidades de investigación y análisis crítico. Al buscar y evaluar fuentes formales, se desarrollan competencias para identificar información relevante y de alta calidad, así como para integrar de manera coherente y precisa nuevos datos en un texto preexistente. Este ejercicio también fomenta la capacidad de síntesis, al combinar información de diversas fuentes para crear un documento cohesionado y bien fundamentado. Otro aprendizaje significativo es la mejora en las habilidades de redacción académica y la familiarización con los estándares de citación y referencia. Al actualizar el artículo, se practica la escritura clara y precisa, adaptada al estilo académico, lo que es esencial para comunicar de manera efectiva los hallazgos y contribuciones científicas. La correcta citación de las fuentes también es crucial para mantener la integridad y credibilidad del trabajo. Finalmente, la experiencia de actualizar un artículo científico destaca la importancia de la colaboración y el intercambio de conocimientos entre la comunidad científica. Este proceso no solo contribuye al crecimiento personal y profesional del investigador, sino que también enriquece el campo de estudio, proporcionando información actualizada y relevante que puede ser utilizada por otros investigadores y profesionales. En resumen, actualizar un artículo científico es un ejercicio valioso que amplía el conocimiento, refuerza habilidades clave y promueve el avance de la ciencia.  
Sánchez Hermosillo Brenda Nayeli, Universidad de Guadalajara
Asesor: Dr. Rolando Arturo Cubillos González, Universidad Católica de Colombia

DISEÑO DIGITAL DE PROTOTIPOS DE VIVIENDA SOCIAL


DISEÑO DIGITAL DE PROTOTIPOS DE VIVIENDA SOCIAL

Gomez Nuño Mauro Martin, Universidad de Guadalajara. Sánchez Hermosillo Brenda Nayeli, Universidad de Guadalajara. Valderrabano Perez Acxel, Universidad Veracruzana. Asesor: Dr. Rolando Arturo Cubillos González, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

MERCURIO: PROYECTO DE DESARROLLO TECNOLÓGICO presenta el Proyecto: Prototipo de Vivienda de Interés Social que fue elaborado en el Verano de la Investigación Científica y Tecnológica del Pacifico 2024.  El objetivo principal es ofrecer una solución innovadora y eficaz para los problemas de vivienda de interés social en Latinoamérica, especialmente en México y Colombia. Los problemas comunes incluyen la poca accesibilidad debido a los altos costos, el uso de materiales de baja calidad, la falta de infraestructura adecuada, y la deficiente gestión y mantenimiento de las viviendas. Estos factores contribuyen a una planificación urbana ineficiente y a la segregación socioeconómica de las comunidades.



METODOLOGÍA

El enfoque metodológico se centró en integrar principios de sostenibilidad, eficiencia de costos y adaptabilidad para proporcionar soluciones habitacionales asequibles y de rápida implementación. Para alcanzar estos objetivos, se emplearon técnicas de diseño tridimensional, comenzando con la elaboración de 17 módulos tridimensionales de 3 m x 3 m x 3 m, cada uno con diversas variantes en su estructura. Estos módulos fueron diseñados con una tabla de dimensiones para asegurar espacios flexibles. Luego, se cuantificaron los componentes por módulo para realizar tablas de planificación y construcción de módulos con sus respectivos elementos tanto en el sentido vertical como horizontal. Posteriormente, se diseñaron tipologías espaciales, creando combinaciones espaciales a partir de los módulos propuestos, resultando en un total de 126 posibles combinaciones modulares. Obtenidos los diseños de tipologías espaciales, se procedió al diseño de diferentes prototipos de vivienda social, basados en estas combinaciones. Se desarrollaron 10 prototipos de vivienda, con variantes en sus espacios y funciones, sin alterar los módulos tridimensionales iniciales. Estos prototipos permiten adaptabilidad y personalización según las necesidades específicas de las familias, manteniendo la flexibilidad y eficiencia en la construcción. La cuantificación del valor de la vivienda se dividió en dos partes. La primera parte consistió en analizar las tipologías de vivienda social existentes e identificar sus costos en el mercado, desde el precio por metro cuadrado hasta el costo total de la vivienda en distintos sectores de varias ciudades. Este análisis incluyó la revisión de factores como materiales, mano de obra y ubicación, proporcionando una visión completa de los costos actuales. En la segunda parte, se cuantificaron los costos de los prototipos de vivienda social propuestos, evaluando sus costos a partir de sus modulaciones y espacios. Este análisis consideró no solo los costos de construcción, sino también aspectos como la durabilidad de los materiales, la eficiencia energética y el mantenimiento a largo plazo. Además, se realizó una comparación entre los costos de las viviendas existentes y los prototipos propuestos, permitiendo identificar posibles ahorros y mejoras en la eficiencia económica. Este enfoque integral asegura que los prototipos de vivienda social no solo sean viables desde el punto de vista técnico y funcional, sino también accesibles y sostenibles desde el punto de vista financiero. Al integrar principios de sostenibilidad, eficiencia de costos y adaptabilidad, se busca ofrecer soluciones habitacionales que puedan adaptarse a las necesidades cambiantes de las familias y contribuir al desarrollo de comunidades cohesionadas y sostenibles a largo plazo.


CONCLUSIONES

El proyecto "Mercurio: Prototipo de Vivienda de Interés Social", desarrollado durante el Verano de la Investigación Científica y Tecnológica del Pacífico 2024, representa un esfuerzo significativo por abordar los problemas críticos que enfrentan las viviendas de interés social en Latinoamérica, particularmente en México y Colombia. A través de una metodología innovadora que integra sostenibilidad, eficiencia de costos y adaptabilidad, se han propuesto soluciones habitacionales modulares que responden a las necesidades reales de las comunidades más vulnerables. En resumen, este proceso de diseño y cuantificación proporciona una base sólida para la implementación de proyectos de vivienda social, garantizando que las soluciones propuestas sean prácticas, económicas y beneficiosas para las comunidades destinatarias; el uso de técnicas de diseño tridimensional y la creación de módulos flexibles y polivalentes han permitido generar múltiples combinaciones espaciales y prototipos de vivienda que no solo mejoran la accesibilidad y calidad de las viviendas, sino que también fomentan el desarrollo integral de las comunidades. Estos módulos pueden adaptarse a diversas configuraciones, permitiendo a las familias personalizar sus espacios según sus necesidades específicas y posibilitando futuras expansiones. En conclusión, este proyecto ofrece un enfoque viable y eficiente para mejorar la vivienda de interés social, demostrando que es posible combinar innovación tecnológica con responsabilidad social para crear soluciones habitacionales que realmente beneficien a quienes más lo necesitan. A través de la implementación de tecnologías avanzadas, el uso de materiales sostenibles y un diseño centrado en el usuario, este prototipo de vivienda no solo aborda las necesidades inmediatas de vivienda, sino que también contribuye al bienestar y desarrollo a largo plazo de las comunidades.
Sánchez Juárez Monserrat, Instituto Politécnico Nacional
Asesor: Dr. Luis Enrique Sucar Succar, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

DESARROLLO DE UNA LIBRERíA PARA DESCUBRIMIENTO CAUSAL EN PYTHON


DESARROLLO DE UNA LIBRERíA PARA DESCUBRIMIENTO CAUSAL EN PYTHON

Sánchez Juárez Monserrat, Instituto Politécnico Nacional. Asesor: Dr. Luis Enrique Sucar Succar, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El descubrimiento causal entre variables de un fenómeno es crucial en el ámbito de la inteligencia artificial, motivando la publicación de numerosos libros y materiales didácticos especializados en el tema. Un factor crítico para la expansión de esta área es la disponibilidad de recursos que permitan la implementación de algoritmos básicos y avanzados de descubrimiento causal. Actualmente, existe una necesidad imperante de contar con una librería robusta que integre algoritmos esenciales para el descubrimiento causal, tales como el algoritmo PC, el algoritmo GES y el algoritmo FCI. A pesar de su importancia, la integración de estos algoritmos en una única librería accesible para la comunidad científica es limitada. Actualmente, el código de muchas librerías de descubrimiento causal está estrechamente vinculado a otras librerías de modelos gráficos probabilísticos, lo que puede restringir su uso y adaptabilidad. Por lo tanto, surge la necesidad de estudiar algunos algoritmos principales de descubrimiento causal y hacer la implementación de varios de ellos en una librería para uso de la comunidad  científica.



METODOLOGÍA

Se utilizó el lenguaje de programación Python en su versión 3.11.4 mediante el editor de código Visual Studio Code.Se hizo uso de la librería  PGM_PyLib, una librería de modelos gráficos probabilísticos desarrollada por Jonathan Serrano (Serrano-Pérez y Sucar, 2020). Así cómo del código en desarrollo de la librería  PGM_PyLib_CausalModels. Se ejecutaron las implementaciones preliminares de los algoritmos PC y GES, mediante la creación de un entorno virtual y se instalaron las dependencias necesarias para su correcto funcionamiento, incluyendo las librerías: pandas, scipy y numpy. Se realizó una lista de posibles pruebas estadísticas para evaluar la robustez del manejo de  datos continuos, se consideraron las pruebas estadísticas: t-student, ANOVA y z-fisher, tomando como referencia repositorios de código abierto que implementan algunos de estos algoritmos. Se implementó la prueba estadística de análisis de varianza (ANOVA) para el algoritmo PC modificado, con la intención de utilizarla en los test de dependencia y dirección. Tras realizar pruebas preliminares, fue descartada. Posteriormente, se hizo una implementación preliminar de z-fisher para manejar las variables involucradas. Las pruebas correspondientes a los algoritmos se realizaron utilizando datasets obtenidos de un repositorio de redes bayesianas pequeñas (menos de 20 nodos). También se hizo uso del framework causaltestdata, que mediante valores predeterminados indica la configuración opcional para determinar el comportamiento de los datos generados, asegurando que la estructura causal potencial sea un grafo acíclico dirigido (DAG). Se comprobó la robustez del algoritmo PC modificado para datos continuos y se obtuvo el grafo correspondiente. Los resultados mostraron un recall alto y una precisión baja, lo que indica que el modelo identifica la mayoría de las instancias positivas, pero clasifica erróneamente muchas instancias negativas como positivas. Asimismo, se realizaron pruebas de implementación de la prueba estadistíca z-fisher para el algoritmo PC para el manejo de  variables discretas, comparando la precisión de z-fisher respecto a la prueba chi cuadrado previamente establecida, obteniendo una precisión alta. Finalmente, se implementó la prueba estadística de z-fisher para el algoritmo FCI, la cual mostró alta precisión para datos discretos, y un recall alto con precisión baja para variables continuas.


CONCLUSIONES

Se logró evaluar de manera rigurosa la efectividad de distintas pruebas estadísticas en el contexto de los algoritmos de descubrimiento causal, la comparación de resultados más prometedores permitió el uso de la prueba que se consideró más adecuada, misma que fue adoptada para manejar las variables involucradas. Sin embargo, se considera que se debe analizar el alto recall y la baja precisión respecto al manejo de variables continuas, por lo que se espera mejorar la implementación de las pruebas estadísticas en los algoritmos y obtener una alta precisión y un bajo recall, permitiendo la obtención del grafo correspondiente que modele  la mejor estructura causal posible según los datos proporcionados.
Sánchez León Edgar Emmanuel, Instituto Politécnico Nacional
Asesor: Dr. Alejandro Perez Larios, Universidad de Guadalajara

DEGRADACIóN FOTOCATALíTICA DE ANARANJADO DE METILO POR MEDIO DE óXIDOS MIXTOS DE TITANIO-COBRE Y TITANIO-HIERRO


DEGRADACIóN FOTOCATALíTICA DE ANARANJADO DE METILO POR MEDIO DE óXIDOS MIXTOS DE TITANIO-COBRE Y TITANIO-HIERRO

Sánchez León Edgar Emmanuel, Instituto Politécnico Nacional. Asesor: Dr. Alejandro Perez Larios, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El agua es un recurso limitado e indispensable para el consumo humano, tareas domésticas, procesos agrícolas e industriales, así como en la generación eléctrica, en los cuáles es contaminada por diferentes sustancias minerales, orgánicas, inorgánicas y biológicas, generando como consecuencia una alteración en su composición y afectando a los ecosistemas, la tierra y el aire, como a su vez, ocasionar efectos negativos en la salud. La contaminación del agua por parte de la industria textil, mediante el riego de campos de cultivo de algodón, el uso de tintes y productos de acabado representa el 20% de la contaminación mundial de agua potable1; Por lo que durante la investigación de verano se estudió la implementación de óxidos mixtos en la degradación fotocatalítica del anaranjado de metilo el cual es un compuesto utilizado ampliamente en el análisis de sustancias, y como colorante de los antes mencionados productos textiles.   Parlamento Europeo.1 (2020). El impacto de la producción textil y de los residuos en el medio ambiente.



METODOLOGÍA

Para la síntesis de catalizadores se utilizó la técnica Sol-Gel, se pesó la cantidad necesaria de nitratos precursores: Fe(NO3)3 9H2O ó Cu(NO3) 3H2O para obtener 5 gramos de catalizador de óxidos mixtos de Ti-Fe ó Ti-Cu respectivamente, al 0.1%, 0.4%, 0.7% ó 1% en peso respecto al agente dopante de hierro o cobre según corresponda; El reactivo se vertió a un matraz de 3 bocas conectado a un sistema de condensación, después se le agregaron cantidades de etanol y agua con una relación molar de 8:1 respectivamente, cuyo volumen fue suplantado por un extracto orgánico, se calentó la mezcla a 70°C con agitación constante a 500 RPM, se le agregó por goteo la cantidad estequiométrica de butóxido de titanio 1:1 respecto al etanol y se dejó reaccionar durante 24h, en un vaso de precipitados se dejó secar a 100°C, el producto se molió con un mortero hasta obtener un polvo y se introdujo en la mufla a 500°C durante 24h para obtener los cristales más estables en su fase anatasa y estar listo para utilizarse como fotocatalizador.   Para cuantificar la degradación se preparó una solución de anaranjado de metilo con una concentración de 30ppm que se dejó aireando una noche anterior al tratamiento. Para su evaluación se muestreó cada media hora con un filtro pirinola y jeringa, la primera al agregar 0.1g de catalizador a 300ml de solución con agitación a 480 RPM y aireación y al cabo de 5 horas de reacción con luz UV sumergida. Para la cuantificación se midió la absorbancia de las muestras tomadas utilizando un espectrofotómetro de UV/vis marca JENWAY modelo 6305 con una longitud de onda de 465 nm y un blanco de agua bidestilada. Repitiendo este proceso para cada tipo de material.


CONCLUSIONES

Durante la investigación se lograron aplicar los conocimientos adquiridos en especial de la prevención y control de la contaminación del agua y de la catálisis, también se aprendieron nuevos sobre la fotocatálisis y de óxidos mixtos como catalizadores. Para obtener los resultados durante la experimentación, se realizó una curva de calibración para la solución preparada a 30ppm de colorante que por medio de la ley de Lambert-Beer se pudo conocer la concentración presente para cada absorbancia medida.   Los resultados obtenidos para el catalizador de Ti-Cu fueron los siguientes: Al analizar la concentración de colorante respecto al tiempo se concluye que el tratamiento con mayor degradación fue la Titania, sin embargo, los materiales de óxidos mixtos presentan una degradación mayor que la fotólisis con excepción del material a 1% peso y logrando un resultado similar al de Titania con el material con mayor afinidad, es decir, el correspondiente a 0.7% peso de óxido de cobre. Se analizaron los cálculos de la concentración en cada muestra entre la concentración inicial de la solución dónde se concluye que el material que presentó una menor relación fue el material de 0.7% peso, seguido de la Titania, el de 0.4% peso, el de 0.1% peso y por último se observa que el material con 1.0% en peso de cobre tuvo un comportamiento similar después de 120 minutos al de la fotólisis con las mayores relaciones de degradación respecto a su concentración inicial. Por último, el cálculo de logaritmo natural de cada concentración entre su concentración inicial dónde el menor valor corresponde al material a 0.7% peso, después el catalizador de Titania, seguido del material a 0.4% peso, después el de 0.1% peso y por último los de mayor valor el de 1.0% peso de cobre y fotólisis respectivamente.   Los resultados obtenidos para el catalizador de Ti-Fe fueron los siguientes: Al analizar la concentración de colorante respecto al tiempo se concluye que el tratamiento con mayor degradación fue la Titania, mientras que, los materiales de óxidos mixtos que presentaron una degradación mayor que la fotólisis sólo fue el de 0.1% peso, ya que, al aumentar la concentración de hierro, menor es la degradación del colorante. Se analizaron los cálculos de la concentración en cada muestra entre la concentración inicial de la solución dónde se observa que el material que presentó una menor relación fue la Titania seguido del material de 0.1% peso, por lo que se concluye que este es el que presenta una menor relación de degradación al final de tratamiento respecto a su concentración inicial del resto de materiales preparados, siendo el único que mejoró respecto a la fotólisis, y que ninguno del resto de materiales de óxidos mixtos de Titanio-Hierro (0.4%, 0.7% y 1.0% en peso) mejoraron respecto a la Titania ya que en cuanto mayor porcentaje de hierro menor degradación se conseguía. Por último el cálculo de logaritmo natural de cada concentración entre su concentración inicial, dónde el menor valor corresponde al catalizador de Titania, después al material a 0.1% peso, después a la fotólisis, seguido de la fotólisis, luego el material a 0.4% peso, después el de 0.7% peso y por último el de mayor valor, el de 1.0% peso de hierro.
Sanchez Logreira Juandiego, Universidad Cooperativa de Colombia
Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios

SISTEMA DE TELEMETRíA Y VISUALIZACIóN EN TIEMPO REAL DE TEMPERATURA Y HUMEDAD, PARA INVERNADERO HIDROPóNICO AUTOMATIZADO.


SISTEMA DE TELEMETRíA Y VISUALIZACIóN EN TIEMPO REAL DE TEMPERATURA Y HUMEDAD, PARA INVERNADERO HIDROPóNICO AUTOMATIZADO.

Castro Palacio Mariana, Universidad Cooperativa de Colombia. Jaimes Carmona Santiago, Universidad Cooperativa de Colombia. Sanchez Logreira Juandiego, Universidad Cooperativa de Colombia. Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

  En la vereda Tigrera, ubicada en Santa Marta, D.T.C.H, se ha identificado la necesidad de optimizar el control y monitoreo de las variables climáticas dentro de un invernadero hidropónico. Este tipo de cultivo requiere condiciones específicas de temperatura y humedad para maximizar la eficiencia y productividad. Sin embargo, la falta de un sistema automatizado y preciso para monitorear estas variables puede resultar en fluctuaciones que afectan negativamente la producción. Actualmente, el monitoreo manual es ineficiente y propenso a errores, lo que puede llevar a la pérdida de cultivos y recursos. El proyecto "Sistema de Telemetría y Visualización en Tiempo Real de Temperatura y Humedad para Invernadero Hidropónico Automatizado" tiene como objetivo diseñar e implementar un sistema que permita medir y registrar variables críticas como temperatura y humedad en tiempo real. Este sistema busca proporcionar una plataforma accesible a través de dispositivos web y móviles, que no solo mejore la eficiencia y productividad del invernadero, sino que también establezca un modelo replicable adaptable a otras instalaciones. Además, se busca promover prácticas agrícolas más sostenibles y tecnológicamente avanzadas en la región, marcando un avance significativo en la modernización de la agricultura en Santa Marta, D.T.C.H, con potencial para ser un referente en sistemas hidropónicos automatizados a nivel nacional.



METODOLOGÍA

  El proyecto se enfoca en la implementación de un sistema de monitoreo y control que permita la visualización en tiempo real de las variables climáticas dentro de un invernadero hidropónico. Utilizando tecnología avanzada como microcontroladores ESP32 y sensores DHT22, el sistema buscará optimizar las condiciones de cultivo mediante el monitoreo constante y la emisión de alertas automáticas. Diseño del Sistema Selección de Hardware: Elección del microcontrolador ESP32 por su versatilidad y capacidad de conectividad. Se selecciona el sensor DHT22 para la medición de temperatura y humedad. Conexión del Hardware: Conexión física del sensor DHT22 al ESP32, siguiendo una guía detallada que incluye la configuración de los pines y las conexiones eléctricas necesarias. Configuración del Software Programación del ESP32: Desarrollo del código fuente utilizando Arduino IDE para la lectura de datos del sensor DHT22 y la transmisión de estos datos a la plataforma de visualización. Integración con Grafana: Configuración de Grafana para la visualización en tiempo real de los datos recolectados. Creación de dashboards personalizados y configuración de alertas basadas en umbrales predefinidos. Implementación del Sistema de Alertas Configuración de Umbrales: Definición de umbrales críticos para temperatura y humedad. Configuración de alertas en Grafana para notificar a los usuarios cuando los valores excedan estos umbrales. Notificaciones Automáticas: Integración de notificaciones automáticas a través de múltiples canales como correo electrónico y mensajes de texto. Pruebas y Optimización Pruebas de Funcionamiento: Realización de pruebas para verificar el funcionamiento correcto del sistema en condiciones normales de operación. Ajustes y Calibraciones: Ajuste y calibración del sensor DHT22 para asegurar la precisión de las mediciones.


CONCLUSIONES

  La implementación del sistema ha permitido un monitoreo preciso y en tiempo real de las variables climáticas del invernadero. Los datos obtenidos han sido visualizados de manera efectiva a través de la plataforma Grafana, permitiendo la creación de dashboards personalizados que muestran la temperatura y humedad de forma clara y accesible. El sistema de alertas ha demostrado ser eficaz, enviando notificaciones automáticas cuando las variables exceden los umbrales predefinidos, lo que ha permitido una respuesta rápida a las condiciones desfavorables. El sistema ha mostrado una notable mejora en la eficiencia del monitoreo del invernadero hidropónico, reduciendo la dependencia del monitoreo manual y minimizando los errores humanos. La capacidad de recibir alertas en tiempo real ha permitido a los administradores del invernadero tomar decisiones informadas y oportunas, asegurando condiciones óptimas para el crecimiento de los cultivos. Además, la integración de una plataforma accesible a través de dispositivos web y móviles ha facilitado el acceso y la gestión del sistema desde cualquier lugar. El proyecto ha logrado su objetivo de diseñar e implementar un sistema de telemetría y visualización en tiempo real para un invernadero hidropónico automatizado. La combinación del ESP32 y el sensor DHT22, junto con la plataforma Grafana, ha proporcionado una solución eficiente y escalable para el monitoreo de variables críticas como la temperatura y la humedad. La automatización del sistema de alertas ha mejorado significativamente la capacidad de respuesta ante condiciones adversas, contribuyendo a la sostenibilidad y productividad del invernadero. Este proyecto no solo ha marcado un avance en la modernización de la agricultura en Santa Marta, D.T.C.H, sino que también ha establecido un modelo replicable que puede ser adaptado a otras instalaciones hidropónicas. Se recomienda continuar con el desarrollo de este sistema, explorando la integración de nuevos sensores y tecnologías para expandir su capacidad de monitoreo y control.  
Sánchez López Jesús Daniel, Universidad de Sonora
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

INTEGRACIóN DE CONCENTRACIóN SOLAR PARA LA GENERACIóN DE ENERGíAS ALTERNATIVAS.


INTEGRACIóN DE CONCENTRACIóN SOLAR PARA LA GENERACIóN DE ENERGíAS ALTERNATIVAS.

Sánchez López Jesús Daniel, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

     El uso de energías renovables es un tópico que genera cada vez más tracción en la consciencia colectiva, está impulsado en gran medida por la necesidad de darle revés a dos grandes consecuencias que nos han traído las energías tradicionales: Calentamiento global y altos índices de contaminación. El requerimiento de una solución a estas grandes problemáticas nos ha llevado a buscar diversos tipos de energías que sean capaces de sustituir a las tradicionales sin involucrar un alto costo de producción.      A raíz de esta búsqueda, se han encontrado muchos sistemas para la producción de energías renovables, en esta investigación nos centraremos en dos: Energía Solar: Es obtenida a través del aprovechamiento de la radiación que llega al planeta procedente del Sol. Tiene diversas aplicaciones, siendo la más común la transformación de la radiación en energía térmica. Biomasa: Son restos de materia orgánica que pueden ser utilizados directamente para producir energía (leña) o ser transformados en carburantes para la generación de combustibles más amigables con el medio ambiente.      Una de las formas en las que podemos trabajar la biomasa para la obtención de biocarburantes, es a través del proceso de pirólisis, este es un proceso químico, en el que, en ausencia de oxígeno, se somete a la biomasa a altas temperaturas para así lograr su descomposición en gas, líquido, y en el que nos centraremos en esta investigación un sólido carbonoso al que llamamos biochar.      Sin embargo, el costo de la fabricación de las altas temperaturas necesarias para llevar a cabo este proceso puede llegar a ser muy alto, por lo que, en la búsqueda de reducir costos, se llegó a la conclusión de que usando técnicas de control de concentración solar se podía realizar pirólisis, con un bajo costo a largo plazo.     El objetivo principal de ésta investigación es el de buscar la manera en la que podamos trabajar con ambas energías buscando sacarle siempre el máximo rendimiento a ambas, esto incluye: Buscar captar la mayor cantidad de radiación solar sin pérdidas, encontrar biomasas que nos ofrezcan el mayor rendimiento tras el proceso de pirólisis, encontrar reactores que ofrezcan realizar pirólisis más estable y encontrar un control más exacto del sistema de control de la concentración solar.



METODOLOGÍA

   El sistema de concentración solar utilizado fue un horno solar ubicado en la Plataforma Solar de Hermosillo (PSH) de la Universidad de Sonora. Este sistema consta de un helióstato que dirige los rayos solares a un espejo concentrador que se encuentra dentro de un cuarto cerrado. Este espejo concentrador nos permite redirigir todos los rayos solares en un solo punto, lo que nos permite elevarlos a temperaturas muy elevadas. Para controlar la potencia, utilizamos un sistema similar al de unas persianas, que permiten entrar más o menos cantidad de rayos solares, dependiendo del experimento que se esté realizando.      Para realizar el proceso de pirólisis, introduciremos la biomasa en un reactor completamente sellado, este reactor lo colocaremos dentro del horno solar, y en él colocaremos sensores para medir la temperatura interior. Ya con el reactor bien posicionado, a través del sistema de control, colocaremos el helióstato en una posición que dirija los rayos al espejo concentrador y comenzar con el proceso ya antes mencionado. Para mantener la estabilidad, trataremos de mantener una rampa de calentamiento de 25 C /min, esto hasta llegar a los 500 C, punto en el que trataremos de mantenerlo estable alrededor de 30 min. Para finalizar, dejaremos enfriar la biomasa y la retiramos para estudiar el rendimiento dado.      Durante mi estancia, me tocó trabajar principalmente con planta de sandía como principal biomasa. Una de las principales observaciones (y una que se repite con todas las biomasas) es que la biomasa da un mejor rendimiento cuando esta fue previamente deshidratada. Tras someter distintos grupos de planta de sandía, a distintos procesos de pirólisis, pudimos ver que el porcentaje de rendimiento se mantuvo constante alrededor del 40%.      Encontrar biomasas que nos den rendimientos así de altos, nos permite pensar que, en un proceso a mayor escala, podríamos fabricar una gran cantidad de biocombustibles, que cumplen con las características deseadas: Son baratos de obtener, baratos de procesar. Y, son amigables con el planeta.     


CONCLUSIONES

     Tras finalizar mi estancia, pude concluir que un futuro con energías renovables sí es muy posible, ya que, las distintas energías no tienen porque ser excluyentes entre sí, el enlazar estas energías entre sí, nos permite presentar un caso muy fuerte para comenzar a pensar en una transición hacia un futuro más verde.  El seguir experimentando nos va a brindar la posibilidad de encontrar biomasas que nos den un mayor rendimiento, y por lo tanto, sean más rentables para ser utilizadas a gran escala. El proceso cuenta con varias áreas de mejora, las más importantes son: Encontrar un reactor que pueda ser sellado de mejor manera y distribuir la temperatura de manera uniforme. Encontrar un sistema para captar el biogás liberado en el proceso de pirólisis. Encontrar una manera de automatizar el sistema de control para lograr eficientizar el proceso de pirólisis y eliminar el factor humano.     Veo un gran potencial en esta investigación y en la combinación de estos procesos, ya que es una solución bastante innovadora, y creo firmemente que podríamos ver excelentes resultados si se realiza a gran escala. Los impactos de esta investigación van más allá de la producción de energía, esto porque, de entrada, se reduce la generación de desechos, al utilizar el enorme potencial de la energía solar para transformarlos en combustibles limpios. En el aspecto económico también presenta muchas oportunidades, esto al reducir el costo de los combustibles y la generación de empleos en este nuevo mercado no explorado.
Sánchez Luna Sarahí, Instituto Tecnológico de Matamoros
Asesor: Dra. Gloria Sandoval Flores, Universidad Autónoma de Tamaulipas

ANALISIS FISICOQUIMICO Y MICROBIOLOGICO DE AGUAS DE POZO.


ANALISIS FISICOQUIMICO Y MICROBIOLOGICO DE AGUAS DE POZO.

Saavedra Sáenz Yulissa, Instituto Tecnológico de Matamoros. Sánchez Luna Sarahí, Instituto Tecnológico de Matamoros. Asesor: Dra. Gloria Sandoval Flores, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

México enfrenta una crisis de escasez de agua que requiere atención inmediata. Según datos de la Conagua, el 74.43% del territorio mexicano se vio afectado por condiciones anormalmente secas. El acceso al agua potable es esencial para la salud y el bienestar, la demanda de agua está aumentando debido al crecimiento poblacional y las necesidades agrícolas, industriales y energéticas. La mitad de la población mundial enfrenta escasez de agua grave durante al menos un mes al año, situación que empeorará con el cambio climático. Se necesita acción urgente, la construcción de pozos de agua subterránea, es una alternativa, pero es crucial asegurar la potabilidad de esta agua. El análisis del agua subterránea es crucial para detectar la presencia de contaminantes que puedan ser perjudiciales para la salud.



METODOLOGÍA

Se analizaron tres pozos de agua de Matamoros. Para la toma de muestra se utilizó la NOM-230-SSA1-2002. A todos los análisis se les hizo un duplicado por muestra de agua de cada pozo y se calculó el promedio de los resultados pH: Se utilizó el método NMX-AA-008-SCFI-2016, midiendo el pH con un equipo calibrado. Se sumergieron los electrodos en las muestras, hasta que las lecturas se estabilizaran, registrando al menos tres lecturas. Conductividad: Siguiendo la norma NMX-AA-093-SCFI-2000. Los electrodos del medidor se sumergieron en las muestras de agua, se esperó hasta la estabilización de las lecturas para registrar los valores. DQO: Utilizando el método NMX-AA-030-1-SCFI-2012, se transfirieron 10 mL de la muestra a un matraz de reacción, añadiendo varios reactivos. La mezcla se llevó a ebullición y se mantuvo así durante 110 minutos. Se tituló el exceso de dicromato de potasio con sulfato ferroso amoniacal. Cloruros Totales: Siguiendo la norma NMX-AA-073-SCFI-2001, Se procedio con la valoración al adicionar la disolución indicadora y se valoró con nitrato de plata hasta el cambio de color. Dureza Total: Basado en la norma NMX-AA-072-SCFI-2001, se utilizó una muestra de 50 mL en un matraz Erlenmeyer, ajustando el pH a 10 y añadiendo un indicador. La muestra se tituló con EDTA hasta el cambio de color. Materia Flotante: Se siguió la norma NMX-AA-006-SCFI-2010, vertiendo la muestra a través de una malla metálica para retener la materia flotante. Sólidos disueltos: Sólidos Totales: Según la norma NMX-AA-034-SCFI-2015, se evaporó la muestra a sequedad en un horno a 105 °C y se registró la masa. Sólidos Totales Volátiles: El residuo se calcinó a 550 °C, luego se secó nuevamente a 105°C y se registró la masa. Sólidos Disueltos Totales: La muestra filtrada se evaporó a sequedad a 105 °C y se registró el peso. Sólidos Sedimentables en Agua: Usando el método NMX-AA-004-SCFI-2013, se colocó la muestra en un cono Imhoff, dejándola sedimentar por aproximadamente una hora y se registró el resultado. Aceites y Grasas: Se acidificaron las muestras con ácido sulfúrico 1:1. Se prepararon matraces de extracción y se filtraron las muestras usando un embudo Büchner con papel filtro, conectados a una bomba de vacío previamente limpiados con tierra de diatomeas y agua, se transfirió la muestra acidificada al embudo. Se utilizó un cartucho de extracción y un equipo de reflujo con hexano, calentando a temperatura controlada durante 4 horas. El remanente se evaporó a 70°C por media hora para registrar el peso. Enumeración de Mohos y Levaduras: Siguiendo la NOM-111-SSA1-1994, se preparó el medio de cultivo de agar papa dextrosa. Se colocaron 1 ml de la muestra en cajas Petri con el medio fundido a 45°C. Después de mezclar y solidificar el medio, las cajas se incubaron a 25°C durante 3-5 días


CONCLUSIONES

Previamente se realizó el análisis de agua de pozo de la ciudad de Reynosa con el objetivo de proporcionar una visión clara de la calidad del agua en ambas regiones. pH: En ambas ciudades los valores cumplen los límites permitidos, con Reynosa ligeramente más básico (7.79) en comparación con Matamoros (7.65). Conductividad: Reynosa presentó una conductividad significativamente mayor (1288.7 µS) que Matamoros (488.315 µS). El segundo pozo de Matamoros excedió los límites permitidos, indicando alta concentración de sales disueltas. DQO: En Reynosa (1382.4 mg/L) fue considerablemente más alta que en Matamoros (220.8 mg/L). Solo el primer pozo de Matamoros cumplió con los parámetros, mientras que los otros dos superaron los límites. Cloruros Totales: Reynosa tuvo un promedio de 613.67 mg/L. En Matamoros, el primer y tercer pozo tuvieron concentraciones menores, pero el segundo pozo tuvo un valor significativamente alto. Dureza: Reynosa presentó una dureza de 480 mg/L. Los pozos uno y dos de Matamoros tuvieron una dureza mayor, mientras que el tercer pozo tuvo un valor menor que el promedio de Reynosa. Solidos disueltos: Solo se analizaron en el segundo pozo de Matamoros, que mostró altos niveles de sólidos disueltos (3030 mg/L) y sólidos suspendidos (86 mg/L), excediendo los límites normativos. Sólidos sedimentables, grasas y aceites, materia flotante y enumeración de mohos y levaduras: Los análisis mostraron que solo el segundo pozo de Reynosa tenía sólidos sedimentables dentro de los límites permisibles, y en las demás determinaciones los resultados fueron negativos. Observamos que el agua en Reynosa presentó niveles más altos de contaminantes en comparación con Matamoros. En los tres pozos de Matamoros se encontraron parámetros que exceden los límites permisibles para consumo humano, con altas concentraciones de cloruros, dureza, conductividad y DQO, lo que indica la presencia de contaminantes orgánicos e inorgánicos. La cercanía del segundo pozo a la costa (1.6 km) y su exposición a la intemperie podrían explicar estos altos niveles de contaminantes. Esto subraya la necesidad de un monitoreo y tratamiento exhaustivos, especialmente en áreas costeras. Ambas ciudades necesitan mejorar la calidad del agua de sus pozos mediante estrategias de tratamiento adecuadas y un monitoreo continuo para proteger la salud pública y asegurar agua potable segura
Sánchez Mariles Danna Paola, Universidad de Guadalajara
Asesor: Mg. Henry Adolfo Lambis Miranda, Fundación Universitaria Tecnológico Comfenalco

EXTRACCIÓN DE ALMIDÓN A PARTIR DE RESIDUOS DE PLÁTANO PARA LA ELABORACIÓN DE UN BIOPOLÍMERO


EXTRACCIÓN DE ALMIDÓN A PARTIR DE RESIDUOS DE PLÁTANO PARA LA ELABORACIÓN DE UN BIOPOLÍMERO

Baltazar Segura Edith Aurora, Universidad Tecnológica de Tecamachalco. Sánchez Mariles Danna Paola, Universidad de Guadalajara. Asesor: Mg. Henry Adolfo Lambis Miranda, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

Durante 2023, según datos de Agronet (2024), la producción de banano en Colombia aumentó un 2%, alcanzando un total de 2,6 millones de toneladas. Esta abundante producción no solo destaca la importancia del banano en la economía agrícola del país, sino que también genera una cantidad significativa de residuos. Estos subproductos, que incluyen cáscaras y otros materiales no comestibles, representan un desafío ambiental considerable. La creciente preocupación por el impacto ambiental de los polímeros sintéticos ha impulsado la búsqueda de alternativas sostenibles y biodegradables. Entre estas alternativas, los biopolímeros han resultado como una solución prometedora debido a su capacidad para reducir la dependencia de los recursos fósiles y minimizar los residuos plásticos. El almidón, un polisacárido natural abundante y renovable, ha sido ampliamente estudiado como materia prima para la producción de biopolímeros.



METODOLOGÍA

La metodología se dividió en dos partes, la primera fue la extracción del almidón y la segunda fue síntesis del bioplástico modificado. La extracción se llevó a cabo mediante el método de extracción húmedo (Hernandez-Carmona, 2017). Por su parte, la síntesis del biopolímero se replicó varias veces con diferentes concentraciones hasta que se llegó a las características deseadas. De la elaboración del plástico biodegradable se determinó que la velocidad de secado y cantidades de almidón y glicerina son factores muy importantes, ya que afectan la elasticidad y estabilidad de la película a través del tiempo. Si el secado es rápido y a altas temperaturas se produce un material quebradizo, frágil; por otro lado, si esta operación se realiza de forma gradual se obtiene una película elástica y sin cortes. En cuanto a la relación almidón/glicerina, al aumentar las proporciones de esta última en la formulación se obtenía un producto más elástico.


CONCLUSIONES

En conclusión, se están aprovechando subproductos que de otro modo serían desechados, contribuyendo a la reducción de residuos y al cuidado del medio ambiente. La utilización de estos residuos no solo es una solución sostenible, sino que también permite la producción de materiales de alta calidad.
Sanchez Martinez Juan Daniel, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. José Jorge Carreño Zagarra, Universidad de Investigación y Desarrollo

APLICACIóN DE SISTEMAS DE CONTROL RESET EN INGENIERíA ELECTRóNICA


APLICACIóN DE SISTEMAS DE CONTROL RESET EN INGENIERíA ELECTRóNICA

Sanchez Martinez Juan Daniel, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. José Jorge Carreño Zagarra, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

En el ambito de los sistemas de control, los sistemas PID y PI son ampliamente utilizados debido a su simplicidad y efectividad para regular diversas variables en sistemas dinámicos. Desde controles de temperaturas hasta centrales eólicas. Sin embargo algo que comparten algunos PID y PI es la acumulación de error en el factor integral, ocasionando errores en los controladores.  



METODOLOGÍA

Se compararon 3 estrategias para controladores de PI para un sistema de control de temperatura basado en Arduino y la placa basada en el "Temperature Control Lab", que fueron utilizados con Matlab y Simulink. Empezando con el primer método de Ziegler-Nichols, se tenia que poner en respuesta escalon la placa, pero aldrededor del 40%-60%, una vez hecho eso, observamos la gráfica dada por los datos, obteniendo: L=21;T=150 K=44/40=1.1 G(s)=(ke^-Ls)/(Ts+1)=(1.1^-21s)/(150s+1) Ahora bien, hay otra forma de sacar la función de transferencia, que es por medio de matlab, con los datos de la prueba escalon, se utilizó el System Identification, después el Process Models, y ya se calculo otra función de transferencia. G(s)=(1.1695^-12s)/(120s+1) Ahora compararemos estas dos funciones de transferencia, junto con los métodos. Controladores PI por Ziegler-Nichols G(s)=(ke^-Ls)/(Ts+1)=(1.1^-21s)/(150s+1) kp=0.9T/K*L=(0.9*150)/(1.1*21)=5.84 Ti=L/0.3=21/0.3=70 ki=5.84/70=0.08342 Resultados en simulación: Cumplió Resultados en la placa: Tardo demasiado en estabilizarse, fue la peor de las pruebas. G(s)=(1.1695^-12s)/(120s+1) kp=0.9T/K*L=(0.9*120)/(1.1695*12)=7.69 Ti=L/0.3=12/0.3=40 ki=7.69/40=0.19 Resultados en simulación: Cumplió, solo tardo en estabilizarse. Resultados en la placa: Tardo demasiado en estabilizarse, fue casi la peor prueba. Controladores con criterios óptimos (ISE) G(s)=(ke^-Ls)/(Ts+1)=(1.1^-21s)/(150s+1) Comprobamos que cumpla con la siguiente condición: L/T=0.1-1.0 L/T=21/150=0.14 Como en este caso cumplió con el rango establecido, podemos seguir y proceguir con el método: a1=0.980;b1=-0.892;a2=0.690;b2=-0.155 kp=(a1/K)(L/T)^b1=(0.980/1.1)(21/150)^-0.892=5.14 Ti=T/(a2+b2(L/T))=150/(0.690+(-0.155)(21/150))=224.45 ki=5.14/224.45=0.0229 Resultados en simulación: Cumplió, fueron buenos resultados. Resultados en la placa: Se estabilizó mejor que el anterior método, fue decente el resultado. G(s)=(1.1695^-12s)/(120s+1) Comprobamos que cumpla con la siguiente condición: L/T=0.1-1.0 L/T=12/120=0.1 Como en este caso cumplió con el rango establecido, podemos seguir y proceguir con el método: a1=0.980;b1=-0.892;a2=0.690;b2=-0.155 kp=(a1/K)(L/T)^b1=(0.980/1.1695)(12/120)^-0.892=6.5 Ti=T/(a2+b2(L/T))=150/(0.690+(-0.155)(21/150))=177.909 ki=6.5/177.909=0.036 Resultados en simulación: Cumplió. Resultados en la placa: Se estabilizó ligeramente mejor que el anterior. Controladores con PI Reset G(s)=(ke^-Ls)/(Ts+1)=(1.1^-21s)/(150s+1) Kp=T/(2*K*L)=150/(2*1.1*21)=3.246 TI=8L=8*21=168 Para el Preset se elige en un rango de 0.3 a 0.6, en este caso: Preset=0.45 Resultados en simulación: Buenos resultados. Resultados en la placa: Fue una buena prueba, superando a las anteriores. G(s)=(1.1695^-12s)/(120s+1) Kp=T/(2*K*L)=120/(2*1.1695*12)=4.27 TI=8L=8*12=96 Preset=0.35 Resultados en simulación: Muy buenos resultados. Resultados en la placa: Fue una buena prueba, la mejor de todas.


CONCLUSIONES

Con lo visto anteriormente, se puede concluir que el PI Reset es una muy buena opción a considerar para este tipo de sistemas de temperatura, sin duda alguna esta estancia fue una apertura para este método, pero al ser el inicio, no se pudo obtener más comparaciones de lo eficiente del PI Reset con otro tipo de sistemas de control.
Sánchez Méndez Sergio, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Marcos Alfredo Hernández Ortega, Universidad Autónoma de Guadalajara

ESTABILIDAD Y CONTROL DE SISTEMAS DE POTENCIAS CON FUENTES DE ENERGíA RENOVABLE


ESTABILIDAD Y CONTROL DE SISTEMAS DE POTENCIAS CON FUENTES DE ENERGíA RENOVABLE

Sánchez Méndez Sergio, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Marcos Alfredo Hernández Ortega, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La generación de energía ha aumentado significativamente a través de sistemas de energía renovable. Su uso y participación son de gran importancia para los sistemas eléctricos de potencia. La implementación de estos sistemas junto con los generadores síncronos convencionales contribuye a la generación de energía dentro de los sistemas eléctricos.   Los sistemas de energía renovable pueden afectar la estabilidad y el control de los sistemas de potencia, específicamente en la frecuencia. Esto se debe a varias razones. Las plantas eólicas y fotovoltaicas están diseñadas para maximizar su operación, lo que significa que no mantienen reservas para estabilizar el sistema. Además, estas fuentes de energía no cuentan con un sistema de rotación como los generadores síncronos, cuya inercia proporciona capacidad de respuesta ante desbalances entre la generación y la carga.   Es crucial contar con una cantidad suficiente de inercia para hacer frente a perturbaciones. Por lo tanto, la implementación de varios sistemas de energía renovable puede resultar en una disminución de generadores síncronos, lo que lleva a una menor estabilidad en la frecuencia de los sistemas de potencia.



METODOLOGÍA

Para analizar la estabilidad de los sistemas de potencia con parques fotovoltaicos, primero estudiamos el comportamiento de las líneas de transmisión y los dispositivos de potencia. Realizamos alrededor de seis prácticas de simulación e interpretación en sistemas de potencia. En la primera práctica, se introdujo el uso del software EMTP para el análisis de sistemas eléctricos de potencia. Este software nos permitió realizar flujos de carga, análisis de estabilidad, análisis de frecuencia y análisis de dispositivos de potencia. La familiarización con este software es crucial debido a su capacidad para modelar y simular condiciones reales de operación en sistemas eléctricos complejos, proporcionando una comprensión profunda del comportamiento del sistema bajo diversas condiciones operativas.   En la segunda práctica, se abordó la interpretación de diagramas unifilares y el uso del sistema por unidad para el análisis de sistemas de energía eléctrica. Este enfoque es fundamental ya que permite manejar grandes cifras de energía de manera simplificada, facilitando el análisis y la simulación en el software EMTP. La representación precisa de los generadores síncronos en el simulador, abordada en la tercera práctica, es vital dado que estos generadores aportan al menos el 90% de la energía del sistema. La correcta representación de estos elementos asegura que las simulaciones reflejen fielmente las condiciones reales de operación.   Las prácticas cuatro, cinco y seis se centraron en la utilización de una base de datos para la elaboración de un diagrama unifilar. La interpretación precisa de estos datos es esencial para la elaboración de diagramas que especifican las propiedades de componentes como transformadores, generadores, cargas y buses. Esta fase del estudio permitió desarrollar una representación detallada y precisa del sistema eléctrico, proporcionando la base para el análisis de estabilidad de frecuencia.   Las prácticas sirvieron de base para realizar un sistema eléctrico de potencia con características específicas: 2 áreas y 4 máquinas, 4 generadores síncronos, 3 líneas de transmisión, 2 transformadores, 6 buses y 2 cargas. A lo largo de la investigación, se incrementó la capacidad de carga y la generación de energía mediante el aumento de parques fotovoltaicos, con el objetivo de observar cómo se comporta la inercia del sistema y la respuesta de la frecuencia al llevar los generadores a su máxima capacidad.   El análisis se realizó aumentando tanto las cargas como la generación en un 5% y disminuyendo su factor de potencia. Este enfoque permitió determinar los casos en los cuales el sistema presentaba mejor estabilidad y la generación fotovoltaica tenía mayor participación. Es importante considerar que una reducción de la inercia del sistema podría provocar mayores desviaciones de frecuencia, lo que podría derivar en la activación de esquemas de desconexión automática de carga. Estos sistemas buscan desconectar carga o generación para mitigar el desbalance entre carga y generación, evitando caídas rápidas de frecuencia. Sin embargo, si la caída de frecuencia es demasiado pronunciada, podría desencadenar una reacción en cadena que podría llevar al colapso del sistema Como resultado, tenemos que la inercia del sistema va disminuyendo mientras aumentamos la generación de energía fotovoltaica por lo que el sistema se volvió más vulnerable a los cambios de frecuencia. Además, la disminución del factor de potencia resulta en una menor capacidad de transmisión de la potencia activa, con esto en cuenta, la respuesta a perturbaciones se vuelve más débil ya que se necesita una gestión más precisa de la potencia reactiva. Por lo tanto, los casos donde el sistema entrega mayor cantidad de energía sin comprometer la estabilidad de la frecuencia, fueron en donde la inercia rondaba de 10 a 11 segundos, el factor de potencia se mantiene en 1 y la capacidad de los generadores aumentaba de 20% al 30% del estado inicial.


CONCLUSIONES

Durante el programa delfín pude aprender acerca de la estabilidad de los sistemas eléctricos de potencia y el papel que toman las energías renovables dentro de estos. La integración de estos sistemas presenta grandes desafíos para la estabilidad y el control de la frecuencia debido a la falta de inercia en comparación de los generadores síncronos convencionales, pero, se a demostrado que una combinación de ambos resulta satisfactoria para un buen control de los sistemas eléctricos.
Sanchez Mendoza Hugo Aldair, Universidad de Colima
Asesor: Mg. Diana Patricia Urrea Ramirez, Corporación Universitaria Remington

COMPORTAMIENTO A COMPRESIóN Y FLEXIóN DEL CONCRETO CON SUSTITUCIóN DEL 10% DE METACAOLíN EN LUGAR DE CEMENTO EN SU DOSIFICACIóN PARA UNA RESISTENCIA DE 226 KG/CM2


COMPORTAMIENTO A COMPRESIóN Y FLEXIóN DEL CONCRETO CON SUSTITUCIóN DEL 10% DE METACAOLíN EN LUGAR DE CEMENTO EN SU DOSIFICACIóN PARA UNA RESISTENCIA DE 226 KG/CM2

Sanchez Mendoza Hugo Aldair, Universidad de Colima. Asesor: Mg. Diana Patricia Urrea Ramirez, Corporación Universitaria Remington



PLANTEAMIENTO DEL PROBLEMA

El hormigón es un material de construcción muy solicitado en la actualidad. Se compone de una mezcla homogénea que incluye un aglutinante y materiales pétreos. Su aspecto es similar al de una roca artificial y, al combinarse con acero de refuerzo, resulta ideal para su uso en proyectos de ingeniería civil (Apaza Palacios, C. E., & Mallqui Ramírez, C. E. 2022). Propiedades mecánicas La adición de MK a los cementos para la producción de morteros u hormigones, producen cambios de fase y transformaciones microestructurales que inciden en las propiedades físicas y químicas del material. se forma un gel extra de silicato de calcio hidratado y se reduce el hidróxido de calcio, otorgándole ventajas importantes a las mezclas, tales como el aumento de sus resistencias mecánicas y la disminución de la porosidad, por lo que han llamado un efecto de micro relleno. El MK posee un importante potencial puzolánico dada su composición química y su tamaño de partícula el cual oscila entre 0.5 μM y 20 μM (Op.Cit.) Al realizar reemplazos de MK por cemento con porcentajes del 10%, se logran los máximos valores de resistencias a compresión. Valores superiores al 10% no muestran aumentos significativos. Las máximas resistencias relativas se dieron a los 14 días, lo que les permitió establecer que la actividad puzolánica del MK alcanza su punto máximo de reacción en este periodo de tiempo. La alta actividad puzolánica del MK permite la obtención de hormigones más densos que conllevan al decrecimiento de la permeabilidad de la matriz y al aumento de la protección de la corrosión del refuerzo; donde a su vez el riesgo a la corrosión se ve disminuido por la disminución de las concentraciones de álcali en la solución de poros (Op.Cit.).



METODOLOGÍA

Los análisis reportados, son apegadas a las normas del Requisitos de Reglamento para Concreto Estructural (ACI 318S-14). Para las 30 muestras de hormigón compuestas de 18 cilindros de hormigón con una circunferencia de 100 mm y 200 mm de altura y 12 vigas de hormigón con ancho de 150 mm, alto de 150 mm y largo de 500 mm.  Se utilizó cemento Portland (CPC 30R), de la marca ALION para el 50 % de estas muestras, mientras que para el otro 50% se modificó el 10% de cemento por metacaolín del tipo (Fortacret®10). Por lo que se tienen 9 cilindros y 6 vigas patrón, mientras que contamos con 9 cilindros y 6 vigas con sustitución del 10% de metacaolín. en dichas muestras se tomaron 3 especímenes de cada tipo de mezcla donde se hicieron pruebas a los 7, 14 y 28 días de maduración después del encofrado realizado. Los moldes de cilindros y vigas para los ensayos de resistencia fueron previamente lavados y curados en laboratorio de acuerdo con las normas ASTM C 31 y ASTM C 39. Posteriormente se les colocó aceite y se rellenaron los moldes cilíndricos y rectangulares para ser vibrados según la norma ASTM C 192, transcurridas 24h de tiempo los cilindros y vigas fueron desmoldados y llevados a curado por 7, 14 y 28 días.


CONCLUSIONES

Dada la literatura dada anteriormente podemos concluir que con la sustitución de metacaolín en una mezcla de concreto para una resistencia buscada implicará un cambio en las resistencias del concreto, con este podemos lograr resistencias mayores a las esperadas con una dosificación normal, pero para poder conseguir la mayor resistencia buscada se debe sustituir el 10% de cemento por metacaolín, con esta para una resistencia de 238.6 kg/cm2 que fue la esperada para una mezcla patrón pudimos subir hasta 310 kg/cm2, esto aportando una diferencia de 71.4 kg/cm2, que a su vez nos aporta un incremento del 30 % Comparada con una mezcla de concreto convencional, y hablando de flexo-compresión para una resistencia de 4.03 kg/cm2 que fue la esperada para una mezcla patrón pudimos subir hasta 5.12 kg/cm2, esto aportando una diferencia de 1.09 kg/cm2, que a su vez nos aporta un incremento del 27 % Comparada con una mezcla de concreto convencional, con esto se puede tomar otra alternativa al momento de buscar aumentar la resistencia esperada del concreto sin modificar las cantidades de los agregados. BIBLIOGRAFÍA • ACI, I. (2014). Requisitos de reglamento para concreto estructural (ACI 318S-14). • Apaza Palacios, C. E., & Mallqui Ramírez, C. E. (2022). Metacaolín como sustituto del cemento para reducir la permeabilidad del hormigón estructural. • Guardado Gastelum, A. L. (2023). Desempeño de un concreto adicionado con Metacaolín y caucho para su aplicación n en andadores. • Gutiérrez, J. C. R., Baena, O. J. R., & Tobon, J. I. (2006). Efectos de la adición de metacaolín en el cemento Pórtland. DYNA: revista de la Facultad de Minas. Universidad Nacional de Colombia. Sede Medellín, 73(150), 131-141. • Martínez, L., & Rosario, L. (2017). Análisis comparativo de resistencia y permeabilidad de mezclas de hormigón con escombros de demolición de concreto y mampostería como sustitutos de agregado grueso (Tesis de licenciatura, Universidad Autónoma de Santo Domingo) • Pérez, S. P. M., Valdera, J. D. V., Bustamante, J. S. A., & Paredes, R. G. (2021). El uso del caucho de neumáticos triturados y aplicados al concreto: Una revisión literaria. Revista de Investigación Talentos, 8(1), 36-51. • Rodríguez Silva, L. E., & Vázquez Pérez, D. J. (2021). Propiedades físicasmecánicas del concreto estructural con sustitución del cemento por metacaolín y ceniza volante, Nuevo Chimbote, 2019.
Sanchez Montserrat Montserrat, Universidad Tecnológica de Tecamachalco
Asesor: Dr. Javier D. Hoyos Leyva, Fundación Universitaria Agraria de Colombia

MICROENCAPSULACIóN DE COMPUESTOS BIOACTIVOS


MICROENCAPSULACIóN DE COMPUESTOS BIOACTIVOS

Martínez González Daniela, Tecnológico de Estudios Superiores de San Felipe del Progreso. Sanchez Montserrat Montserrat, Universidad Tecnológica de Tecamachalco. Asesor: Dr. Javier D. Hoyos Leyva, Fundación Universitaria Agraria de Colombia



PLANTEAMIENTO DEL PROBLEMA

Para el diseño de productos funcionales con un alto contenido de compuestos, se ha utilizado la microencapsulación. Este proceso consiste en proteger dichos compuestos y facilitar su consumo, gracias a la fácil manipulación de los mismos, su protección contra condiciones ambientales adversas y una mayor vida útil. Además, permite una liberación controlada y mejora la biodisponibilidad para el cuerpo.Existen diversos métodos de microencapsulación, como la aspersión, que es uno de los más utilizados debido a sus bajos costos y la estabilidad que proporciona al producto final, produciendo polvos de alta calidad con bajo contenido de humedad, y contando con disponibilidad industrial y experimental. Por otro lado, la liofilización es un método que presenta ventajas al no someter los compuestos a altas temperaturas, evitando así la pérdida de compuestos volátiles.El resultado de la microencapsulación son microcápsulas compuestas por un núcleo y un material de pared. La selección del material de pared es fundamental para obtener microcápsulas de calidad, siendo los polímeros como el almidón los más utilizados debido a su presencia en plantas como el trigo, el maíz y el arroz, lo que los hace económicos, ampliamente disponibles, biodegradables y biocompatibles.El objetivo de este trabajo es comparar las eficiencias de encapsulación utilizando almidón de maíz y almidón de aguacate como material de pared para la microencapsulación mediante liofilización. 



METODOLOGÍA

Para llevar a cabo la microencapsulación, se prepararon las muestras mediante un proceso de gelatinización con ambos almidones y ácido ascórbico a una temperatura de 120°C. Posteriormente, se congelaron a -120°C durante dos días y se sometieron a liofilización a 0.004 mbar y -50°C durante 36 horas para el almidón de maíz y 40 horas para el almidón de aguacate.Se realizaron caracterizaciones físico-químicas como eficiencia de encapsulación total y efectiva, cinética de liberación, densidad total y aparente, y morfología de las microcápsulas.


CONCLUSIONES

Los resultados mostraron que el almidón de aguacate presentó una eficiencia total de encapsulación del 16%, en comparación con el almidón de maíz que obtuvo un 2.8%. En cuanto a la eficiencia efectiva, el almidón de aguacate alcanzó un 7.3% y el de maíz un 2.5%. En la cinética de liberación, las microcápsulas con almidón de aguacate presentaron una mayor liberación a los 40 minutos, mientras que las microcápsulas con almidón de maíz alcanzaron la máxima concentración a los 30 minutos. Se observó que el almidón de aguacate presenta una mayor eficiencia debido a su estructura, lo que permite retener una mayor cantidad de compuestos bioactivos. Por otro lado, se concluyó que el método de liofilización tiene una baja eficiencia para microencapsular compuestos en matrices de almidón.
Sanchez Morales Jesus David, Universidad de Sonora
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

SíNTESIS Y CARACTERIZACIóN DE MATERIALES CERáMICOS BASADOS EN MANGANESO PARA LA FOTOCATáLISIS DE CONTAMINANTES EN EL AGUA


SíNTESIS Y CARACTERIZACIóN DE MATERIALES CERáMICOS BASADOS EN MANGANESO PARA LA FOTOCATáLISIS DE CONTAMINANTES EN EL AGUA

Fuentes Gutiérrez Cristal Alexia, Universidad de Sonora. Sanchez Morales Jesus David, Universidad de Sonora. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las industrias textiles son grandes contaminantes ambientales debido a la descarga de colorantes en aguas residuales sin tratamiento adecuado. Utilizan más de 10,000 tipos de colorantes y pigmentos, especialmente en la industria textil, papelera, cosmética y farmacéutica. Los efluentes textiles contienen colorantes recalcitrantes, que no se fijan al tejido y se descargan como residuos. Estos colorantes disminuyen la penetración de luz en el agua, afectando la fotosíntesis y alterando los ecosistemas acuáticos, reducen los niveles de oxígeno disuelto y crean condiciones perjudiciales para los organismos acuáticos. Además, pueden acumularse en la cadena alimentaria y causar riesgos para la salud humana y contaminar el suelo. El tratamiento de aguas residuales es crucial para mantener la calidad del agua. Durante el verano de investigación, se evaluó la eficacia de materiales cerámicos en la fotocatálisis para tratar aguas contaminadas, enfocándose en desarrollar soluciones sostenibles y eficientes para degradar tintes en aguas residuales.



METODOLOGÍA

Se plantearon dos tipos de óxidos con dos estructuras diferentes. La primera de tipo perovskita (ABO3) y otra de tipo espinela (AB2O4). De la base de datos Jade XRD Pattern se seleccionaron los siguientes materiales cerámicos basados en manganeso para trabajar: CoMnO3 (perovskitas), y CoMn2O4 y Ag2MnO4 (espinelas). Se llevó a cabo la estequiometría correspondiente de cada material para la primera síntesis. En la síntesis de CoMnO3 se agregó 1g de nitrato de manganeso (II) tetrahidratado a un vaso de precipitado, junto con 1.159g de nitrato de cobalto (II) hexahidratado y una solución de 0.400g de alcohol polivinílico disuelto en 20 ml de agua bidestilada. De manera similar, para la síntesis de CoMn2O4, se agregaron 1.7249 g de nitrato de manganeso (II) tetrahidratado a un vaso de precipitado, junto con 1g de nitrato de cobalto (II) hexahidratado y una solución de 0.400g de alcohol polivinílico disuelto en 20 ml de agua bidestilada. Cada solución se calentó en un horno de microondas convencional en intervalos de 1 minuto, con una potencia de 2, hasta evaporar la mayor cantidad de agua. El calentamiento continuó hasta que la muestra se tornó viscosa y adquirió un color más intenso. Una vez que el agua se había evaporado casi por completo, se aumentó la potencia del microondas al máximo para descomponer el polímero de alcohol polivinílico. A continuación, lo obtenido se trituró en un mortero para reducir el tamaño de las partículas y preparar la muestra para la calcinación. Se realizaron tres calcinaciones de ambas muestras a 400°C, 600°C y 800°C por 3 horas cada una. Después, se volvieron a pesar el manganeso y cobalto utilizando la misma estequiometría que al principio. Para CoMnO3 1g de nitrato de manganeso (II) tetrahidratado a un vaso de precipitado, junto con 1.159g de nitrato de cobalto (II) hexahidratado, y para CoMn2O4  1.7249 g de nitrato de manganeso (II) tetrahidratado a un vaso de precipitado, más 1g de nitrato de cobalto (II) hexahidratado. Se añadieron 20 ml de ácido fórmico, que actúa como agente precipitante, a cada mezcla. Se dejó actuar hasta que precipitara, seguidamente se procedió a calcinar. Se realizaron tres calcinaciones de ambas muestras a 300°C, 500°C y 800°C por 3 horas cada una. Como segunda síntesis, se llevó a cabo la estequiometría correspondiente del material Ag2MnO4. Se agregaron 1g de nitrato de manganeso (II) tetrahidratado a dos vasos de precipitado, junto con 1.3534g de nitrato de plata. En un tercer vaso de precipitado, se agregaron 0.200 g de bromuro de hexadeciltrimetilamonio y se mezclaron con 20 ml de ácido fórmico. La mezcla del tercer vaso de precipitado se añadió al primer vaso de precipitado, mientras que al segundo vaso de precipitado se le añadieron solamente 20 ml de ácido fórmico. Ambas muestras se dejaron precipitar, se eliminó el líquido sobrante y se realizaron calcinaciones. Se realizaron cuatro calcinaciones de ambas muestras a 200°C, 400°C, 600°C y 800°C por 3 horas cada una. Seguidamente, se realizaron pruebas en difracción de rayos X de todas las muestras calcinadas. Se determinó que CoMn2O4 calcinado a 500°C utilizando ácido fórmico, CoMn2O4 calcinado a 400°C con alcohol polivinílico, y CoMnO3 calcinado a 800°C con alcohol polivinílico fueron las mejores opciones para continuar con la investigación y realizar pruebas fotocatalíticas. Luego se realizaron las pruebas de degradación, es decir, fotocatálisis. Se inició pesando 10 miligramos de CoMn2O4 calcinado a 500°C utilizando ácido fórmico y CoMn2O4 calcinado a 400°C con alcohol polivinílico, y se agregaron los contenedores. Los contenedores se colocaron al aire libre, expuestos al sol. Como tinte a degradar se utilizó 20 ml de verde malaquita (MG). Cada 5 min se sacaban alícuotas y se colocaban en viales, del tiempo 0 hasta 180 min. Además de esas pruebas, se realizaron pruebas adicionales con verde malaquita sin adición de muestra y al CoMn2O4 calcinado a 400°C con alcohol polivinílico, pero sin presencia de luz. También se realizaron pruebas con un foco para mayor control de la luz. Posteriormente, se usó el equipo de espectrofotómetro uv-visible para medir la absorbancia de la solución a una longitud de onda específica que corresponde al máximo de absorbancia del verde malaquita.


CONCLUSIONES

Durante la estancia de investigación, se adquirieron y aplicaron conocimientos sobre materiales cerámicos, fotocatálisis y semiconductores, utilizando técnicas de caracterización como DRX y espectrofotometría UV-Vis. También se aprendió el manejo de una calcinadora y técnicas de síntesis. Se realizaron dos pruebas de fotocatálisis, una con luz solar y otra con un foco convencional, siendo esta última más eficiente debido al mayor control de la intensidad de la luz. Aún faltan resultados de morfología con SEM, pruebas de FTIR y determinación del bandgap de los materiales.
Sánchez Pérez Pavel, Instituto Tecnológico de Iztapalapa
Asesor: Dr. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia

ANáLISIS DE BASE DE DATOS MéDICAS CON IMPLEMENTACIóN DE RED NEURONAL MLP (PERCEPTRóN MULTICAPA)


ANáLISIS DE BASE DE DATOS MéDICAS CON IMPLEMENTACIóN DE RED NEURONAL MLP (PERCEPTRóN MULTICAPA)

Sánchez Pérez Pavel, Instituto Tecnológico de Iztapalapa. Asesor: Dr. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

Los sistemas de información en el área médica han sido ampliamente utilizados por las Instituciones de Salud en todo el mundo debido a su versatilidad en el apoyo para la gestión de la salud.   En México en el sector público de salud los sistemas informáticos han estado presentes desde la década del 2000 para los pacientes y usuarios finales. Generalmente dichos sistemas han servido para almacenar los expedientes clínicos de los pacientes y poder llevar un historial de enfermedades y tratamientos. Aunque dichos sistemas contienen otros módulos para médicos, asistentes médicos, enfermeras, administradores de hospitales, etc. Poco se ha hecho para hacer un análisis de la información.   Particularmente en el estado de Michoacán en los últimos 10 años se ha trabajado en tener un mejor aprovechamiento de los datos médicos de los pacientes, por lo que un análisis de la información contenida en la base de datos de Salubridad en el estado permitirá mejora la toma de decisiones médicas de forma más consciente, eficiente y eficaz.



METODOLOGÍA

La metodología implementada fue la de Cascada (Waterfall), una de las más tradicionales y lineales, siendo ideal para el proyecto de análisis de base de datos médicas, ya que el proyecto esta bien definido por un plan de trabajo propiamente estructurado. Donde este esta dividida en las siguientes fases: 1- Requerimientos 2- Análisis 3- Diseño 4- Implementación 5- Testeo Véase que en cada fase corresponden diferentes actividades, como lo son: Requerimientos: Revisión de la base de datos, Instalación de herramientas  Análisis: Análisis exploratorio de datos, Estadística descriptiva, descubrimiento de patrones Diseño: Diseño de la red neuronal Implementación: Utilización de aprendizaje automático, Implementación de una red neuronal MLP (Perceptrón Multicapa) Testeo: Pruebas y depuración de resultados 


CONCLUSIONES

Luego de realizar un análisis preliminar de la base de datos médicas que ayudó a la selección de un problema especifico (diabetes), se seleccionaron diversas columnas de importancia que facilitaron el análisis del problema. Donde se utilizaron diversas librerías de ciencia de datos para la limpieza, creación de estadísticos, análisis, etc. Se obtuvieron resultados sobre la media, mediana, máximos, mínimos, desviación estándar, varianza.  De la red neuronal implementada se obtuvo el resultado de la perdida del entrenamiento, predicciones y resultados reales.
Sanchez Ramirez Mildred Veronica, Instituto Tecnológico de Puebla
Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla

TECNOLOGÍAS COMPUTACIONALES APLICADAS A LA EDUCACIÓN


TECNOLOGÍAS COMPUTACIONALES APLICADAS A LA EDUCACIÓN

Sanchez Ramirez Mildred Veronica, Instituto Tecnológico de Puebla. Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

 Este estudio presenta el desarrollo y la implementación de una aplicación educativa innovadora que utiliza la realidad aumentada (AR) para mejorar el aprendizaje interactivo sobre los lóbulos cerebrales humanos. La aplicación permite a los usuarios explorar un modelo tridimensional del cerebro, proporcionando información detallada y desglosada sobre cada lóbulo al interactuar con ellos. Esta herramienta educativa está diseñada no solo para informar sobre el cerebro humano, sino también para fomentar la curiosidad científica y tecnológica. La aplicación incluye varios apartados para apoyar la retención de información. Uno de estos apartados es un quiz interactivo basado en la información presentada en la escena de AR, permitiendo a los usuarios evaluar y reforzar su conocimiento de manera dinámica. Además, se ha desarrollado un apartado de consejos que ofrece recomendaciones prácticas para mejorar la salud cerebral, y un juego de memorama diseñado para ejercitar las áreas de la memoria, contribuyendo así a una experiencia educativa más completa y atractiva. El propósito de esta aplicación es múltiple: busca informar y educar a la comunidad sobre el cerebro humano y sus funciones;  pretende sembrar la curiosidad por la ciencia en el área tecnológica y médica entre las infancias que interactúan con la aplicación; y, finalmente, aspira a crear un entorno tecnológico enriquecedor para las generaciones recientes. Al proporcionar una plataforma interactiva y accesible, esperamos contribuir a la formación de futuros científicos y tecnólogos, fomentando el interés y el entusiasmo por el aprendizaje y la investigación en estas áreas.         



METODOLOGÍA

La realidad aumentada (AR) ha emergido como una herramienta educativa revolucionaria, transformando la manera en que los estudiantes interactúan con el contenido académico y facilitando un aprendizaje más inmersivo y dinámico. Este proyecto se realizó en la Benemérita Universidad Autónoma de Puebla (BUAP), bajo la supervisión de las doctoras Carmen Cerón Garnica y Yolanda Moyao Martínez, en el área de Ciencias de la Computación. Utilizando la plataforma Unity, reconocida por su capacidad para desarrollar aplicaciones interactivas y entornos tridimensionales. Unity proporcionó una base sólida para el desarrollo del modelo tridimensional del cerebro, permitiendo la creación de una representación detallada y manipulable de los lóbulos cerebrales. AR Foundation, una herramienta esencial para integrar AR en diversas plataformas, permitió superponer información educativa sobre el modelo 3D del cerebro cuando los usuarios interactúan con él a través de dispositivos móviles. Esta combinación de tecnologías facilita una exploración interactiva, permitiendo a los usuarios aprender sobre la estructura y función de cada lóbulo cerebral en un entorno virtual envolvente. La aplicación no solo ofrece una visualización interactiva del cerebro, sino que también incluye varias funcionalidades diseñadas para reforzar el aprendizaje. Un quiz interactivo permite a los usuarios evaluar su comprensión de la información presentada, mientras que un apartado de consejos ofrece recomendaciones prácticas para mejorar la salud cerebral. Además, un juego de memorama está diseñado para ejercitar y fortalecer la memoria de los usuarios, proporcionando una dimensión lúdica y educativa a la experiencia.El objetivo principal de este proyecto es doble: proporcionar una comprensión objetiva y accesible del cerebro humano y fomentar la curiosidad científica y tecnológica entre los jóvenes. Al ofrecer una plataforma que combina el aprendizaje interactivo con la tecnología de vanguardia, la aplicación busca no solo educar, sino también inspirar a las nuevas generaciones a explorar y desarrollar un interés en las ciencias y la tecnología.


CONCLUSIONES

Esta herramienta educativa tiene el potencial de transformar el aprendizaje en contextos tanto formales como informales, proporcionando una plataforma para que los usuarios jóvenes desarrollen un interés temprano en la ciencia y la tecnología.  A continuación, se presentan los principales resultados obtenidos durante la implementación y evaluación de la aplicación: Interacción y Exploración del Modelo 3D: Los usuarios pudieron interactuar de manera efectiva con el modelo tridimensional del cerebro, explorando cada lóbulo y obteniendo información detallada sobre su estructura y función. La funcionalidad de AR permitió que los usuarios visualizaran y manipularan el modelo en un entorno virtual, facilitando una comprensión más profunda de la anatomía cerebral. Evaluación del Conocimiento a través de Quiz: Los quizzes interactivos incorporados en la aplicación permitieron a los usuarios evaluar su comprensión de la información presentada. Los resultados de los quiz indicaron una alta tasa de retención de la información, con un promedio de aciertos del 80% en las pruebas posteriores a la interacción con el modelo 3D. Impacto de los Consejos para la Salud Cerebral: Las encuestas realizadas mostraron que el 85% de los usuarios encontró útil la información proporcionada y expresó una intención de implementar algunos de los consejos en su vida diaria. Eficiencia del Juego de Memorama: El juego de memorama diseñado para ejercitar la memoria fue bien recibido por los usuarios. Los comentarios indicaron que se sintieron cómodos con la interfaz y se mostraron motivados a seguir jugando.  Satisfacción del Usuario y Retroalimentación: Las encuestas de satisfacción revelaron que el 92% de los usuarios estaban satisfechos con la experiencia . Los comentarios positivos destacaron la facilidad de uso, la interactividad del modelo 3D y el valor educativo del contenido. Evaluación con Niños de 8 a 12 Años: La aplicación fue testeada con un grupo de niños de 8 a 12 años, quienes mostraron una respuesta positiva hacia la herramienta.
Sanchez Rodriguez Daniela, Universidad Autónoma de Nayarit
Asesor: Dra. Jose Areli Carrera Román, Universidad Tecnológica de Tecamachalco

ESTRATEGIA DE IMPLEMENTACIóN DE HERRAMIENTA DE IA: CASO DE ESTUDIO CON JóVENES UNIVERSITARIOS


ESTRATEGIA DE IMPLEMENTACIóN DE HERRAMIENTA DE IA: CASO DE ESTUDIO CON JóVENES UNIVERSITARIOS

Monroy Salazar Giselle Aline, Instituto Politécnico Nacional. Sanchez Rodriguez Daniela, Universidad Autónoma de Nayarit. Asesor: Dra. Jose Areli Carrera Román, Universidad Tecnológica de Tecamachalco



PLANTEAMIENTO DEL PROBLEMA

El surgimiento y la rápida evolución de las Inteligencias Artificiales (IA) han desencadenado un debate profundo sobre su aplicación en el campo educativo. La integración de estas tecnologías en las aulas plantea interrogantes sobre su efectividad y la manera óptima de implementarlas para maximizar sus beneficios. Con el avance constante de la IA, es imperativo explorar métodos que permitan aprovechar al máximo estas herramientas en entornos educativos, con un énfasis particular en la mejora del aprendizaje autónomo y la investigación estudiantil. La IA tiene el potencial de transformar radicalmente la educación superior, proporcionando a los estudiantes nuevas formas de acceder a la información, interactuar con el conocimiento y desarrollar habilidades críticas. Sin embargo, para lograr un impacto significativo, es crucial identificar y superar las barreras que pueden surgir en su implementación. Entre estos desafíos se encuentran: Aceptación y Adaptación: La aceptación por parte de los estudiantes y docentes, así como su adaptación a estas nuevas herramientas. Integración Curricular: La adecuada integración de la IA en los planes de estudio existentes. Capacitación y Competencia: La necesidad de capacitación para que tanto docentes como estudiantes puedan utilizar estas tecnologías de manera efectiva. En este contexto, el objetivo principal del proyecto es implementar el uso de ChatGPT como una herramienta de apoyo para el fortalecimiento del proceso de aprendizaje en temas específicos. Enfocándose en los estudiantes de Ingeniería en Mantenimiento Industrial de la UTTECAM, proporcionando un caso de estudio concreto sobre los beneficios y desafíos de la integración de la IA en la educación superior. Este estudio busca desarrollar una estrategia clara y efectiva para la implementación de herramientas de IA en la educación superior. Evaluará tanto sus beneficios potenciales como los posibles obstáculos, proporcionando un marco de referencia para futuras aplicaciones en otros programas educativos. A través de esta investigación, se espera fomentar un entorno de aprendizaje más dinámico, interactivo y personalizado, maximizando así el aprovechamiento de las tecnologías de IA en el ámbito educativo.



METODOLOGÍA

Para llevar a cabo este estudio, se seleccionó una muestra de 45 estudiantes de la carrera de Ingeniería en Mantenimiento Industrial de la UTTECAM, con el propósito de implementar el uso correcto de la Inteligencia Artificial para mejorar el proceso de aprendizaje y el rendimiento académico. El estudio se dividió en tres fases, cada una de las cuales hizo contribuciones significativas. La metodología empleada se basa en la investigación-acción-desarrollo, que se fundamenta en la necesidad de realizar investigaciones vinculadas estrechamente con las necesidades prácticas del sistema educativo, con el objetivo de lograr transformaciones inmediatas en la realidad educativa (Ortiz, M., y Borjas, 2008). Primera Fase: Examen Diagnóstico Se llevó a cabo un examen diagnóstico con el objetivo de evaluar las habilidades de comprensión de los estudiantes. Segunda Fase: Introducción a ChatGPT Se presentó de manera generalizada la herramienta ChatGPT a los estudiantes, realizando búsquedas a travésde ChatGPT con la participación activa de los estudiantes, comparando los resultados obtenidos con los de sus búsquedas habituales. Tercera Fase: Entrenamiento y Seguimiento Se realizó un seguimiento a los estudiantes para mejorar el uso de ChatGPT. Se les explicó qué es un prompt y se les brindó una fórmula de seis componentes para crearlo, con el objetivo de mejorar la calidad de sus preguntas.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos teóricos sobre Inteligencia Artificial (IA) y su aplicación correcta para mejorar el proceso de aprendizaje. El avance de la tecnología está ocurriendo a pasos agigantados, y muchas de las herramientas que proporciona nos ayudan a realizar tareas cotidianas con mayor facilidad, en menos tiempo y con menos esfuerzo. Este estudio, centrado en la implementación de ChatGPT en los estudiantes de Ingeniería en Mantenimiento Industrial de la UTTECAM, ha demostrado cómo la IA puede integrarse eficazmente en el entorno educativo para maximizar sus beneficios. A través de las tres fases del estudio, se ha evidenciado que ChatGPT puede ofrecer una serie de ventajas significativas: Personalización del Aprendizaje: Adaptando el contenido y los métodos de enseñanza a las necesidades individuales de cada estudiante. Asistencia en la Resolución de Problemas: Proveyendo ayuda en la resolución de problemas complejos y en la comprensión de conceptos difíciles. Apoyo en la Investigación Académica: Facilitando la realización de investigaciones académicas proporcionando acceso rápido y relevante a la información. La aceptación y adaptación por parte de los estudiantes, la adecuada integración en sus rutinas académicas y la capacitación necesaria para utilizar estas tecnologías de manera efectiva fueron identificadas como desafíos clave. Sin embargo, estos obstáculos pueden superarse con una planificación cuidadosa y una estrategia bien definida. En conclusión, se demostró que el uso correcto de una herramienta como ChatGPT puede revolucionar completamente la forma en que los estudiantes aprenden. La integración de ChatGPT en los entornos educativos no solo optimiza el proceso de aprendizaje, sino que también fomenta una cultura de autoaprendizaje y curiosidad intelectual. Esto prepara a los estudiantes para enfrentar los desafíos del futuro con confianza y competencia, maximizando así el aprovechamiento de las tecnologías de IA en el ámbito educativo y promoviendo un entorno de aprendizaje más dinámico, interactivo y personalizado.
Sánchez Rojas Alejandro, Universidad Tecnológica de Bahía de Banderas
Asesor: Mg. Claudio Alberto Moreno Arias, Fundación Universidad de América

DISEñO Y CONSTRUCCIóN DE UN PIROLIZADOR ELéCTRICO PARA LA CARACTERIZACIóN DEL ACEITE DE PIROLISIS DE RESIDUOS PLáSTICOS DE UN SOLO USO.


DISEñO Y CONSTRUCCIóN DE UN PIROLIZADOR ELéCTRICO PARA LA CARACTERIZACIóN DEL ACEITE DE PIROLISIS DE RESIDUOS PLáSTICOS DE UN SOLO USO.

Jiménez Angulo Samuel, Tecnológico de Estudios Superiores de Valle de Bravo. Sánchez Rojas Alejandro, Universidad Tecnológica de Bahía de Banderas. Asesor: Mg. Claudio Alberto Moreno Arias, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

En latinoamérica existe un gran problema con los plásticos aunado a una falta de cultura sobre el reciclaje o reutilización sobre los residuos. Los plásticos de un solo uso de polipropileno y las bolsas plásticas de baja densidad son los que mayor afectación ambiental generan en las sociedades latinas, este tipos de residuos son los provocadores de contaminación, malos olores, generadores de infecciones, inundaciones por su acumulación en alcantarillas, etc. Al encontrar un segundo uso aprovechamos una economía sostenible y valorizando todos los residuos podemos analizar más que productos nos sirven más para un proceso en el que se tenga un aprovechamiento más eficiente que el de solo basura.



METODOLOGÍA

Diseño y construcción Para el diseño del pirolizador, se utilizó el software AutoCAD, colaborando estrechamente con el investigador para crear un modelo eficiente y preciso. El objetivo era desarrollar un pirolizador eléctrico equipado con una resistencia de 2000W de potencia. El diseño se centró en una olla de presión con un diámetro de 22 cm y una altura de 18 cm, a la cual se incorporó un termómetro para medir la temperatura y controlar el tiempo del proceso de pirolisis, permitiendo así una cuantificación precisa de la viabilidad. del proyecto Se seleccionó una olla de presión con una capacidad de 4,5 litros como el recipiente principal para introducir los residuos plásticos, los cuales fueron previamente tratados, limpiados y triturados. La resistencia eléctrica fue diseñada y fabricada por un proveedor especializado, asegurando que tuviera las dimensiones adecuadas para envolver la olla de presión. Esta resistencia debía alcanzar una temperatura interna de hasta 750°C, suficiente para llevar a cabo la pirolisis de los materiales plásticos. Sistema de Enfriamiento y Condensado En la tapa de la olla de presión, se instaló una tubería conectada a la válvula de presión para permitir la salida de los vapores generados durante el proceso. Se utilizó un tubo de cobre tipo L de ¾ de pulgada, de 25 cm de longitud, con un doblez de 90° a lo largo. Esta tubería estaba conectada a un sistema de enfriamiento diseñado para condensar los vapores. El sistema consistía en un serpentín de 7 vueltas de 1 metro de longitud, fabricado con el mismo tipo de tubo, el cual se sumergió en un recipiente con agua y hielo par. Definición El pirolizador se diseñó para procesar dos tipos específicos de plásticos: utensilios de polipropileno y bolsas de polietileno de baja densidad (LDPE). Las bolsas LDPE, un polímero termoplástico común, fueron seleccionadas por su alta presencia en el mercado y sus propiedades físicas favorables para la pirolisis. De igual manera, los utensilios de polipropileno, reconocidos por su resistencia y durabilidad, fueron incluidos en el estudio. Estos materiales fueron recolectados, limpiados y triturados; el polipropileno se trituró utilizando un molino, mientras que el LDPE se preparó manualmente Montaje y prueba del pirolizador El ensamblaje del pirolizador se realizó en un espacio al aire libre dentro de las instalaciones de la Facultad de Ingeniería. Se ensamblaron todas las partes del reactor y se cerró la olla de presión para comenzar el proceso de pirolisis. Durante los primeros 30 minutos, se observará un incremento gradual de la temperatura, alcanzando los 300°C en el interior de la olla, momento en el cual se comenzó a recolectar el líquido. Análisis del Producto Pirolizado El líquido obtenido fue llevado a un laboratorio para determinar su composición, analizando si se trataba de gasolina o diésel. Se realizaron mezclas en diferentes proporciones con diésel convencional (10% líquido pirolizado - 90% diésel, 20% - 80%, y 50% - 50%) y se probaron en un motor monocilíndrico generador de diésel. Las pruebas evalúan el rendimiento del motor, la carga, la velocidad, las RPM y Resultado Los resultados indicaron que todos los combustibles mezclados con el líquido pirolizado mostraron un desempeño satisfactorio, con una variación de eficiencia de menos del 15%. Estas pruebas confirman la viabilidad del uso del pirolizado como combustible alternativo, siendo su desempeño comparable al diésel convencional.


CONCLUSIONES

La investigación sobre el diseño y construcción de un pirolizador eléctrico demostró ser confortable al lograr convertir residuos plásticos en un líquido pirolizado utilizable como combustible alternativo. A través del uso de AutoCAD, se diseñó un sistema eficiente que incluyó una resistencia eléctrica de 2000W y una olla de presión de 4.5 litros, complementados con un sistema de enfriamiento para condensar los vapores generados. Se evaluaron dos tipos de plásticos: utensilios de polipropileno y bolsas de polietileno de baja densidad (LDPE), los cuales fueron tratados, triturados y sometidos a pirolisis. Los experimentos revelaron que el líquido pirolizado obtenido podía ser mezclado con diésel convencional en diversas proporciones, manteniendo un rendimiento eficiente en motores diésel, con variaciones de eficiencia menores al 15%. Esto valida la viabilidad del proceso como una opción sostenible para el manejo de residuos plásticos y la producción de combustibles alternativos. La metodología implementada y los resultados obtenidos subrayan la potencialidad del pirolizador como una herramienta innovadora en la gestión de residuos y la producción de energía en América latina.
Sanchez Sanchez Alan Antonio, Universidad de Guadalajara
Asesor: Dra. Andrea Guadalupe Martínez López, Universidad Veracruzana

SíNTESIS DE NANOPARTíCULAS DE ZNO


SíNTESIS DE NANOPARTíCULAS DE ZNO

Sanchez Sanchez Alan Antonio, Universidad de Guadalajara. Asesor: Dra. Andrea Guadalupe Martínez López, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

Los óxidos semiconductores, como el óxido de zinc (ZnO), han emergido como materiales clave debido a sus excepcionales propiedades electrónicas, ópticas y catalíticas. Estos materiales encuentran aplicaciones en una amplia gama de campos, incluyendo la fotocatálisis, la biomedicina, la electrónica y la energía renovable. Además, destacan por su capacidad en el saneamiento y tratamiento de agua, donde actúan eficientemente en la degradación de contaminantes orgánicos y la desinfección de microorganismos patógenos. Sin embargo, la síntesis de óxidos semiconductores de alta calidad sigue siendo un desafío crucial. Existen diversas alternativas de síntesis para producir estos óxidos semiconductores, cada una con sus propias ventajas y limitaciones. Los métodos químicos tradicionales permiten un control preciso sobre las características estructurales y morfológicas de las nanopartículas. Por otro lado, los enfoques de síntesis verde, que utilizan extractos naturales como el Aloe vera y el mango, ofrecen rutas más sostenibles y menos tóxicas para la producción de estos materiales. Además, la mecanosíntesis emerge como una opción eficiente que emplea energía mecánica para inducir reacciones químicas, proporcionando una ruta simple y directa para la generación de nanopartículas. Evaluar y comparar estas alternativas de síntesis es fundamental para determinar el método más adecuado para aplicaciones específicas y maximizar el rendimiento de los óxidos semiconductores en sus diversas aplicaciones, incluyendo el tratamiento y saneamiento del agua.          



METODOLOGÍA

Síntesis Química La síntesis química de nanoestructuras de óxido de zinc (ZnO) se realiza utilizando métodos de precipitación. Este proceso se enfoca en las reacciones químicas precisas y controladas, la selección de precursores y reactivos, y las condiciones experimentales óptimas para lograr nanoestructuras de ZnO con propiedades deseadas. Controlar variables como la temperatura, el pH y el tiempo de reacción es crucial para obtener partículas con alta cristalinidad y uniformidad. Síntesis Verde con Aloe Vera Sintetizar nanopartículas de óxido de zinc (ZnO) de manera eco-amigable utilizando extracto de Aloe vera. Este método se basa en las propiedades reductoras y estabilizadoras del Aloe vera. Preparar el extracto, mezclarlo con precursores de zinc y ajustar las condiciones de reacción para obtener nanopartículas con alta actividad fotocatalítica y antimicrobiana, destacando la sostenibilidad y la reducción del uso de sustancias químicas tóxicas. Mecanosíntesis Explorar la mecanosíntesis de nanopartículas de ZnO utilizando energía mecánica para inducir reacciones químicas. Moler y mezclar precursores sólidos en un molino de bolas, controlar variables críticas como el tiempo de molienda y la relación de materiales, y analizar las propiedades estructurales y morfológicas de las nanopartículas obtenidas, destacando la eficiencia y simplicidad del método. Síntesis Verde con Mango Investigar la síntesis verde de nanopartículas de ZnO utilizando extracto de mango como agente estabilizante. Preparar el extracto de mango, rico en compuestos bioactivos como polifenoles y flavonoides, mezclarlo con precursores específicos para ZnO bajo condiciones controladas, y optimizar las reacciones para obtener nanopartículas con buenas propiedades fotocatalíticas y antimicrobianas.​        


CONCLUSIONES

Realizar pruebas fotocatalíticas de los sistemas obtenidos por cada ruta de síntesis, tanto en estado sólido como en líquido, ha permitido evaluar la eficiencia y efectividad de las nanopartículas de óxido de zinc (ZnO) producidas. Comparar los resultados ha revelado diferencias significativas en el rendimiento fotocatalítico según el método de síntesis empleado. A partir de estas pruebas, se concluye que de los cuatro métodos analizados, el mejor ha sido mecanosíntesis Este análisis destaca la importancia de elegir el método de síntesis adecuado para aplicaciones específicas, subrayando cómo los enfoques verdes pueden competir eficazmente con los métodos tradicionales y cómo la mecanosíntesis ofrece una ruta simple y eficiente para la producción de ZnO.
Sanchez Vasquez Baldo, Universidad Mexiquense del Bicentenario
Asesor: Dr. José Luis Tapia Fabela, Universidad Autónoma del Estado de México

CREACIÓN DE UNA RED NEURONAL CONVOLU-CIONAL PARA LA DETECCIÓN DE PAPAS SANAS A TRAVEZ DE SUS HOJAS


CREACIÓN DE UNA RED NEURONAL CONVOLU-CIONAL PARA LA DETECCIÓN DE PAPAS SANAS A TRAVEZ DE SUS HOJAS

Sanchez Vasquez Baldo, Universidad Mexiquense del Bicentenario. Asesor: Dr. José Luis Tapia Fabela, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

El proyecto aborda la necesidad urgente de mejorar la detección y gestión de enfermedades en cultivos de papa, un alimento básico en muchas partes del mundo. Las enfermedades en los cultivos de papa, como el tizón temprano y el tizón tardío, pueden causar pérdidas significativas en la producción, afectando la seguridad alimentaria y la economía de los agricultores. Para enfrentar este desafío, proponemos el desarrollo de una red neuronal convolucional (CNN) que no solo clasifique el estado de salud de las plantas de papa, sino que también identifique visualmente las áreas afectadas de la planta mediante la técnica de Grad-CAM. Este enfoque no solo proporciona una clasificación precisa, sino que también ofrece una comprensión visual de las características clave que influyen en la decisión del modelo, facilitando la intervención temprana y precisa.



METODOLOGÍA

Recolección de Datos Fuente de Datos: Se utilizarán imágenes del conjunto de datos PlantVillage, que incluye imágenes etiquetadas de plantas de papa en diferentes estados de salud (sanas, con tizón temprano y con tizón tardío). Organización de Datos: Las imágenes se organizarán en carpetas separadas según las tres categorías: 'Potato___Early_blight', 'Potato___Late_blight' y 'Potato___healthy'. 2. Preprocesamiento de Datos Aumento de Datos: Utilización de técnicas de aumento de datos como rotación, zoom, y volteo horizontal para aumentar la diversidad del conjunto de datos y mejorar la robustez del modelo. Normalización: Escalar los valores de los píxeles de las imágenes entre 0 y 1. 3. Diseño y Entrenamiento del Modelo Arquitectura de la CNN: Se diseñará una red neuronal convolucional con varias capas convolucionales, de pooling y densas. Compilación del Modelo: Uso de Adam como optimizador y la función de pérdida de entropía cruzada categórica. Entrenamiento del Modelo: El modelo se entrenará utilizando el conjunto de datos aumentado y normalizado, con una división en conjuntos de entrenamiento y validación. 4. Implementación de Grad-CAM Generación del Mapa de Calor: Se utilizará Grad-CAM para generar mapas de calor que resalten las áreas de la imagen que influenciaron la predicción del modelo. Superposición del Mapa de Calor: Los mapas de calor se superpondrán en las imágenes originales para visualizar las características importantes. 5. Despliegue de la Interfaz de Usuario Gradio: Implementación de una interfaz web usando Gradio que permite a los usuarios cargar imágenes y obtener tanto la clasificación como la visualización de Grad-CAM. Evaluación del Modelo: Prueba y evaluación del modelo con imágenes no vistas para asegurar su precisión y confiabilidad.


CONCLUSIONES

En el desarrollo de este proyecto, hemos implementado una red neuronal convolucional (CNN) para la detección de enfermedades en plantas de papa, logrando no solo identificar la categoría de salud de la planta, sino también visualizando las áreas clave de la imagen que influyeron en la decisión del modelo mediante la técnica de Grad-CAM. Este avance proporciona una herramienta poderosa para los agricultores y especialistas en agricultura, ya que permite una identificación precisa y explicable de las enfermedades, facilitando una intervención más rápida y eficaz. La integración con Gradio ha permitido que el modelo sea accesible a través de una interfaz web intuitiva, simplificando el proceso de carga de imágenes y visualización de resultados. Este enfoque accesible y visual refuerza el uso de la inteligencia artificial en aplicaciones prácticas del mundo real, promoviendo una adopción más amplia de estas tecnologías en el sector agrícola. Quisiera resaltar el apoyo recibido a través del Programa Delfín, el cual ha sido fundamental en la realización de este proyecto. Este programa ha brindado un espacio invaluable para el desarrollo de habilidades y la interacción con otros investigadores, fortaleciendo el conocimiento y las competencias necesarias para llevar a cabo investigaciones significativas. Sin el respaldo y los recursos proporcionados por el Programa Delfín, este proyecto no habría sido posible en su totalidad. Quiero expresar mi más profundo agradecimiento a mi asesor, el Dr. José Luis Fabela Tapia. Su guía, paciencia y conocimiento han sido esenciales para el éxito de este proyecto. Su dedicación y apoyo inquebrantables no solo han enriquecido mi comprensión del tema, sino que también han inspirado mi pasión por la investigación y el desarrollo tecnológico. Gracias, Dr. José Luis Fabela Tapia, por creer en este proyecto y por su compromiso constante con mi formación académica y profesional. Su influencia ha sido una fuente de motivación y aprendizaje inestimable. En conclusión, este proyecto no solo representa un avance en la detección de enfermedades en cultivos, sino que también destaca la importancia del apoyo institucional y la mentoría en el desarrollo de investigaciones innovadoras y aplicadas.
Sandoval Boyso José Alfredo, Instituto Tecnológico Superior de Los Reyes
Asesor: Mtro. Arturo Guerra Franco, Instituto Tecnológico Superior de Los Reyes

DESARROLLO DE SOFTWARE PARA PLANIFICACIóN Y OPTIMIZACIóN DE RUTAS DEL SERVICIO PúBLICO DE COMBIS


DESARROLLO DE SOFTWARE PARA PLANIFICACIóN Y OPTIMIZACIóN DE RUTAS DEL SERVICIO PúBLICO DE COMBIS

Sandoval Boyso José Alfredo, Instituto Tecnológico Superior de Los Reyes. Asesor: Mtro. Arturo Guerra Franco, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

Una empresa de vehículos de transporte necesita optimizar la gestión de sus rutas y vehículos para mejorar la eficiencia operativa y maximizar los ingresos.  A continuación, describo varias de las problemáticas que la empresa requiere solucionar:  Mantenimiento de Correspondencia: Actualmente, la empresa gestiona la información de sus vehículos, rutas, instrucciones y sobretrabajo (veladas) en tablas de Excel. Este método presenta varios desafíos, entre los cuales destaca la dificultad de mantener la correspondencia entre el número de vehículo, su ruta, instrucciones y sobretrabajo. La gestión manual en Excel es propensa a errores y puede llevar a inconsistencias en los datos, lo que complica la planificación y el seguimiento de las operaciones diarias.  Extracción de Información Útil: La empresa necesita extraer información específica sobre algunos vehículos, como el nombre del conductor asignado o el estado de un vehículo en una ruta determinada. Con el formato actual en Excel, esta tarea se vuelve complicada y propensa a errores, ya que requiere búsquedas manuales y verificaciones cruzadas, lo que consume tiempo y recursos.  Interfaz de Permutación de Rutas: Es necesario contar con una interfaz que permita cambiar o permutar rutas entre unidades de manera eficiente. Esto es importante en situaciones en que un vehículo asignado a una ruta de mayor ingreso no está disponible, por ejemplo, debido a mantenimiento o imprevistos. La reasignación manual de rutas a otro vehículo en Excel es engorrosa y puede dar lugar a decisiones subóptimas que afectan los ingresos y la eficiencia operativa. 



METODOLOGÍA

 Para poder solucionar todos estos desafíos propuestos por la empresa, he implementado una metodología, esta metodología está diseñada para proporcionar una guía estructurada para el desarrollo e implementación del sistema, asegurando que todos los aspectos del problema sean abordados de manera sistemática y efectiva. La metodología fue abordada por pasos de la siguiente manera:    1. Análisis de Requerimientos:     Identificar y documentar todos los requerimientos funcionales y no funcionales del sistema.     Reunir información sobre las necesidades específicas de la empresa en cuanto a la gestión de vehículos, rutas e instrucciones.     Entrevistar a los usuarios clave y revisar los procesos actuales para comprender mejor los problemas y requerimientos.   2. Diseño de la Base de Datos:  Crear un modelo de datos que refleje las entidades y relaciones necesarias para gestionar la información de vehículos, conductores, rutas e instrucciones.  Definir las tablas, campos y relaciones en SQL Server para asegurar la integridad y consistencia de los datos.  Implementar restricciones y claves primarias/foráneas para garantizar la validez de los datos.   3.Desarrollo de la Aplicación:  El sistema fue desarrollado en el lenguaje de programación C# con la extensión Windows forms para desarrollar una interfaz de usuario intuitiva que permita a los administradores gestionar vehículos, rutas e instrucciones de manera eficiente.  Fueron implementadas funcionalidades para agregar, actualizar, eliminar y consultar datos en la base de datos.  Para la inserción de datos a la base de datos fue necesario crear un algoritmo que escribiera la consulta, pues eran miles de datos, digamos que este algoritmo facilitó demasiado este proceso.   Fueron aplicados mecanismos para manejar errores y excepciones, asegurando que el sistema sea robusto y confiable.  4. Pruebas y Validaciones:  Se realizaron pruebas unitarias y de integración para asegurar que cada componente del sistema funcione correctamente y de esta manera detectar errores de ejecución o sintaxis.  Fueron llevado a cabo pruebas de usuario con personal de la empresa para validar que el sistema cumpla con los requerimientos y sea fácil de usar.  Ajustar y refinar el sistema basado en la retroalimentación obtenida durante las pruebas con el personal. 5.Implementación y Capacitación  Desplegar el sistema en el entorno de producción de la empresa.  Capacitar a los usuarios en el uso del sistema, proporcionando manuales y sesiones de entrenamiento.   Ofrecer soporte técnico durante el periodo de adaptación para resolver cualquier problema o duda que pueda surgir. 


CONCLUSIONES

Este proceso fue increíblemente enriquecedor para mi desarrollo tanto personal como profesional, pues me di cuenta de aspectos de las bases de datos ya a nivel de empresa y es algo de lo que estoy orgulloso de compartir y presentar.  Los resultados que obtuve al terminar el proyecto fueron las necesidades que el usuario necesitaba cubrir por lo cual considero que el desarrollo del software cumplió correctamente con su objetivo.  Los resultados que espero que el usuario obtenga una vez que el software haya sido instalado es la satisfacción de un programa intuitivo y fácil de manipular, igualmente el proyecto continuará en desarrollo para corrección de bugs y futuras actualizaciones. Así estoy satisfecho con este trabajo, pues cómo manejaban anteriormente las rutas de los vehículos, aunque era efectiva, tenía mucho el factor humano, lo cual desencadenaba errores e inconsistencias en lo que querían hacer, lo que espero que con el desarrollo e implementación de este software disminuya en gran medida.  En general estoy satisfecho con el resultado, podría decir que es el trabajo más elaborado en mi vida como estudiante, espero que en un futuro esto me dé mejores oportunidades laborales, pues esto solo es la base para mi vida como profesional y a partir de aquí sólo construiré el pilar de mi futuro. 
Sandoval Llamas Grecia Iberia, Universidad de Guadalajara
Asesor: Dra. Lourdes Adriana Pérez Carrillo, Universidad de Guadalajara

SíNTESIS DE POLíMERO NúCLEO CORAZA


SíNTESIS DE POLíMERO NúCLEO CORAZA

Garcia Rolon Carlos Miguel, Universidad de Guadalajara. Sandoval Llamas Grecia Iberia, Universidad de Guadalajara. Asesor: Dra. Lourdes Adriana Pérez Carrillo, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

A traves de los años se ha visto un aumento en el interes para la obtencion de nuevos materiales, esto con el fin de sastifacer las necesidades de la tecnologia moderna, mediante la obtencion de nuevos materiales con caracteristica y propiedades mejores que las de los materiales existentes. En la presente investigacion esta dirigida en la generacion de nuevos materiales, mediante tecnicas de polimerizacion en emulsion y microemulsion para su uso dentro del campo medico. Los materiales resultantes de la polimerizacion poseen distintas caracteristicas, permitiendo conocer a que tipo de aplicaciones pueden ser afines,  esto mediante  la relacion de polimero a tensioactivo.



METODOLOGÍA

La presente investigacion se llevo de manera presencial, utilizando sintesis de partículas de poli(metacrilato de metilo) de escala nanométrica y distribución angosta, mediante un proceso semi-continuo de polimerización en fase heterogénea bajo condiciones ávidas de monómero. A continuacion se enlistan las herramientas utilizadas a lo largo de la investigación: ONU 17 Objetivos Desarrollo Sustentables: Se realizó la Conferencia del Clima en París (COP21) en diciembre de 2015, la ONU aprobó la Agenda 2030 sobre el Desarrollo Sostenible primer acuerdo mundial sobre el cambio climático, universal y jurídicamente el objetivo principal es conseguir, a través de distintas fórmulas, que: La temperatura del planeta NO supere en más de 1,5ºC  desde la Era Preindustrial. Resultando en 17 Objetivos Desarrollo sustentables, haciendo énfasis las líneas de investigación en: Objetivo #9 Industria, Innovacion e Infraestructura: con lo que pretende fomentar la innovación  Polimerizacion en emulsion: El proceso de polimerización en emulsión es una reacción heterogénea en la cual un monómero o monómero en solución es emulsificado en un medio acuoso mediante la adición de un sistema emulsificante y polimerizado con un iniciador de radicales libres.  Pruebas en DLS: La técnica de dispersión dinámica de la luz (DLS) es una tecnica con caracteristica no invasivas, que permite medir el tamaño y la distribucion de tamaño en las particulas, mide el movimiento ópticamente registrando la señal de luz dispersa en un ángulo fijo. Las partículas se iluminan con una fuente de luz monocromática y coherente (láser) y se registra la luz dispersada por las partículas. Gravimetria: Esta tecnica nos permite conocer el porcentaje de conversion en nuestro proceso de polimerizacion, determinando la masa o concentracion del polimero, midiendo el cambio en la masa en funcion del tiempo haciendo uso de un horno con temperatura controlada.  


CONCLUSIONES

A lo largo del Verano del Programa Delfin en su edición 2024, se llevó a cabo a través del Centro Universitario de Ciencias Exactas e Ingenieria (CUCEI), mediante un trabajo de investigación la recabación de datos e información relevante, con el uso de distintas tecnicas de cuantificacion en el proceso de polimerizacion, por lo que nos permitio obtener informacion en la cual se destaca la distribucion del tamaño de las particulas, asi como el comportamiento de la reaccion al cambiar las relaciones de polimero y tensioactivo, impactando en el tiempo de reaccion asi como en las caracteristicas del polimero. Por lo tanto es de suma importancia el moniterio constante del polimero, para evaluar su estabilidad, asi como la realizacion de pruebas mecanicas, para una evaluacion mas completa.
Sandoval Martinez Karen Joselin, Instituto Tecnológico Superior de Irapuato
Asesor: Dra. Miroslava Cano Lara, Instituto Tecnológico Superior de Irapuato

ESTIMACIóN DE PROPIEDADES TéRMICAS EN COMPUESTOS POLIMéRICOS CON REFUERZOS ORGáNICOS


ESTIMACIóN DE PROPIEDADES TéRMICAS EN COMPUESTOS POLIMéRICOS CON REFUERZOS ORGáNICOS

Sandoval Martinez Karen Joselin, Instituto Tecnológico Superior de Irapuato. Asesor: Dra. Miroslava Cano Lara, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

En México, la generación de RSU (Residuos Sólidos Urbanos) alcanzo 53,1 millones de toneladas en 2015, el cual, por habitante promedio produce 1.2 kilogramos diario. Los residuos orgánicos que se generan en México, de acuerdo a la Dirección General de Equipamiento e Infraestructura en Zonas Urbano-Marginadas de Sedesol (2013), corresponden aproximadamente un 52.4%.   Siendo importante en buscar oportunidad de aprovechar estos residuos para disminuir el impacto, destacándose que los residuos de semillas orgánicas que representan una parte del porcentaje total y que ha contribuido en la contaminación, atracción de plagas, generación de gases de efecto invernadero, entre otros. Sin embargo, estos residuos se busca el aprovechamiento para practicas sostenibles en diversas áreas introduciéndose en los materiales compuestos destacándose en diferentes propiedades debido a su composición y uso. Logrando un mejor resultado que los materiales convencionales, por ejemplo; en la seguridad y prevención contra al fuego y su propagación, siendo utilizadas en las industrias, fabricación de aviones y construcciones de estructuras o cubiertas.  



METODOLOGÍA

Se elaboraron moldes cilíndricos y probetas de prueba para procesar el control de cantidades de resina poliuretano de las soluciones de Poliol e Isocianato, agregando a la matriz pulverizado de semillas orgánicas y tiempo de mezclado.   Primer estudio fue en el análisis de la reacción de temperatura al momento de expandirse la resina de espuma de poliuretano, para considerar segura en el momento de encapsulación de los sensores de temperatura. Estableciendo que el tiempo inicial fue temperatura ambiente de 24 °C elevándose hasta el pico y reducir su temperatura con una duración de 12 minutos, con la finalidad de establecer una técnica ante la realización de las probetas deseadas para someterse de la experimentación de la flamabilidad.   Segundo estudio las probetas se sometieron a pruebas térmicas que se hará comparaciones debido al tiempo y solución. Colocando los sensores en un lugar específico que por medio de una computadora registrará los datos de temperatura y una flama con aproximadamente 200 °C. Tomando de referencia la resina de espuma de poliuretano que reacciona de manera al instante al estar en contacto levemente con la llama, consumiéndose rápidamente alcanzando 35°C aproximadamente en segundos, mientras que otras probetas conforme se agregaba diferente compuesto soportaba la temperatura de la llama almacenando en la parte inferior de la probeta y que de manera lenta subía hasta la parte superior donde los sensores recibían una señal, estableciendo diferentes datos con respecto al tiempo que soportó cada probeta que se analizó, dando un notorio mejoramiento en la resistencia de flama.  


CONCLUSIONES

En el almacenamiento de los datos de temperatura por medio de los sensores ante las pruebas de flama, presentan una variación debido a la ubicación (superior y central) y transmisión de la señal, con respecto al tiempo de duración que alcanza su punto máximo (pico) de expansión de un rango de 36 °C a 34 °C hasta descenso que es a temperatura ambiente de 24°C. Comparándose los resultados para registro de parámetros de tiempo, solución, mezclado, volumen, dimensiones, reacción, entre otros factores.   Mejorándose en la captura de resultados al momento de procesarse en la prueba de flama, debido que deben considerarse y registrarse el tiempo (pico y descenso), solución y temperatura de cada probeta que se realizó el estudio para su comparación. Con la finalidad, en lograr una apertura de una solución eficiente en el uso del compuesto trabajado para aplicaciones en protecciones térmicas ante dispositivos, maquinado y zonas peligrosas, también contribuyendo a resolver el problema de residuos de material que se procesa en el bajío.
Sandoval Morfín Araceli Guadalupe, Instituto Tecnológico Superior de Coalcomán
Asesor: Dra. Grace Erandy Báez Hernández, Instituto Tecnológico Superior de Guasave

PERCEPCIóN DEL CONSUMO DE ESTEVIA EN COALCOMáN, MICHOACáN.


PERCEPCIóN DEL CONSUMO DE ESTEVIA EN COALCOMáN, MICHOACáN.

Gómez Guerrero Melani Alondra, Universidad de Guadalajara. Sandoval Morfín Araceli Guadalupe, Instituto Tecnológico Superior de Coalcomán. Asesor: Dra. Grace Erandy Báez Hernández, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

Los alimentos dulces han sido muy importantes en la alimentación del ser humano ya que estimulan el sentido del gusto causando una sensación agradable al consumir los alimentos. A finales del siglo XIX fueron descubiertos diversos edulcorantes (compuestos naturales o sintéticos de sabor dulce). La estevia rebaudiana es una planta originaria del sudeste de Paraguay, miembro de la familia de las asteráceas, conocida como hoja dulce. Es un arbusto perene que puede alcanzar de 65 a 80 cm, pero que cultivada a campo abierto puede llegar hasta 1 metro de altura. Sus hojas lanceoladas miden aproximadamente 5 cm de longitud y 2 cm de ancho y se disponen alternadas, enfrentada de dos en dos. Pueden utilizarse para la producción comercial por periodo de 5 o mas años, dando varias cosechas anuales. (Madan, S & Singh, 2016). Con base a esto, la investigación tiene como objetivo, conocer la producción de Estevia para ser una alternativa de cultivo sostenible a los productores agrícolas de Guasave para el desarrollo de productos, mismos que se identificaran  con la percepción del consumo de estevia rebaudiana en la (Ciudad de Coalcomán y estado de  Michoacán). Este trabajo contribuye a los Objetivos de desarrollo Sostenible ODS de la Agenda 2030 de las Naciones Unidas, específicamente en ODS número 2 Hambre cero , impactando las metas de generar una alternativa sostenible de cultivo para las tierras, y lograr la seguridad alimentaria y la mejora de la nutrición promoviendo a agricultura sostenible.  En el ODS 3 Salud y Bienestar impacta en la meta de fortalecimiento de la prevención y tratamientos de abuso de sustancias adictivas, específicamente el azúcar. Contribuyendo al bienestar social y mejorando la calidad de vida.



METODOLOGÍA

La metodología se estructuro en dos fases, La primera fase fue una investigación documental para conocer y estudiar las condiciones del cultivo, producción así como las condiciones del cultivo, para el siguiente ciclo.  En la segunda fase se genero una encuesta para conocer la percepción de los población con respecto a conocimiento y productos de valor agregados de estevia son parte del mercado. La investigación documental fue una investigación básica, descriptiva de las características de la planta y las condiciones que se deben de considerar para la producción de la planta y el procesamiento del mismo. La parte de percepción se realizo una investigación descriptiva a través de una encuesta que fue tipo cuestionario de 15 preguntas, unas dicotómicas, preguntas abiertas y cerradas.  Que se realizo en la ciudad de Guasave, Se utilizo un formulario Google Forms y se utilizó un muestreo simple aleatorio, con un nivel de confianza de 90% y un error de 8 solicitando desarrollar 106 encuestas. Debido a las condiciones de estudio y los tiempos de la estancia solo se contestaron 100 encuestas.   RESULTADOS: La  encuesta  se realizo en la ciudad de Coalcomán  seleccionando de manera  aleatoria a las personas que contestaran el instrumento.  De las 100 encuestas se tiene que (50.1%) son mujeres y (49.9) son hombres. En promedio tiene un rango de edad de (de 18-25 años75, de 26-35 años 12.5%, de 36-45 años 6.5% y de 46.55 años 6.5% )  EL 93.8 % Conoce la planta llamada Stevia rebaudiana y productos  solo el 6.7% no conoce la planta. El 37.5% conoció la estevia y sus productos por recomendación médica, el 25 % redes sociales y televisión 25%y 12.5% por otros medios. EL 87.5% Ha consumido estevia como endulzante y el 12.5% lo ingiere en Café. La presentación con mayor frecuencia es en polvo con un 87.5%, liquida un 6.3%, hojas molidas 6.3% y 6 a 12% la ingiere en bebidas y postres.  El 87.5% consume de manera frecuente la presentación de polvo de estevia mientras que el 6.3% la consume de manera líquida.  Indicando que el  100 % la ingiere 1 vez al día. La marca de estevia que tiene mayor consumo es la marca STEVIA  ya que es fácil de encontrar.  Y con un precio a la venta de $ 75 pesos , splenda $52 pesos,  ( las marcas con mayor frecuencia son STEVIA con un precio de $75 y la SPLENDA con un precio de $52 son las más consumidas en su versión polvo, debido a que se encuentran en la mayoría de las tiendas de abarrote facilitando así su compra y mayor consumo) El 81.3% considera el sabor dulce de estevia en comparación con el azúcar, mientras que el 6.3% le es desagradable y el 12,5% no percibe el cambio de sabor.  El 87.5% no presenta ningún efecto al consumir estevia solamente el 6.3% presenta alergias o dolor de estomago. El 93.3% de la población atribuye beneficios a la salud, como es control de peso, reducción de presión arterial, controlar la glucosa.  Y El 18.8% consulta médica (medicina interna, endocrinología, consulta bariátrica y el 12.5 %  con análisis de laboratorio. El 37.5% de la población compra la estevia en supermercados, el 12.5% en tiendas en línea y el 31.3% lo encuentra en tiendas de esquinas ( Oxxo, extras, abarrotes, etc.)


CONCLUSIONES

Durante la investigación se identificó y analizo un cultivo sustentable para los productores de Guasave Sinaloa, La estevia, que va desde la producción y transformación de nuevos productos, desarrollando valor agregado a la actividad primaria. Con la encuesta se  conoce la percepción del consumo de estevia y   las necesidades claves del mercado para la presentación de los productos, que son desde hoja, liquida y polvo de estevia para el consumo local, regional y nacional. Con la estancia en el verano, el equipo de investigación se dedicó a un estudio exhaustivo de la Stevia, un edulcorante natural que ha ganado considerable popularidad en los últimos años. Los resultados obtenidos revelan un potencial significativo de esta planta en diversos campos, desde la alimentación hasta la medicina. Donde se logró adquirir arduos conocimientos, así fortaleciendo la formación académica de los alumnos dando herramientas para el futuro, este verano de investigación ha sentado las bases para futuras investigaciones sobre la Stevia. Los resultados obtenidos son alentadores y sugieren que la Stevia tiene el potencial de convertirse en un ingrediente clave en la producción de alimentos y medicamentos más saludables y sostenibles.  
Sandoval Murillo Kevin Abel, Instituto Tecnológico de Tepic
Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia

AUTOMATIZACIóN DE LA DISPENSACIóN DE LíQUIDOS EN LA INDUSTRIA FARMACéUTICA: DISEñO Y EVALUACIóN DE UN NUEVO PROTOTIPO


AUTOMATIZACIóN DE LA DISPENSACIóN DE LíQUIDOS EN LA INDUSTRIA FARMACéUTICA: DISEñO Y EVALUACIóN DE UN NUEVO PROTOTIPO

González Franchini Diana Valeria, Instituto Tecnológico de Tepic. González Pérez Carlos Othoniel, Instituto Tecnológico de Tepic. Sandoval Murillo Kevin Abel, Instituto Tecnológico de Tepic. Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

En la industria farmacéutica, la precisión en la dispensación de líquidos es importante para garantizar la calidad y seguridad de los productos. Sin embargo, los métodos tradicionales de dispensación manual pueden presentar algunas limitaciones significativas, tales como la variabilidad en la cantidad de líquido dispensado, la posibilidad de errores humanos y la contaminación cruzada.    Además, la creciente demanda de medicamentos y productos farmacéuticos exige procesos de producción más rápidos y eficientes. La capacidad de dispensar líquidos con alta precisión y consistencia es de vital importancia para cumplir con los estándares.    El problema radica en la necesidad de un sistema de dispensación de líquidos que no solo garantice una dosis precisa y consistente, sino que también sea capaz de integrarse fácilmente en las líneas de producción, de tal forma que se mejore la eficiencia operativa y se reduzca el riesgo de errores. La falta de automatización adecuada en estos procesos puede llevar a desperdicios de materia prima, retrasos en la producción y por lo tanto aumentos en los costos operativos y de producción.



METODOLOGÍA

Se diseñó y construyó un dispensador de líquidos automático con el objetivo de mejorar la precisión y eficiencia en la dispensación de líquidos, aumentando la calidad, esta nueva visión de la calidad es una estrategia que genera confianza en clientes, industria y organismos reguladores, respecto a la calidad de los productos farmacéuticos. El primer paso en el desarrollo fue el diseño del circuito electrónico. Se utilizó un microcontrolador Arduino como unidad de control central, encargado de coordinar la operación de todos los componentes del sistema.  Se integraron sensores de nivel para monitorear el estado del líquido. El circuito también incluía una bomba hidráulica, seleccionada por su capacidad para proporcionar un flujo constante y preciso de líquido, así como tubos de plástico que regulan el paso del líquido. Una vez finalizado el diseño del circuito, se procedió a la construcción de la estructura física del dispensador. Posteriormente, se integraron los componentes electrónicos en la estructura física. El siguiente paso fue la programación del software que controlaría el dispensador. Una vez ensamblado y programado el prototipo, se realizaron pruebas iniciales para verificar el funcionamiento de cada componente y la integración del sistema en su conjunto.  


CONCLUSIONES

La implementación de sistemas automatizados en la industria farmacéutica es crucial para mejorar la precisión, eficiencia y seguridad en los procesos de producción. Estos sistemas permiten una dosificación exacta, reducen la intervención humana y minimizan los errores, esto nos beneficia obteniendo una mayor calidad de los productos farmacéuticos.  El desarrollo del prototipo de un dispensador de líquidos automático ha demostrado que es posible alcanzar estos objetivos. A través del diseño del circuito electrónico, la construcción de una estructura física robusta y la integración de componentes electrónicos, se logró un sistema que cumple con los requerimientos de calidad. Las pruebas iniciales y los ajustes posteriores confirmaron que el prototipo funciona de manera óptima.   Enlace del video funcional: https://youtu.be/XNvL07pQG9o?si=HFt2BjUBKK9liEfz Enlace del documento del prototipo final: https://docs.google.com/document/d/1hKF2G_L0UWdH1AyVmR68DeS0offFUjnp/edit
Sandoval Rendon Alexis, Instituto Tecnológico de Iztapalapa
Asesor: Dr. Juan David Correa Granada, Universidad Autónoma de Manizales

PREDICCIóN DEL NúMERO DE SEMESTRES QUE LE TOMA A UN ALUMNO TERMINAR LA CARRERA


PREDICCIóN DEL NúMERO DE SEMESTRES QUE LE TOMA A UN ALUMNO TERMINAR LA CARRERA

Sandoval Rendon Alexis, Instituto Tecnológico de Iztapalapa. Asesor: Dr. Juan David Correa Granada, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Este proyecto se centra en la predicción de la duración de los semestres que los alumnos tardan en completar su carrera en el Instituto Tecnológico Nacional de México, campus de Iztapalapa. Utilizamos un archivo CSV con datos de los alumnos, que fue exportado a SQL Server para realizar el filtrado necesario. Posteriormente, se empleó el software Orange Data Mining para aplicar diferentes modelos de predicción



METODOLOGÍA

La metodología que se empleó en el análisis y predicción del número de semestres que le toma a un alumno terminar la carrera en el Instituto Tecnológico Nacional de México, campus Iztapalapa, puede detallarse en las siguientes fases: Preparación y Filtrado de Datos Recolección de Datos Iniciales Se utilizó un archivo CSV que contenía información básica y ordinaria sobre los alumnos. Las columnas originales eran: - No control - Carrera - CURP - Fecha de nacimiento - Sexo - Período de ingreso - Promedio - Créditos aprobados - Créditos cursados - Período de curso de materia - Clave de materia - Calificación de materia - Oportunidad - Nombre de materia - Créditos de materia - Horas de materia teórica - Horas de materia práctica Filtrado y Transformación de Datos Se realizaron consultas para filtrar y transformar los datos originales en un formato adecuado para el análisis. Las columnas adicionales generadas fueron: - CURP: Identificador único para cada alumno. - Semestre: Información del año y semestre que cursaba. - Promedio_semestre: Promedio de calificaciones por semestre. - Créditos_cursados: Número de créditos cursados por semestre. - Materias_reprobadas: Número de materias reprobadas por semestre. - Total_materias_cursadas: Número total de materias cursadas por semestre. - Edad: Edad del alumno en cada semestre. - Promedio_acumulado: Promedio acumulado de todos los semestres cursados hasta el momento. - Acumulado_cursadas: Suma de materias cursadas a lo largo de los semestres. - Acumulado_reprobadas: Suma de materias reprobadas a lo largo de los semestres. - Créditos_aprobados_acumulados: Suma de créditos aprobados a lo largo de los semestres. - Créditos_reprobados_acumulados: Suma de créditos reprobados a lo largo de los semestres. - N_semestre: Número del semestre actual. - Semestre_final: Número de semestres necesarios para terminar la carrera. Aplicación de Modelos de Aprendizaje Automático Se utilizaron diversos modelos para predecir la duración de los semestres necesarios para terminar la carrera:  Regresión Lineal - Objetivo: Predecir la duración en semestres mediante la minimización del error cuadrático medio (MSE). - Evaluación: Gráficos de dispersión y residuos.  Regresión Logística -Objetivo: Clasificar a los alumnos en categorías binomiales (completará la carrera en el tiempo previsto o no). - Evaluación: Precisión, recall, F1-score, matriz de confusión, curva ROC y probabilidades estimadas. Árbol de Decisión - Objetivo: Dividir los datos en subconjuntos basados en la variable predictora que mejor separa las clases. - Evaluación: Precisión, recall y visualización mediante gráficos interactivos del árbol.  Random Forest - Objetivo: Construir múltiples árboles de decisión y combinar sus predicciones para mayor precisión y estabilidad. - Evaluación: Métricas de rendimiento y visualización de la importancia de cada variable predictora. K-Nearest Neighbors (KNN) - Objetivo: Clasificar instancias basándose en los K vecinos más cercanos. - Evaluación: Precisión y recall.  AdaBoost - Objetivo: Combinar varios modelos débiles para crear un modelo fuerte mediante el ajuste ponderado de cada modelo débil. - Evaluación: Precisión y robustez del modelo. Evaluación de Modelos Para cada modelo se calcularon las siguientes métricas de rendimiento: - Error Cuadrático Medio (MSE): Magnitud promedio de los errores al cuadrado. - Error Cuadrático Medio de la Raíz (RMSE): Raíz cuadrada del MSE. - Error Absoluto Medio (MAE): Error absoluto promedio. - Mean Absolute Percentage Error (MAPE): Error promedio en porcentaje. Selección del Modelo Óptimo Comparando las métricas de los diferentes modelos, se seleccionó el modelo con el menor margen de error y el mejor desempeño en las métricas evaluadas para realizar las predicciones finales. La metodología utilizada incluye la preparación de datos, la aplicación de varios modelos de aprendizaje automático, y la evaluación detallada para seleccionar el modelo más preciso en la predicción de la duración de la carrera de los alumnos. Esta metodología asegura una evaluación completa y la selección de un modelo confiable para predecir los semestres necesarios para la finalización de la carrera.


CONCLUSIONES

Después de evaluar todos los modelos, se compararon los errores entre ellos para determinar cuál ofrece las mejores predicciones. El modelo con menor margen de error y mejor desempeño en las métricas evaluadas fue seleccionado para realizar las predicciones finales. Este reporte ofrece una visión general del proceso, los métodos utilizados, y cómo se evaluaron los modelos para seleccionar el más preciso en la predicción de la duración de la carrera de los alumnos.
Santamaria Alvarez Thomas, Universidad Nacional Abierta y a Distancia
Asesor: Dr. Leonardo Flores Barrios, Universidad Veracruzana

SEGURIDAD, VULNERABILIDADES Y AMENAZAS EN VIDEO JUEGOS EN LíNEA


SEGURIDAD, VULNERABILIDADES Y AMENAZAS EN VIDEO JUEGOS EN LíNEA

Santamaria Alvarez Thomas, Universidad Nacional Abierta y a Distancia. Asesor: Dr. Leonardo Flores Barrios, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

Dado que la industria está creciendo exponencialmente y la cantidad de usuarios que participan en los videojuegos en línea es enorme, estos guardan mucha información personal y financiera, lo que los convierte en un objetivo para los piratas informáticos. En estos entornos virtuales existen diversas amenazas y vulnerabilidades, como malware, phishing, robo de datos, fraude financiero y robo de identidad. Los ciberataques a menudo comprometen información confidencial de los usuarios, provocando pérdidas financieras y graves daños a la reputación de los desarrolladores. Desarrollar un plan de seguridad integral que aborde estas amenazas y vulnerabilidades protegerá la información personal y financiera de los usuarios y promoverá una cultura de ciberseguridad proactiva entre desarrolladores, jugadores y usuarios.



METODOLOGÍA

Este estudio empleará un enfoque de métodos mixtos, combinando métodos cualitativos y cuantitativos para obtener una comprensión integral del fenómeno de la investigación. Los métodos cualitativos explorarán las experiencias y percepciones de los usuarios y desarrolladores de videojuegos online respecto a las amenazas y vulnerabilidades de la ciberseguridad, mientras que los métodos cuantitativos medirán la frecuencia y el impacto de los ciberataques en estos entornos.   Los métodos mixtos le permiten aprovechar los puntos fuertes de ambos métodos, proporcionando una visión completa del problema describiendo las diferentes amenazas que afectan a los videojuegos online, como malware, phishing y ataques DDoS, documentando su frecuencia, naturaleza e impacto en la seguridad de los usuarios y de las plataformas.   Se identificarán y describirán los perfiles de atacantes y víctimas, utilizando información sobre las técnicas empleadas por los ciberdelincuentes. La investigación exploratoria permitirá descubrir y analizar nuevas formas de ciber amenazas que pueden no haber sido identificadas previamente, generando hipótesis y modelos teóricos para explicar las relaciones entre diferentes variables en el contexto de la ciberseguridad de los videojuegos y con estos hallazgos se propondrán nuevas estrategias y medidas de seguridad para mejorar la seguridad de los videojuegos online.   Este estudio de caso trae consigo una investigación de un fenómeno específico del mundo real, centrándose en un incidente de ciberataque específico para proporcionar una visión de las amenazas y vulnerabilidades. Se seleccionarán casos representativos de ciberataques a videojuegos online para evaluar la relevancia de los ataques y su impacto en usuarios, empresas y la disponibilidad de datos sobre el incidente. Ejemplos incluyen ataques a plataformas como PlayStation Network, Xbox Live y juegos como Fortnite, Apex Legends, y Call of Duty Black Ops II (Arroyo-Guardeño, 2020; Santamaría, 2024).   La recopilación de datos se llevará a cabo a través de múltiples fuentes de Internet y foros de la comunidad de jugadores para garantizar una perspectiva amplia y diversa intentando realizar entrevistas con los jugadores y desarrolladores afectados para obtener detalles sobre sus experiencias y percepciones sobre la amenaza y la vulnerabilidad.   Se utilizarán tecnicas como el alpha de conbrach y el uso de un SW estadistico como SPSS, Excel u otro, para los datos recopilados y el uso de la estadística como el muestreo. 


CONCLUSIONES

A través de la investigación realizada, pudimos construir un programa de seguridad integral diseñado para proteger a los usuarios y empresas desarrolladoras de videojuegos online de posibles ciberataques abordando una variedad de amenazas y vulnerabilidades, a través de un marco para la ciberseguridad en el campo. Sin embargo, es necesario continuar investigando para obtener más resultados y experiencia que nos permitan identificar nuevas formas de amenazas y vulnerabilidades, mejorando continuamente las estrategias de protección y resiliencia en el entorno digital de los videojuegos online.
Santana Garcia Viviana Estefania, Universidad de Guadalajara
Asesor: Dr. Diego Alfredo Tlapa Mendoza, Universidad Autónoma de Baja California

APLICACIóN DE INTELIGENCIA ARTIFICIAL Y LEAN HEALTHCARE EN LABORATORIOS CLíNICOS PúBLICOS Y CALIDAD 4.0 PARA LA MEJORA DE PROCESOS DE EMPAQUE EN LA INDUSTRIA VINíCOLA


APLICACIóN DE INTELIGENCIA ARTIFICIAL Y LEAN HEALTHCARE EN LABORATORIOS CLíNICOS PúBLICOS Y CALIDAD 4.0 PARA LA MEJORA DE PROCESOS DE EMPAQUE EN LA INDUSTRIA VINíCOLA

Santana Garcia Viviana Estefania, Universidad de Guadalajara. Asesor: Dr. Diego Alfredo Tlapa Mendoza, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

A pesar del avance significativo de la tecnología en los últimos años, sectores como el de la salud y la industria vinícola aún enfrentan desafíos críticos que impactan su eficiencia y calidad. La implementación de simulación de procesos y deep learning en estas áreas, poco exploradas en México, tiene el potencial de revolucionar la manera en que se gestionan los desafíos que presentan estos sectores, proporcionando soluciones tecnológicas avanzadas que optimizan los procesos y mejoran significativamente la calidad y la sostenibilidad.   En los laboratorios clínicos públicos, uno de los principales retos es la inspección de muestras de sangre, la cual está sujeta a errores humanos que pueden generar retoma de muestras, retrasos en el análisis y riesgos de contaminación. La falta de tecnología adecuada y la ausencia de guías sobre posibles errores y acciones de mejora agravan estos problemas. La necesidad de incrementar la inspección de muestras mediante tecnología avanzada, generar un análisis de riesgos y contar con información precisa sobre el nivel de inspección actual son áreas críticas que demandan soluciones innovadoras. Además, se requiere realizar un análisis detallado de la cadena de valor y desarrollar simulaciones del proceso actual para implementar mejoras en el flujo de pacientes y materiales.   En la industria vinícola, la calidad del empaque es fundamental para proteger el producto y asegurar la satisfacción del cliente. Sin embargo, el proceso de empaque de vino enfrenta distintos problemas que pueden llevar a cuestiones de calidad, como errores de etiquetado y la falta de una botella en las cajas enviadas. Además, el empaque del vino es uno de los mayores desafíos de sostenibilidad en el sector, ya que involucra diversos niveles, desde los materiales y formatos utilizados hasta la logística de comercialización y las percepciones y actitudes de los consumidores. La aplicación de inteligencia artificial (IA) y herramientas avanzadas de análisis de datos tiene el potencial de mejorar significativamente la calidad, flujo de trabajo y eficiencia de los procesos de manufactura. Sin embargo, la información sobre el uso de la ciencia de datos en los procesos industriales en México es escasa, lo que plantea un desafío adicional para la implementación efectiva de estas tecnologías.   Ambos proyectos requieren un enfoque integral que combine el desarrollo de tecnologías avanzadas, como modelos de deep learning (DL) para la inspección de muestras de sangre y la mejora de procesos de empaque en la industria vinícola, con la implementación de metodologías de mejora continua como lean healthcare y Calidad 4.0. La colaboración entre instituciones de educación superior y centros de investigación fue esencial para abordar estos desafíos, generando soluciones que no solo mejoren la precisión y eficiencia de los procesos, sino que también promuevan la sostenibilidad y satisfacción del cliente



METODOLOGÍA

Determinar técnicas y métodos de inspección apoyados por tecnologías de Industria 4.0, aplicables tanto en laboratorios clínicos como en la industria vinícola. Primeramente, se hizo la revisión de literatura científica en bases de datos de la universidad para tener información concreta sobre proyectos ya concluidos que pudieran ayudar con los parámetros de este proyecto. Se siguió con el etiquetado y balanceo de imágenes para entrenamiento de los modelos de Deep Learning para el sector salud como el sector vinícola (imágenes tomadas tanto en el entorno de la vinícola directamente como entornos creados en un área de trabajo de la universidad). Enseguida se evaluaron los modelos de Deep Learning desarrollados y se definió el equipo necesario para el proceso de inspección en ambos entornos. Pasamos a analizar los resultados del modelo, haciendo diferentes pruebas con los parámetros que se establecieron, indicando valores de precisión por encima del 95%. Después probamos y validamos el modelo de análisis para estimar los impactos económicos, ambientales y sociales, utilizando una base de datos exhaustiva. Siguiendo con el proyecto, programamos un módulo de Raspberry Pi 5 (con modelos precargados y cámaras) para la detección de objetos, esto gracias a las imágenes que previamente se habían etiquetado y balanceado. Un punto importante fue la creación de carcasas de montaje mediante diseño por computadora e impresión 3D para módulos de Raspberry Pi 5 y cámaras. Evaluamos la simulación de procesos del estado actual mediante software para el análisis de flujo de la cadena de suministro y finalmente evaluamos la simulación de procesos mediante los distintos tipos de distribución, logrando una comparativa de resultados entre escenarios propuestos. Finalmente, y como complemento a todo el proyecto se impartió un curso sobre Six Sigma y tecnologías digitales para mejora de procesos, además del aprendizaje del uso de herramientas estadísticas para análisis de datos.  


CONCLUSIONES

Con el proyecto desarrollado durante nuestra estancia pudimos entender los problemas que pueden surgir en una línea de producción, en este caso específicamente en el proceso de embotellado en una vinícola. Después de identificar la problemática, fuimos capaces de entrenar un modelo Inteligencia Artificial a partir de imágenes, para que se detectara los errores de forma automática, y así ayudar a disminuir las incidencias. Todo esto nos permitió adquirir nuevos conocimientos en el área de calidad y productividad, así como de programación en Python y el uso de herramientas estadísticas para análisis de datos. A su vez fuimos capaces de aprender a manejar una impresora 3D, con la que se hicieron diseños para un Raspberry Pi 5, que contaba con el modelo previamente entrenado. Este proyecto no ha finalizado y nuestros asesores seguirán trabajando en ello, por lo que son resultados parciales y no un producto final.    
Santiago Duran Georgeshwalt David, Universidad Simón Bolivar
Asesor: Mg. Diego Andrés Restrepo Restrepo Leal, Universidad Cooperativa de Colombia

EVOLUCIóN Y FACTORES DETERMINANTES DE LAS CALIFICACIONES EN IMDB DE "JUEGO DE TRONOS" POR TEMPORADA.


EVOLUCIóN Y FACTORES DETERMINANTES DE LAS CALIFICACIONES EN IMDB DE "JUEGO DE TRONOS" POR TEMPORADA.

Santiago Duran Georgeshwalt David, Universidad Simón Bolivar. Asesor: Mg. Diego Andrés Restrepo Restrepo Leal, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

"Juego de Tronos" es una de las series más populares de la historia, con opiniones y críticas variadas a lo largo de sus ocho temporadas. A pesar de su éxito inicial y gran seguimiento global, las valoraciones del público y los puntajes en IMDb fluctuaron con el tiempo. Este estudio analiza cómo los puntajes por temporada en IMDb reflejan la evolución de la serie desde su inicio hasta su final. El objetivo es entender las variaciones en las valoraciones de cada temporada y cómo estos cambios pueden estar relacionados con la narrativa, la producción y otros factores. Al revisar los puntajes de IMDb, se busca identificar patrones, tendencias y factores que influyeron en la percepción de la calidad de la serie en diferentes momentos.



METODOLOGÍA

1. Recopilación de Datos: Obtención del dataset con: número total de episodios, número de episodios por temporada, temporada, título del episodio, director, escritor, novelas adaptadas, fecha de emisión original, audiencia en EE. UU. (en millones) y calificación en IMDb. 2. Preparación de los Datos: Limpieza de Datos: Revisión del dataset para corregir errores o datos faltantes. Transformación de Datos: Normalización de los datos para asegurar consistencia en el formato. 3. Análisis Descriptivo: Distribución de Calificaciones: Análisis estadístico de las calificaciones en IMDb por temporada, incluyendo medidas de tendencia central y dispersión. Tendencias Temporales: Identificación de patrones en la calificación de las temporadas mediante gráficos de líneas. 4. Análisis de Correlación: Relación con Factores de Producción: Análisis de la relación entre las calificaciones de IMDb y factores como director, escritor y novelas adaptadas. Audiencia vs. Calificación: Evaluación de la relación entre el número de espectadores en EE. UU. y las calificaciones en IMDb. 5. Comparación por Temporada: Comparación de Temporadas: Análisis comparativo de las calificaciones entre temporadas para identificar las mejores y peores. Revisión de Episodios Clave: Identificación de episodios específicos que pudieron influir significativamente en las calificaciones. 6. Interpretación y Conclusiones: Síntesis de Resultados: Resumen de los hallazgos clave, incluyendo tendencias generales y diferencias significativas entre temporadas. Factores Influenciales: Discusión sobre los factores que más impactaron en las calificaciones de IMDb.


CONCLUSIONES

Las calificaciones de IMDb muestran una evolución a lo largo de las temporadas de "Juego de Tronos", con variaciones notables que reflejan la percepción de la audiencia. Es importante destacar las temporadas que recibieron las calificaciones más altas y más bajas y cómo estas fluctuaciones se relacionan con eventos clave en la trama. A pesar de que la última temporada de "Juego de Tronos" es la más vista en EE.UU., es también la menos clasificada en IMDb. Esto indica que una mayor audiencia no siempre se traduce en una mayor calificación. La disparidad sugiere que la visibilidad de la serie no necesariamente se alinea con una evaluación positiva, y que otros factores, como el contenido final y la recepción de la narrativa, pueden haber influido más en la calificación. Los episodios que marcaron giros importantes en la trama, como eventos de alto impacto o finales de temporada, tuvieron un efecto notable en las calificaciones. Episodios con gran impacto emocional o narrativo tienden a recibir evaluaciones extremas, tanto positivas como negativas. En general, las calificaciones de IMDb de "Juego de Tronos" reflejan la complejidad de la serie y la diversidad de opiniones de los espectadores. Las variaciones en las calificaciones pueden atribuirse a una combinación de factores narrativos, creativos y de producción. Comprender estos factores puede ofrecer lecciones valiosas para la creación de series de televisión y la gestión de la percepción de la audiencia. RECOMENDACIONES: Para complementar el análisis cuantitativo, se recomienda realizar un análisis de sentimientos en los comentarios de IMDb asociados a cada episodio y temporada: Extracción de Comentarios: Recopilar comentarios de los usuarios de IMDb para cada episodio y temporada. Análisis de Sentimientos: Utilizar herramientas de procesamiento de lenguaje natural (NLP) para analizar el sentimiento expresado en los comentarios. Correlación con Calificaciones: Comparar los resultados del análisis de sentimientos con las calificaciones en IMDb para identificar si hay una correspondencia entre las opiniones y las calificaciones numéricas. Identificación de Temas Comunes: Identificar temas recurrentes en los comentarios que puedan haber influido en las calificaciones, como la calidad de la trama, el desarrollo de personajes o la resolución de subtramas importantes.
Santiago Gonzalez Matcel Guadalupe, Universidad Politécnica de Atlacomulco
Asesor: Mg. Valentina Ramirez Hernandez, Universidad Pontificia Bolivariana

CUALES SON LAS HERRAMIENTAS DE MEJORA PARA AUMENTAR LA PRODUCTIVIDAD E INDUSTRIALIZACIóN DE LA PRODUCCIóN DEL QUESO OAXACA EN LA COMUNIDAD DE ACULCO, MéXICO.


CUALES SON LAS HERRAMIENTAS DE MEJORA PARA AUMENTAR LA PRODUCTIVIDAD E INDUSTRIALIZACIóN DE LA PRODUCCIóN DEL QUESO OAXACA EN LA COMUNIDAD DE ACULCO, MéXICO.

Santiago Gonzalez Matcel Guadalupe, Universidad Politécnica de Atlacomulco. Sosa Quiroz Cesar, Universidad Politécnica de Atlacomulco. Verdejo Gutierrez Uriel, Universidad Politécnica de Atlacomulco. Asesor: Mg. Valentina Ramirez Hernandez, Universidad Pontificia Bolivariana



PLANTEAMIENTO DEL PROBLEMA

La producción de quesos artesanales en la comunidad de Aculco, Estado de México, México, a experimentado un crecimiento exponencial esto se debe a que por más de cuatro generaciones se han dedicado a la elaboración de quesos, dicho municipio se ha convertido en uno de los preferidos en cuanto a la elaboración de quesos artesanales, para que esta tradición pueda continuar las familias dedicadas han estado innovando sus productos e incluso creando nuevas bebidas energéticas a base de sueros. Actualmente la producción de quesos esta enfrentando nuevos retos y oportunidades, esto por la gran competencia de productos industriales esto representa una amenaza para la producción artesanal, sin embargo, con la creciente demanda de productos locales y orgánicos así como también el interés de los consumidores por conocer los orígenes de los alimentos está ofreciendo un panorama prometedor para esta actividad. La principal problemática es la baja productividad, poca industrialización y estandarización en la producción del queso Oaxaca en la comunidad, estos no son los únicos aspectos que se tienen en cuenta ya que las autoridades municipales estiman que existe poco mas de 200 productores que elaboran de 25 a 28 toneladas de distintos tipos de queso cada mes que son distribuidos en el centro del país o en el estado de Querétaro con el cual se tienen una alianza, al no estar cumpliendo con los estándares de producción se obtendrían perdidas de dinero que perjudicarían a la comunidad es por ello que durante el verano de investigación se indagarán las posibles metodologías que  ayuden a aumentar la productividad, como poder implementar una industria 4.0 que permita circularizar el proceso de producción.



METODOLOGÍA

Lo primero que se hizo fue hablar de problemas específicos en el cual se dio a conocer que no se tenía una producción que favoreciera a los productores, posteriormente se buscaron las causas que producen los hechos es decir las reacciones o comportamientos que provoca estos problemas teniendo en cuenta los problemas y las causas se llego a la muestra de los efectos finales o mejor dicho el pronostico de lo que pasara si los hechos no se atienden de manera adecuada de esta manera se llegó a una sistematización del problema en la cual dio como resultado una pregunta que  durante el verano de investigación se buscara la respuesta. Una vez formulado el planteamiento del problema se analizó conceptos claves para entender la importancia de una buena implementación de ingeniería de métodos y la jerarquía de las herramientas de Lean Manufacturing, se revisó el pensamiento sistemático para analizar de manera ordenada como es que las variables interactuaban en la investigación. La elaboración de la Matriz del estado del arte permitió ordenar los artículos científicos que se investigaron, posteriormente se realizo la Matriz de marco teórico las cual toma parte de la Matriz del estado del arte, en esta matriz se relacionó en forma de cuadro las palabras que más coincidían y tenían mucha importancia para la investigación, las cuales  comparan diferencias y similitudes, de esta manera se pudieron crear conceptos propios para poder mantenerlos claros y presente durante la investigación. Posteriormente se llevó a cabo la elaboración de la justificación teórica habla sobre lo que se necesita para poder incrementar la productividad de quesos, donde se consideraron herramientas de productividad y normativas que sean necesarios para que esto sea posible, además de algunos factores que influyen para la optimización, en este apartado igual se mencionó las tecnologías que se aplican y como será el control de calidad para la productividad. Para poder tener presentes cuales son las causas de las causas se realizo el diagrama de árbol en este diagrama se identificó los problemas que afectan al proyecto que se quiere resolver, los problemas se van identificando desde un problema central y se desglosa con problemas directos e indirectos y problemas fundamentales. Tomando el árbol de problemas se pudo realizar el árbol de objetivos completo que tiene la finalidad de resolver con una propuesta o dar solución a los problemas identificados partiendo desde el problema central o propósito.


CONCLUSIONES

Se percato que todo proceso de producción debe tener una buena ingeniería de métodos establecidos para que de ahí se puedan implementar mejores estrategias que evalúen y den seguimiento a los procesos productivos, tener una documentación de todas las actividades que surjan a partir de ahí, ayudará a evaluar los resultados y gestionar las necesidades que surjan en las empresas, el objetivo es controlar, optimizar y no perder la tradición que se tiene con los quesos elaborados en la comunidad de Aculco, de esta manera se hizo uso de la jerarquización de las herramientas de Lean Manufacturing.
Santiago Maldonado Karla Jaquelin, Universidad Autónoma de Tamaulipas
Asesor: Mg. Fernando Aricapa Palacio, Fundación Universitaria Tecnológico Comfenalco

ELABORACIóN DE UN PROTOTIPO DE COLECTOR SOLAR COMO ALTERNATIVA DE DESINFECCIóN DEL AGUA EN ZONAS NO INTERCONECTADAS A PARTIR DE LA ESTIMACIóN POTENCIAL ENERGéTICO SOLAR DISPONIBLE


ELABORACIóN DE UN PROTOTIPO DE COLECTOR SOLAR COMO ALTERNATIVA DE DESINFECCIóN DEL AGUA EN ZONAS NO INTERCONECTADAS A PARTIR DE LA ESTIMACIóN POTENCIAL ENERGéTICO SOLAR DISPONIBLE

Acosta Espinoza Angel Arturo, Instituto Tecnológico de Morelia. Cortes Curiel Sonia Getsemani, Universidad de Guadalajara. Santiago Maldonado Karla Jaquelin, Universidad Autónoma de Tamaulipas. Asesor: Mg. Fernando Aricapa Palacio, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

Las principales problemáticas relacionadas a las zonas rurales están asociadas a la contaminación del recurso hídrico y el saneamiento básico, las cuales representan altos costos por la prestación de servicios en la instalación de sistemas centralizados. Sin embargo, estas comunidades poseen diversos recursos y en especial potencial energético en radiación para implementar alternativas de solución. Desde la perspectiva de los objetivos de desarrollo sostenible, se espera que para el 2030, las comunidades rurales presenten una mejor calidad de vida, es por ello que se promueve el desarrollo rural integral, el cual es el conjunto de actividades que vinculan los agentes económicos, sociales y ambientales para satisfacer las necesidades básicas, haciendo uso de los recursos renovables.   Una de las actividades que promueve el desarrollo rural integral es la inclusión de soluciones energéticas no convencionales, la cual mediante su implementación ha logrado mejorar la gestión y aprovechamiento de los recursos en países en vías de desarrollo. Dadas estas condiciones se plantea la elaboración de un prototipo de colector solar que permita la desinfección del agua en las comunidades que no poseen sistemas de tratamiento. 



METODOLOGÍA

Dimensionamiento del colector solar cilíndrico parabólico  Los componentes principales de un CCP, son un concentrador o reflector, en forma de parábola, y un tubo receptor, ubicado en el eje focal de la parábola (Deebhesh et al., 2020). Para el dimensionamiento del concentrador se tomaron en cuenta algunos parámetros como el lado recto, Lr, ángulo de borde, ϕ, lado curvo, S, y la distancia focal, f.   Primero se seleccionó el lado recto, de 86.2 cm, y la distancia focal de 14 cm. A partir de ahí, los otros parámetros se calcularon utilizando las ecuaciones de Bharti y Paul (2017), determinando un ángulo de borde de 113.98°. Así mismo, se seleccionó el largo del colector de 1 metro. El diámetro mínimo calculado para el tubo receptor, fue de 4.36 mm. Sin embargo, se utilizó un tubo de 3.4 cm de diámetro.  Modelación de la eficiencia y transferencia de calor en el CCP  Como ya es conocido, los métodos de transferencia de calor son radiación, conducción y convección; a continuación, se enunciarán cómo se afectaron cada uno de ellos al CCP  Radiación: debido al ángulo de incidencia casi perpendicular durante el día, la radiación es el método predominante.   Conducción: ocurre en 2 momentos: el primero es la transferencia entre la superficie externa del cristal donde incide la radiación solar, hacia la superficie interna que está en contacto con el fluido de trabajo; y también debido al inevitable contacto del cristal receptor con el soporte del colector. En la bibliografía consultada se menciona una transferencia de calor del tubo receptor hacia el soporte, sin embargo, debido a las diferencias entre el colector analizado y el colector puesto en práctica se presentó una transferencia del soporte hacia el tubo receptor debido a una mayor temperatura del soporte causada por las propiedades del material del que está hecho.  Convección: debido a las condiciones ambientales, se puede decir que, en comparación con los otros métodos de transferencia, la convección tiene una muy baja influencia en el sistema en cuestión.  Validación de la eficiencia y perfil térmico longitudinal mediante prototipo experimental  Se realizaron pruebas experimentales durante tres días seguidos en un horario de 9:00 am hasta 12:00 pm, en proceso estacionario. Al iniciar las pruebas se orientó el CCP de este a oeste para obtener la mayor radiación solar, se colocó agua en el tubo de cristal y se tomó su temperatura inicial con ayuda de un pirómetro. La temperatura ambiente se obtuvo de los datos de la estación meteorología ubicada en la Universidad Tecnológica Comfenalco Sede España, la velocidad del viento se midió con ayuda de un anemómetro digital. Luego de haber contenido el flujo de manera fija se tomaron los datos cada 30 minutos después de la última prueba. 


CONCLUSIONES

Se pudo concluir que el prototipo tenía mejor rendimiento en los días con mayor radiación solar (despejados) y con menor velocidad de viento. Así mismo, se observó que entre mayor sean las horas de exposición, mayor será el aumento de la temperatura. Aunque los resultados obtenidos no fueron los deseados para la desinfección, se seguirá trabajando en la mejora del prototipo para dicho propósito. Adicionalmente, se realizarán pruebas microbiológicas para determinar si existe una disminución de bacterias y dentro de que rangos de temperatura se obtendrían los mejores resultados. 
Santiago Maldonado Nadia Karina, Instituto Tecnológico Superior de Las Choapas
Asesor: M.C. Hipócrates Nolasco Cancino, Universidad Autónoma Benito Juárez de Oaxaca

EVALUACIóN DEL TORITO COMO POTENCIAL DENOMINACIóN DE ORIGEN.


EVALUACIóN DEL TORITO COMO POTENCIAL DENOMINACIóN DE ORIGEN.

Santiago Maldonado Nadia Karina, Instituto Tecnológico Superior de Las Choapas. Asesor: M.C. Hipócrates Nolasco Cancino, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

Las Denominaciones de Origen (DO) son distintivos de calidad que certifican la procedencia geográfica de un producto, garantizando que sus características únicas o calidad excepcional se deben principalmente al entorno natural y factores humanos de su lugar de origen. Estas certificaciones aseguran que todas las etapas de producción se realizan íntegramente en la región designada. En México, las DO son motivo de orgullo nacional, representando productos auténticos y únicos. Actualmente, el Instituto Mexicano de la Propiedad Industrial (IMPI) ha otorgado protección a 18 Denominaciones de Origen. Sin embargo, existe una variedad de productos tradicionales mexicanos que aún no cuentan con este reconocimiento y podrían ser candidatos potenciales para obtener una DO. Un ejemplo destacado es el "Torito", una bebida alcohólica mixta originaria de la región de Veracruz. Esta bebida cremosa, elaborada específicamente con aguardiente de caña y con sabores dulces (siendo el de cacahuate el más característico), carece actualmente de una normativa que establezca parámetros de producción y calidad. Esta ausencia de regulación representa un desafío para la estandarización y el reconocimiento oficial del producto. El objetivo principal de esta investigación es la identificación de potenciales denominaciones de origen para proteger a más productos mexicanos y que estos sean reconocidos y regulados a nivel mundial.  



METODOLOGÍA

La investigación realizada en el laboratorio de química analítica de la UABJO utiliza cuatro técnicas principales para el análisis de bebidas alcohólicas: 1. Cromatografía de gases (GC): Analiza compuestos volátiles y semivolátiles según las normas NMX-V-005-NORMEX-2018 y NMX-V-004-NORMEX-2018. 2. Espectroscopía de absorción atómica (AAS): Detecta y cuantifica metales siguiendo la norma NMX-V-050-NORMEX-2010. 3. Determinación del grado alcohólico: Mide la concentración de alcohol usando un densímetro digital, conforme a la norma NMX-V-013-NORMEX-2019. 4. Extracto seco: Determina los sólidos disueltos mediante un proceso de calentamiento y pesaje por duplicado. Cada técnica sigue normas específicas y procedimientos detallados para garantizar resultados precisos en el análisis de bebidas alcohólicas.


CONCLUSIONES

El estudio analizó el Torito, una bebida alcohólica mixta de Veracruz, para evaluar su potencial como candidato a Denominación de Origen. Se realizó análisis de cromatografía de gases y absorción atómica en dos variedades: Guanábana y Piña Colada. Cromatografía de gases: Torito de Guanábana: No presentó aldehídos, metanol, alcoholes superiores, ésteres ni furfural. Torito de Piña Colada: Similar al de Guanábana, pero con niveles aceptables de metanol (22,58 mg/100ml). Abosorsión atomica:  Absorción atómica: En ambas variedades: No se detectó cobre, plomo ni arsénico. Zinc en niveles aceptables (Guanábana: 0,666 mg/L, Piña Colada: 0,311 mg/L). Grado alcoholíco  Torito de guanábana: 2.23% Torito de piña colada: 4.0% Los resultados fueron comparados en base a la Norma Mexicana. (2019). Bebidas alcohólicas- Determinación del contenido alcohólico (porciento de alcohol en volumen a 20°C) (% Alc. Vol.) - métodos de ensayo (prueba). (NMX-V-013-NORMEX-2019). Extracto seco E.s promedio: 129.61g/l
Santiago Rodríguez Angel David, Universidad Autónoma del Estado de México
Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac

SISTEMA DE GESTIóN Y MONITOREO PARA MáQUINA DE ENVEJECIMIENTO ACELERADO.


SISTEMA DE GESTIóN Y MONITOREO PARA MáQUINA DE ENVEJECIMIENTO ACELERADO.

Santiago Rodríguez Angel David, Universidad Autónoma del Estado de México. Tobias Huerta Antonio, Universidad Tecnológica de Tecamachalco. Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

Una cámara de envejecimiento acelerado es un dispositivo utilizado para simular y acelerar el proceso de envejecimiento de materiales bajo condiciones controladas, como lluvia o luz solar artificial. Esto permite prever en cuánto tiempo comenzarán a degradarse los materiales. Aunque comprender el envejecimiento de un material puede ser costoso y llevar años, estas cámaras permiten realizar el análisis en semanas o meses. Las pruebas de envejecimiento acelerado son esenciales para garantizar que los productos cumplan con los requisitos de calidad antes de salir al mercado. En la Universidad Politécnica de Tecámac, existe una máquina de envejecimiento acelerado utilizada por diversas instituciones y empresas. Sin embargo, las solicitudes y condiciones se registran manualmente, y el ciclo de trabajo es configurado manualmente, requiriendo supervisión constante para activar y desactivar los equipos que simulan las condiciones ambientales.



METODOLOGÍA

Para estimar con precisión el envejecimiento de los materiales, se observan sus cambios en contacto con agentes químicos y físicos diversos. Estos ensayos se realizan en cámaras climáticas que simulan distintos escenarios, combinando factores ambientales o de forma aislada. Existen varios tipos de pruebas de envejecimiento acelerado: Radiación: Exposición a luz ultravioleta y radiaciones ionizantes como rayos X y gamma. Temperatura: Uso de cámaras térmicas para inducir temperaturas específicas, estudiando los rangos que deben soportar los materiales. Humedad: Evaluación de la acción corrosiva del agua y humedad relativa, siguiendo normas como ISO 9227. Gases contaminantes: Análisis de gases ambientales como ozono y dióxido de azufre. Erosión: Exposición a aire con partículas abrasivas para medir la erosión en materiales. En la Universidad Politécnica de Tecámac, se realizan ensayos con escenarios de humedad, temperatura y radiación, utilizando un circuito con un microcontrolador ESP32 y varios sensores. El sistema incluye una página web para monitorear datos de sensores y gestionar solicitudes de empresas. El desarrollo del sistema se dividió en tres fases: Fase 1: Análisis Se identificó la necesidad de una aplicación web y móvil para automatizar la recolección de datos y facilitar las solicitudes. Fase 2: Diseño Se modelaron los datos y diseñaron las interfaces de las aplicaciones web y móvil, utilizando la herramienta Figma. Fase 3: Codificación Se desarrolló la aplicación web con ASP.NET Framework y la móvil con Xamarin.Forms, utilizando Entity Framework para el modelado de datos y MVC para la estructura del proyecto. La comunicación entre las aplicaciones se realiza mediante una API Web que envía y recibe datos en formato JSON.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre el funcionamiento de una máquina de envejecimiento acelerado, ponerlos en práctica desarrollando una aplicación web y móvil que nos permitiera tener un análisis de datos obtenidos por la máquina que ya se encontraba en funcionamiento en la universidad fue un reto, trabajar con tecnologías nuevas para mí ha sido una experiencia enriquecedora.
Santiago Vázquez Adán Emanuel, Universidad Veracruzana
Asesor: Dr. Harvey Andrés Milquez Sanabria, Fundación Universidad de América

DESARROLLO DE UNA SESIóN DE EXPLICACIóN DEL MóDULO DE FERMENTACIóN EN ASPEN PLUS


DESARROLLO DE UNA SESIóN DE EXPLICACIóN DEL MóDULO DE FERMENTACIóN EN ASPEN PLUS

Santiago Vázquez Adán Emanuel, Universidad Veracruzana. Asesor: Dr. Harvey Andrés Milquez Sanabria, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Aspen Plus es un software de simulación, optimización y análisis de procesos, muy útil en la industria química. Con él es posible realizar análisis integrado en el diseño, economía, energía, seguridad y emisiones del proceso. Soporta operaciones por lotes y continuas, como las relacionadas con el procesamiento de sólidos y biomasas, recuperación de carbono, electrolisis, biorreactores y polímeros. Además, cuenta con bases de datos de propiedades físicas para realizar simulaciones más precisas. En una actualización reciente se añadió un módulo para modelar fermentaciones a partir de la cinética de la reacción. Este proyecto se centró en la exploración de este nuevo apartado para conocer su configuración y su funcionamiento.



METODOLOGÍA

Antes de montar una simulación, se realizó un reconocimiento del simulador; se revisó la guía del usuario, y se probó el módulo de fermentación con distintos modelos de reactores, y se revisó el ejemplo de la fermentación de la glucosa para producir etanol que Aspen incluye en sus archivos. En este paso se identificó el modo de funcionamiento del proceso y los parámetros cinéticos necesarios, mismos que fueron recuperados de la literatura. Después, se realizó una simulación de la fermentación por lotes de la glucosa para producir etanol, con ayuda de la levadura Saccharomyces Cerevisiae en Aspen Plus V14. Se comenzó configurando el simulador en operación Batch antes de crear la nueva simulación. Luego, se configuró el ambiente de propiedades del simulador. Se definió el sistema métrico como set de unidades global; se añadieron los componentes que participan en la reacción, los cuales fueron etanol, glucosa, biomasa, Nitrógeno, Oxígeno, Hidrógeno, agua, dióxido de carbono, amoniaco y argón. Todos los componentes fueron ingresados como convencionales, excepto la biomasa, que se ingresó como biocomponente y que posteriormente se modeló por composición elemental; los componentes Nitrógeno, Oxígeno, Hidrógeno, dióxido de carbono y amoniaco se ingresaron como componentes de Henry o supercríticos, esto es, compuestos no condensables a los que se le aplica la ley de Henry para calcular sus propiedades. También se añadió la base de datos de propiedades físicas de fermentaciones. Posteriormente, se definieron 3 métodos termodinámicos: NRTL para calcular las propiedades en equilibrio de fase, el método SYSOP0 para calcular comportamiento ideal en fase líquida y vapor a bajas presiones, y el método BIOIDEAL modificado para calcular algunas propiedades con ayuda de la Ley de Henry. También se añadieron cinco rutas y 26 sets de propiedades para calcular propiedades adicionales, tales como entalpías, densidades, concentraciones, propiedades de transporte, flujos másicos y volumétricos, etc. Continuando con el ambiente de simulación, se añadió un reactor modelo Batch y se configuró a una temperatura de 308,15 K (35 °C) y una presión de 1 atm. Se configuró en ciclos de carga y descarga de 1 hora, y se definió líquido-vapor como fase válida. En la parte de convergencia se determinaron intervalos de 0,25 hrs durante 24 horas. Se añadió una reacción de fermentación como cinética del reactor. Se añadieron 4 corrientes de proceso con las siguientes características: Una corriente de entrada con la carga Batch, cuya temperatura es de 308,15 K y su presión de 1 atm. En la composición se especificó que la concentración de glucosa fuera de 20 g/L, 0,05 g/L de biomasa y 0,25 g/L de amoniaco, con un flujo total de 1000 g/hr. Una corriente de entrada con un flujo de 0,2 g/hr cuyo contenido fue 100% N2. Una corriente de salida para gases. Una corriente de salida para productos líquidos. Para definir la cinética de la fermentación se tomó en cuenta una ks=3 g/L, unos rendimientos Ys/x=9,0909, Yp/x=3,9 y Yp/s=0,23, una ms=0,18, y una μmax=0,25 1/hr. Para corroborar la precisión de los modelos del simulador, se ingresaron los datos cinéticos y las ecuaciones en una hoja de Excel, y se graficaron los perfiles de concentración de sustrato, producto y biomasa. También se especificó a Aspen Plus que obtuviera una gráfica de las concentraciones de sustrato, producto y biomasa durante la fermentación.


CONCLUSIONES

Se consultó la guía del usuario y los reportes de simulación, y se encontró que el programa utiliza 3 reacciones para hacer el balance de masa: hay una reacción de crecimiento que calcula los coeficientes estequiométricos considerando los rendimientos y la producción de 1 kg de biomasa; hay otra reacción que representa el mantenimiento de la biomasa, que considera el consumo de 1 kg de sustrato para calcular los coeficientes; y por último, una reacción de no crecimiento, que nuevamente considera los rendimientos y el consumo de 1 kg de sustrato para obtener los coeficientes. Se encontró que la simulación era correcta, ya que los resultados obtenidos por Aspen fueron muy similares a los obtenidos en Excel. En Excel se reportó que el sustrato se consume totalmente luego de 19.75 horas, dejando una concentración de 1,993 g/L de levadura y de 7,577 g/L de etanol, mientras que en Aspen se reportó una concentración de 2,00015 g/L de levadura y de 7,5713 g/L de etanol. Se considera una diferencia mínima, y se valida el resultado. Esta información es de gran relevancia, ya que ofrece una alternativa rigurosa para realizar simulaciones de procesos fermentativos, lo cual quiere decir que con esta simulación es posible evaluar una nueva tecnología ahorrando recursos económicos, materiales y energéticos al no necesitar siquiera llevar el proceso al laboratorio o planta piloto.
Santoyo González Edith, Instituto Tecnológico Superior de Los Reyes
Asesor: Mg. Andres Mauricio Arguello Vasquez, Fundación Universitaria Empresarial

MODELO DE EDUCACIóN DUAL ALEMAN A PROGRAMAS DE DISEñO


MODELO DE EDUCACIóN DUAL ALEMAN A PROGRAMAS DE DISEñO

Santoyo González Edith, Instituto Tecnológico Superior de Los Reyes. Asesor: Mg. Andres Mauricio Arguello Vasquez, Fundación Universitaria Empresarial



PLANTEAMIENTO DEL PROBLEMA

El modelo dual alemán es un sistema de educación y formación profesional que combina la enseñanza teórica en una institución educativa con la práctica en una empresa. Este modelo puede ser altamente beneficioso para programas de diseño, ya que permite a los estudiantes aplicar directamente los conocimientos teóricos en un entorno profesional real.  Aplicar este modelo en programas de diseño es beneficioso ya que integra de manera efectiva la teoría y la práctica. Este sistema permite a los estudiantes aplicar directamente los conceptos aprendidos en el aula en un entorno de trabajo real y que se afronten a los desafíos diarios. Esto no solo solidifica su comprensión teórica, sino que también les brinda experiencia práctica invaluable. En el campo del diseño, donde la creatividad y la habilidad técnica son cruciales, la oportunidad de trabajar en proyectos reales bajo la supervisión de profesionales experimentados puede marcar una gran diferencia en la formación de los estudiantes.



METODOLOGÍA

Metodología de Investigación  1. Definición del Problema y Objetivos    - Problema: Mejorar la formación en programas de diseño mediante el modelo dual alemán.    - Objetivos: Evaluar la efectividad del modelo dual en el desarrollo de habilidades prácticas.    2. Revisión de la Literatura    - Búsqueda: Examinar bases de datos académicas, artículos especializados y recursos en línea sobre el modelo dual y su aplicación en diseño.    - Análisis: Identificar estudios relevantes y vacíos en el conocimiento existente.    3. Diseño del Estudio    - Métodos: Entrevistas, encuestas, cuestionarios y revisión de artículos.    - Muestra: Definir la población objetivo (estudiantes, profesores, profesionales) y criterios de selección.    4. Recolección de Datos    - Entrevistas: Realizar con expertos.    - Cuestionarios:Distribuir a la muestra seleccionada mediante plataformas en línea.     5. Análisis de Datos    - Cualitativo: Transcribir y codificar entrevistas, identificar temas comunes.    - Cuantitativo: Analizar datos de encuestas y cuestionarios.    6. Interpretación y Conclusiones    - Resultados: Comparar con objetivos, evaluar hipótesis.    - Conclusiones: Extraer hallazgos y proponer recomendaciones para la implementación del modelo dual.    7. Difusión de Resultados    - Informe Final: Redactar un informe detallado.    - Presentación: Preparar presentaciones para su exposición. 


CONCLUSIONES

El modelo dual alemán para estudiantes de diseño se presenta como una opción sumamente ventajosa para quienes buscan una formación rápida y efectiva. Al combinar la teoría con la práctica, este método permite a los estudiantes adquirir confianza, responsabilidad y experiencia profesional desde el inicio de su carrera. Los beneficios de esta formación dual son evidentes, ya que los estudiantes suelen encontrar empleo más rápidamente y están mejor preparados para enfrentar los desafíos del mercado laboral.   Sin embargo, es importante reconocer que este modelo exige un alto nivel de sacrificio y dedicación. La necesidad de equilibrar los estudios académicos con el trabajo práctico implica una carga significativa y demanda una excelente gestión del tiempo y compromiso personal. A pesar de estos desafíos, los estudiantes que se embarcan en este camino adquieren habilidades técnicas y blandas esenciales, tales como la capacidad de trabajar en equipo, gestionar proyectos y cumplir con plazos estrictos.   En resumen, aunque el modelo dual alemán requiere un compromiso significativo, ofrece recompensas que justifican ampliamente el esfuerzo. Proporciona una formación completa y práctica, mejora la empleabilidad de los estudiantes y les brinda las competencias necesarias para sobresalir en el competitivo campo del diseño.
Segovia Ortuño Cristian Omar, Instituto Politécnico Nacional
Asesor: Dr. Visvakumar Aravinthan, Wichita State University

CLUSTERING OF TRANSMISSION LINES


CLUSTERING OF TRANSMISSION LINES

Segovia Ortuño Cristian Omar, Instituto Politécnico Nacional. Asesor: Dr. Visvakumar Aravinthan, Wichita State University



PLANTEAMIENTO DEL PROBLEMA

Due to the rising need trend in Distributed Energy Resources (DER) integration over transmission system it is important to make more efficient models in the study of multiarea network. Transmission line utilization can be altered as result from the DER penetration. In the past 10 year the transmission system has reported significant changes that were not considered in traditional transmission planning studies, causing a lot of problems related with the supply of energy, like California outages from 2020. This research investigates the most important lines in transmission systems to synthesize the total network. In order to quantify their importance is going to be simulated in different software like MatLab and PowerWorld, using data analysis to determine the final results. Once the results are found, this can provide an opportunity for better planning in the future, potentially helping in more research especially in the infrastructure necessary to provide reliability in this challenging oncoming.



METODOLOGÍA

Data Collection: Collected hourly load information from various locations over the course of one year. Scenario Identification and Data Extraction: Identified two scenarios: one with Distributed Energy Resources (DERs) and one without.                                                                                                       Extracted and sorted load data for both scenarios, including solar data for the DER scenario. Net Load Assignment: Assigned net load information to each transmission node. Simulation: Ran a cost-effective power flow program for each scenario.                                                              Extracted transmission line flows from the simulation results for both scenarios. Analysis: Calculated the difference in transmission line flows between the two scenarios.                                                                                                                              Counted the hours when the line flow difference exceeded 10 MW.                                                                                                                                          Identified the maximum line flow difference experienced by each line.                                                                                                                                    Based on the analysis results, clustered the transmission lines according to their importance in power flow.


CONCLUSIONES

The clustering methodology resulted in the consolidation of 120 transmission lines into 4 key asset clusters. This reduction was achieved through real data analysis, demonstrating the method's effectiveness in simplifying the complex calculations associated with the increase in Distributed Energy Resources (DERs). These four asset clusters will be used in a further study to investigate the effects of DERs in nearby areas. This approach provides a valuable tool for transmission system operators, facilitating more efficient planning and management in the face of evolving energy landscapes.
Segundo Escamilla Jenifer Guadalupe, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dra. Cristina Juárez Landín, Universidad Autónoma del Estado de México

IMPLEMENTACIóN DE MODELOS YOLOV5 Y YOLOV8 PARA LA IDENTIFICACIóN Y SEGMENTACIóN DE BACHES


IMPLEMENTACIóN DE MODELOS YOLOV5 Y YOLOV8 PARA LA IDENTIFICACIóN Y SEGMENTACIóN DE BACHES

Segundo Escamilla Jenifer Guadalupe, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dra. Cristina Juárez Landín, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Los baches son un problema persistente en ciudades y carreteras que afecta la infraestructura vial, la seguridad y la calidad de vida. Se forman por la infiltración de humedad que debilita el pavimento, exacerbada por ciclos de congelación y descongelación, tráfico intenso y capas de soporte inadecuadas. Esta situación persiste debido a la falta de mantenimiento preventivo, generando riesgos para conductores y peatones, congestionando el tráfico y causando costos imprevistos para propietarios de vehículos y autoridades. La insuficiencia de inversión y los problemas de gestión agravan el deterioro de las carreteras.



METODOLOGÍA

  Preparación del Conjunto de Datos: Recolección y Etiquetado de Imágenes: Recolectar 1700 imágenes de baches normales y de tipo cocodrilo usando cámaras de alta resolución. Etiquetar manualmente con herramientas como LabelImg. División del Conjunto de Datos: Dividir en entrenamiento (70%), validación (20%) y prueba (10%), asegurando representación equilibrada de ambas categorías. Configuración del Proyecto en Roboflow: Subir Imágenes: Crear proyecto en Roboflow, subir imágenes etiquetadas y organizarlas en carpetas específicas. Preprocesamiento: Redimensionar a 640x640 píxeles, normalizar valores, ajustar orientación, aislar objetos, ajustar contraste y aplicar técnicas de aumento de datos. Entrenamiento de la Red Neuronal: Configurar Entorno: Instalar librerías como TensorFlow y PyTorch, y configurar hardware adecuado. Definición del Modelo: Usar YOLOv8x para detección de objetos. Configurar parámetros como tamaño del batch y tasa de aprendizaje. Entrenamiento: Entrenar con el conjunto de datos, aplicar early stopping y guardar pesos periódicamente. Evaluación y Ajuste del Modelo: Evaluación: Medir precisión, recall, F1-score y mAP usando el conjunto de prueba. Analizar resultados para identificar áreas de mejora. Ajuste Fino: Ajustar hiperparámetros y realizar iteraciones adicionales si es necesario.


CONCLUSIONES

Información del Modelo: Tipo: Roboflow 3.0 Instance Segmentation (Fast) Punto de Control: segmentacion-ydlix/1 Métricas de Rendimiento: mAP: 66.2% Precisión: 60.2% Recall: 74.8% El modelo muestra buen rendimiento en segmentación con un mAP de 66.2%, aunque inferior a modelos comparables. Análisis de Gráficos: mAP y Pérdida: Ambos se estabilizan después de 40 epochs, indicando consistencia en el rendimiento del modelo. Comparación con Otros Modelos: Yolo5x: mAP de 0.843 en baches cocodrilo, 0.652 en normales. Yolo8x: mAP de 0.845 en cocodrilo, 0.655 en normales. segmentacion-ydlix/3: Inferior a Yolo5x y Yolo8x en detección de baches. Conclusiones: El modelo segmentacion-ydlix/3 es estable y consistente, pero tiene un mAP inferior a los modelos Yolo5x y Yolo8x. Estos modelos ofrecen mejor rendimiento para detección específica de baches, siendo más adecuados para aplicaciones que requieran alta precisión.
Serrano Sánchez Juan José, Universidad Tecnológica de Tecamachalco
Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar

API INTELIGENTE PARA EL MONITOREO Y EVALUACIóN DE SISTEMAS FOTOVOLTAICOS


API INTELIGENTE PARA EL MONITOREO Y EVALUACIóN DE SISTEMAS FOTOVOLTAICOS

Ojeda Valencia Urbano Vicente, Universidad Tecnológica de Tecamachalco. Serrano Sánchez Juan José, Universidad Tecnológica de Tecamachalco. Valencia Lopez Nancy Yesenia, Instituto Politécnico Nacional. Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

Los sistemas fotovoltaicos se están posicionando como una solución clave en la transición hacia energías renovables. Sin embargo, su eficiencia y rendimiento dependen de un monitoreo constante y una evaluación precisa. La complejidad de los datos generados por estos sistemas y la necesidad de analizar múltiples variables simultáneamente hacen que la gestión manual sea ineficiente y propensa a errores.  Se requiere una solución tecnológica avanzada que permita:  Calcular automáticamente los Indicadores Clave de Rendimiento (KPIs) críticos.  Integrar datos de diversas fuentes, incluyendo APIs externas.  Proporcionar análisis en tiempo real para optimizar el rendimiento de las instalaciones.  Facilitar la toma de decisiones basada en datos para el mantenimiento y mejora de los sistemas.  Este proyecto busca desarrollar una API inteligente que aborde estas necesidades, mejorando significativamente la gestión y eficiencia de las instalaciones solares. 



METODOLOGÍA

Para el desarrollo de la API para el Cálculo de KPIs en Sistemas Fotovoltaicos, se implementó una metodología estructurada en diversas fases.   Inicialmente, se llevó a cabo una fase de planificación y configuración, que incluyó la elaboración de un plan de trabajo detallado, el análisis de los requerimientos del sistema y la instalación y configuración de las herramientas necesarias, como Visual Studio y las extensiones relevantes para el desarrollo de APIs. Posteriormente, en la fase de diseño y planificación de KPIs, se definieron los indicadores a implementar basados en métricas estándar de la industria fotovoltaica y se identificaron las APIs externas necesarias, incluyendo una para datos de temperatura y otra de Huawei para los datos de la energía solar. Es importante destacar que los datos obtenidos del enlace de Huawei corresponden específicamente a la planta UTB Solar. Durante la fase de desarrollo e integración, se implementaron módulos de autenticación y funciones para manejar solicitudes y respuestas, además de crear algoritmos para el cálculo de KPIs.   La implementación del código se realizó utilizando FastAPI como framework principal y Pydantic para la validación y serialización de datos. Se definió una estructura de datos robusta con la clase KPIData para asegurar la integridad de los datos de entrada, y se desarrolló el endpoint principal para procesar estos datos y calcular los KPIs relevantes.   Finalmente, se realizaron pruebas iniciales de la API para verificar su funcionamiento y precisión en el cálculo de KPIs.


CONCLUSIONES

El desarrollo de esta API para el Cálculo de KPIs en Sistemas Fotovoltaicos representa un avance significativo en la gestión eficiente de instalaciones solares. Durante el periodo de investigación, se logró crear una API capaz de calcular automáticamente KPIs como el rendimiento de referencia, rendimiento específico, índice de rendimiento con corrección de temperatura, rendimiento esperado y el índice de rendimiento energético.   Es importante señalar que, aunque la API está diseñada para calcular KPIs, actualmente no se conecta directamente a los datos reales de la planta UTB Solar. Sin embargo, durante las pruebas realizadas con datos aleatorios, la API demostró funcionar correctamente, lo que valida su capacidad de cálculo y procesamiento.   La implementación en FastAPI promete un procesamiento rápido de las solicitudes, sentando las bases para futuros análisis en tiempo real. Además, el uso de tecnologías modernas como FastAPI y Pydantic proporciona una base sólida para la escalabilidad y mantenibilidad del sistema.   La estructura modular del código permite la futura adición de nuevos KPIs o la integración de algoritmos más avanzados. Aunque el proyecto se encuentra aún en una fase inicial, los resultados obtenidos durante el verano de investigación son un buen comienzo.   Se ha establecido una base para el desarrollo futuro de una herramienta que podría revolucionar la forma en que se gestionan y optimizan los sistemas fotovoltaicos, contribuyendo significativamente a la eficiencia y sostenibilidad de la energía solar. 
Sevilla Rodríguez Licema, Universidad Autónoma de Occidente
Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente

SEGURIDAD E HIGIENE EN LOS GIROS EMPRESARIALES: INDUSTRIAL, COMERCIAL Y DE SERVICIOS


SEGURIDAD E HIGIENE EN LOS GIROS EMPRESARIALES: INDUSTRIAL, COMERCIAL Y DE SERVICIOS

García Valdez Iran Eunice, Universidad Autónoma de Occidente. Sevilla Rodríguez Licema, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Con un enfoque multidisciplinario y colaborativo, este proyecto involucra a todos los niveles de la organización, desde la alta dirección hasta los empleados de base, para asegurar que la seguridad e higiene sean una prioridad compartida. Mediante la capacitación continua, la evaluación de riesgos y la mejora constante de las prácticas de trabajo, las empresas podrán no solo cumplir con sus obligaciones legales, sino también construir entornos laborales que impulsen el bienestar y la productividad. Este proyecto se enfoca en conocer y evaluar mejoras en los estándares de seguridad e higiene en empresas de los sectores comercial, industrial y de servicios conociendo los organismos, leyes y organizaciones en la república mexicana, el estado de Sinaloa y en el municipio de Ahome, así como también, a nivel internacional.  Esta investigación científica nos lleva a entender la implementación de normas, leyes y reglamentos en las empresas, ya que medidas adecuadas de seguridad e higiene son clave para prevenir accidentes laborales, enfermedades ocupacionales y mejorar el bienestar general de los empleados.



METODOLOGÍA

Iniciamos planteando nuestro objetivo y las actividades que realizaríamos para lograrlo, una vez redactado definimos los temas de interés para desarrollar la investigación; comenzamos por la exhaustiva investigación y lectura de diversas fuentes en cuanto a los temas indicados en nuestro plan de trabajo. Actividades realizadas: -Identificar y analizar los riesgos laborales específicos de cada sector.  -Evaluar el cumplimiento de las normativas de seguridad e higiene en los diferentes giros empresariales.  -Examinar las regulaciones locales e internacionales aplicables a cada sector.  -Evaluar la efectividad de los programas de capacitación para reducir incidentes y mejorar la cultura de seguridad. -Promover entornos de trabajo saludables y seguros, contribuyendo a la reducción de enfermedades laborales y mejorando el bienestar general de los trabajadores. Empezamos por buscar proyectos, normas y organismos en relación con seguridad e higiene a nivel nacional; para luego pasar a nivel estatal y municipal, por último, investigamos a nivel internacional; esto con el fin de encontrar relación entre las normas y organismos encargados en materia de seguridad e higiene. También buscamos informacion sobre PYMES y como crear un negocio avalado por hacienda (gobierno), al igual que organismos estadísticos, como INEGI. Por último, realizamos visitas a empresas en su diferente giro empresarial; con ello logramos crear reportes en materia de seguridad e higiene en el trabajo. 


CONCLUSIONES

La investigación sobre SEGURIDAD E HIGIENE EN LOS GIROS EMPRESARIALES: INDUSTRIAL, COMERCIAL Y DE SERVICIOS nos muestra que la implementación efectiva de medidas de prevención y protección en materia de seguridad e higiene es crucial para proteger la salud y el bienestar de los trabajadores, así como para mejorar la eficiencia y productividad en los lugares de trabajo. Es importante cumplir con las normas, leyes y reglamentos que se encuentren en el lugar de trabajo, para así evitar cualquier tipo de accidente e incidente y enfermedades laborales. Hacer constantemente evaluaciones de riesgos e implementar medidas preventivas, aplicar prácticas proactivas de seguridad y salud ocupacional disminuyen los incidentes laborales y mejora en calidad en los productos o procesos y en la vida en el entorno laboral. En resumen, la inversión en seguridad e higiene es una estrategia comprobada para el éxito y sostenibilidad a largo plazo de cualquier empresa "La seguridad es de todos".  
Sibaja Rodríguez Daniela, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dra. Claudia Carolina Vaca García, Universidad de Guadalajara

ANáLISIS BIOMECáNICO EN LA FLEXIóN Y EXTENSIóN DE RODILLA EN CICLISTAS RECREATIVOS


ANáLISIS BIOMECáNICO EN LA FLEXIóN Y EXTENSIóN DE RODILLA EN CICLISTAS RECREATIVOS

Sibaja Rodríguez Daniela, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dra. Claudia Carolina Vaca García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El ciclismo es una actividad popular que beneficia la salud cardiovascular, muscular y mental. Requiere sincronización muscular, coordinación y equilibrio, además de un adecuado soporte osteomuscular y flexibilidad articular. La bicicleta debe estar ajustada a las características del ciclista para optimizar el rendimiento y prevenir lesiones. Las lesiones más comunes en ciclistas ocurren en las articulaciones de las extremidades inferiores y rodillas, principalmente por una altura inadecuada del sillín, que altera la biomecánica del pedaleo. Un ajuste adecuado del sillín es crucial para mejorar el rendimiento y reducir el riesgo de lesiones. Las dolencias más comunes por un ajuste inadecuado incluyen condromalacia rotuliana, tendinopatía rotuliana y tendinitis de la pata de ganso. Este análisis se centra en la importancia del ajuste adecuado del sillín para evitar lesiones de rodilla y mejorar la biomecánica del ciclista recreativo.



METODOLOGÍA

Se analizaron 43 ciclistas recreativos, de los cuales, 27 son mujeres y 16 son hombres de un rango de edad de entre 20 años a 57 años y con una estatura promedio de 1.66 cm, mismos que participaron de manera voluntaria para realizar las pruebas. La prueba consistió en montar una bicicleta de montaña con el sillín  a la altura recomendada en la literatura durante sesenta segundos y, posteriormente, montar la bicicleta con el sillín a una altura  más baja, durante el mismo tiempo. El objetivo fue determinar cómo influyen estas variables en la biomecánica del ciclista recreativo y así concientizar a la población sobre la importancia de ajustar el sillín adecuadamente para evitar lesiones de rodilla. El tipo de bicicleta que se utilizó en este estudio fue una bicicleta de montaña de talla chica, la cual tiene un rodado de entre 15-16" y son destinadas a personas que oscilan en un rango de estatura entre 163 - 168 cm. Se consideró determinar una bicicleta de montaña debido a que la mayoría de los ciclistas en este análisis suelen utilizar una bicicleta de dicho tipo. En este estudio se ajustó el sillín de la bicicleta de acuerdo con las medidas antropométricas individuales a la altura de la cintura de cada ciclista para obtener el ajuste adecuado y de esta manera  se realizó un ajuste incorrecto del sillín disminuyendo la altura en 5 cm para crear una condición inadecuada. Se ajustó la altura del sillín respecto a la cintura debido a que esto les permitía a los ciclistas estirar bien la pierna cuando la parte delantera del pie está sobre el pedal. Asimismo este análisis tomó en cuenta a ciclistas recreativos, no necesariamente ciclistas profesionales, sino personas que practican el ciclismo principalmente con fines de ocio, disfrute personal y ejercicio, sin el objetivo principal de competir profesionalmente. Estos ciclistas tienden a participar en actividades como paseos grupales, excursiones y eventos ciclistas organizados, con el objetivo de obtener beneficios físicos y mentales en un entorno menos competitivo. El estudio se realizó con ayuda  del software 3DMA. Este software de última generación permite la captura óptica del movimiento, proporcionando una visión detallada de la biomecánica del ciclista. Equipado con su propio motor de captura y varios módulos de análisis, el 3DMA es un sistema para evaluar la mecánica del pedaleo y su relación con la configuración de la bicicleta. Uno de sus numerosos beneficios es el análisis biomecánico del ciclismo mediante sistemas de captura durante el pedaleo, permitiendo un análisis detallado del ciclista. Esto abarca la posición del cuerpo, la cinemática de las articulaciones y la alineación corporal en relación con la bicicleta. Además, el sistema incluye un monitoreo de la simetría y el equilibrio, lo que es esencial para identificar y corregir asimetrías musculares, previniendo desequilibrios y lesiones a largo plazo. Asimismo este software toma en cuenta el método llamado Helen Hayes markerset  o el conjunto de marcadores Helen Hayes, que es una de las configuraciones de marcadores más conocidas y ampliamente utilizadas  para analizar la marcha en el campo del análisis de movimiento óptico. De esta manera las pruebas en este estudio utilizan como referencia  20 puntos colocados en puntos de referencia anatómicos como se describe en la figura 1, en donde no se requiere una pose inicial para la captura de movimiento en el software debido a que los marcadores se etiquetarán mientras el ciclista pedalea de forma natural.


CONCLUSIONES

Este análisis demostró que el ajuste correcto del sillín es crucial para la biomecánica del ciclista recreativo y para la prevención de lesiones de rodillas. Los resultados indican que las variaciones en la altura del sillín afectan significativamente los ángulos de flexión y extensión de la rodilla, con complicaciones directas en el rendimiento y daño en las articulaciones. Con la altura adecuada del sillín, los ángulos de flexión y extensión se encontraron dentro del rango ideal, mientras que en la altura con un ajuste bajo del sillín, los ángulos se desviaron notablemente, confirmando que un ajuste más bajo del sillín a 5cm  disminuye el ángulo entre el muslo y la pantorrilla, forzando la articulación lo que a largo plazo podría provocar lesiones en la rodilla. El uso de herramientas como el software 3DMA permitió una evaluación de la biomecánica del pedaleo, proporcionando datos que respaldan la importancia de ajustar el sillín según las medidas antropométricas individuales. Para minimizar el riesgo de lesiones y mejorar el rendimiento, es esencial que los ciclistas recreativos ajusten adecuadamente la altura del sillín. Este ajuste no sólo optimiza la postura y la eficiencia del pedaleo, sino que también contribuye a una experiencia de ciclismo más segura. La concientización sobre la importancia de estos ajustes debe ser promovida entre la población en general que hace uso de la bicicleta con fines recreativos,  con el fin de fomentar prácticas de ciclismo saludables y libre de riesgos.    
Sierra Barrios José Vicente, Corporación Universitaria de Ciencias Empresariales, Educación y Salud
Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave

PLANEACIóN FINANCIERA COMO ESTRATEGIA DE GESTIóN E INNOVACIóN DE PROCESOS EN UNA MICROEMPRESA COMERCIAL DE GUASAVE, SINALOA.


PLANEACIóN FINANCIERA COMO ESTRATEGIA DE GESTIóN E INNOVACIóN DE PROCESOS EN UNA MICROEMPRESA COMERCIAL DE GUASAVE, SINALOA.

Arellano Hinojosa Fidel Ernesto, Instituto Tecnológico de Ciudad Juárez. Cantú Dueñas José Antonio, Instituto Tecnológico de Nuevo Laredo. Cervantes Dominguez Fernando Ivan, Instituto Tecnológico de Ciudad Juárez. Huerta Uribe Brittania, Instituto Tecnológico de Ciudad Juárez. Machuca Bedoya Alejandro, Universidad de Investigación y Desarrollo. Martinez Segovia Karen Paola, Instituto Tecnológico de Ciudad Juárez. Sierra Barrios José Vicente, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Vazquez Marquez Erika, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

La gestión e innovación de procesos son esenciales para que las microempresas comerciales puedan mantenerse competitivas y eficientes en el mercado actual. Sin embargo, muchas de estas microempresas enfrentan desafíos significativos debido a la falta de una planeación financiera adecuada. En el municipio de Guasave, las microempresas comerciales representan una parte sustancial de la economía local, pero a menudo carecen de las herramientas y estrategias necesarias para gestionar eficazmente sus recursos financieros y operativos. La ausencia de una planeación financiera robusta puede resultar en una gestión ineficiente de los procesos internos, llevando a problemas como la falta de control de inventarios, registros financieros inadecuados y decisiones financieras erróneas. Estos problemas no solo afectan la operatividad diaria de las empresas, sino que también limitan su capacidad para crecer y adaptarse a las cambiantes condiciones del mercado. El Instituto Nacional de Estadística y Geografía (INEGI, 2018) reporta que una gran mayoría de las microempresas en México, incluyendo aquellas en Guasave, no llevan registros contables formales y enfrentan complicaciones administrativas que obstaculizan su crecimiento. Esta situación subraya la necesidad de implementar estrategias de planeación financiera que apoyen la gestión e innovación de procesos en estas empresas. Por lo tanto, la problemática central de esta investigación se plantea de la siguiente manera: ¿Cómo influye la implementación de una planeación financiera adecuada en la gestión e innovación de procesos en una microempresa comercial en el municipio de Guasave?



METODOLOGÍA

Esta investigación adopta un enfoque mixto y descriptivo exploratorio mediante un estudio de caso para evaluar la eficiencia del proceso de gestión e innovación de procesos apoyado por la planeación financiera en una microempresa comercial. La investigación mixta, descrita por Johnson et al. (2006) como una combinación de enfoques cuantitativos y cualitativos, y definida por Sampieri, Fernández y Baptista (2014) como una metodología multimétodo, permite una comprensión integral del fenómeno estudiado. Stake (1984) define el estudio de caso como un análisis riguroso orientado a obtener relaciones generales del caso observado. La metodología descriptiva, según Caballero (2014), se enfoca en desarrollar definiciones y conceptos básicos, mientras que Cea (2010) resalta que los estudios exploratorios identifican variables relevantes para futuras investigaciones. Para la recolección de datos, se utilizaron técnicas cualitativas como entrevistas semiestructuradas y observación participante. Mendicoa (2003) describe la entrevista semiestructurada como una herramienta cualitativa que facilita la comprensión de las perspectivas de los informantes. Lahire (2008) y Spradley (1980) sostienen que la observación participante permite un estudio profundo de situaciones sociales específicas.


CONCLUSIONES

Un proceso de gestión e innovación de procesos deficiente puede llevar a decisiones erróneas, dificultades financieras y pérdida de oportunidades de crecimiento. La implementación de herramientas tecnológicas, como software para control de flujo de efectivo e inventarios, es fundamental para mejorar la eficiencia y precisión en la gestión. La elaboración de estados financieros es crucial para la toma de decisiones y planificación futura. La falta de financiamiento externo puede limitar la capacidad de expansión y respuesta a situaciones imprevistas. Se recomienda a la empresa implementar un punto de venta para mejorar el control de ingresos y salidas, realizar inventarios físicos semestrales y registrar adecuadamente todos los egresos. Además, se sugiere elaborar informes financieros proforma para planificar operaciones futuras. Esta investigación se realizó durante mi estancia de investigación científica, y ha sido una experiencia invaluable para mi formación profesional. Participar en este proyecto me ha permitido aplicar conocimientos teóricos a un contexto real, desarrollando habilidades prácticas en la recolección y análisis de datos, así como en la elaboración de estrategias de mejora para microempresas. Esta experiencia ha reforzado mi comprensión sobre la importancia de la planeación financiera en la gestión e innovación de procesos y su impacto en la competitividad y sostenibilidad de las empresas. Futuras investigaciones deben explorar la planificación financiera en MiPymes más organizadas y evaluar la utilidad de las estrategias propuestas en este trabajo. Además, es fundamental seguir investigando para identificar y desarrollar nuevas herramientas y metodologías que puedan apoyar aún más a las microempresas en su camino hacia una gestión más eficiente y efectiva.
Sierra Lua Andrea, Instituto Tecnológico Superior de Uruapan
Asesor: Mg. Angelica Maria Aguirre Bertel, Corporación Universitaria del Caribe

ANáLISIS DE LA PRODUCCIóN INTELECTUAL DE LOS DOCENTES DEL GRUPO DE INVESTIGACIóN DE SIMULACIóN DE TECNOLOGíAS INDUSTRIALES (STI) EN EL PERIODO 2019-2023 EN LA CORPORACIóN UNIVERSITARIA DEL CARIBE - CECAR


ANáLISIS DE LA PRODUCCIóN INTELECTUAL DE LOS DOCENTES DEL GRUPO DE INVESTIGACIóN DE SIMULACIóN DE TECNOLOGíAS INDUSTRIALES (STI) EN EL PERIODO 2019-2023 EN LA CORPORACIóN UNIVERSITARIA DEL CARIBE - CECAR

Sierra Lua Andrea, Instituto Tecnológico Superior de Uruapan. Asesor: Mg. Angelica Maria Aguirre Bertel, Corporación Universitaria del Caribe



PLANTEAMIENTO DEL PROBLEMA

El grupo de investigación de Simulación de Tecnologías Industriales (STI) de la Universidad CECAR ha generado un considerable volumen de producción académica y científica 2019-2023 en diversas áreas como ingeniería industrial, sistemas, arquitectura y administración. A pesar de que si es un buen volumen de producción en años anteriores como en el 2016 la producción fue más, pero en este contexto solo analizaremos 2019-2023, aun que sin embargo seria interesante hacer un análisis de los años anteriores y por qué bajo la producción estos años. Siendo así, se requiere un análisis detallado de estas investigaciones para evaluar su impacto, distribución y contribución a los Objetivos de Desarrollo Sostenible (ODS). Este análisis es crucial para identificar fortalezas, áreas de mejora y alineación con las necesidades de la sociedad y el desarrollo tecnológico.



METODOLOGÍA

El objetivo general de esta investigación es: Analizar la producción intelectual realizada en la universidad CECAR 2019-2023 en el grupo de Investigación de Simulación de Tecnologías Industriales (STI). Para llevar a cabo este análisis, se adoptó un enfoque sistemático basado en la recopilación y clasificación de datos de las investigaciones realizadas por el grupo de Simulación de Tecnologías Industriales (STI) de la Universidad CECAR durante el período 2019-2023. Los pasos específicos seguidos fueron: 1.   Evaluar la producción académica y científica del grupo STI de la Universidad CECAR durante el período 2019-2023: Se accedió a la plataforma MinCiencia en Gruplac, donde se encuentra la información detallada de las investigaciones realizadas por los docentes del grupo STI. Se descargaron los registros de las investigaciones, incluyendo artículos científicos, capítulos de libros, documentos de trabajo, publicaciones divulgativas, y otros productos académicos. 2.   Clasificar y analizar los productos de investigación según su tipo, área de estudio y año de publicación: Se creó una hoja de cálculo en Excel para organizar y clasificar la información obtenida. Se ingresaron datos específicos como el título de la investigación, autores, tipo de producto, área de estudio (ingeniería industrial, sistemas, arquitectura, administración, etc.), y año de publicación  Los productos de investigación se categorizaron según su tipo: artículos científicos, capítulos de libros, documentos de trabajo, publicaciones divulgativas, otros artículos, libros de divulgación, traducciones, notas científicas, diseños industriales, esquemas de trazados de circuito integrado, informes técnicos, innovaciones de procesos y procedimientos, innovaciones en la gestión empresarial, variedades de animal, vegetal, razas pecuarias, regulaciones y normas, software, ediciones, informes de investigación. Se identificaron las investigaciones relevantes para el periodo 2019-2023 y se clasificaron según el área de estudio y la línea de investigación. Se contabilizó el número total de productos de investigación por tipo y año de publicación. Se calculó la distribución porcentual de los productos por área de estudio y línea de investigación. 3.   Determinar la contribución de las investigaciones a los Objetivos de Desarrollo Sostenible (ODS): Se revisaron los temas y objetivos de cada investigación para evaluar su contribución a los ODS. Se identificaron los ODS específicos a los que contribuyen las investigaciones, tales como el objetivo 12 (consumo y producción responsables), el objetivo 9 (industria, innovación e infraestructura), y otros relevantes. 4.   Proporcionar recomendaciones para mejorar la alineación de las investigaciones con las necesidades sociales y tecnológicas actuales: Fomentar la colaboración interdisciplinaria. Enfocarse en temas emergentes que aborden desafíos globales. Incrementar la publicación en revistas de alto impacto. Fortalecer las redes de colaboración internacional. Capacitación y desarrollo profesional. Diversificación de fuentes de financiamiento.


CONCLUSIONES

La mayoría de los productos de investigación están alineados con los Objetivos de Desarrollo Sostenible, destacando una fuerte contribución al objetivo 12, el objetivo 9, y el objetivo 8. A pesar de estos logros, se identificaron áreas de mejora, como la necesidad de aumentar la producción en áreas menos representadas como arquitectura y administración, y de diversificar las contribuciones a más ODS. Las recomendaciones incluyen fomentar la colaboración interdisciplinaria y enfocarse en temas emergentes que aborden desafíos globales. Este informe proporciona una base sólida para desarrollar futuras estrategias de investigación y para asegurar que las investigaciones del grupo STI sigan siendo relevantes y de alto impacto en el ámbito académico y social. Durante el verano, tuve la oportunidad de conocer el mundo de la investigación, muy importante también aprendí a utilizar ecuaciones de búsqueda para encontrar mucha información referente con el tema de mi investigación. En general, esta experiencia enriqueció mi capacidad para realizar investigación.
Sierra Martínez Javier, Universidad Autónoma de Nayarit
Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León

SISTEMA GUíA DE SILLA DE RUEDAS PARA UNA PERSONA CON MOVILIDAD NULA EN EXTREMIDADES SUPERIORES E INFERIORES


SISTEMA GUíA DE SILLA DE RUEDAS PARA UNA PERSONA CON MOVILIDAD NULA EN EXTREMIDADES SUPERIORES E INFERIORES

Mora Peña Luis Alberto, Universidad Autónoma de Nayarit. Palacios Palacios Saldaña Brian Arath, Universidad Tecnologica de León. Sierra Martínez Javier, Universidad Autónoma de Nayarit. Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

Justificación Ética y derechos humanos: Implementar un sistema de guía para sillas de ruedas utilizando un hoverboard y controladores de motores es crucial para garantizar el acceso equitativo a oportunidades educativas y sociales para universitarios con discapacidad motriz severa, mejorando su desarrollo personal y bienestar emocional. Perspectiva práctica: Autonomía y seguridad: Permite moverse autónomamente y de manera segura. Integración social: Facilita la asistencia a clases y actividades, reduciendo la necesidad de asistencia constante. Eficiencia e independencia: Mejora la gestión del tiempo y actividades, aumentando la autoestima y confianza. Sensibilización comunitaria: Promueve la inclusión y accesibilidad. Objetivos Objetivo general: Desarrollar un sistema guía autónomo para sillas de ruedas que mejore la movilidad y autonomía de personas con discapacidades motrices, utilizando tecnologías avanzadas de navegación y detección de obstáculos. Objetivos metodológicos: Identificar necesidades de usuarios mediante encuestas y entrevistas. Seleccionar y programar sensores para detección de obstáculos y navegación. Construir un prototipo funcional y realizar pruebas de campo. Evaluar eficiencia y seguridad del sistema. Documentar el proceso y resultados. Colaboración La estadía se realiza con la Universidad Tecnológica de León y la Universidad Autónoma de Nayarit mediante el Programa Delfín, del 17 de junio al 2 de agosto de 2024, con asesoría de Gilberto López Padilla. Marco Teórico UNAM: Desarrolló sillas de ruedas automatizadas. IPN: Creó una silla de ruedas inteligente con navegación autónoma. Tecnológico de Monterrey: Desarrolló una silla de ruedas autónoma con sistemas avanzados de guía y control.



METODOLOGÍA

Metodología Capítulo 1: Investigación y Planeación Se investigó cómo invertir la polaridad de los motores del hoverboard sin usar el giroscopio, sino mediante un controlador con autoaprendizaje. Se decidió usar un joystick adaptado para controlarlo con la boca, programando el sistema con Arduino. Capítulo 2: Adaptación del Hoverboard a una Silla Motorizada Desmontaje del hoverboard, dejando el armazón. Preparación de la silla, perforando la placa para fijar los componentes del hoverboard. Adaptación de motores y llantas a la placa debajo de la silla. Modificación de la estructura central para evitar interferencias. Reconexión de componentes electrónicos. Reemplazo de aceleradores manuales por potenciómetros y programación del Arduino para un joystick. Conexión final y pruebas del prototipo. Capítulo 3: Pruebas y Evaluaciones del Sistema de Control de Motores Utilizando Arduino Conexión y verificación del funcionamiento del Arduino. Pruebas de velocidad y torque. Evaluación de la dirección y control del movimiento. Comprobación de la resistencia estructural. Análisis de la comodidad del asiento. Evaluación de la durabilidad de la batería. Prueba de respuesta del joystick.


CONCLUSIONES

Resultados Capítulo 1: Investigación y Planeación Los motores de hoverboard no eran viables por su alta potencia y torque, lo que resultaba en un control brusco. No se implementó un freno adicional, ya que la velocidad de la silla permite que la velocidad de frenado del motor sea suficiente. Capítulo 2: Instalación y Modificaciones La estructura de soporte se reforzó y los potenciómetros se reemplazaron por un transistor, adaptando el joystick para ser usado con la boca. Capítulo 3: Pruebas y Evaluaciones Arduino: Respuesta rápida y precisa en el control del acelerador y la dirección. Torque y Dirección: Un motor descompensado afectó ligeramente la dirección. Capacidad de Carga: La silla soportó hasta 150 kg sin afectar la velocidad y el movimiento. Batería: Duró hasta 3 horas y media de uso continuo. Joystick: Respuesta fiable en todas las direcciones. Conclusiones Motores y Control: Los motores de hoverboard no son viables por su alta potencia y torque. El módulo de reversa no es necesario. Freno: No se requiere un freno adicional debido a la baja velocidad de operación (máximo 5 km/h). Estructura y Electrónica: Ajustes en la estructura y componentes electrónicos mejoraron la estabilidad y firmeza. El joystick adaptado para ser usado con la boca fue óptimo. Pruebas y Desempeño: La silla puede soportar hasta 150 kg, la batería dura 3 horas y media, y el joystick responde de manera fiable. Se necesitan mejoras en la consistencia del movimiento y ajustes precisos en componentes electrónicos y mecánicos.
Sifuentes Moreno Alejandra Janette, Instituto Tecnológico de Ciudad Juárez
Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara

DETECCIóN DE PROBLEMAS DE GESTIóN FINANCIERA Y DESARROLLO DE ESTRATEGIAS PARA REDUCIR LOS COSTOS Y GASTOS DE ENVIó EN LA EMPRESA ALIGN DE CIUDAD JUáREZ


DETECCIóN DE PROBLEMAS DE GESTIóN FINANCIERA Y DESARROLLO DE ESTRATEGIAS PARA REDUCIR LOS COSTOS Y GASTOS DE ENVIó EN LA EMPRESA ALIGN DE CIUDAD JUáREZ

Ranjel Gaytan Flor Alejandra, Instituto Tecnológico de Ciudad Juárez. Sifuentes Moreno Alejandra Janette, Instituto Tecnológico de Ciudad Juárez. Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las empresas manufactureras son la fuente principal de trabajo en Ciudad Juárez, en todas ellas existe la necesidad de optimizar los procesos y reducir desperdicios tanto de tiempo, costos y materiales, sin dejar de lado el ofrecer al cliente la mayor satisfacción de acuerdo a sus necesidades. Sin embargo, siempre existen restricciones en sus procesos y el poder identificarlos, es una ventaja que permite a cada empresa tomar mejores decisiones para su operación.        En ALING se generan costo y gastos fuertes al momento de los envíos, existen casos en los que los productos va a una misma dirección o a un mismo doctor, pero se envían con días de diferencia, es importante  detectar los problemas de gestión financiera que influyen para desarrollar estrategias que permitan reducir la problemática mediante una solución que mejore la logística del proceso e incrementar y  así reducir costos. ¿Cuáles son los principales problemas que causan los costos y gastos elevados en los envíos  que se generan en la empresa ALING? ¿Qué estrategias permiten disminuir los costos y gastos requeridos en los procesos de envió de la empresa ALING?



METODOLOGÍA

Para este trabajo se selecciona la mitología de investigación Holística que permite ubicar las diversas propuestas en un esquema coherente y aplicable a cualquier área del conocimiento (Carhuncho-Mendoza , 2019). Los siguientes pasos para realizar la investigación con éxito: primero aplicar los diez objetivos de la investigación, segundo  identificar los diez  tipos de investigación, tercero  entender los niveles de profundidad del conocimiento,  cuarto  realizar la espiral holística y quinto aplicar el ciclo holístico para la investigación en particular.   Etapa 1: Entendimiento de los diez objetivos de la metodología que son: explorar, describir, analizar, comparar explicar, predecir, proponer intervenir, confirmar y evaluar. Utilizando los conocimientos de producción y manufactura, administración de la calidad e industria y optimización.    Etapa 2: Identificar diez los tipos de investigación: exploratoria, descriptiva, analítica, comparativa, explicativa, predictiva, proyectiva, interactiva, confirmatoria y evaluativa    Etapa 3: Entender los niveles de conocimiento: perceptual, aprehensivo, comprensivo e integrativo.    Etapa  4: Diseñar la espiral holística de la investigación indicando los siguientes puntos: perceptual (describir y explorar), aprensivo (comparar y analizar), comprensivo (proponer, predecir y explicar) e integrativo (modificar, confirmar y evaluar).     Etapa 5: Aplicar el ciclo holístico formado por: explorar, describir, analizar, comparar, explicar, predecir, proyectar, interactuar, confirmar y evaluar.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos, para la realización de proyectos de investigación desde una idea, estructurar el planteamiento del problema, título, objetivos generales y particulares, justificación, hipótesis y diseño de la metodóloga de investigación para este trabajo es la metodología holística y principalmente como esto se puede aplicar a un tema de interés personal, académico y profesional. Fue una experiencia que enriqueció nuestros conocimientos y nos enseñó a desarrollar habilidades que contribuyeron a nuestro crecimiento personal. Además, al tener interacción con personas de otros lugares, aprendimos a conversar y compartir nuestros ideales para fortalecer y enriquecer nuestros conocimientos y alcances para nuestra investigación, después de todo los compañeros hasta de otros países pudieron aportar mejoras al proyecto y nosotros con ellos, al igual compañeros del mismo plantel pudimos emplear conocimientos que durante la carrera hemos aprendido. Esta estancia de verano no solo fue una etapa de aprendizaje, sino también una oportunidad para reflexionar sobre nuestras metas a futuro y sobre salir en cuanto a desarrollo académico y sobre todo invirtiendo tiempo y espacios para mejorar en nuestros proyectos.
Silva Arvizu Héctor Iván, Instituto Tecnológico de Querétaro
Asesor: Dr. Esteban Elias Giraldo Salazar, Universidad del Valle

IMPLEMENTAR UN SISTEMA DE REFRIGERACIóN DE CALOR EN COMPUTADORES PORTáTILES MEDIANTE VENTILADOR, UTILIZANDO TARJETAS FPGA CON HERRAMIENTA DE INTELIGENCIA ARTIFICIAL


IMPLEMENTAR UN SISTEMA DE REFRIGERACIóN DE CALOR EN COMPUTADORES PORTáTILES MEDIANTE VENTILADOR, UTILIZANDO TARJETAS FPGA CON HERRAMIENTA DE INTELIGENCIA ARTIFICIAL

Pérez Cortez Antony Cristopher, Instituto Tecnológico de Querétaro. Silva Arvizu Héctor Iván, Instituto Tecnológico de Querétaro. Asesor: Dr. Esteban Elias Giraldo Salazar, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

Actualmente, el uso de computadoras portátiles tiene gran relevancia a nivel mundial. El avance tecnológico ha generado procesadores de alta potencia que, al ser demandados intensamente, “generan una mayor densidad de calor y requieren una mayor disipación del calor, lo que hace que la temperatura de la CPU aumente y provoque una vida útil más corta, un mal funcionamiento y una falla de la CPU [3]”. Aunque los portátiles cuentan con sistemas de refrigeración, “la refrigeración pasiva la proporciona el propio disipador y la activa utiliza un ventilador montado directamente en el disipador para la refrigeración por aire forzado [1]”. A menudo estos sistemas de refrigeración no son lo suficientemente eficaces para mitigar el calor generado al usar los computadores de manera ordinaria dependiendo las necesidades del usuario. Como antecedente en 2009 se logró diseñar un ventilador de bajo consumo para mejorar la eficiencia energética durante la refrigeración, esto con el “uso de un microcontrolador integrado con un sensor de temperatura en chip, un convertidor analógico a digital, un módulo PWM, un transmisor receptor asíncrono universal y un puerto de salida LED integrado en un chip de 8 pines para controlar el ventilador [2]”. En la actualidad se conoce la existencia de pocos proyectos que incorporen técnicas para analizar y optimizar los datos de temperatura de un portátil con el fin de predecir y evitar el sobrecalentamiento, basándose en patrones de uso. A través del procesamiento de estos datos y utilizando inteligencia artificial, se busca prevenir posibles problemas o fallas por exceso de calor. Durante el desarrollo del proyecto, se implementarán técnicas de inteligencia artificial para el análisis y procesamiento de datos, con el objetivo de mejorar la calidad de la refrigeración. El ventilador, controlado mediante la tarjeta FPGA, interpretará la información procesada y ajustará la velocidad en consecuencia, “mediante la  técnica de PWM por sus siglas en inglés Pulse Width Modulation (modulación por ancho de pulso) [4]”. Esta técnica se basa en “la variación del valor promedio de una señal al variar el ciclo de trabajo del pulso [5]". Este enfoque no solo optimiza los sistemas de refrigeración de las computadoras, sino que también mejora el rendimiento general, ya que el sobrecalentamiento puede causar daños a corto o largo plazo. La integración de estas tecnologías promete aumentar la eficiencia y la longevidad de los dispositivos, beneficiando a los usuarios con un funcionamiento más confiable y seguro.  



METODOLOGÍA

Se comenzó con una investigación documental hemerográfica para conocer el estado del arte mediante artículos y ensayos en revistas científicas. La investigación experimental permitió evaluar y comparar la eficiencia del sistema creado con el del fabricante. Esta investigación aplicada incluyó el estudio de FPGA, inteligencia artificial (Lógica Difusa) y varios softwares. En la primera semana, se realizaron intercambios culturales y se estableció un vínculo con el personal de la institución. Se discutió la problemática, la solución propuesta y el plan de trabajo. También se impartieron sesiones teórico-prácticas sobre PLC, tarjetas FPGA y sensores, y se introdujeron conceptos de Inteligencia Artificial. Se realizó una revisión bibliográfica y documental, utilizando palabras clave para filtrar la información relevante. Se resumieron referencias para tener antecedentes del proyecto. En la parte técnica, se tomaron clases de FPGA, abordando temas de electrónica digital y programación en Quartus. Se desarrollaron programas básicos y circuitos secuenciales, esenciales para el proyecto. Se investigó sobre el Control por Modulación de Pulso (PWM) utilizando tarjetas FPGA. Se creó un prototipo para controlar un ventilador, modulando su velocidad según el ciclo de trabajo. El prototipo se ajustó para cambiar la velocidad con solo pulsar un botón. Se utilizó un ventilador NMB 2410ML-09W-B10, un transistor 2N3904 NPN, el circuito integrado 74LS245 y una fuente de poder de 32V. Para obtener y enviar datos de temperatura al programa MATLAB, se enfrentaron retrasos. Con el apoyo de profesores, se exploraron soluciones hasta encontrar un software que visualizaba los datos y poseía un servidor web. Se logró visualizar esta información en MATLAB y se creó una gráfica para monitorear la temperatura en tiempo real. La siguiente etapa se centró en la lógica difusa, estableciendo parámetros para entrenar la red y controlar el ventilador. La IA analizaba la temperatura y, basándose en reglas de inferencia, enviaba la variable de salida a la tarjeta FPGA para controlar el ventilador. Finalmente, se realizaron pruebas para entrenar la red, recopilar y analizar datos, y crear gráficas comparativas entre el sistema de fábrica y el desarrollado durante la estancia. Con el análisis de los gráficos, se llegaron a las conclusiones correspondientes.      


CONCLUSIONES

14Durante la estancia de investigación, se adquirió un aprendizaje técnico significativo en el uso de tarjetas FPGA y el manejo de diversos softwares, como Quartus, MATLAB y LOGISIM. Estos conocimientos  fueron esenciales para la aplicaron e implementaron en el proyecto.A lo largo del proceso, se enfrentaron diversos contratiempos y retrasos, particularmente en la etapa de obtención y procesamiento de datos de temperatura del dispositivo. Sin embargo, estos desafíos fueron superados, permitiendo avanzar hacia la etapa de integración de la lógica difusa para el ingreso de datos y procesamiento de la información, con el objetivo de controlar la velocidad del ventilador. Se espera que la implementación de este sistema ofrezca resultados favorables, mejorando significativamente el comportamiento térmico del dispositivo en comparación con el sistema de fábrica. La propuesta de investigación y los avances alcanzados representan un avance significativo en este ámbito, con el potencial de influir positivamente en el diseño y desarrollo de futuros sistemas de refrigeración para dispositivos electrónicos. 
Silva Briseño Blanca Fabiola, Instituto Politécnico Nacional
Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes

SOFTWARE PARA REHABILITACIóN DE PARáLISIS FACIAL CON VISIóN ARTIFICIAL Y EVALUADO MEDIANTE TéCNICAS DE EYE-TRACKING "RELIF".


SOFTWARE PARA REHABILITACIóN DE PARáLISIS FACIAL CON VISIóN ARTIFICIAL Y EVALUADO MEDIANTE TéCNICAS DE EYE-TRACKING "RELIF".

Martinez Gordillo Cristian Santiago, Escuela Colombiana de Ingeniería Julio Garavito. Morales Galdamez Camila, Instituto Politécnico Nacional. Orenday González Lizbeth Aurora, Instituto Politécnico Nacional. Silva Briseño Blanca Fabiola, Instituto Politécnico Nacional. Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Según el (IMSS 2017), en México existen entre 11 y 53 casos por cada 100,000 personas al año que sufren de parálisis facial. Así mismo, la OMS menciona la alta demanda de fisioterapeutas, ya que, hay 1.06 por cada 10 mil habitantes cuando la recomendación es contar con un especialista por cada mil habitantes (Padilla, 2023). Dado lo anterior el desarrollo de esta versión inicial del software, se busca ayudar a pacientes y apoyar a fisioterapeutas, con la pronta recuperación de los pacientes y, de cierta manera, controlar el seguimiento de las terapias asistidas. Haciendo del conocimiento del primero los ejercicios realizados por el segundo y el tiempo necesario para cada uno, dependiendo el tipo de parálisis padeciente.



METODOLOGÍA

MEXUU Para el desarrollo del proyecto se utilizó la metodología MEXUU que está enfocada en los elementos UDL Y TUD, la cual nuestro proyecto integra algunos elementos claves para el diseño universal para el aprendizaje. Este proceso estuvo definido por 4 etapas principales, descritas a continuación. Análisis: Se definen los requisitos de la aplicación a desarrollar, teniendo en cuenta las características físicas del usuario final. Esto es crucial para identificar qué herramientas y tecnologías se van a integrar en la aplicación y los elementos según el diseño universal para el aprendizaje. En esta primera parte se decidió el proyecto a tratar y los roles de cada integrante en el equipo, se plantearon objetivos tanto generales como específicos y las preguntas de investigación y requerimientos funcionales y no funcionales de la aplicación a desarrollar (RELIF). Pre-producción: En esta etapa se desarrolla la aplicación con los requerimientos definidos en la etapa de análisis, de la misma manera se define la representación basada en UDL. En esta etapa se crearon perfiles de usuario, para así poder diseñar la interfaz teniendo en cuenta estos y dirigirla hacia este tipo de personas en particular, para solucionar la problemática de los perfiles de usuario propuestos. Teniendo en cuenta que la investigación se está desarrollando con metodología experimental, en esta parte se desarrollan posibles hipótesis y/o soluciones que se resuelvan por medio del desarrollo de la aplicación , de la misma manera se incluye la visión artificial en el proyecto como parte fundamental en la rehabilitación del paciente al momento de utilizar la aplicación propuesta, esto con el fin de la detección de los ejercicios por la misma aplicación y validar una terapia exitosa, por esta misma razón en esta etapa se revisa la documentación necesaria con el fin de integrar las mejores tecnologías dentro del proyecto . Producción: Se construye la solución planteada con las herramientas estipuladas anteriormente y se agregan los elementos UDL. En esta parte ya se tiene un diseño no funcional de la aplicación, se empieza el desarrollo inicial en el motor de videojuegos unity. Se utiliza esta tecnología para los objetivos que se plantearon al inicio, como la integración del diseño y funcionalidad del programa. Así mismo tiempo en esta etapa influye una nueva metodología nos basamos en la de EVUSINET (Evaluación del uso de interfaces mediante eye-tracking), esta nos ayudó a realizar las pruebas con las tecnologías de eye-tracking por medio del entorno de Tobii pro nano permitiendo crear diseños experimentales, eventos, áreas de interés, para así generar una interfaz más atractiva visualmente cumpliendo con los requerimientos de la aplicación y mayor funcionalidad al utilizar RELIF.  Simultaneamente se produce el modelo de identificador de emociones por medio de la visión artificial, utilizamos tecnologías como lo son: tensor flow, keras, openCv, todo esto en lenguaje python. El modelo fue entrenado con la base de datos públicas de Kaggle(Fer- 2013), se utilizó la neutral y felicidad para la integración de estas en dos ejercicios de la aplicación diseñada. Post- producción: Etapa final centrada en realizar evaluaciones al software para evaluar criterios de usuario. Se cambiaron aspectos en la tercera y última interfaz, siendo evaluada con el eye tracker tobii pro nano creando tablas de uso deseado, para seleccionar áreas de interés en cada interfaz evaluada y poder sacar índices, se creó una tabla de uso real para ser comparada con la de uso esperado, igualmente observar si se cumplieron los objetivos y las preguntas de investigación establecidas en la etapa de análisis.


CONCLUSIONES

Pasadas las sesiones enfocadas a la investigación y recolección de datos sobre la problemática, se emprendió el desarrollo del software, adquiriendo conocimientos sobre diseño de interfaces UI y UX, analizando su usabilidad mediante eye-tracking. Además de lo anterior, se recolectó basto conocimiento sobre interpretaciones de gráficas arrojadas por la tecnología antes mencionada, logrando una base sólida de conocimiento sobre las necesidades de un interfaz respecto a las experiencias de usuario. De igual forma, para la creación del software se utilizó unity, una herramienta que fue de gran ayuda, sin embargo, para su uso también se tuvo que aprender a usarla, para que el software cumpliera con los requisitos propuestos y su funcionamiento fuera efectivo. el software funcionó de manera adecuada. Adicionalmente a esto se adquieren conocimientos en el campo del deep learning, utilizando redes neuronales convolucionales y como se pueden ajustar a distintos proyectos y la utilidad de estas, dichas tecnología fue de vital importancia para el desarrollo de la aplicación ya que esta sirve para que el software sea utilizado en el área de la rehabilitación en parálisis facial, de acuerdo a los planteamientos iniciales, logrando 3 de 4 objetivos.
Silva Hernández Flor Guadalupe, Instituto Tecnológico de Tepic
Asesor: Mg. Lyda Yiced Machuca Rojas, Universidad Antonio Nariño

INFRAESTRUCTURA SOSTENIBLE, MANEJO Y DISPOSICIóN DE LOS RCD (RESIDUOS DE CONSTRUCCIóN Y DEMOLICIóN) EN COLOMBIA.


INFRAESTRUCTURA SOSTENIBLE, MANEJO Y DISPOSICIóN DE LOS RCD (RESIDUOS DE CONSTRUCCIóN Y DEMOLICIóN) EN COLOMBIA.

Silva Hernández Flor Guadalupe, Instituto Tecnológico de Tepic. Asesor: Mg. Lyda Yiced Machuca Rojas, Universidad Antonio Nariño



PLANTEAMIENTO DEL PROBLEMA

En Colombia, el rápido crecimiento urbano y el desarrollo de infraestructura han generado un desafío significativo en cuanto al manejo y disposición de los residuos de construcción y demolición (RCD). Estos residuos que incluyen concreto, ladrillos, madera y metales, a menudo son depositados en vertederos ilegales o no autorizados, provocando contaminación del suelo y agua, afectando la salud publica y deteriorando el paisaje urbano. A pesar de las políticas y regulaciones existentes, la falta de infraestructuras sostenibles y la reutilización de RCD, junto con una escasa conciencia ambiental en el sector de la construcción, agravan el problema. Para abordar esta situación, es esencial desarrollar una infraestructura sostenible y promover una cultura de sostenibilidad entre los actores del sector y la comunidad.



METODOLOGÍA

El objetivo general es proponer soluciones de infraestructura sostenible para la ciudad de Duitama empleando los RCD (Residuos de Construcción y demolición). Por lo que, en este artículo se plantea responder las siguientes interrogantes de investigación: ¿Qué tecnologías existen qué involucren el uso de RCD para la infraestructura sostenible? ¿Cuál es el impacto ambiental que se ha producido a lo largo de los años debido a los RCD? ¿Qué impacto tendría a nivel mundial el uso de materiales convencionales para infraestructura sostenible comparados con el nuevo uso de los RCD? ¿Cuáles son los ejemplos exitosos de infraestructura sostenible los cuales destacaron por el uso de los RCD? ¿Qué normativas existen a nivel mundial para la gestión de los RCD? ¿Qué barreras enfrentan las empresas constructoras para la implementación de infraestructuras sostenibles utilizando RCD? Para lograr responder a estas interrogantes se realizó la identificación de artículos relevantes mediante una búsqueda exhaustiva en las bases de datos Google Académico y Scielo. Se utilizó una cadena de búsqueda específica para asegurar la inclusión de artículos pertinentes al estudio de infraestructura sostenible, así como el manejo y disposición de residuos de construcción y demolición (RCD). Se emplearon los siguientes términos de búsqueda, haciendo uso del operador boleano (AND, OR): ("Construcción" OR "Residuos de construcción y demolición") AND ("Ambiental" OR "Infraestructura sostenible" OR "Sostenible"). Se seleccionaron únicamente artículos que abordaran temas en áreas de infraestructura sostenible, manejo y disposición de residuos de construcción y demolición (RCD), asegurando que los estudios seleccionados fueran pertinentes para el ámbito de la investigación. Los artículos se delimitaron mediante las palabras claves como: ambiental, construcción, infraestructura sostenible, residuos de construcción y demolición, y sostenible. Esto permitió refinar la búsqueda a estudios directamente relacionados con el objetico del estudio. Esta etapa garantizo que los artículos seleccionados proporcionaran un enfoque profundo y variado sobre los temas en cuestión. Para garantizar la validez y confiabilidad de los resultados, se realizo una triangulación de datos, comparando y contrastando la información de distintas fuentes.


CONCLUSIONES

El uso de residuos de construcción y demolición (RCD) en la infraestructura sostenible ha progresado notablemente gracias a diversas tecnologías innovadoras. Estas incluyen el reciclaje de hormigón y la reutilización de materiales como el acero y el vidrio, que no solo disminuyen la cantidad de residuos enviados a los vertederos, sino que también reduce la demanda de materiales vírgenes. El impacto ambiental negativo de los RCD ha sido significativo a lo largo de los años, contribuyendo a la degradación del suelo, la contaminación del agua y la emisión de gases de efecto invernadero. No obstante, la adopción de practicas sostenibles y el reciclaje de estos materiales pueden mitigar estos efectos adversos. A nivel mundial, el contraste entre el uso de materiales convencionales para infraestructura sostenible y el uso de los RCD es notable. Mientras que los materiales convencionales continúan siendo una fuente importante de impacto ambiental debido a la extracción y procesamientos de recursos naturales, el empleo de RCD puede reducir significativamente este impacto, promoviendo una economía circular y disminuyendo la huella ecológica del sector de la construcción. Hay numerosos ejemplos de éxito en infraestructura sostenible los cuales destacan por el uso de RCD. Proyectos de edificios que han sido construidos con bloques de hormigón reciclado, son una demostración de los beneficios económicos y ambientales de estas prácticas. Dependiendo de las regiones serán las normativas globales de RCD utilizadas, pero generalmente se concentran en la reducción, reutilización y reciclaje de estos materiales, además de establecer metas y estrategias para minimizar la generación de RCD en infraestructuras sostenibles. Por otro lado, las empresas constructoras enfrentan múltiples obstáculos en la implementación de infraestructura sostenible utilizando los RCD. Entre estos obstáculos se encuentran la falta de instintivos económicos, la resistencia cultural al cambio, las limitaciones técnicas y la limitada falta de tecnologías avanzadas en las distintas regiones. Superar estos obstáculos requiere un esfuerzo conjunto entre gobiernos, industrias y sociedad para promover la adopción de practicas sostenibles en infraestructuras y el desarrollo de tecnologías en el manejo de los RCD.
Soberanes Cuevas Evelia, Universidad Autónoma de Baja California
Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara

DIFUSIóN CIENTíFICA DEL TEMA ¿POR QUé VUELAN LOS AVIONES? EN PREESCOLAR Y PRIMARIA EN MEXICALI, B.C. PARA LA GENERACIóN DE NUEVOS CREADORES


DIFUSIóN CIENTíFICA DEL TEMA ¿POR QUé VUELAN LOS AVIONES? EN PREESCOLAR Y PRIMARIA EN MEXICALI, B.C. PARA LA GENERACIóN DE NUEVOS CREADORES

Soberanes Cuevas Evelia, Universidad Autónoma de Baja California. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El objetivo de este taller es enseñar a los niños los principios básicos del vuelo de un avión de una manera divertida e interactiva. Queremos que los niños comprendan cómo los aviones pueden volar, utilizando conceptos sencillos y experimentos prácticos. El taller está diseñado para fomentar la curiosidad y el amor por la ciencia y la ingeniería en los niños.



METODOLOGÍA

Introducción Teórica: Conceptos Básicos: Explicación de conceptos como la aerodinámica, las fuerzas de empuje, arrastre, elevación y gravedad. Utilizaremos ilustraciones y modelos a escala para facilitar la comprensión. Partes del Avión: Identificación de las principales partes de un avión (alas, fuselaje, motor, timón) y su función. Experimentos Prácticos: Construcción de Aviones de Papel: Los niños harán sus propios aviones de papel y se les explicará cómo el diseño de las alas afecta al vuelo. Pruebas de Vuelo: Realizarán pruebas de vuelo con sus aviones de papel, observando cómo diferentes ajustes (ángulo de las alas, tamaño del fuselaje) afectan el vuelo. Experimento con Globos: Demostración de cómo el aire puede generar empuje utilizando globos y pajitas para simular el movimiento de un avión. Actividades Interactivas: Simulador de Vuelo Básico: Uso de un simulador de vuelo básico en una computadora para que los niños experimenten cómo es pilotar un avión. Juego de Roles: Representación de roles de un equipo de vuelo (piloto, copiloto, ingeniero de vuelo) para entender la importancia del trabajo en equipo.


CONCLUSIONES

Al finalizar el taller, los niños habrán aprendido: Los principios básicos de la aerodinámica y cómo afectan al vuelo de un avión. Cómo las diferentes partes de un avión contribuyen a su capacidad para volar. La importancia del diseño y la experimentación en la ingeniería aeronáutica. El valor del trabajo en equipo en la aviación. Este taller no solo proporciona una comprensión básica de cómo vuelan los aviones, sino que también inspira a los niños a explorar más sobre la ciencia y la ingeniería, fomentando su creatividad y habilidades prácticas.
Soberanes Ruiz Mariana Jaqueline, Universidad Politécnica de Atlautla
Asesor: Dr. Jose Manuel Gutiérrez Moreno, Universidad Autónoma de Baja California

EVALUACIóN DEL USO DE RESIDUOS DE PET COMO AGREGADOS EN CONCRETO: UNA SOLUCIóN SOSTENIBLE PARA LA INDUSTRIA DE LA CONSTRUCCIóN


EVALUACIóN DEL USO DE RESIDUOS DE PET COMO AGREGADOS EN CONCRETO: UNA SOLUCIóN SOSTENIBLE PARA LA INDUSTRIA DE LA CONSTRUCCIóN

Barón Tavera Luisa Cristina, Universidad de Investigación y Desarrollo. Díaz Castro Alejandra Isabel, Universidad de Investigación y Desarrollo. Soberanes Ruiz Mariana Jaqueline, Universidad Politécnica de Atlautla. Asesor: Dr. Jose Manuel Gutiérrez Moreno, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El uso intensivo de plástico en la sociedad moderna ha generado una acumulación significativa de residuos plásticos, especialmente de tereftalato de polietileno (PET). Estos residuos representan un desafío ambiental considerable debido a su lenta degradación, la cual puede tardar cientos de años, y su impacto negativo en los ecosistemas. La acumulación de residuos plásticos afecta a la fauna marina y terrestre, causando daños físicos y químicos a los organismos que ingieren o quedan atrapados en estos desechos. Además, la descomposición del plástico libera sustancias tóxicas que pueden contaminar suelos y cuerpos de agua, afectando la calidad de los recursos naturales. Paralelamente, la industria de la construcción, que es una de las principales consumidoras de recursos naturales, demanda grandes cantidades de agregados naturales (arena, grava y piedra triturada) para la producción de concreto. Esta extracción masiva de agregados tiene consecuencias negativas significativas para el medio ambiente, incluyendo la erosión del suelo, la pérdida de biodiversidad y la alteración de los paisajes naturales. La explotación de canteras y ríos para obtener estos materiales también contribuye a la degradación de ecosistemas y a la reducción de la capacidad de estos ambientes para proporcionar servicios ecológicos esenciales. Existe, por lo tanto, una necesidad urgente de encontrar soluciones sostenibles que puedan mitigar ambos problemas: la acumulación de residuos plásticos y la explotación excesiva de recursos naturales.



METODOLOGÍA

Para evaluar el uso de residuos de PET como agregados en concreto, se llevó a cabo una revisión exhaustiva de artículos investigativos suministrados por el docente investigador. Posteriormente, se extrajeron y analizaron datos clave de cada estudio, enfocándose en las propiedades mecánicas. Los resultados se recopilaron y compararon para identificar tendencias, acuerdos y discrepancias, proporcionando una evaluación crítica de la viabilidad del uso de PET en concreto y sugiriendo áreas para futuras investigaciones.


CONCLUSIONES

En conclusión, la utilización de residuos plásticos de PET como agregados en el concreto representa una alternativa viable para reducir el impacto ambiental de la industria de la construcción y promover la economía circular. En cuanto a la resistencia a la compresión, se observó que esta propiedad generalmente disminuye con el aumento del nivel de reemplazo de PET, excepto para la mezcla con un 5% de PET, que mostró una resistencia a la compresión ligeramente mayor que la mezcla de referencia (0% PET) a los 28 días de curado. De manera similar, la resistencia a la flexión tendió a disminuir con mayores contenidos de PET, aunque la mezcla con un 5% de PET presentó un comportamiento atípico, con un valor de resistencia a la flexión superior al de la mezcla de referencia. No obstante, se requieren investigaciones adicionales para optimizar la dosificación de los agregados de PET, desarrollar tratamientos superficiales efectivos y evaluar el comportamiento a largo plazo de este tipo de concreto. Aspectos como la durabilidad, la resistencia al fuego y la permeabilidad del concreto con agregados de PET deben considerarse para garantizar su aplicación segura y eficiente en diferentes tipos de estructuras.
Solís García Adriana, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. José Eligio Moisés Gutiérrez Arias, Benemérita Universidad Autónoma de Puebla

DISEñO Y CONSTRUCCIóN DE UN AEROGENERADOR DEL TIPO OFFSHORE LOS ALUMNOS ANGEL GARCIA DE LA CALLEJA Y ADRIANA SOLíS GARCíA, ESTUDIANTES DE LA CARRERA DE INGENIERíA EN MECATRóNICA EN LA BENEMéRITA UNIVERSIDAD AUTóNOMA DE PUEBLA, PRESENTAN SU APORTANCIóN: DURANTE LA CONSTRUCCIóN DEL AEROGENERADOR CON CIMENTACIóN DE TIPO JACKET, ESTUVIERON TRABAJANDO Y DESARROLLANDO EL MULTIPLICADOR DEL AEROGENERADOR, ES DECIR, LA CAJA DE ENGRANES QUE CONSTA DE MáS DE UNA ETAPA PARA PODER MULTIPLICAR LA VELOCIDAD QUE ENTRA A LAS HéLICES, Y ASí DARLE LA SUFICIENTE POTENCIA AL GENERADOR DE ENERGíA.


DISEñO Y CONSTRUCCIóN DE UN AEROGENERADOR DEL TIPO OFFSHORE LOS ALUMNOS ANGEL GARCIA DE LA CALLEJA Y ADRIANA SOLíS GARCíA, ESTUDIANTES DE LA CARRERA DE INGENIERíA EN MECATRóNICA EN LA BENEMéRITA UNIVERSIDAD AUTóNOMA DE PUEBLA, PRESENTAN SU APORTANCIóN: DURANTE LA CONSTRUCCIóN DEL AEROGENERADOR CON CIMENTACIóN DE TIPO JACKET, ESTUVIERON TRABAJANDO Y DESARROLLANDO EL MULTIPLICADOR DEL AEROGENERADOR, ES DECIR, LA CAJA DE ENGRANES QUE CONSTA DE MáS DE UNA ETAPA PARA PODER MULTIPLICAR LA VELOCIDAD QUE ENTRA A LAS HéLICES, Y ASí DARLE LA SUFICIENTE POTENCIA AL GENERADOR DE ENERGíA.

García de la Calleja Angel, Benemérita Universidad Autónoma de Puebla. Solís García Adriana, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. José Eligio Moisés Gutiérrez Arias, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Diseño y construcción de un aerogenerador del tipo offshore Diseño de la caja multiplicadora de un aerogenerador tipo Jacket Abstract This project was created with the idea of analyzing the different defects that a jacket type wind turbine can have in different parts of its structure and mechanical-electronic system. Furthermore, in this report will be explained the design of a Gearbox that is the meaningful part of a wind turbine. Introducción La creciente demanda global de energías renovables ha impulsado el desarrollo de tecnologías innovadoras en la generación de energía eólica. Entre estas tecnologías, los aerogeneradores offshore han ganado relevancia debido a su capacidad para aprovechar los fuertes y constantes vientos marinos, aumentando así la eficiencia en la generación de electricidad. En particular, los aerogeneradores tipo Jacket, que se caracterizan por su estructura de soporte robusta y su resistencia a condiciones adversas, han demostrado ser una opción viable y sostenible para instalaciones en alta mar. Este trabajo de investigación se centra en la evaluación y propuesta de dos diseños de cajas multiplicadoras de velocidad con engranes para aerogeneradores offshore tipo Jacket. Las cajas multiplicadoras de velocidad son componentes críticos en los aerogeneradores, ya que permiten aumentar la velocidad de rotación del eje del rotor a la velocidad requerida por el generador, optimizando así la conversión de energía eólica en energía eléctrica.  



METODOLOGÍA

Desarrollo A continuación, se presentarán las propuestas que se analizaron y trabajaron durante el diseño de una caja de engranes que permitirá la multiplicación de la velocidad del viento para así poder generar energía   PROPUESTA 1 DESCRIPCIÓN El diseño anterior constante de un tren de engranes de 3 etapas, en cada etapa se tiene una corona y un piñón, la corona de las dos primeras etapas tiene 50 dientes y la corona de la última etapa tiene 40 dientes; asimismo, el piñón de todas las etapas consta de 10 dientes. Los engranes están montados en una base en la que saldrán 4 ejes, el primero será el conectado desde el disco de las aspas hasta la caja multiplicadora, con una velocidad aproximada de 60 RPM; los siguientes dos ejes servirán para sostener los engranes concéntricos en esa posición y finalmente el último eje saldrá del último engrane e irá conectado al generador de electricidad, con una velocidad angular de salida de 6000 RMP. ÁREAS DE OPORTUNIDAD Tras el análisis realizado en SolidWorks y tomando las consideraciones pertinentes de la vida real, se notó que la disposición del tren de engranes ocupa mucho espacio, por lo que no es óptimo para el espacio destinado al multiplicador que habrá dentro de la góndola, así que la solución a este problema fue poner un arreglo descentrado, es decir, que los centros entre etapa y etapa ya no serán adyacentes; por otro lado, el inconveniente de que la corona tiene un diámetro muy grande, ya que el paso diametral es de 4 y 25 pulgadas. Finalmente, al tomar en cuenta las consideraciones físicas de la vida real, se notó que era necesario adecuar una pieza mecánica que facilitará la conexión entre los ejes y los engranes, debido a que no se puede colocar el eje concéntrico con el engrane sin que este tenga un desplazamiento de traslación además del rotatorio, por lo anterior se pensó en incorporar rodamientos en el centro de los engranes y fijar estos rodamientos en sus extremos con el eje y con el engrane.   PROPUESTA 2 DESCRIPCIÓN Este diseño consta de 4 etapas que se describen de la siguiente manera: primero tenemos un engrane que sirve para que la velocidad de entrada se transmita al piñón de la siguiente etapa (es importante aclarar que cada etapa tiene un piñón y una corona), y este transmite la velocidad a la de esa misma etapa, que pasará la velocidad al siguiente (etapa 2) donde empieza a multiplicar la velocidad (60 RPM aproximadamente). Después cada etapa repetirá el proceso ya descrito, hasta darnos la velocidad deseada en la última corona.   ÁREAS DE OPORTUNIDAD A pesar de ser nuestra propuesta de diseño final es importante mencionar que aún tiene algunas cosas que se podrían mejorar, como el tamaño de la corona que va en cada una de las etapas, pues al ser de 60 dientes y tener un paso diametral de 4, tiene un diámetro de 15 pulgadas, lo que aún es muy grande para el espacio que está destinado la caja multiplicadora de engranes.


CONCLUSIONES

Conclusiones Durante un periodo de mes y medio, trabajamos en equipo en la construcción de un aerogenerador. Mi compañera y yo nos enfocamos en el diseño de la caja de engranajes, una tarea que resultó ser compleja y desafiante. Exploramos y evaluamos diversas propuestas de cajas multiplicadoras, cada una con sus propias ventajas y desventajas. A lo largo de este proceso, aprendimos a equilibrar factores como la eficiencia, la durabilidad y el coste. Finalmente, después de numerosos ajustes y pruebas, optamos por un innovador diseño descentrado de engranajes. Este enfoque no solo simplificó la estructura de la caja, sino que también mejoró significativamente su rendimiento. Gracias a este diseño, logramos alcanzar la velocidad requerida del aerogenerador, un logro que fue fundamental para el éxito del proyecto. Este proyecto no solo nos permitió aplicar nuestros conocimientos técnicos, sino que también reforzó la importancia del trabajo en equipo y la perseverancia en la resolución de problemas complejos.
Solis Segura Carlos Emmanuel, Universidad Autónoma de Occidente
Asesor: M.C. Jesus Osuna Cabanillas, Universidad Autónoma de Occidente

HOME ASSISTANTE IMPULSADO CON CHATGPT


HOME ASSISTANTE IMPULSADO CON CHATGPT

Solis Segura Carlos Emmanuel, Universidad Autónoma de Occidente. Asesor: M.C. Jesus Osuna Cabanillas, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, los asistentes virtuales se han convertido en herramientas esenciales para mejorar la eficiencia y la comodidad en el hogar. Sin embargo, muchas soluciones comerciales disponibles son costosas y limitadas en términos de personalización y control por parte del usuario. Este proyecto busca desarrollar un asistente para el hogar utilizando hardware accesible y software de código abierto, permitiendo una mayor flexibilidad y personalización. El objetivo principal es crear un sistema que pueda responder a comandos de voz y proporcionar respuestas inteligentes utilizando la API de OpenAI.



METODOLOGÍA

El desarrollo del asistente para el hogar se llevó a cabo en siete semanas, siguiendo una metodología iterativa y de mejora continua. El proceso se dividió en etapas. Preparación e Instalación del Entorno: Configuración de la Raspberry Pi 4, instalación del sistema operativo Raspberry Pi OS, actualización del sistema y las dependencias necesarias, e instalación de Python y bibliotecas esenciales. Configuración de Hardware: Conexión y configuración del micrófono INMP441 y del amplificador de audio PAM4303 con las bocinas. Captura de Audio: Desarrollo de un script en Python para capturar y procesar audio desde el micrófono, realizando pruebas iniciales de grabación y reproducción. Reconocimiento de Voz: Integración de la biblioteca speech_recognition para capturar y transcribir audio a texto, probando el reconocimiento de comandos de voz básicos. Integración de la API de OpenAI: Configuración de la comunicación con la API de OpenAI para obtener respuestas de ChatGPT, y pruebas de interacción utilizando comandos de voz. Procesamiento de Comandos y Respuestas: Implementación de funciones en Python para diferentes comandos de voz y desarrollo de una lógica de control para ejecutar acciones en respuesta a los comandos, utilizando las respuestas de ChatGPT. Pruebas Finales, Optimización y Documentación: Realización de pruebas exhaustivas, optimización del rendimiento del sistema, identificación y solución de errores, y documentación completa del proyecto.


CONCLUSIONES

Durante esta estancia de verano, adquirí habilidades valiosas en diversas áreas, desde la configuración de hardware y la programación en Python, hasta la integración de APIs y la implementación de algoritmos de reconocimiento de voz. Aprendí a enfrentar y solucionar problemas técnicos, a trabajar de manera eficiente con herramientas y bibliotecas de código abierto, y a gestionar proyectos de manera estructurada y organizada. Esta experiencia práctica reforzó mi comprensión de los conceptos teóricos y me permitió aplicar el conocimiento adquirido en un proyecto real.
Solorio Aguila Edgar Jair, Instituto Tecnológico de Morelia
Asesor: Mg. Eliana Maria Noriega Noriega Angarita, Universidad de la Costa

ANALISIS BIBLIOGRAFICO DE LA CALIDAD DE LA POTENCIA ELECTRICA EN SISTEMAS ELECTRICOS INDUSTRIALES


ANALISIS BIBLIOGRAFICO DE LA CALIDAD DE LA POTENCIA ELECTRICA EN SISTEMAS ELECTRICOS INDUSTRIALES

García Garcia Endy, Instituto Tecnológico de Morelia. Garduño León Victor Hugo, Instituto Tecnológico de Morelia. Hernández Tomas Johan Manuel, Instituto Tecnológico de Morelia. Rivera Ramos Jose Angel, Instituto Tecnológico de Tepic. Solorio Aguila Edgar Jair, Instituto Tecnológico de Morelia. Asesor: Mg. Eliana Maria Noriega Noriega Angarita, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

En los últimos 15 años, el aumento de cargas no lineales en sistemas eléctricos de potencia (SEP) e industriales (SEI) ha generado preocupación por problemas de calidad de la potencia eléctrica que afectan a los usuarios finales [1]. El sector industrial, que representa el 37% del consumo global de energía eléctrica [3], ha incrementado el uso de equipos electrónicos para la automatización de procesos. Aunque existen estudios bibliométricos sobre calidad de la potencia eléctrica en diferentes sectores [5], [6], [7], no se han realizado estudios específicos para el sector industrial, crucial por el uso intensivo de equipos electrónicos que aumentan los problemas de calidad de la potencia eléctrica.



METODOLOGÍA

Paso 1. Selección de la base de datos: Para el análisis bibliométrico se seleccionó Scopus como la base de datos principal de búsqueda, dado su reconocimiento internacional y su amplia cobertura de literatura científica de alta calidad. Paso 2. Selección de palabras clave y construcción de la ecuación de búsqueda: Este paso consiste en identificar y seleccionar las palabras claves para la búsqueda de artículos científicos en la base de datos Scopus. Las palabras claves fueron: Power Quality, Harmonics, Voltage Sag, Voltage Swell, Flicker, Transients, Total Harmonic Distortion (THD), Power Quality Standards, Load Imbalance, Voltage Fluctuations, Energy Efficiency y Technical Standards. Para llevar a cabo la búsqueda y recopilación de información, se construyen ecuaciones de búsqueda utilizando combinaciones de estas palabras clave con Industrial Electrical Systems debido al contexto de la investigación. Se emplearon operadores lógicos (AND y OR). Las ecuaciones de búsqueda se ajustaron iterativamente para lograr un equilibrio óptimo entre la cantidad de artículos y su relevancia. Paso 3. Recopilación de artículos: Una vez seleccionada la base de datos y construida las ecuaciones de búsqueda, se procedió a realizar una búsqueda preliminar de artículos científicos. Los criterios para esta búsqueda preliminar incluyeron el título de los artículos y la cantidad de palabras claves en sus resúmenes. De esta primera búsqueda se obtuvieron 184 artículos. De estos 184 artículos recopilados, se aplicaron dos criterios adicionales para hacer un filtro de los estudios más relevantes. El periodo de publicación (2016 a 2024) y la relevancia del contenido, evaluando cada artículo en función a su adecuación a la temática del estudio. Como resultado, se seleccionaron 103 artículos considerados los más relevantes y pertinentes para el análisis. Paso 4. Análisis bibliométrico: Este paso consiste en realizar un análisis de los estudios recolectados utilizando para ello la herramienta VOSviewer. Los pasos que se llevaron a cabo para utilizar VOSviewer fueron los siguientes:1. Exportar la lista de los artículos seleccionados desde la base de datos Scopus en un formato adecuado; 2. Importar la lista de artículos al software VOSviewer; 3. En la pestaña de inicio del software, en la columna File, seleccionar la opción Create; 4. En la pestaña Choose type of data, seleccionar la opción Create a map based on bibliographic data. Esta opción permite crear mapas de coautoría, co-ocurrencia de palabras clave, citas, acoplamiento bibliográfico, o mapas de citas basados en datos bibliográficos; 5. En la pestaña Choose data source, seleccionar Read data from bibliographic database files y especificar el tipo de documentos que el software debe leer, como Web of Science, Scopus, Dimensions, o PubMed; 6. En la pestaña Select files, elegir el tipo de base de datos correspondiente al archivo; 7. Finalmente, en la pestaña Choose type of analysis and counting method, seleccionar el tipo de dato que se desea visualizar en el gráfico y hacer clic en "Finish".


CONCLUSIONES

En esta sección se presentan los resultados del análisis bibliométrico sobre la calidad de la potencia eléctrica en el sector industrial.Este análisis destaca la evolución de la investigación en calidad de la potencia eléctrica en el sector industrial, identificando las principales fuentes, autores, y colaboraciones que han contribuido significativamente al campo. A continuación, se detallan los resultados obtenidos del análisis realizado: Red de Fuentes de Información más Citadas: Journal of the International Measurement Confederation lidera con 71 citaciones, seguido de IEEE Access con 58 citaciones. Otras fuentes importantes incluyen IEEE Transactions on Instrumentation and Measurement, International Transactions on Electrical Energy Systems y Microprocessors and Microsystems. Red de Acoplamiento Bibliográfico por Autores: Autores como Baja M., Palanisamy R., Thentral T.M.T, y Usha S. son los más centrales en la red, indicando un alto número de citaciones y una fuerte interconexión con otros autores. Red de Acoplamiento Bibliográfico por Países: India destaca por su prominente posición en la red global de investigación, con muchas citaciones y colaboraciones internacionales. Otros países notables incluyen Arabia Saudita, Estados Unidos, Brasil, Egipto, Pakistán y Malasia. Red de Acoplamiento Bibliográfico de Organizaciones:Organizaciones como el Department of Electrical and Computer Engineering son influyentes y centrales en la red, indicando una fuerte colaboración y contribución en investigaciones conjuntas. Red de Co-ocurrencia de Palabras Clave: "Power Quality" es el término más central y relevante, con términos relacionados como "harmonic analysis", "total harmonic distortions (thd)", y "quality control" siendo también muy citados. Red de Co-citation de Fuentes Citadas: Energies, IEEE Trans Power Electron, y IEEE Access son las fuentes más citadas y relevantes en el campo.
Solorio Cázares Liliana, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara

OPTIMIZACIóN DE SONIDO EN ESPACIOS CERRADOS CON ALGORITMO DE ENJAMBRE DE PARTíCULAS


OPTIMIZACIóN DE SONIDO EN ESPACIOS CERRADOS CON ALGORITMO DE ENJAMBRE DE PARTíCULAS

Solorio Cázares Liliana, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La acústica de una sala influye significativamente en la calidad del sonido de un evento. La experiencia auditiva está directamente influenciada por elementos como la geometría, el clima, los materiales y, en particular, la ubicación de los altavoces dentro de la sala. La logística del evento, así como la concentración y la experiencia de los participantes pueden verse afectados negativamente por problemas como la falta de claridad, el volumen desigual y los ecos como resultado de una ubicación inadecuada. Este proyecto propone abordar este problema desde el punto de vista de la optimización, partiendo de la simulación de una sala, se hará uso del algoritmo de enjambre de partículas (PSO) para optimizar la colocación de altavoces dentro de la sala, buscando mejorar la calidad del sonido en puntos clave de la sala.  



METODOLOGÍA

Utilizando la biblioteca pyroomacoustics del lenguaje Python, se empleó un método basado en simulaciones computacionales para abordar la optimización de la colocación de altavoces en un espacio cerrado. Las dimensiones de la sala fueron determinadas: 10 x 5 x 3 metros; además, se determinaron las características de los materiales de construcción: el techo y las paredes tienen un coeficiente de absorción de energía de 0.25 y un coeficiente de dispersión de 0.05; y el suelo tiene un coeficiente de absorción de energía de 0.25. Se creó una simulación de la sala con una configuración arbitraria de altavoces y micrófonos, usando un total de 3 altavoces cuya distribución de sonido es omnidireccional y 5 micrófonos. Para captar la respuesta acústica en diferentes lugares, los altavoces se colocaron en lugares específicos dentro de la sala y los micrófonos se distribuyeron de manera uniforme. La respuesta en frecuencia de la sala se calculó utilizando la Transformada Rápida de Fourier (FFT) y se evaluaron métricas clave como el tiempo de reverberación (RT60), la desviación estándar y el rango dinámico de la respuesta en frecuencia. Estos parámetros iniciales sirvieron como referencia para evaluar la efectividad de la optimización. Se empleó un algoritmo de optimización por enjambre de partículas (PSO) para ajustar las posiciones de los altavoces. El objetivo del algoritmo fue minimizar la varianza de la respuesta en frecuencia y reducir el tiempo de reverberación, mejorando así la calidad del sonido en la sala. El algoritmo recalculó las métricas acústicas y modificó repetidamente las posiciones de los altavoces para lograr una configuración ideal. Durante el proceso de optimización, se establecieron límites para sus ubicaciones para asegurar que los altavoces permanecieran dentro de los límites físicos de la sala. Numerosos intentos de optimización se hicieron para encontrar la configuración más adecuada; el resultado fue la más adecuada con las métricas acústicas más adecuadas. Este experimento se realizó un total de 10 veces para obtener los resultados.    


CONCLUSIONES

Después de realizar los experimentos se obtuvo que una vez optimizadas las posiciones de los altavoces el tiempo de reverberación (RT60) tuvo una mejora del 19% aproximadamente, teniendo en cuenta que el RT60 Inicial promedio fue de 78.78 ms y el optimizado de 63.81 ms; además de que la respuesta de la respuesta en frecuencia tuvo una mejora del 2.68%, promediando inicialmente 27.09 dB y 26.37 dB una vez optimizado.  A pesar de que las simulaciones de espacios acústicos pueden llegar a ser poco exactas nos proporcionan una idea de las interacciones del sonido en una sala y en este caso observamos una mejora en cuanto a las métricas de la calidad acústica posterior a la optimización usando el algoritmo de enjambre de partículas (PSO).
Solórzano Magallanes Adriana, Instituto Tecnológico de Tepic
Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

ESTRATEGIA DE COMUNICACIóN SOCIAL Y DIVULGACIóN CIENTíFICA DE PROYECTOS DE INNOVACIóN EN CIDESI


ESTRATEGIA DE COMUNICACIóN SOCIAL Y DIVULGACIóN CIENTíFICA DE PROYECTOS DE INNOVACIóN EN CIDESI

García Gastelum Roxana, Universidad Autónoma de Occidente. Solórzano Magallanes Adriana, Instituto Tecnológico de Tepic. Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La divulgación científica es el proceso de comunicar conocimientos y avances científicos a un público no especializado, con el objetivo de hacer la ciencia accesible, comprensible y relevante para la sociedad. Sin embargo, enfrenta varios desafíos que pueden disminuir su efectividad. Uno de sus principales retos es la accesibilidad del lenguaje. Los conceptos científicos, a menudo complejos, pueden resultar intimidantes para el público general. Los divulgadores deben traducir esta complejidad en términos comprensibles sin sacrificar precisión y rigor.  Otro desafío significativo es captar y mantener el interés del público. La divulgación debe encontrar maneras creativas y relevantes de presentar la ciencia para que las personas la encuentren atractiva y aplicable a sus vidas cotidianas. Además, los recursos limitados en términos de financiamiento y personal son un reto constante. Sin suficientes recursos, estos esfuerzos pueden quedarse cortos y no tener el impacto deseado. A pesar de estos desafíos, la divulgación científica es vital para la educación y la cultura científica de la sociedad. Traduciendo conceptos complejos en un lenguaje claro y sencillo, ayuda a reducir las brechas de conocimiento y fomenta una sociedad más equitativa. Es importante distinguir entre divulgación y difusión científica. La difusión se enfoca en la comunidad académica y científica; mantiene un lenguaje técnico adecuado para profesionales del campo. Las redes sociales han transformado la comunicación social y la divulgación. Estas plataformas permiten una difusión rápida y amplia de información. A través de estas redes, instituciones e investigadores pueden interactuar con el público. Además, las herramientas analíticas de estas plataformas permiten medir el impacto y el alcance de las publicaciones. En este proyecto, el principal reto radica en comunicar de forma efectiva los hallazgos científicos, superando las barreras del lenguaje, captando el interés del público y enfrentando la limitación de recursos.



METODOLOGÍA

La metodología del proyecto se diseñó en etapas clave para asegurar una estrategia eficaz y permitir un análisis minucioso de los resultados. En primer lugar se revisó el estado del arte, donde se examinó el uso de las redes para promover la investigación académica, abordando los desafíos asociados y evaluando si los científicos pueden beneficiarse de una presencia en estas plataformas. También se analizó la divulgación científica a través de plataformas integradas de redes sociales y la popularización de la ciencia en Facebook y X. En términos estadísticos, un estudio realizado por la Sociedad Internacional de Trombosis (2024) reveló que la plataforma de redes sociales más utilizada por sus investigadores es X, con un 55.8% de usuarios activos, seguida por LinkedIn (46%) y Facebook (31.9%). Además, el 14.6% del tráfico dirigido a su sitio web desde redes sociales proviene de X (11%), seguido de Facebook (1.9%) y LinkedIn (1.7%). Además, se revisaron las motivaciones y barreras para la divulgación, así como las estrategias de comunicación empleadas para mejorar el alcance y el impacto de la ciencia en el público general. Tras la revisión del estado del arte, se procedió al análisis de un caso de estudio específico centrado en la trayectoria profesional de un grupo particular de científicos del CONAHCYT. Este grupo incluye a investigadores y sus respectivos estudiantes de maestría y doctorado, especializados en manufactura aditiva y áreas de investigación como inteligencia artificial, visión por computadora, sistemas hápticos e instrumentación. Esta información fue fundamental para adaptar el contenido de manera que refleje adecuadamente las iniciativas y logros en curso. Para lograr este objetivo, se realizó un benchmarking enfocado en evaluar el tipo de contenido que se publica y la frecuencia de las publicaciones. Este análisis permitió identificar las mejores prácticas, qué tipos de contenido generan mayor interacción y cómo se programan las publicaciones.  Por otro lado, se realizó un branding para fortalecer la identidad del proyecto y maximizar su impacto en las redes sociales. Se desarrolló una identidad visual y conceptual que refleje los valores y objetivos de los investigadores. Se eligieron las redes sociales a utilizar basado en el análisis del estado del arte, se decidió por Instagram, Facebook, X y LinkedIn; con esto se pudo desarrollar el cronograma de actividades y un calendario de contenido para asegurar la coherencia y constancia. Para la generación de contenido, se optó por crear imágenes llamativas y contenido de valor que capturara la atención del público. Se creó una sección específica para exponer los perfiles de los investigadores, destacando sus contribuciones y logros, lo que ayuda a humanizar y personalizar el contenido. Además, se incluyeron publicaciones destacadas de los artículos de divulgación emanados por el grupo, hilos con sus resultados más relevantes de las investigaciones, carruseles y resúmenes. 


CONCLUSIONES

Los resultados revelaron tendencias y comportamientos específicos de la audiencia. Se recopilaron todas las impresiones e interacciones de los posts, donde se obtuvieron 14,314 interacciones totales, el 39.69% de estas provino de X (5,681), en segundo lugar se colocó Facebook con el 24.86% (3,559), en tercer lugar se colocó Instagram con el 22.62% (3,238), mientras que LinkedIn mostró una participación menor con el 12.83% (1,836 de interacciones totales). X, con un 55.8% de usuarios activos, seguida por LinkedIn (46%) y Facebook (31.9%). Además, el 14.6% del tráfico dirigido a su sitio web desde redes sociales proviene de X (11%), seguido de Facebook (1.9%) y LinkedIn (1.7%). Este análisis destaca la importancia de X y Facebook en la estrategia, alineándose con las tendencias observadas en la comunidad científica. Las estadísticas reflejan el éxito de la estrategia; sin embargo, aunque el proyecto ha sentado las bases para una campaña de comunicación sólida, aún queda camino por recorrer. 
Solórzano Ramos Matías Eliseo, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato

PROTOTIPOS DE IOT.


PROTOTIPOS DE IOT.

Solórzano Ramos Matías Eliseo, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, se desconoce la calidad del aire que respiramos día con día. A menudo, la exposición prolongada a diversos gases y contaminantes presentes en el aire no es perceptible y muchas veces están presentes en espacios cerrados. Esta exposición continua y variada a contaminantes puede tener efectos negativos en la salud y el bienestar de las personas, incluyendo problemas respiratorios, alergias, y enfermedades crónicas. Por lo tanto, es esencial desarrollar tecnologías y sistemas que proporcionen información precisa y oportuna sobre la calidad del aire contribuyendo así a crear entornos más saludables y seguros.



METODOLOGÍA

Se desarrolló un sistema capaz de monitorear la calidad del aire en espacios cerrados, para proporcionar información precisa y en tiempo real sobre la concentración de gases y aerosoles en los espacios donde se implemente. Se llevó a cabo una investigación para seleccionar el hardware adecuado. Se eligió el sensor MQ-135, conocido por su capacidad de detectar una variedad de gases, el módulo Wi-Fi NodeMCU ESP8266 para la conectividad, y una Raspberry Pi que actuaría como bróker, gestionando la comunicación entre los dispositivos. Recibimos formación sobre los principios básicos de la programación de microcontroladores y el Internet de las Cosas (IoT). Se realizó una familiarización práctica con la placa ESP8266, entendiendo su funcionamiento y capacidades. Se realizó la conectividad entre la placa ESP8266 y el sensor MQ-135. Se programó la placa para recibir datos del sensor y se verificó la correcta obtención e impresión de estos datos en la consola de Arduino. Se diseñó y ensambló un prototipo que integraba tanto el sensor MQ-135 como la placa ESP8266. Además, se configuró el envío de datos al bróker (Raspberry Pi), que gestiona la comunicación entre dispositivos. Estos datos fueron posteriormente enviados a una aplicación web para su visualización. Se desarrolló la primera versión de la aplicación web. Esta aplicación permite a los usuarios visualizar en tiempo real los datos de calidad del aire obtenidos del sensor MQ-135, facilitando el monitoreo y análisis de estos. Se realizaron pruebas buscando una correcta funcionalidad del sistema. Se mejoró la conectividad y la precisión de los datos, y se implementaron mejoras adicionales basadas en los resultados de las pruebas.


CONCLUSIONES

Si bien obtener información de la concentración de gases en un espacio cerrado no resuelve el problema, si proporciona una visión clara y detallada de la situación. Esto es fundamental para tomar medidas preventivas que eviten riesgos de salud asociados a la exposición prolongada a ciertos gases. Este monitoreo puede servir como punto de partida para implementar soluciones integradas gracias al Internet de las Cosas (IoT). Por ejemplo, dispositivos como extractores y purificadores de aire pueden ser automatizados y activados cuando sea necesario, mejorando así el flujo de aire y reduciendo la exposición a contaminantes.
Soltero Valdez Natalia Lizeth, Instituto Tecnológico de Ciudad Juárez
Asesor: Dra. Katherinne Salas Navarro, Universidad de la Costa

DISEñO DE UN MODELO DE LOCALIZACIóN DE INSTALACIONES PARA LA CADENA DE SUMINISTRO DEL SECTOR LáCTEO DEL DEPARTAMENTO DE SUCRE EN COLOMBIA


DISEñO DE UN MODELO DE LOCALIZACIóN DE INSTALACIONES PARA LA CADENA DE SUMINISTRO DEL SECTOR LáCTEO DEL DEPARTAMENTO DE SUCRE EN COLOMBIA

Rodríguez Loya Karime, Instituto Tecnológico de Ciudad Juárez. Soltero Valdez Natalia Lizeth, Instituto Tecnológico de Ciudad Juárez. Asesor: Dra. Katherinne Salas Navarro, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La cadena de suministro del sector lácteo es un componente esencial de la economía del departamento de Sucre, Colombia, debido a su importancia tanto para la producción agropecuaria como para el abastecimiento de productos lácteos en el mercado local y regional. Sin embargo, a pesar de su relevancia, el sector enfrenta diversas dificultades relacionadas con la localización y distribución de sus instalaciones esto genera ineficiencias significativas que resultan en altos costos logísticos y largos tiempos de entrega. Por lo que es fundamental diseñar un modelo de localización de instalaciones que aborde estas problemáticas, optimizando la disposición de recursos a lo largo de la cadena de suministro. Este modelo debe considerar factores clave como las instalaciones de materia prima, la conectividad de transporte, y la demanda del mercado. Al resolver este problema, se espera mejorar la eficiencia operativa y reducir costos, beneficiando a proveedores, fabricantes y comercializadores en toda la región.



METODOLOGÍA

En esta fase metodológica se identificaron los eslabones que hacen parte de la cadena de suministro y los procesos logísticos que se relacionan entre sí, se seleccionó uno de los productos que más consumen en Colombia, el cual fue el queso costeño. Los 3 eslabones que se identificaron fueron proveedores (h), fabricantes (i) y comercializadores (j). La variable extra que se relaciona con h, i y j, es la capacidad (k). Después se procedió a identificar los municipios de los cuales estarán ubicadas las instalaciones, siendo estos Sincelejo, San Onofre, Corozal y Sampués. Se tomaron en cuenta las capacidades de producción de los proveedores y de las fábricas, la demanda mensual de los comercializadores, los costos de enviar una unidad en cada eslabón y los costos fijos de localizar las plantas. Para el modelo se utilizaron 3 variables de decisión, Xhi que especifica la cantidad enviada del proveedor h a la fábrica, Xij que especifica la cantidad enviada de la fábrica al mercado y por último Y que especifica si que sale 1 si la fábrica se localiza en el sitio i con capacidad k y 0 si la fábrica no se localiza en el sitio i con capacidad k. Lo siguiente que hicimos fue definir la función objetivo de nuestro modelo, buscando minimizar los costos totales fijos y variables. Para el correcto funcionamiento del modelo se tuvieron que establecer ciertas restricciones, en relación con la capacidad y la demanda, para que no hubiera errores de distribución, estas se pueden ver a continuación: Se utilizó una restricción de capacidad, la cual especifica que la cantidad total enviada desde un proveedor no puede exceder la capacidad de éste. Se utilizó una restricción de equilibrio, la cual establece que la cantidad enviada fuera de la fábrica no puede exceder la cantidad de la materia prima recibida. Se utilizó una restricción de capacidad, la cual asegura que la cantidad producida en la fábrica no rebase su capacidad. Se utilizó una restricción de demanda, la cual especifica que la cantidad enviada a un cliente debe cubrir la demanda. Se utilizó una restricción que obliga a que cada fábrica o comercializador este abierto o cerrado. Después de ingresar los valores anteriores en el software CPLEX, se ejecutó el modelo.


CONCLUSIONES

En esta investigación se evaluaron los desafíos significativos en términos de logística, como los costos de transporte y distribución del sector lácteo. Con la realización de la búsqueda y recopilación de datos acerca del departamento Sucre, Colombia, se pudieron encontrar valores para el costo fijo, la demanda, la capacidad de producción, el costo de transporte de dicho producto, entre otros. Los resultados obtenidos mediante el uso de CPLEX indican que habrá instalaciones en Sincelejo y San Onofre que estarán operando con baja capacidad. Estas mejoras en la ubicación de las localizaciones son cruciales para fortalecer la competitividad del sector lácteo en una región que presenta desafíos logísticos. Esto quiere decir que se logró encontrar una solución óptima con el software CPLEX, esto puede conducir a una reducción significativa en los costos operativos. Al elegir ubicaciones estratégicas, se minimizan los gastos de transporte y almacenamiento, lo que beneficia tanto a los productores como a los consumidores finales. Se recomienda la implementación del modelo propuesto como una guía para futuras inversiones y estrategias operativas, así como la realización de estudios adicionales que evalúen el impacto de las deciiones logísticas en la cadena de suministro a lo largo del tiempo.
Soperanez Garcia Leonardo Israel, Universidad de Guadalajara
Asesor: Dr. David Israel Bravo Barcenas, Universidad de Guadalajara

DETERMINACIÓN DE LA RESISTENCIA A LA BIO-CORROSIÓN ELECTROQUÍMICA DE ALEACIONES TI6ZR2FEXMO FABRICADAS POR FUNDICIÓN POR ARCO ELÉCTRICO.


DETERMINACIÓN DE LA RESISTENCIA A LA BIO-CORROSIÓN ELECTROQUÍMICA DE ALEACIONES TI6ZR2FEXMO FABRICADAS POR FUNDICIÓN POR ARCO ELÉCTRICO.

Bolaños Gaytan Luz Daniela, Universidad de Guadalajara. Soperanez Garcia Leonardo Israel, Universidad de Guadalajara. Asesor: Dr. David Israel Bravo Barcenas, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La necesidad de desarrollar aleaciones metálicas para aplicaciones biomédicas está impulsando la investigación de materiales con propiedades mecánicas y biocompatibilidad adecuadas. Las aleaciones de titanio como el Ti-6Al-4V se utilizan ampliamente. Sin embargo, la liberación de iones de aluminio y vanadio plantea riesgos para la salud y su alto módulo elástico puede provocar incompatibilidad biomecánica con el hueso humano. En este contexto, se están investigando nuevas aleaciones como Ti6Zr2FexMo que contienen molibdeno (Mo) como elemento estabilizador en la fase β-Ti. Este estudio tiene como objetivo investigar cómo los cambios en el contenido de Mo en estas aleaciones afectan su microestructura y propiedades de resistencia a la corrosión electroquímica en un ambiente simulado al corporal (electrolito y temperatura) con el propósito de posiblemente mejorar la biocompatibilidad y las propiedades mecánicas; con el objetivo de superar las limitaciones de las aleaciones convencionales.  



METODOLOGÍA

Se utilizaron polvos metálicos de titanio (Ti), circonio (Zr), hierro (Fe) y molibdeno (Mo) para preparar aleaciones Ti6Zr2FexMo con diferentes contenidos de Mo (1, 3, 5, 10 y 12 % atómico). El Zr y el Fe se mantuvieron constantes al 6 y 2 % at., respectivamente, y se utilizó Ti como balance. Antes del procesamiento, se realizó un análisis inicial del polvo mediante microscopía electrónica de barrido por emisión de campo (FE-SEM) y difracción de rayos X (DRX) para determinar la morfología y composición de los polvos de partida.   Para la preparación de la aleación, el resto de cada elemento se calculó en función de la densidad y la composición, lo que dio como resultado un peso total de 6 gramos por muestra. Los polvos se mezclaron y colocaron en moldes de acero inoxidable y se trataron previamente con estearato de zinc para reducir la fricción, durante su extracción. La mezcla se compacta utilizando una prensa hidráulica empleando una carga de 32 KN para asegurar la integridad estructural de las briquetas.   El proceso de la fundición se llevó a cabo en un horno de arco eléctrico (modelo BIGE-TEC-BIC 1207) bajo atmósfera controlada de argón, con temperaturas que alcanzaron hasta 3000 °C. Este proceso se repitió cuatro veces para asegurar la homogeneidad de las aleaciones. Los lingotes resultantes se cortaron en secciones longitudinales utilizando una cortadora de precisión y un disco de diamante; finalmente se montaron en resina acrílica para una mejor manipulación.   Se realizó una preparación superficial de las muestras, mediante un desbaste con hojas de papel de lija de carburo de silicio de grano graduado (desde 180 hasta 2500) para eliminar defectos superficiales. Luego, las muestras se pulieron con soluciones de óxido de aluminio con tamaños de partícula de 3, 1 y 0,05 µm para lograr un acabado especular a espejo. Las muestras se limpiaron en un baño de ultrasonido con agua destilada y alcohol durante 15 min, respectivamente, para eliminar residuos de grasa y abrasivos provenientes del desbaste y/o el pulido.   Para evaluar la resistencia a la bio-corrosión electroquímica de las aleaciones, se llevó a cabo un análisis de corrosión simulando condiciones de fluido corporal simulado (SBF) a una temperatura de 36.5 °C. Primero se realizaron pruebas de potencial de circuito abierto (OCP, por sus siglas en inglés) para estabilizar el potencial en aproximadamente 60 min. Posteriormente, se llevaron a cabo pruebas de polarización lineal (LPR, por sus siglas en inglés) con un potencial de ± 200 mV alrededor del OCP, y una velocidad de escaneo de 1 mV/s; con ayuda del potenciostato de la marca Corrtest Instruments, modelo CS350M, con un arreglo tradicional de tres electrodos (de referencia, Ag/AgCl, un contra electrodo de platino, y de trabajo las muestras de estudio). Para garantizar la reproductibilidad de los resultados, este análisis se repitió tres veces para cada muestra. Los datos obtenidos se procesaron y graficaron utilizando los softwares Excel, CS Studio6, OriginLab y CView, permitiendo una visualización detallada y un análisis integral del contenido de Mo en las propiedades de resistencia a la corrosión electroquímica de las aleaciones.  


CONCLUSIONES

En este estudio, se fabricaron con éxito seis aleaciones Ti6Zr2FexMo con diferentes proporciones de Mo mediante fundición por arco. Aunque no se realizó difracción de rayos X (DRX), se utilizaron herramientas de análisis de datos como Excel, CS Studio6, OriginLab y CView para evaluar las propiedades y la microestructura de la aleación. La experiencia práctica adquirida ha demostrado cómo los cambios en la composición afectan las propiedades de los materiales.   Este estudio representa un avance importante en la optimización de materiales para implantes biomédicos y, aunque aún se encuentra en sus primeras etapas, proporciona una base sólida para futuras investigaciones. Se propone investigar más a fondo la relación entre la composición de la aleación y el rendimiento biológico con el objetivo de desarrollar implantes más seguros y eficaces. Los conocimientos adquiridos servirán de base para la mejora continua en el diseño y aplicación de materiales biomédicos.   REFERENCIAS   [1]GIL, F. J., & PLANELL, J. A. (2019). Aplicaciones biomédicas de titanio y sus aleaciones. https://upcommons.upc.edu/bitstream/handle/2099/6814/Article04.pdf [2]Mitsuo Niinomi • Takayuki Narushima •  Masaaki Nakai (2015)  Advances in Metallic Biomaterials ( Volumen 4) Springer [3]Mikell O.Groover  (2010) Fundamentals of Modern Manufacturing: Materials, Processes, and Systems (5th edition) John Wiley & Sons Inc [4] Joseph D. Bronzino • Donald R Peterson (2015) The Biomedical Engineering Handbook ( Volume set) ‎CRC Pr  
Sosa Quiroz Cesar, Universidad Politécnica de Atlacomulco
Asesor: Mg. Valentina Ramirez Hernandez, Universidad Pontificia Bolivariana

CUALES SON LAS HERRAMIENTAS DE MEJORA PARA AUMENTAR LA PRODUCTIVIDAD E INDUSTRIALIZACIóN DE LA PRODUCCIóN DEL QUESO OAXACA EN LA COMUNIDAD DE ACULCO, MéXICO.


CUALES SON LAS HERRAMIENTAS DE MEJORA PARA AUMENTAR LA PRODUCTIVIDAD E INDUSTRIALIZACIóN DE LA PRODUCCIóN DEL QUESO OAXACA EN LA COMUNIDAD DE ACULCO, MéXICO.

Santiago Gonzalez Matcel Guadalupe, Universidad Politécnica de Atlacomulco. Sosa Quiroz Cesar, Universidad Politécnica de Atlacomulco. Verdejo Gutierrez Uriel, Universidad Politécnica de Atlacomulco. Asesor: Mg. Valentina Ramirez Hernandez, Universidad Pontificia Bolivariana



PLANTEAMIENTO DEL PROBLEMA

La producción de quesos artesanales en la comunidad de Aculco, Estado de México, México, a experimentado un crecimiento exponencial esto se debe a que por más de cuatro generaciones se han dedicado a la elaboración de quesos, dicho municipio se ha convertido en uno de los preferidos en cuanto a la elaboración de quesos artesanales, para que esta tradición pueda continuar las familias dedicadas han estado innovando sus productos e incluso creando nuevas bebidas energéticas a base de sueros. Actualmente la producción de quesos esta enfrentando nuevos retos y oportunidades, esto por la gran competencia de productos industriales esto representa una amenaza para la producción artesanal, sin embargo, con la creciente demanda de productos locales y orgánicos así como también el interés de los consumidores por conocer los orígenes de los alimentos está ofreciendo un panorama prometedor para esta actividad. La principal problemática es la baja productividad, poca industrialización y estandarización en la producción del queso Oaxaca en la comunidad, estos no son los únicos aspectos que se tienen en cuenta ya que las autoridades municipales estiman que existe poco mas de 200 productores que elaboran de 25 a 28 toneladas de distintos tipos de queso cada mes que son distribuidos en el centro del país o en el estado de Querétaro con el cual se tienen una alianza, al no estar cumpliendo con los estándares de producción se obtendrían perdidas de dinero que perjudicarían a la comunidad es por ello que durante el verano de investigación se indagarán las posibles metodologías que  ayuden a aumentar la productividad, como poder implementar una industria 4.0 que permita circularizar el proceso de producción.



METODOLOGÍA

Lo primero que se hizo fue hablar de problemas específicos en el cual se dio a conocer que no se tenía una producción que favoreciera a los productores, posteriormente se buscaron las causas que producen los hechos es decir las reacciones o comportamientos que provoca estos problemas teniendo en cuenta los problemas y las causas se llego a la muestra de los efectos finales o mejor dicho el pronostico de lo que pasara si los hechos no se atienden de manera adecuada de esta manera se llegó a una sistematización del problema en la cual dio como resultado una pregunta que  durante el verano de investigación se buscara la respuesta. Una vez formulado el planteamiento del problema se analizó conceptos claves para entender la importancia de una buena implementación de ingeniería de métodos y la jerarquía de las herramientas de Lean Manufacturing, se revisó el pensamiento sistemático para analizar de manera ordenada como es que las variables interactuaban en la investigación. La elaboración de la Matriz del estado del arte permitió ordenar los artículos científicos que se investigaron, posteriormente se realizo la Matriz de marco teórico las cual toma parte de la Matriz del estado del arte, en esta matriz se relacionó en forma de cuadro las palabras que más coincidían y tenían mucha importancia para la investigación, las cuales  comparan diferencias y similitudes, de esta manera se pudieron crear conceptos propios para poder mantenerlos claros y presente durante la investigación. Posteriormente se llevó a cabo la elaboración de la justificación teórica habla sobre lo que se necesita para poder incrementar la productividad de quesos, donde se consideraron herramientas de productividad y normativas que sean necesarios para que esto sea posible, además de algunos factores que influyen para la optimización, en este apartado igual se mencionó las tecnologías que se aplican y como será el control de calidad para la productividad. Para poder tener presentes cuales son las causas de las causas se realizo el diagrama de árbol en este diagrama se identificó los problemas que afectan al proyecto que se quiere resolver, los problemas se van identificando desde un problema central y se desglosa con problemas directos e indirectos y problemas fundamentales. Tomando el árbol de problemas se pudo realizar el árbol de objetivos completo que tiene la finalidad de resolver con una propuesta o dar solución a los problemas identificados partiendo desde el problema central o propósito.


CONCLUSIONES

Se percato que todo proceso de producción debe tener una buena ingeniería de métodos establecidos para que de ahí se puedan implementar mejores estrategias que evalúen y den seguimiento a los procesos productivos, tener una documentación de todas las actividades que surjan a partir de ahí, ayudará a evaluar los resultados y gestionar las necesidades que surjan en las empresas, el objetivo es controlar, optimizar y no perder la tradición que se tiene con los quesos elaborados en la comunidad de Aculco, de esta manera se hizo uso de la jerarquización de las herramientas de Lean Manufacturing.
Sotelo Ayala Esmeralda, Instituto Tecnológico de Ciudad Guzmán
Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América

FACTORES ASOCIADOS AL DESCONOCIMIENTO EN LA INTELIGENCIA ARTIFICIAL POR PARTE DE LOS DOCENTES


FACTORES ASOCIADOS AL DESCONOCIMIENTO EN LA INTELIGENCIA ARTIFICIAL POR PARTE DE LOS DOCENTES

Castillo Palacios Karely Sarahi, Instituto Tecnológico de Ciudad Guzmán. Sotelo Ayala Esmeralda, Instituto Tecnológico de Ciudad Guzmán. Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

En el presente estudio de una universidad situada en México se plantea una investigación para conocer más sobre la experiencia y el interés que se tiene en la Inteligencia Artificial (IA) en los docentes, basándose en el método de enseñanza que pueda llegar a ser difícil de implementar en un entorno educativo tradicional en el que se encuentra. La Inteligencia artificial (IA) ha tenido un avance rápido que transforma incluso la educación. Sin embargo, la comprensión como la Capacitación de docentes enfrenta varios obstáculos, por lo que se deberá observar los principales factores que intervienen entre los docentes.   



METODOLOGÍA

Se realizó una entrevista de manera virtual a los docentes en una universidad situada en México, observando y analizando los principales factores que influyen en el desconocimiento de herramientas para el uso de la Inteligencia Artificial y su integración en la enseñanza.    


CONCLUSIONES

Con los resultados obtenidos, se logró identificar las principales barreras, que son: Falta de capacitacion, Resistencia al cambio, y  Desconocmiento de la herrmienta  Con esto, se podrá realizar una evaluación de las concecuencias de estas barreras en la calidad de la enseñanza y la formación de los estudiantes y proponer estrategias o soluciones para mejorar las capacitaciones de los docentes.
Soto Arce Eunice Yolanda, Instituto Tecnológico de Culiacán
Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)

DESARROLLO DE MODO DE VUELO PARA DRON


DESARROLLO DE MODO DE VUELO PARA DRON

Soto Arce Eunice Yolanda, Instituto Tecnológico de Culiacán. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El uso de drones en aplicaciones comerciales, como fotografía aérea, entrega de paquetes, y monitoreo ambiental, ha crecido exponencialmente en los últimos años. Los modos de vuelo no autónomos, donde un operador humano controla el dron, son cruciales para muchas de estas aplicaciones debido a la necesidad de decisiones humanas precisas y control directo. Los modos de vuelo no autónomos disponibles actualmente a menudo presentan desafíos que dificultan su uso eficiente en aplicaciones comerciales. Estos desafíos incluyen una interfaz de usuario poco intuitiva, falta de asistencia en el control de vuelo para operadores menos experimentados, y dificultades en la estabilidad y precisión del vuelo en condiciones ambientales variables. Por lo que durante la estancia de verano mi propósito es desarrollar un modo de vuelo en el que el usuario siempre tenga una buena experiencia al volar el dron, aun y cuando su experiencia como piloto sea nula.



METODOLOGÍA

Se realizó una revisión de literatura con el fin de conocer y entender el principio de funcionamiento de un dron multirrotor. Se utilizó además SIMMULINK como medio de desarrollo de simulaciones para el estudio de modelo dinámico de un dron, por medio de dichas simulaciones se realizaban pruebas ingresando distintos parámetros (velocidad de rotores, altura deseada y grados de inclinación) para posteriormente realizar un análisis de comportamiento del dron mediante la ayuda de gráficas brindadas por el mismo software. Se trabajó con el dron armable HAWK’S WORK F450 que es un kit que incluye todo lo necesario para armar tu propio dron, una vez armado el se procede a calibrar para que su vuelo sea lo más estable posible, para la calibración del Pixhawk, controlador de vuelo, se utilizó el software Mission Planner debido a que era el que el fabricante recomendaba. De igual forma en Mission Planner se configuró el control remoto Flysky FS-i6 y se agregaron los modos de vuelo a las palancas correspondientes. Se requirió instalar el sistema operativo Ubuntu con el fin de usar Ardupilot y gazebo para realizar modificaciones en el código y generar simulaciones en gazebo respecto a las programaciones realizadas. En base a las librerías de modos de vuelo ya existentes dentro de la carpeta de Ardupilot se procede a crear un nuevo modo de vuelo que se base en el comportamiento que se requiera para la misión que se vaya a realizar, esto siempre apoyados de documentación brindada por Ardupilot. Una vez realizado el modo de vuelo propio se prueba mediante software in the loop esto con ayuda de gazebo para conocer si tendrá alguna inconsistencia o que simplemente todo funcione de manera correcta, si funciona todo de forma correcta se reprograma el control remoto para agregar este nuevo modo de vuelo y se prueba en el dron físicamente.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos sobre el funcionamiento y programación de un dron no comercial, es decir ensamblado, calibrado y programado por mí misma, durante la estancia comencé a desarrollar mi propio modo de vuelo pero al tener poco conocimiento sobre la programación de estos mismo fue una traba constante, se espera que termine mi modo de vuelo para poder probarlo en gazebo mediante software in the loop, y posteriormente poder implementar este modo de vuelo en un dron real.
Soto Geraldo Fabricio, Universidad de Guadalajara
Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez

AJUSTE DE UN MODELO BASADO EN áRBOLES DE DECISIóN PARA LA PREDICCIóN DEL RENDIMIENTO EN LA PRUEBA SABER T&T


AJUSTE DE UN MODELO BASADO EN áRBOLES DE DECISIóN PARA LA PREDICCIóN DEL RENDIMIENTO EN LA PRUEBA SABER T&T

Félix Félix Rogelio, Instituto Tecnológico de Culiacán. Soto Geraldo Fabricio, Universidad de Guadalajara. Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez



PLANTEAMIENTO DEL PROBLEMA

En Colombia, la prueba Saber T&T es un examen estándar que evalúa las competencias y conocimientos de los estudiantes en diversas áreas académicas. Sin embargo, los resultados de esta prueba a menudo reflejan profundas desigualdades en el sistema educativo, influenciadas por factores socioeconómicos, geográficos y académicos. Entre las principales causas que afectan el rendimiento en la prueba Saber T&T se encuentran la calidad de la infraestructura escolar, la formación de los docentes, el acceso a recursos educativos y la situación económica de las familias. Estas causas se manifiestan en síntomas como la disparidad en los resultados entre diferentes regiones del país, el bajo rendimiento general en áreas críticas como matemáticas y lenguaje, y una alta tasa de deserción escolar.   Para abordar este problema, se propone desarrollar un modelo de predicción basado en árboles de decisión que permita identificar los factores más determinantes en el rendimiento de los estudiantes en la prueba Saber T&T. Los árboles de decisión son especialmente adecuados para esta tarea debido a su capacidad para manejar datos categóricos y numéricos, su interpretabilidad y su eficacia en la detección de interacciones no lineales entre variables. El modelo ayudará a prever el rendimiento de los estudiantes con base en variables como el nivel socioeconómico, el desempeño académico previo, la asistencia a clases, y otros factores contextuales. Esta herramienta de predicción permitirá a los educadores y responsables de políticas educativas diseñar intervenciones específicas y focalizadas para mejorar el rendimiento académico y reducir las desigualdades.   Para asegurar la validez y precisión del modelo de predicción, se implementará un proceso riguroso de validación cruzada y ajuste de hiperparámetros. Además, se utilizarán técnicas de análisis de sensibilidad para evaluar la robustez del modelo frente a variaciones en los datos de entrada. Los resultados del modelo serán comparados con datos históricos para verificar su capacidad predictiva. Una vez validado, el modelo será una herramienta valiosa para la toma de decisiones informadas en el ámbito educativo, permitiendo identificar de manera proactiva a los estudiantes en riesgo de bajo rendimiento y diseñar estrategias de apoyo personalizadas. De esta forma, se podrá intervenir de manera efectiva para mejorar el desempeño en la prueba Saber T&T y, en última instancia, contribuir a la equidad y calidad del sistema educativo colombiano.



METODOLOGÍA

En un reciente proyecto de investigación que adopta un enfoque metodológico mixto, se emplea la metodología CRISP-DM para explorar, describir y correlacionar variables clave que influyen en la eficacia de los programas de intervención educativa. El estudio inicialmente aplica un diseño exploratorio para identificar factores poco conocidos que podrían afectar los resultados de dichos programas. Utilizando técnicas de minería de datos junto con encuestas cualitativas, el proyecto busca descubrir nuevas relaciones y patrones que no han sido ampliamente documentados en la literatura existente.   En la fase descriptiva, el proyecto utiliza la recopilación y el análisis de datos para ofrecer un panorama detallado de las características observadas en la muestra estudiada. Este análisis descriptivo ayuda a establecer un perfil claro de los variables como el rendimiento académico y la eficacia del docente dentro del programa. A través de la metodología CRISP-DM, se estructura la recopilación y preparación de los datos, garantizando que la interpretación de los mismos sea adecuada para formular conclusiones precisas sobre el estado actual de los programas evaluados.   Finalmente, la fase correlacional del estudio se centra en identificar y cuantificar las relaciones entre las variables descriptas. Utilizando técnicas estadísticas avanzadas dentro del marco de CRISP-DM, el estudio no solo confirma relaciones conocidas, sino que también explora conexiones emergentes, proporcionando insights valiosos para futuras intervenciones y políticas educativas. Este enfoque integrado asegura que el análisis sea exhaustivo y que los hallazgos puedan aplicarse para mejorar prácticas y resultados en contextos educativos similares.


CONCLUSIONES

Se logró una comprensión integral de la prueba Saber T&T, identificando sus componentes clave y el contexto educativo en el que se aplica. Esto permitió una base sólida para definir y modelar los conceptos pertinentes a la evaluación. La exploración de datos permitió identificar las variables más significativas y detectar problemas de calidad, como valores nulos o inconsistencias. Se realizó una limpieza exhaustiva de los datos, eliminando errores y completando valores faltantes, lo cual mejoró la calidad del conjunto de datos. Posteriormente, se transformaron y seleccionaron las variables relevantes. Se implementaron algoritmos de árboles de decisión combinados con técnicas de ensamble, como el bagging y boosting, para construir modelos robustos y precisos. Estas técnicas mejoraron significativamente la capacidad predictiva y la generalización del modelo. Los modelos fueron evaluados exhaustivamente utilizando métricas de rendimiento, destacándose en términos de exactitud y ROCAUC. Los resultados indicaron un alto nivel de precisión y una excelente capacidad discriminativa, validando la efectividad del enfoque adoptado.
Soto Herrera Miguel Angel, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

COMPARACIóN DE LA PELIGROSIDAD EN LAS CUENCAS DEL RíO GRANDE DE MORELIA


COMPARACIóN DE LA PELIGROSIDAD EN LAS CUENCAS DEL RíO GRANDE DE MORELIA

Soto Herrera Miguel Angel, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, la ciudad de Morelia ha sufrido inundaciones debido a precipitaciones extremas. Sin embargo, la mayoría de los estudios se han centrado en los daños, sin abordar adecuadamente las causas subyacentes. La cuenca del río Grande, clave para la ciudad de Morelia, carece de una caracterización detallada que permita entender su respuesta a eventos de lluvia intensa. Esta falta de información impide una gestión eficaz del riesgo hídrico y el diseño de infraestructuras adecuadas. Es crucial identificar las subcuencas dentro de la cuenca del río Grande que presenten mayor riesgo de inundación, basándose en factores como la capacidad de infiltración del suelo, la pendiente y la forma de la cuenca. Este estudio busca proporcionar una comprensión más profunda de las causas de las inundaciones y orientar el desarrollo de estrategias de mitigación, abordando un problema crítico en la gestión de recursos hídricos en la región.



METODOLOGÍA

Se realizó la caracterización de la cuenca del río Grande, determinando un área de 1392.92 km², un perímetro de 232.37 km y una longitud del cauce principal de 79.71 km. Se generaron mapas de uso y tipo de suelo, revelando que la vegetación y los bosques son los principales usos del suelo en la región. El análisis del tipo de suelo indicó una predominancia de acrisoles, los cuales tienen baja capacidad de infiltración de agua, lo que provoca un aumento en el escurrimiento superficial y, en consecuencia, aumenta el riesgo de inundaciones. Las características geomorfológicas de la cuenca mostraron que se trata de una cuenca alargada, lo cual contribuye a un tiempo de concentración lento. Este comportamiento se confirmó con la pendiente media, que resultó ser del 1.12%, indicando un tiempo de respuesta hidráulica también lento. La cuenca fue subdividida en 18 subcuencas, de las cuales se analizaron sus características geomorfológicas. Adicionalmente, se realizó la gestión, selección y validación de estaciones climatológicas. Inicialmente se consideraron 50 estaciones, y mediante pruebas estadísticas se seleccionaron 12 estaciones principales. Estas estaciones cumplieron con los criterios estadísticos necesarios, como homogeneidad, tendencia e independencia, y abarcan el periodo de 1960 a 2017. Esta selección permitió obtener datos de precipitación precisos para la cuenca. Utilizando el método de Thornthwaite, se calculó la evapotranspiración potencial para cada estación, y mediante técnicas de interpolación se determinaron los valores para toda la cuenca. Con los datos de precipitación y evapotranspiración potencial, se obtuvo el índice de humedad del suelo. Para cada una de las subcuencas, se determinarán los hidrogramas, que son gráficos que muestran cómo varía el caudal de un río a lo largo del tiempo en respuesta a una tormenta o evento de precipitación. Estos hidrogramas se generarán mediante modelación en el software HEC-HMS (Hydrologic Engineering Center's Hydrologic Modeling System). Este software permitirá simular y analizar el comportamiento hidrológico de las cuencas bajo diferentes condiciones de lluvia y escurrimiento. Los hidrogramas obtenidos se utilizarán para evaluar los gastos de agua o caudales máximos asociados a diferentes periodos de retorno, como 5, 10, 25 y 50 años. Estos periodos de retorno representan la frecuencia con la que se espera que ocurra un determinado evento de caudal extremo, proporcionando información crucial para la planificación y gestión del riesgo de inundaciones en la cuenca. Esta información es esencial para el diseño de infraestructuras hidráulicas y la implementación de medidas de mitigación de riesgos hídricos.


CONCLUSIONES

Se espera que este estudio proporcione una identificación clara de las subcuencas dentro de la cuenca del río Grande que presentan el mayor riesgo de inundaciones. Al analizar factores como la capacidad de infiltración del suelo, la pendiente y la morfología de la cuenca, se podrán destacar las áreas que son más vulnerables a los eventos de precipitaciones extremas. Identificar las subcuencas más peligrosas permitirá priorizar las medidas de mitigación y diseñar infraestructuras adecuadas para minimizar el impacto de las inundaciones en la región. Además, este conocimiento contribuirá a una mejor gestión del riesgo hídrico, facilitando la toma de decisiones informadas para proteger tanto a la población como a la infraestructura en el estado de Michoacán.
Soto López Montserrat, Universidad de Guadalajara
Asesor: Dra. Rosa Maria Jimenez Amezcua, Universidad de Guadalajara

MATERIALES SUSTENTABLES Y NANOMATERIALES


MATERIALES SUSTENTABLES Y NANOMATERIALES

Flores García Alejandra, Instituto Tecnológico Superior de Uruapan. Soto López Montserrat, Universidad de Guadalajara. Asesor: Dra. Rosa Maria Jimenez Amezcua, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los nanomateriales aplicados de forma sustentable en el mobiliario son viables, contemplando la poca sustentabilidad del material con el que son fabricados, además, el mobiliario actual no cumple con la antropometría correctamente basándonos en las medidas y percentil de los estudiantes. Desde la perspectiva del diseño, consideramos que la universidad puede fabricar su propio mobiliario, creando una economía circular y centrándose apropiadamente en el diseño centrado al usuario, brindando un mejor servicio al alumnado y personal académico.



METODOLOGÍA

La metodología de diseño que aplicamos para este proyecto es conocida como Metodología Por Modelo General del Proceso de Diseño, (UAM AZC), la cual consiste en 5 etapas: Caso, problema, hipótesis, proyección y realización.


CONCLUSIONES

Con base a los datos recolectados y proporcionados, obtuvimos un diseño de mobiliario adaptable. Aún se está trabajando en el modelado y fabricación, pero el proceso ha sido favorable.
Suarez Cardenas Rubén Alejandro, Universidad Pontificia Bolivariana
Asesor: M.C. Daniel Delgado de la Torre, Universidad Autónoma de Guerrero

DEGRADACIÓN DE LA VIVIENDA EN LA COSTA CHICA DEL ESTADO DE GUERRERO


DEGRADACIÓN DE LA VIVIENDA EN LA COSTA CHICA DEL ESTADO DE GUERRERO

Suarez Cardenas Rubén Alejandro, Universidad Pontificia Bolivariana. Asesor: M.C. Daniel Delgado de la Torre, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

La Costa Chica del estado de Guerrero, que incluye tanto zonas de Oaxaca como de Guerrero, enfrenta serios desafíos en la degradación de sus viviendas debido a fenómenos naturales y condiciones ambientales adversas. Esta región, históricamente influenciada por técnicas constructivas africanas y tradiciones locales, ha utilizado métodos como el Bahereque, que combina carrizo, bambú y barro. Estas técnicas están adaptadas al clima cálido y húmedo del litoral, ofreciendo cierto grado de durabilidad y confort. No obstante, en las últimas décadas, la transición hacia materiales de construcción modernos como el block de cemento, el tabique rojo recocido y las láminas galvanizadas ha transformado el panorama constructivo en la región. Aunque estos materiales han sido adoptados por su durabilidad y costo relativamente bajo, han demostrado ser inadecuados frente a las condiciones específicas del entorno costero, particularmente en lo que respecta a la corrosión y la resistencia a fenómenos meteorológicos extremos. La creciente frecuencia e intensidad de eventos climáticos extremos, tales como huracanes y tormentas tropicales, ha agravado los problemas de degradación de las viviendas. Estos fenómenos afectan tanto la estructura de los edificios como la calidad de vida de los residentes, evidenciando una brecha entre las soluciones constructivas tradicionales y los materiales modernos. La pérdida de las técnicas constructivas vernáculas, junto con el deterioro acelerado de las viviendas construidas con materiales modernos, subraya la necesidad de un análisis detallado para comprender mejor cómo estos factores impactan la durabilidad, el confort y la sostenibilidad de las viviendas en la Costa Chica.



METODOLOGÍA

La metodología empleada en esta investigación se diseñó para abordar de manera exhaustiva la problemática de la degradación de viviendas en la Costa Chica. La investigación se inició con visitas de campo extensivas, durante las cuales se llevaron a cabo levantamientos físicos detallados y se realizaron reportes fotográficos de las viviendas en diversas localidades de la región. Estas visitas permitieron documentar las condiciones actuales de las viviendas, identificando tanto los materiales tradicionales como los modernos empleados en su construcción. Para evaluar los efectos de los materiales utilizados, se realizó un análisis comparativo entre las técnicas constructivas tradicionales, como el uso de adobe y techos de palma, y los materiales modernos como el block de cemento, las láminas galvanizadas y las de cartón. Este análisis incluyó una evaluación de la resistencia de estos materiales a la humedad, la corrosión y el viento, así como su capacidad para soportar las condiciones adversas del ambiente salino costero. Adicionalmente, se llevaron a cabo entrevistas con residentes locales y expertos en construcción para obtener información cualitativa sobre el confort, las prácticas de mantenimiento y las percepciones sobre la eficacia de los diferentes materiales. Estas entrevistas proporcionaron perspectivas valiosas sobre las deficiencias observadas en la vida cotidiana de los residentes. Finalmente, se realizó una comparación entre las viviendas construidas bajo programas gubernamentales y las construidas con métodos tradicionales. Esta comparación se centró en la durabilidad, los costos de mantenimiento y la resistencia a fenómenos naturales. La metodología empleada permitió obtener una visión integral de los desafíos enfrentados por las viviendas en la Costa Chica y proponer recomendaciones basadas en un análisis exhaustivo.


CONCLUSIONES

Los resultados de la investigación destacan que, aunque los materiales modernos como el block de cemento y las láminas galvanizadas ofrecen ciertos beneficios en términos de durabilidad inicial y costos, no siempre son adecuados para las condiciones específicas de la Costa Chica. Estos materiales presentan problemas significativos en cuanto a resistencia a la corrosión y adaptabilidad al ambiente salino, lo que acelera su deterioro y afecta negativamente la vida útil de las viviendas. Por otro lado, las técnicas constructivas tradicionales, que emplean materiales como adobe y techos de palma, aunque más adaptadas al clima local, están en riesgo de desaparecer debido a la modernización y a la falta de mantenimiento adecuado. La pérdida de estas técnicas no solo implica una pérdida cultural, sino también una disminución en la adaptabilidad y resiliencia de las viviendas frente a fenómenos meteorológicos extremos. La investigación concluye que una solución efectiva podría ser la integración de elementos tradicionales con materiales modernos más resistentes. Esta combinación permitiría aprovechar las ventajas de ambos enfoques, mejorando la durabilidad y sostenibilidad de las viviendas. Además, es crucial implementar programas de mantenimiento continuo para preservar tanto las estructuras tradicionales como las modernas. Las recomendaciones incluyen el desarrollo de materiales de construcción que sean más adecuados para el ambiente costero y la promoción de prácticas de mantenimiento regular para prolongar la vida útil de las viviendas. Adaptar las técnicas constructivas a las condiciones locales y los desafíos climáticos es esencial para garantizar la resiliencia y el confort a largo plazo en la Costa Chica.
Suarez Garcia Fernando Yered, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Alejandro Garza Galicia, Universidad del Valle de Atemajac

ANALISIS DEL POTENCIAL DE LA CONCENTRACIóN SOLAR


ANALISIS DEL POTENCIAL DE LA CONCENTRACIóN SOLAR

Bernal Pérez Luis Ángel, Instituto Politécnico Nacional. Castillo Rojas Carlos Antonio, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Guerrero Niño Felipe Eugenio, Universidad Politécnica de Altamira. Jiménez Romero Aída Yolanda, Universidad de Guadalajara. Lara Amado Jesus Modesto, Tecnológico de Estudios Superiores de Valle de Bravo. Suarez Garcia Fernando Yered, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Alejandro Garza Galicia, Universidad del Valle de Atemajac



PLANTEAMIENTO DEL PROBLEMA

El cambio climático y la crisis energética representan dos de los desafíos más urgentes y complejos de nuestra era. Las emisiones de gases de efecto invernadero (GEI), resultantes principalmente de la quema de combustibles fósiles, han contribuido significativamente al calentamiento global, causando efectos adversos en el medio ambiente, como el aumento del nivel del mar, eventos meteorológicos extremos y la pérdida de biodiversidad. En el contexto de México y muchos otros países en desarrollo, la dependencia de fuentes de energía no renovables no solo agrava estos problemas ambientales, sino que también limita el acceso a energía limpia y accesible para la población. México, en particular, enfrenta una situación crítica debido a su creciente demanda de energía, la cual no puede ser satisfecha de manera sostenible con las tecnologías y recursos actuales. Esto ha generado un aumento en las emisiones de GEI, colocando al país en una posición donde debe equilibrar la necesidad de desarrollo económico con la protección del medio ambiente. A nivel global, la transición hacia energías renovables es vista como una solución clave para mitigar el cambio climático. Sin embargo, esta transición enfrenta múltiples desafíos técnicos, económicos y sociales, especialmente en países con infraestructuras limitadas y diversas condiciones climáticas.



METODOLOGÍA

El presente proyecto de investigación se centró en la evaluación de diversas tecnologías de generación de energía con el objetivo de desarrollar un software de apoyo a la toma de decisiones. Este software busca integrar consideraciones económicas, sociales, medioambientales y culturales para optimizar la generación y uso de energía en México. Se llevaron a cabo pruebas experimentales utilizando los siguientes equipos: Concentrador solar tipo CCP Estufa solar Estufa de gas Estufa eléctrica Panel solar fotovoltaico Motor Stirling Durante un periodo de siete semanas, se recolectaron datos experimentales utilizando una serie de sensores especializados, tales como anemómetros para medir la velocidad del viento, termopares para monitorear temperaturas, multímetros para registrar parámetros eléctricos y sensores de radiación para evaluar la intensidad de la radiación solar. Toda la información recopilada fue almacenada en una base de datos centralizada, diseñada para facilitar el análisis y la interpretación de los datos. Asimismo, se elaboró un software en Python que implementa conexiones a las bases de datos donde registramos las mediciones por cada tecnología implementada, factores para la toma de decisiones, variables de eficiencia y finalmente, un árbol de decisión que toma las siguientes consideraciones: Factores económicos: En donde toma en consideración el costo de implementación, operación y mantenimiento de las tecnologías evaluadas. Factores sociales: Considerando la accesibilidad de las tecnologías y su impacto en la calidad de vida de las comunidades. Factores medioambientales: Buscando la reducción de emisiones de GEI, protección a la salud humana y conservación de recursos naturales. Factores culturales: Buscando en un futuro que la escalabilidad del proyecto generé una aceptación y adaptación de las tecnologías en contextos culturales específicos.


CONCLUSIONES

Las pruebas experimentales arrojaron los siguientes resultados de eficiencia para cada tecnología evaluada: Concentrador solar tipo CCP: Eficiencia máxima de 31% Estufa de gas: Eficiencia de 63% Estufa solar: Eficiencia de 19% Estufa eléctrica: Eficiencia de 57% Estos datos proporcionan una base sólida para el desarrollo del software, que busca ofrecer recomendaciones sobre la mejor combinación de tecnologías para diferentes escenarios y condiciones locales. La implementación de colectores solares y otras tecnologías de energía renovable presenta desafíos significativos debido a la geometría solar y las condiciones climáticas adversas. Factores como la variabilidad en la intensidad de la radiación solar, la disponibilidad de recursos naturales y la infraestructura existente limitan la eficiencia y la viabilidad de estas tecnologías en ciertas regiones. Sin embargo, este proyecto ha demostrado que es posible avanzar hacia una transición energética sostenible mediante el uso de herramientas de decisión integrales y bien informadas, que consideran una amplia gama de factores y que priorizan la sostenibilidad medioambiental y el bienestar social. Este enfoque holístico es crucial para asegurar que la transición energética no solo sea técnicamente viable, sino también equitativa y respetuosa con los ecosistemas locales y las comunidades.
Suárez Molina Lina Fernanda, Fundación Universitaria del Área Andina
Asesor: Mg. Jairo Enrique Parra Herrera, Institución Universitaria Politécnico Grancolombiano

ANáLISIS DE LAS OPERACIONES DE LOS BANCOS DE ALIMENTOS EN COLOMBIA


ANáLISIS DE LAS OPERACIONES DE LOS BANCOS DE ALIMENTOS EN COLOMBIA

Huerfano Reyes Lady Tatiana, Fundación Universitaria del Área Andina. Suárez Molina Lina Fernanda, Fundación Universitaria del Área Andina. Asesor: Mg. Jairo Enrique Parra Herrera, Institución Universitaria Politécnico Grancolombiano



PLANTEAMIENTO DEL PROBLEMA

El problema de la inseguridad alimentaria en Colombia es un desafío persistente, a pesar de la riqueza natural con que se cuenta, teniendo el potencial para ser una despensa alimentaria. Según datos oficiales la prevalencia de inseguridad alimentaria moderada o grave en los hogares del país fue del 28,1%.. Esta situación se agrava en ciertas regiones y ciudades, donde los índices de inseguridad alimentaria son aún más altos, en donde algunos superan el 40%, como sucede en la región pacífica. Los bancos de alimentos surgen como una respuesta a esta problemática, recolectando y distribuyendo alimentos a las poblaciones más vulnerables. Sin embargo, a pesar de su importante labor, existen interrogantes sobre su verdadero impacto y eficiencia. ¿Están logrando reducir significativamente la inseguridad alimentaria? ¿Cuáles son los desafíos que enfrentan en su operación? ¿Cómo pueden mejorar su colaboración con otros actores sociales para ampliar su alcance? Para responder a estas preguntas, se propuso el desarrollo de una revisión documental que permitiera identificar impacto de los bancos de alimentos en diferentes dimensiones. En función de los hallazgos del proceso de revisión de literatura se propone evaluar la capacidad de los bancos en sus contextos regionales y como impactan las poblaciones más necesitadas, las características de los alimentos distribuidos, y su operación logística.



METODOLOGÍA

Para el desarrollo de este estudio empleará un enfoque mixto para cómo operan los bancos de alimentos en Colombia. Se combinarán métodos cuantitativos, como encuestas a diversas partes interesadas, y cualitativos, como observaciones directas y entrevistas en profundidad. La población que se espera indagar son administradores, colaboradores de los bancos de alimentos, empresas donantes y beneficiarios. Los datos recolectados permitirán evaluar la frecuencia y calidad de los alimentos distribuidos, los beneficiarios, y la percepción general del servicio. Para relacionar la operación de los bancos de alimentos, incluyendo observaciones directas, análisis de documentos y entrevistas.  El propósito es presentar una descripción general del papel de los bancos de alimentos en Colombia, identificando sus fortalezas, desafíos y oportunidades de mejora. Los resultados de esta investigación servirán como base para el diseño de políticas públicas y estrategias más efectivas para combatir la inseguridad alimentaria en el país.


CONCLUSIONES

Como resultado de este proyecto de pasantía de investigación se identifican los siguientes elementos frente al estudio: • Los Bancos de Alimentos en Colombia son actores clave en la mejora de la seguridad alimentaria en el país. Al establecer una red de distribución y colaboración, han logrado reducir la inseguridad alimentaria y mejorar la calidad de vida de millones de personas.  • El estudio proporciona una visión general de la operación de los bancos de alimentos, se debe seguir con el proceso de recolección de información, etapa aun en desarrollo para con ayuda de las entrevistas identificar en detalle las operaciones diarias de los bancos de alimentos, sus desafíos específicos y las necesidades de las comunidades a las que sirven.
Suriano Natarén Amairany, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE PROTOTIPOS: HORNO DE VITROFUSIóN, EXPRIMIDOR DE PIñAS Y EXTRUSOR DE FILAMENTO


DESARROLLO DE PROTOTIPOS: HORNO DE VITROFUSIóN, EXPRIMIDOR DE PIñAS Y EXTRUSOR DE FILAMENTO

Carlos Patricio Isaac Emmanuel, Universidad Autónoma de Ciudad Juárez. Chab Contreras Diana Elizabeth, Universidad Autónoma de Yucatán. Espinoza Franco Sofia, Universidad Autónoma de Ciudad Juárez. Haro Bustamante Ana Laura, Universidad de Guadalajara. Leon Cancino Jesus Eduardo, Instituto Tecnológico de Tuxtla Gutiérrez. Martinez Cerino Paola Yosabeth, Instituto Tecnológico de Pachuca. Rodríguez Hernández Evelyn, Universidad de Guadalajara. Suriano Natarén Amairany, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La innovación tecnológica en el desarrollo de dispositivos industriales es fundamental para mejorar la eficiencia y calidad de los procesos productivos. Sin embargo, en muchas industrias, la adopción de tecnologías avanzadas se ve limitada por la falta de herramientas adecuadas que respondan a necesidades específicas de producción. En particular, se observa una carencia de soluciones efectivas en el ámbito de la vitrofusión, el procesamiento de frutas (como la extracción de jugo de piñas), y la fabricación de filamentos para impresión 3D. Cada prototipo presenta desafíos específicos en términos de diseño, integración de componentes electrónicos y optimización de funcionalidad. Este trabajo se centra en la cotización de materiales, diseño detallado, pruebas de componentes, programación y armado, con el objetivo de producir prototipos eficientes y funcionales



METODOLOGÍA

El desarrollo del primer prototipo de un horno de vitrofusión incluyó el diseño de una estructura con apertura en el plano (X, Z). La cápsula metálica, sin considerar la altura de las patas y tomando en cuenta la tapa superior e inferior, tiene dimensiones de 140 cm x 90 cm x 60 cm, y permite un rango de temperatura operativa de 80°C a 1300°C. Definieron las especificaciones técnicas, se elaboraron los planos correspondientes en el software SolidWorks. Con estos planos y especificaciones técnicas, se procedió a la cotización y adquisición de los materiales necesarios. Con los materiales, se realizaron pruebas exhaustivas de los componentes electrónicos para asegurar su funcionalidad y compatibilidad con el diseño del horno, estos componentes fueron integrados en la estructura del horno. Finalmente, se procedió al ensamblaje de la estructura del horno, utilizando principalmente soldadura y herramientas de medición, corte y esmeril. El segundo prototipo desarrollado es un exprimidor de piñas, el cual genera jugo por presión mecánica entre la base y un mazo fijado al techo de su soporte del exprimidor. La estructura esta diseñada para acomodar diversos tamaños de fruta. El proceso de desarrollo comenzó con el diseño del exprimidor en el software SolidWorks, donde se elaboró un esquema detallado del dispositivo, incluyendo todas las partes mecánicas y su ensamblaje. Este diseño permitió definir claramente las especificaciones y requerimientos técnicos. Una vez completado el diseño con los materiales disponibles, se realizaron pruebas para asegurar la operatividad, a diferencia de sistemas automatizados, este prototipo utiliza una manivela que permite a una persona ejercer la fuerza necesaria para operar el gato hidráulico. Finalmente, se armó la estructura del exprimidor utilizando técnicas de ensamblaje como soldadura y herramientas de precisión. El desarrollo del tercer prototipo, un extrusor de filamento, consiste en un motor que impulsa un husillo conectado a una tolva que transporta los restos del material de las impresoras 3D como PLA hacia un tubo caliente para fusionar los restos y por medio de una boquilla obtener filamento de un diámetro específico. El prototipo se diseñó en SolidWorks, los componentes que necesitamos fueron integrados en el diseño, seguido por el armado de su estructura y ensamblando todas las piezas, por último, se llevaron a cabo pruebas generales para verificar el correcto funcionamiento.


CONCLUSIONES

Se logró diseñar y desarrollar tres prototipos, enfrentando y superando diversos desafíos técnicos como la identificación de los materiales adecuados para cada prototipo, técnicas de soldadura, corte, desbaste y golpe, así como la implementación de los componentes electrónicos para el horno y el extrusor de filamento. Los resultados obtenidos indican que el prototipo del horno de vitrofusión cuenta con una estructura más grande a comparación de los hornos caseros, el sistema de aislamiento es funcional e innovador y el circuito electrónico es eficiente al controlar la temperatura. Asimismo, el exprimidor de piñas cuenta con una estructura que funciona manualmente y el extrusor de filamento fue adaptado para el uso y manejo del laboratorio. Los tres prototipos cuentan con potencial para mejoras futuras, una vez completados y refinados, estos dispositivos contribuyan significativamente a sus respectivas áreas de aplicación y abran la puerta a futuras investigaciones.
Sustersick Covarrubias Edson, Universidad de Guadalajara
Asesor: Mg. Johann Barragan Gómez, Universidad Autónoma de Bucaramanga

ANáLISIS DE SEñALES DE ELECTROENCEFALOGRAFíA (EEG) CON FINES DE CONTROL DE DISPOSITIVOS EXTERNOS USANDO EL PARADIGMA DE IMAGINACIóN MOTORA


ANáLISIS DE SEñALES DE ELECTROENCEFALOGRAFíA (EEG) CON FINES DE CONTROL DE DISPOSITIVOS EXTERNOS USANDO EL PARADIGMA DE IMAGINACIóN MOTORA

Martinez Barboza Patricia Jacqueline, Instituto Tecnológico de Reynosa. Molina Martinez Lady Laura, Corporación Universitaria Rafael Núñez. Sustersick Covarrubias Edson, Universidad de Guadalajara. Asesor: Mg. Johann Barragan Gómez, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

Actualmente, se estima que 2,400 millones de personas en el mundo podrían beneficiarse significativamente de la rehabilitación, según la OMS (2024). Este número resalta la necesidad urgente de enfoques efectivos y accesibles para la rehabilitación, que es crucial para mejorar la calidad de vida y es esencial para la cobertura sanitaria universal. Garantizar el acceso a la rehabilitación es clave para alcanzar el Objetivo de Desarrollo Sostenible 3 de las Naciones Unidas, que promueve el bienestar para todos a todas las edades. Un desafío significativo es la falta de personal especializado en rehabilitación y la desigual disponibilidad de recursos y equipos. En este contexto, el uso de dispositivos externos controlados por señales EEG y código Python permite la supervisión y seguimiento de múltiples pacientes de manera eficiente. Los dispositivos pueden proporcionar ejercicios de rehabilitación a distancia y el análisis de datos en tiempo real para adaptar las sesiones a las necesidades individuales. Este proyecto se enfoca en analizar datos de señales EEG para integrar la tecnología EEG en la rehabilitación mediante interfaces cerebro-computador (BCI) y el paradigma de la imaginación motora. Esto permite un monitoreo preciso de la actividad cerebral, crucial para ajustar programas de rehabilitación basados en la respuesta neurológica del paciente, optimizando la eficacia del tratamiento y reduciendo la carga sobre el personal médico.



METODOLOGÍA

Ajuste de Interfaz OpenVibe: Escalado entre -100 y 100 microvoltios con BCI Enobio. Inclusión de marcadores de fases del experimento: adquisición y validación online. Retroalimentación de desempeño en validación online: Indicación de acierto o fallo, almacenamiento y despliegue del puntaje final. Librerías para Análisis de Señales EEG en Python: Análisis en el dominio del tiempo y frecuencia. Gráficos de violín. Filtrado y extracción de características: Patrones espaciales comunes (CSP) (FBCSP). Clasificación: Análisis Discriminante Lineal (LDA). Análisis de dominio de la frecuencia (Potencia espectral). Captura de Señales EEG: Se utilizó un dispositivo BCI Enobio para registrar la actividad cerebral mediante electrodos en el cuero cabelludo. La captura de datos se realizó en un entorno controlado con el software OpenViBE. Debido a la distancia, los datos no fueron adquiridos en tiempo real. Filtrado y Análisis de Señal EEG: El filtrado es crucial para eliminar ruido y artefactos. Se aplicó un banco de filtros pasa banda para dividir la señal en bandas de frecuencia relevantes para la imaginación motora. Se creó un código en Python para convertir las señales a un formato adecuado para el análisis y clasificar los datos con LDA. Implementación Preprocesamiento de las Señales: Filtrado y normalización para eliminar ruido. Eliminación de artefactos y valores atípicos. Segmentación en ventanas de tiempo. Extracción de características relevantes. Entrenamiento y Evaluación del Modelo LDA: Se dividieron los datos en conjuntos de entrenamiento y prueba. Entrenamiento del modelo LDA con los datos preprocesados. Evaluación del modelo mediante precisión y matriz de confusión. Código Python Utilizado: El script en Python realiza las siguientes acciones: Carga y muestra los datos. Convierte los datos a valores numéricos. Aplica un filtro de paso de banda a los datos EEG. Extrae características de cada segmento de datos. Divide los datos en conjuntos de entrenamiento y prueba. Entrena y evalúa un modelo LDA. Imprime la precisión y la matriz de confusión. Visualiza la matriz de confusión.  


CONCLUSIONES

El filtrado de señales EEG mediante un banco de filtros pasa banda fue esencial para eliminar ruido y artefactos no deseados, mejorando la calidad de las señales y facilitando la extracción de características. Un proceso de filtrado robusto garantiza que las señales EEG retenidas sean representativas de la actividad cerebral real, crucial para el análisis posterior. El uso de LDA en el análisis de señales EEG asociadas a la imaginación motora es una metodología efectiva para el desarrollo de tecnologías BCI. Su adecuada aplicación permite la discriminación precisa de estados mentales, facilitando avances en neurotecnología y rehabilitación. Este estudio subraya la importancia de un filtrado adecuado y la robustez de LDA para asegurar la precisión y fiabilidad de los datos EEG en el contexto de rehabilitación.
Talavera Heredia Elmer Alexis, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

ENSEñANZA DINáMICA DE BASES DE DATOS: ESTRATEGIAS INNOVADORAS PARA COMPRENDER RESTRICCIONES Y RELACIONES


ENSEñANZA DINáMICA DE BASES DE DATOS: ESTRATEGIAS INNOVADORAS PARA COMPRENDER RESTRICCIONES Y RELACIONES

Talavera Heredia Elmer Alexis, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El proyecto tiene como meta desarrollar recursos educativos para una biblioteca destinada a estudiantes de secundaria y preparatoria. A través del uso de inteligencia artificial, se elaboró un manual de instrucciones y videos educativos para hacer el aprendizaje más accesible y dinámico. Además, se diseñaron demostraciones y actividades interactivas, como búsquedas de palabras y crucigramas, que complementan el contenido del libro y favorecen la comprensión de los conceptos. Uno de los mayores desafíos en la enseñanza de estas materias es el uso excesivo de tecnicismos que pueden desmotivar a los estudiantes. Para enfrentar este problema, el libro emplea un lenguaje cotidiano y ejemplos prácticos, mejorando así la comprensión y el interés de los alumnos. El objetivo del proyecto no solo es proporcionar herramientas educativas efectivas, sino también motivar a los estudiantes a explorar y aprender los conceptos básicos de las bases de datos mediante métodos modernos y tecnologías emergentes.



METODOLOGÍA

La parte en la que trabajé se centró en los siguientes temas clave de bases de datos: Restricción de cardinalidad Relación 1:1 Relación 1:M Relación M:N Para desarrollar el contenido, se adoptó una metodología rigurosa y estructurada que evitó el uso de jerga técnica complicada, haciendo que el material sea accesible incluso para aquellos sin conocimientos previos. El proceso incluyó las siguientes etapas: Revisión y recopilación de información: Se llevó a cabo una exhaustiva revisión de libros de texto, artículos académicos y recursos educativos en línea para reunir información precisa y actualizada sobre los conceptos mencionados. Elaboración del contenido del libro: La información recopilada se estructuró de manera detallada en un documento. Cada concepto fue explicado claramente y acompañado de ejemplos prácticos relevantes para estudiantes de secundaria y preparatoria. Producción de materiales adicionales: Sopas de letras y crucigramas: Se diseñaron actividades lúdicas relacionadas con los conceptos de bases de datos para hacer el aprendizaje más interactivo. Presentaciones didácticas: Se confeccionaron presentaciones visualmente atractivas y fáciles de seguir, destinadas a facilitar la explicación de los temas en clase. Videos explicativos: Se desarrolló un guion detallado basado en el contenido del libro, incluyendo conceptos básicos, ejemplos visuales y ejercicios prácticos. Los videos fueron producidos utilizando herramientas de inteligencia artificial para asegurar que fueran dinámicos y atractivos. Preguntas de evaluación: Se diseñaron cuestionarios breves para evaluar la comprensión de los estudiantes y reforzar su aprendizaje. Integración y alineación de materiales: Todos los recursos adicionales fueron alineados con los capítulos del libro para promover un aprendizaje continuo y autodirigido, facilitando así una mejor comprensión y retención de los conceptos por parte de los estudiantes.


CONCLUSIONES

Conclusiones Este libro de texto y los videos impulsados por inteligencia artificial están creados para enseñar de manera eficaz los principios básicos de las bases de datos. El lenguaje sencillo del libro y los videos interactivos están pensados para mejorar la comprensión y captar el interés de los estudiantes en este ámbito. En autoaprendizaje Esta investigación me ayudo a mi a entender mejor todos los conceptos básicos de bases de datos, así como aprendí sobre la redacción académica Pregunta Reflexiva ¿Cómo crees que el uso de un lenguaje cotidiano y ejemplos prácticos en la enseñanza de conceptos técnicos, como los de bases de datos, puede influir en la motivación y comprensión de los estudiantes en comparación con métodos más tradicionales y tecnicistas?
Tapia Clemente Francisco Germán, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Alejandra Garcia Garcia, Centro de Investigación en Materiales Avanzados (CONACYT)

BAGAZO DE CAñA FUNCIONALIZADO CON DISTINTAS HETEROESTRUCTURAS PARA LA ADSORCIóN DEL AZUL DE METILENO


BAGAZO DE CAñA FUNCIONALIZADO CON DISTINTAS HETEROESTRUCTURAS PARA LA ADSORCIóN DEL AZUL DE METILENO

Tapia Clemente Francisco Germán, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Alejandra Garcia Garcia, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El azul de metileno es un compuesto que se utiliza en muchas industrias y áreas, por ejemplo, en biología y microbiología, o como colorante en los pantalones de mezclilla, en donde este mercado es uno de los más grandes donde se emplea este colorante. El problema radica en el desecho de los residuos, ya que se liberan grandes cantidades de azul de metileno en el agua. En altas concentraciones impide el paso de luz necesaria para los procesos microbiológicos en los ecosistemas acuáticos. Además, en los seres humanos, puede causar daños tisulares en distintos órganos. Esta problemática ha llevado a la implementación de distintos métodos para la eliminación del azul de metileno. Sin embargo, el uso de la absorción de este colorante promete ser una alternativa muy efciente, ya que permite remover el compuesto sin degradarlo en otras moléculas. El uso de fibras naturales es una alternativa para la remoción de contaminantes, como el azul de metileno, ya que son biodegradables. Tal es el caso del bagazo de caña, que es considerado un desecho agroindustrial fácil de conseguir y tratar. Haciendo uso del óxido de grafeno (OG) y nanopartículas como el hierro cerovalente y la magnetita que tienen alta afinidad a diferentes colorantes, pueden mejorar la eficiencia del bagazo de caña en la adsorción de los contaminantes.



METODOLOGÍA

En el punto de ebullición del agua, se agrega bagazo de caña durante un tiempo determinado para eliminar los microorganismos presentes y  mejorar su porosidad . Una vez terminado este proceso, se separan las fibras del agua y se realizan dos lavados con agua destilada a temperatura. Finalmente, se dejan secar las fibras durante 24 h para poder ser utilizadas en el procedimiento experimental. Se utilizaron dos diferentes heteroestructuras y dos variantes de estas con la adición de OG para la impregnación en las fibras, las cuales fueron: Magnetita, Magnetita con OG, Hierro Cerovalente y Hierro Cerovalente con OG. La síntesis de las nanopartículas de magnetita se realizó de la siguiente manera: En un baño ultrasónico se coloca un vaso con agua destilada al cual se le agrega cloruro de hierro hexahidratado y, una vez disuelto, se agrega sulfato de hierro amoniacal hexahidratado en una relación 2 a 1. Posteriormente, se agrega un agente reductor que en este caso fue una solución de NaOH. Una vez terminado este proceso, se deja sonicando hasta asegurarse de que las nanopartículas sintetizadas estén muy bien dispersas. Cabe recalcar que hasta ese punto, este procedimiento se llevó a cabo una temperatura mayor a la del ambiente. Una vez terminado este proceso, se saca el vaso de precipitado del baño ultrasónico y se espera a que precipiten las nanopartículas. Se retira la mayor cantidad de líquido y, posteriormente, se agrega agua destilada a las nanopartículas y se mezcla. Este procedimiento se repite dos veces más con el fin de eliminar el agente reductor que no reaccionó.. Para la variante con OG, se realiza el mismo procedimiento, la única variación es la adición de este reactivo después de agregar sulfato de hierro amoniacal. Por otro lado, la síntesis de las nanopartículas de hierro cerovalente es similar, solo que se utiliza nitrato férrico como único reactivo disuelto y como agente reductor se utiliza una solución de borohidruro de sodio, además de ser llevada a cabo a temperatura ambiente. La síntesis de la variante con OG, radica únicamente en la adición de este reactivo después de agregar el nitrato férrico. Es importante resaltar que, una vez sintetizadas las nanopartículas, se utilizaban inmediatamente para la impregnación en las fibras. La impregnación del bagazo de caña con las heteroestructuras se realizó agregando en agua destilada una cantidad determinada de fibras y  el 2% de nanopartículas de magnetita del peso total de fibras utilizadas. Esta mezcla se dejó en una parrilla de agitación durante 24 h a 120 rpm a temperatura ambiente. Pasadas las 24 h, se separaron las fibras del líquido, se realizaron dos lavados con agua destilada y se dejaron secar durante 24 h a temperatura ambiente. Este procedimiento se repitió con las tres diferentes nanopartículas. La adsorción del azul de metileno se llevó a cabo usando tres soluciones de este reactivo a diferentes concentraciones, las cuales contenían una cantidad determinada de fibra impregnada con magnetita. Esta mezcla se dejó en agitación a 120 rpm durante 24 h, posteriormente se conservó el líquido en tubos falcón. El procedimiento de adsorción se repitió de igual forma con las demás fibras impregnadas con las diferentes nanopartículas. Una vez concluidas las adsorciones con las fibras impregnadas con las diferentes nanopartículas, se realizaron pruebas de UV-Vis con los líquidos resultantes. Hasta este punto de la metodología, se realizó por duplicado para hacer comparativas y realizar un mejor análisis de resultados. Se utilizó una muestra de fibra tratada sin nanopartículas y una muestra de fibra con nanopartículas y el azul de metileno para realizar comparativas en SEM. Se seleccionó una muestra de cada tipo de nanopartículas sintetizadas, y se analizaron mediante difracción de rayos X para identificar y corroborar la presencia de las diferentes heteroestructuras.


CONCLUSIONES

En conclusión, la adsorción del azul de metileno por las fibras de bagazo de caña funcionalizadas con heteroestructuras, es una alternativa eficiente para la remoción de azul de metileno, siendo las de mayor eficiencia las que contiene Magnetita y Magnetita con OG (entre 93 y 99%%). Sin embargo, al ser una experimentación extensa, no se tomaron en cuenta distintos parámetros, como lo son la temperatura del medio, pH, tiempo de impregnación de nanopartículas en el bagazo de caña, tiempo de adsorción, entre otros factores, por lo que es necesario seguir con la experimentación con el fin de obtener una mayor eficiencia en la adsorción de azul de metileno de los cuerpos de agua, siendo así una solución a la problemática presentada.
Tapia Pérez Fernando, Instituto Tecnológico de Culiacán
Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional

APRENDIZAJE AUTOMáTICO PARA ANALIZAR EL COMPORTAMIENTO DEL MERCADO FINANCIERO.


APRENDIZAJE AUTOMáTICO PARA ANALIZAR EL COMPORTAMIENTO DEL MERCADO FINANCIERO.

Arredondo Armenta Luis Alberto, Instituto Tecnológico de Culiacán. Escobar Candelaria Francisco Damián, Universidad Autónoma de Chiapas. Proa Arias Alejandro, Instituto Tecnológico de Culiacán. Tapia Pérez Fernando, Instituto Tecnológico de Culiacán. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el mundo moderno, los temas financieros tienen una importancia crucial; las inversiones representan una gran oportunidad para quienes poseen los conocimientos adecuados. Sin embargo, en México, estos son poco explorados y la población muestra escaso interés en aprender siquiera las bases de este ámbito. Por ello, consideramos que este proyecto es una excelente oportunidad para aumentar su visibilidad y fomentar el interés por aprender más sobre ellos entre un mayor número de personas. Asimismo, actualmente el uso del aprendizaje automático se encuentra en su mayor auge, permitiendo realizar procesos sin la intervención directa de una persona. Nuestro proyecto se propone integrar ambos aspectos: la educación financiera y el aprendizaje automático; siendo sus principales objetivos resaltar la importancia de ambos, y demostrar cómo su combinación puede generar un proyecto de muy alta relevancia. El objetivo es desarrollar herramientas y métodos avanzados de predicción aplicados a la bolsa de valores para estimar los valores que tomará en el futuro y ser capaces de llevar a cabo recomendaciones de inversiones. Esto último siendo valioso tanto para usuarios experimentados como para principiantes, fomentando la cultura de la inversión, como medio de crecimiento financiero paralelo.



METODOLOGÍA

Se utilizó la biblioteca de funciones Yfinance para descargar los datos históricos de las acciones de Apple© desde 1980 hasta 2024 con el objetivo de usarlos como datos de entrenamiento para la red neuronal. Del conjunto de datos presentados anteriormente se utilizó únicamente la columna High, que representa los valores más altos que alcanzaron sus acciones cada día. Se hicieron dos subdivisiones para ajustar la red neuronal: Desde 1980 hasta el 2019 para los datos de entrenamiento y desde 2020 hasta 2024 para hacer predicciones. Desde 1980 hasta el 2021 para los datos de entrenamiento y desde 2022 hasta 2024 para hacer predicciones. La primera esperando probar su funcionamiento ante la cambiante situación de la bolsa de valores en la pandemia, y la segunda para el entorno posterior a esta. Primero que nada, se hace un preprocesamiento de los datos primero haciendo una normalización de 0 a 1 para que la función de activación pueda usar los datos de mejor manera y después de esto se mide la longitud de los datos para hacer secuencias de entrenamiento y con estos mismos entrenar la red neuronal, por último, se remoldan los datos para que así sean más compatibles con el modelo de red neuronal recurrente o en este caso con el modelo LSTM. Posteriormente se diseñó una red neuronal de 1 entrada, 1 capa de 50 neuronas y 1 salida, entrenando a la red por 100 épocas con un tamaño de lote de 32. Finalmente, se utilizaron los datos destinados a realizar predicciones para este mismo propósito, con el fin de verificar la precisión y la eficiencia de la red neuronal, obteniendo una serie de resultados que intentaron predecir los valores de la acción en ambos periodos de tiempo, dados sus datos de entrenamiento; estos resultados fueron utilizados para calcular su error cuadrático medio, y a su vez fueron graficados con relación a los valores reales para su comparación visual.


CONCLUSIONES

Al desarrollar la metodología de nuestro proyecto se obtuvieron un par de gráficas en la que se observó que la predicción de nuestra red neuronal es muy parecida al precio real, únicamente presentando un leve desfase por usar solo el valor más alto de el set de datos de entrenamiento y no tomar en cuenta las fechas de estos precios, por lo que después de sacar el error cuadrático medio, y comparando la predicción con el valor real, obtuvimos que nuestra red neuronal tiene una eficiencia de alrededor de 78.79%, siendo un valor bastante positivo para nuestro objetivo, ya que es capaz de dar una noción de los valores que la acción tomará en el futuro, algo que le brinda una cualidad de consejero en el área de las inversiones. Es así como se logró desarrollar una versión temprana del proyecto, la cual consiste en un sistema que utiliza una red neuronal entrenada con datos históricos de la empresa Apple©. Este sistema predice los futuros movimientos financieros de la empresa en la bolsa de valores. La predicción se presenta en una gráfica para facilitar su visualización por parte del usuario. La precisión de la predicción es bastante buena dentro de lo posible, aunque no es perfecta debido a la complejidad y volatilidad del mercado bursátil. No obstante, es capaz de ofrecer al usuario una orientación sobre qué empresas podrían experimentar subidas o bajadas en su valor. Se tiene previsto que en futuras versiones del proyecto se desarrolle una interfaz de usuario, algo que permitirá que la herramienta sea utilizada como una aplicación en diferentes dispositivos. De este modo, tras las exhaustivas investigaciones realizadas por el equipo para llevar a cabo este proyecto, se ha adquirido un conocimiento considerable sobre el mercado de las inversiones y el aprendizaje automático. Dado que los miembros del equipo no contaban con formación profesional en finanzas ni en el uso de inteligencia artificial, todos han adquirido nuevos conocimientos en estas áreas. Estos conocimientos serán valiosos no solo para continuar con este, sino también para futuros proyectos, y potencialmente, para quienes decidan adentrarse en el campo de las finanzas o la inteligencia artificial.
Tapia Salas David Uriel, Universidad de Guadalajara
Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara

ANáLISIS Y SELECCIóN DE LAS DIMENSIONES DEL MéTODO SERV PERF APLICADAS PARA OBTENER RETROALIMENTACIóN DE LOS SERVICIOS PROPORCIONADOS POR LA EMPRESA REPARACIONES DE ELECTRODOMéSTICOS TAPIA


ANáLISIS Y SELECCIóN DE LAS DIMENSIONES DEL MéTODO SERV PERF APLICADAS PARA OBTENER RETROALIMENTACIóN DE LOS SERVICIOS PROPORCIONADOS POR LA EMPRESA REPARACIONES DE ELECTRODOMéSTICOS TAPIA

Carpio Martinez Hector Ricardo, Universidad de Guadalajara. Tapia Salas David Uriel, Universidad de Guadalajara. Asesor: Mtra. Brenda Liliana Aguiñaga Serrano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

 El negocio denominado Reparaciones de electrodomésticos Tapia,  requiere para mejorar sus servicios a domicilio desde el inicio del 2024, identificar una forma o método para conocer la percepción de los clientes respecto a dos factores importantes: precio y calidad. Los servicios son  realizados por los técnicos de la empresa principal y un ayudante que son los encargados de realizar todas las actividades ante el cliente, el dueño del establecimiento requiere apoyo  para tener información de evaluación respecto a las actividades realizadas por sus empleados para mejorar la calidad y precios  de los  servicios  ofrecidos y realizados.   La falta de retroalimentación de los clientes ante los servicios proporcionados por la empresa, crea duda sobre cómo ellos perciben el servicio ofrecido, sin conocimientos claro de la satisfacción del cliente y las actividades que necesitan mejoras, el negocio enfrenta riesgo de perder oportunidades de crecimiento, por la falta de organización de las actividades requeridas, para ofrecer servicios de calidad a precios razonables que cumplan con las expectativas y percepciones que requieren los clientes para considerar a la empresa  para futuros servicios . Cuáles son las dimensiones del método SER PERF aplicadas para obtener una retroalimentación de los servicios proporcionados por la empresa Reparaciones de Electrodomésticos Tapia? ¿Cuáles son los principales puntos que evalúan los clientes al considerar entre el precio del servicio y la calidad del servicio ofrecido?



METODOLOGÍA

Para este trabajo se selecciona la mitología de investigación Holística que permite ubicar las diversas propuestas en un esquema coherente y aplicable a cualquier área del conocimiento (Carhuncho-Mendoza , 2019). Los siguientes pasos para realizar la investigación con éxito: primero aplicar los diez objetivos de la investigación, segundo  identificar los diez  tipos de investigación, tercero  entender los niveles de profundidad del conocimiento,  cuarto realizar la espiral holística y quinto aplicar el ciclo holístico para la investigación en particular. Etapa 1: Entendimiento de los diez objetivos de la metodología que son: explorar, describir, analizar, comparar explicar, predecir, proponer intervenir, confirmar y evaluar. Utilizando los conocimientos de la administración de la calidad, formulación y evaluación de proyectos, industria y optimización y estudio de trabajo. Etapa 2: Identificar diez los tipos de investigación: exploratoria, descriptiva, analítica, comparativa, explicativa, predictiva, proyectiva, interactiva, confirmatoria y evaluativa Etapa 3: Entender los niveles de conocimiento: perceptual, aprehensivo, comprensivo e integrativo. Etapa  4: Diseñar la espiral holística de la investigación indicando los siguientes puntos: perceptual (describir y explorar), aprensivo (comparar y analizar), comprensivo (proponer, predecir y explicar) e integrativo (modificar, confirmar y evaluar). Etapa 5: Aplicar el ciclo holístico formado por: explorar, describir, analizar, comparar, explicar, predecir, proyectar, interactuar, confirmar y evaluar.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos, para la realización de proyectos de investigación desde una idea, estructurar el planteamiento del problema, título, objetivos generales y particulares, justificación, hipótesis y diseño de la metodóloga de investigación para este trabajo es la metodología holística y principalmente como esto se puede aplicar a un tema de interés personal, académico y profesional.  
Tapia Valle Alex Kevin, Universidad de Guadalajara
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

CONTAMINACIóN Y MORTALIDAD EN LA CDMX


CONTAMINACIóN Y MORTALIDAD EN LA CDMX

Lopez Palacios Angel Gabriel, Universidad de Guadalajara. Martínez Castillo Karoll Jesús, Instituto Politécnico Nacional. Tapia Valle Alex Kevin, Universidad de Guadalajara. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Actualmente el aumento de enfermedades respiratorias ha sido preocupante tanto para la comunidad médica, como para la población en general, una de las principales causas de la propagación y aumento de estas, es la calidad del aire ambiente que la población respira. La contaminación del aire es el principal riesgo ambiental para la salud pública en América, según la OMS en 2019 más de 380.000 muertes prematuras fueron atribuibles a la contaminación del aire ambiente en América. Cuando se establecieron los Estándares nacionales de calidad del aire ambiental en 1970, la contaminación del aire se consideraba principalmente como una amenaza para la salud respiratoria. Durante las décadas siguientes, la preocupación por la salud pública fue aumentando y diversos estudios afirmaron que la exposición a los altos niveles de contaminación del aire puede causar una variedad de efectos adversos para la salud: aumenta el riesgo de infecciones respiratorias, enfermedades cardíacas, accidentes cerebrovasculares y cáncer de pulmón, las cuales afectan en mayor proporción a población vulnerable, en riesgo y marginada (niños, mujeres y ancianos). La Organización Mundial de la Salud (OMS) establece que los niveles de contaminación del aire son considerados estables y seguros cuando las concentraciones de PM2.5 (partículas finas) no exceden los 10 µg/m³ como promedio anual y los 25 µg/m³ en un promedio de 24 horas. Para el ozono (O3), el nivel guía es de 100 µg/m³ en un promedio de 8 horas. En comparación, la Ciudad de México frecuentemente supera estos niveles, especialmente durante los meses de invierno y primavera, cuando las concentraciones de PM2.5 y O3 alcanzan picos que exceden las recomendaciones de la OMS, lo que pone en riesgo la salud de sus habitantes. La presente investigación realizada en la UPIITA se centra en el análisis de datos de la calidad del aire y su relación con las enfermedades respiratorias a lo largo del tiempo en la Zona Metropolitana de la Ciudad de México y el Estado de México. El objetivo de la investigación es construir una interfaz web interactiva que integre datos abiertos utilizando criterios espacio-temporales y datos sociales mediante el uso de técnicas de ciencias de datos para identificar los días con más presencia de contaminantes y las principales causas de defunción en la zona del Valle De México.



METODOLOGÍA

El primer paso para nuestra investigación fue la selección y recopilación de datos. En este sentido, tuvimos dos fuentes principales para esto, que fue la Red Automática de Monitoreo Atmosférico para los datos relacionados a la calidad del aire y la Dirección General de Información en Salud para nuestros datos relacionados con las defunciones registradas y sus causas. Una vez seleccionadas las fuentes para nuestra investigación, pasamos a un proceso de depuración de los datos. Primero se seleccionó los años con los que se van a trabajar, en este caso, de 2012 a 2022, y también se determinó que únicamente se trabajaría con datos relacionados al Valle de México. Al establecer estos criterios, lo siguiente fue un procedimiento de limpieza de datos, en donde se seleccionaron las variables más relevantes para nuestra investigación, principalmente en la base de datos de DGIS, ya que se contaba en algunos casos con hasta 73 columnas de información diferentes, y para nuestro análisis se determinó que sólo serían relevantes 12 de ellas. Ya con la información filtrada para solo trabajar con datos del 2012 al 2022 en la zona del Valle de México, se utilizó Python para obtener gráficas que permitieran entender la información de manera más sencilla, así como algunos análisis estadísticos para poder determinar cuáles son las principales causas de defunciones en esta zona de estudio. Después de esto, se utilizó el software de QGIS para poder realizar mapas delimitando distintas zonas del Valle de México, específicamente determinando las regiones denominadas por nosotros como Noreste, Noroeste, Centro, Sureste y Suroeste. Finalmente, mediante la utilización de Python y HTML se realizó una página web en donde todas las gráficas obtenidas así como los mapas creados se muestran al usuario según sus criterios de búsqueda, y además de esto se tiene una pequeña sección de blog con entradas relacionadas a los temas que se abordaron en la investigación, así como una sección de links con información útil para que el usuario puede consultar más información en caso de que le interese.


CONCLUSIONES

Durante seis semanas, participamos en un proyecto de investigación en el que tuvimos la oportunidad de sumergirnos en el mundo de los sistemas de información geográfica (SIG), utilizando herramientas como QGIS. Fue una experiencia extremadamente gratificante, ya que no solo pudimos aprender a manejar estos sistemas, sino que también descubrimos cómo integrar y analizar grandes volúmenes de datos. Uno de los aspectos más desafiantes y educativos del proyecto fue el manejo de datos proporcionados por el DGIS y la página de Aire y Salud. Estos datos venían en grandes cantidades, desordenados y sin un formato claro. Utilizando herramientas de manejo de datos, pudimos limpiar, organizar y analizar esta información, lo que nos permitió extraer conclusiones significativas y relevantes para el estudio. Una de nuestras principales conclusiones es que, generalmente, se pueden observar concentraciones de contaminantes más significativas a finales de año o principios de año, entre los meses de noviembre y febrero. Probablemente podemos atribuir esto a dos principales factores, las festividades y el clima. Como sabemos, la lluvia es de gran ayuda para limpiar el medio ambiente, por lo que en estas épocas, cuando estas condiciones no son tan comunes, se llega a mayores niveles de concentración.De la misma manera, debido al frío, es más común la quema de combustibles para mantener un clima cálido tanto en los hogares como en exteriores, y se da un mayor consumo energético gracias a todas las luces que se ponen en estas fechas. También pudimos observar que las enfermedades del sistema respiratorio siguen siendo una causa muy grande de mortalidad en la Ciudad. Por lo laborioso de realizar un análisis que correlacione estas defunciones con las condiciones climáticas a lo largo del tiempo, y debido al poco tiempo con el que contamos para desarrollar nuestro análisis, no se puede obtener una conclusión contundente, pero con base a los datos recopilados en esta investigación se podría cimentar un análisis de los datos con Machine Learning para intentar encontrar la correlación de estas variables.
Tapias Baena Ana Elizabeth, Universidad Nacional Abierta y a Distancia
Asesor: Dr. Alejandro Padilla Díaz, Universidad Autónoma de Aguascalientes

INTERFAZ DE POWER BI Y PYTHON


INTERFAZ DE POWER BI Y PYTHON

Garzon Ramirez Maria Isabel, Universidad Nacional Abierta y a Distancia. Tapias Baena Ana Elizabeth, Universidad Nacional Abierta y a Distancia. Asesor: Dr. Alejandro Padilla Díaz, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

La interfaz del Power Bi es muy fácil de manejar, ya que es muy parecida a varias de las aplicaciones normales como Office y es necesaria ya que Power BI es una herramienta poderosa que, cuando se maneja adecuadamente, puede ayudar a las organizaciones a tomar decisiones informadas a partir de sus datos.



METODOLOGÍA

En power bi encontraremos las siguientes consideraciones importantes para hacer la practica:  Caso de estudio Utilidad= ganancias (ingresos - Gastos) Margen= % Proporción de utilidad respecto a ingresos (Utilidad/Ingresos) y la metodologia usada fue la de investigacion y aplicación de los conocimientos adquiridos, partiendo desde el material necesario para el desarrollo de todo la estancia en el programa delfin. 


CONCLUSIONES

Componentes Principales de Power BI: Power BI Desktop: Aplicación de escritorio para la creación de informes y visualizaciones. Soporta conectividad a múltiples fuentes de datos. Power BI Service: Plataforma en la nube donde se publican y comparten los informes creados en Power BI Desktop. Power BI Mobile: Aplicación para dispositivos móviles que permite visualizar informes y paneles en cualquier lugar. Power BI Report Server: Solución local para almacenar y gestionar informes de Power BI. Proceso de Manejo de Power BI: Conexión a Fuentes de Datos: Conectar a diversas fuentes como bases de datos, archivos Excel, servicios en la nube, y más. Importar los datos o establecer una conexión en directo. Transformación de Datos: Usar el Editor de Consultas para limpiar y transformar los datos mediante Power Query. Realizar operaciones como eliminar columnas, filtrar filas, agregar datos, etc. Modelado de Datos: Crear relaciones entre diferentes tablas para permitir el análisis multidimensional. Configurar medidas y columnas calculadas utilizando DAX (Data Analysis Expressions). Creación de Visualizaciones: Usar diferentes tipos de gráficos (barras, líneas, mapas, tablas, etc.) para representar los datos. Personalizar visualizaciones con formatos, colores y estilos. Diseño de Informes: Organizar visualizaciones en páginas de informes. Añadir elementos como filtros, segmentaciones y botones para interactividad. Publicación y Compartición: Publicar informes en Power BI Service para compartirlos con otros usuarios. Configurar permisos y roles para el acceso a los datos. Actualización de Datos: Programar actualizaciones automáticas para mantener los datos actualizados en el servicio. Usar gateways de datos si es necesario para conectarse a fuentes locales. Creación de Dashboards: Combinar visualizaciones de diferentes informes en un solo panel de control. Usar "tiles" para mostrar métricas clave y permitir interactividad. Consejos Adicionales: Usar DAX para establecer cálculos y agregar lógica en las visualizaciones. Explorar Plantillas: Power BI ofrece plantillas predefinidas que pueden ser personalizadas según las necesidades. Capacitación y Comunidad: Participar en foros, webinars y cursos para aprender sobre las mejores prácticas y nuevas funcionalidades. Power BI es una herramienta poderosa que, cuando se maneja adecuadamente, puede ayudar a las organizaciones a tomar decisiones informadas a partir de sus datos.     PYTHON Python es un lenguaje sencillo de leer y escribir debido a su alta similitud con el lenguaje humano. Además, se trata de un lenguaje multiplataforma de código abierto y, por lo tanto, gratuito, lo que permite desarrollar software sin límites.   Características de Python:   • -Fue creado por Guido Van Rossum a comienzos de los 90s • -Es un lenguaje de alto nivel contiene gramática sencilla, clara y muy legible. • -El lenguaje es tipado, dinámico y fuerte. • -El lenguaje está orientado a objetos. • -Es fácil de aprender y muy legible también. • -Librería estándar muy amplia. • -Es versátil. • -Su logo es parecido al Jing y el Jang.   Primeros pasos en Python:   • La identación: • La identación es para identificar en donde es cada línea de código para saber esto podemos usar la tecla de tabular. • Para poder saber más a profundo de esto vamos con una sintaxis básica.
Tarriba Crossley Esteban, Universidad Autónoma de Occidente
Asesor: M.C. Jesus Osuna Cabanillas, Universidad Autónoma de Occidente

MONITOR DE NECESIDADES DE MASCOTAS


MONITOR DE NECESIDADES DE MASCOTAS

Tarriba Crossley Esteban, Universidad Autónoma de Occidente. Asesor: M.C. Jesus Osuna Cabanillas, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Monitorear las necesidades de una mascota felina puede ser un desafío, especialmente cuando los dueños no están presentes físicamente. Los gatos no siempre muestran señales evidentes de sus necesidades, lo que puede llevar a descuidos en áreas críticas como la alimentación, hidratación y la limpieza de su espacio. Para abordar esta problemática, se propone el desarrollo de una aplicación, CAT MONITOR, que permita a los dueños supervisar estas necesidades de forma remota y en tiempo real. El objetivo es utilizar tecnologías IoT accesibles para ofrecer una solución práctica y efectiva.



METODOLOGÍA

El proyecto se llevó a cabo en varias etapas: Diseño de Circuitos con ESP32: Se crearon dos circuitos utilizando módulos ESP32. El primer circuito incluyó un sensor de nivel de agua y una celda de carga para medir la cantidad de agua y comida. El segundo circuito se conectó a un sensor de humedad para monitorear el estado de la arena sanitaria del gato. Desarrollo de la Aplicación: La aplicación fue desarrollada en Android Studio utilizando Java. Se integró con una base de datos en Firebase para almacenar y gestionar los datos recogidos por los sensores. La interfaz de usuario fue diseñada para ser clara y fácil de usar, permitiendo a los dueños ver los datos en tiempo real y recibir notificaciones cuando un valor se encuentra fuera del rango ideal. Implementación de Conectividad y Sincronización: Los datos de los sensores se enviaron a Firebase, asegurando una conectividad constante y la sincronización en tiempo real con la aplicación móvil. Se realizaron pruebas para garantizar la estabilidad de la conexión y la precisión de los datos.


CONCLUSIONES

Resultados Obtenidos: Funcionalidad de los Sensores: Los sensores instalados funcionaron adecuadamente, proporcionando datos precisos y en tiempo real sobre los niveles de agua, comida y el estado de la arena. La celda de carga y el sensor de nivel de agua demostraron ser eficientes para monitorear los recursos alimenticios del gato, mientras que el sensor de humedad permitió un control efectivo del estado de la arena. Conectividad y Sincronización: La integración de los módulos ESP32 con Firebase resultó en una conectividad estable y sincronización en tiempo real. Sin embargo, se identificaron algunos retrasos menores en la actualización de datos en la aplicación, probablemente debido a la latencia de la red o limitaciones del servidor. Interfaz de Usuario: La aplicación proporcionó una experiencia de usuario intuitiva y eficiente. Las notificaciones automáticas fueron efectivas para alertar a los dueños sobre cualquier necesidad urgente de sus mascotas, mejorando así su capacidad para cuidar a sus gatos de manera oportuna. Resultados por Obtener: Se planea optimizar la conectividad y reducir los posibles retrasos en la actualización de datos. Se está considerando la inclusión de más sensores para expandir el monitoreo a otras áreas, como la temperatura ambiente y la actividad física del gato. La futura implementación de algoritmos de aprendizaje automático podría mejorar la predicción de necesidades basadas en patrones de datos históricos.
Tavizón Aldama Jonathan Daniel, Universidad de Guadalajara
Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

IMPLEMENTACIóN DE CONTROLADORES PARA SISTEMAS DINáMICOS CON FPGA


IMPLEMENTACIóN DE CONTROLADORES PARA SISTEMAS DINáMICOS CON FPGA

Tavizón Aldama Jonathan Daniel, Universidad de Guadalajara. Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La teoría de control es una disciplina enfocada en el estudio y diseño de sistemas que regulan su comportamiento para alcanzar objetivos deseados. Esta teoría es fundamental en diversas áreas, desde la ingeniería hasta la economía, y se utiliza para asegurar el funcionamiento eficiente y estable de sistemas como robots, aviones, automóviles y plantas de manufactura. Los sistemas de control pueden clasificarse en dos tipos principales: lazo abierto, donde la acción de control no depende de la salida del sistema, y lazo cerrado, también conocidos como sistemas de retroalimentación, donde la acción de control se ajusta según la salida del sistema para mantener el comportamiento deseado. La implementación de la teoría de control en FPGA (Field Programmable Gate Array) presenta varias ventajas significativas. Las FPGA permiten el procesamiento de datos en paralelo, lo que facilita la ejecución de algoritmos de control en tiempo real con alta velocidad y eficiencia. Además, las FPGA son reconfigurables, lo que les otorga flexibilidad para adaptarse a diferentes aplicaciones y requisitos de control, permitiendo la actualización y modificación de los sistemas de control sin necesidad de cambiar el hardware. Asimismo, las FPGA ofrecen alta precisión en el control gracias a su capacidad para manejar operaciones de punto fijo y punto flotante de manera eficiente. Las aplicaciones de los sistemas de control implementados en FPGA son diversas y abarcan áreas como el control de robots, donde las FPGA manejan la compleja cinemática y dinámica de los movimientos robóticos; el control de motores eléctricos, mejorando su eficiencia y rendimiento; y el control en la aeronáutica y automoción, proporcionando una respuesta rápida y confiable en el control de vuelo y la gestión de sistemas de seguridad. También se aplican en sistemas de energía, optimizando la operación y reduciendo pérdidas en la generación y distribución de energía. La implementación de sistemas de control en FPGA requiere una consideración cuidadosa de la precisión numérica y la complejidad del diseño, pero ofrece un rendimiento superior en aplicaciones donde la velocidad y la flexibilidad son críticas.



METODOLOGÍA

Para implementar sistemas de control en FPGA y verificar su funcionamiento, se realizó primero una investigación bibliográfica sobre la teoría de control y sus aplicaciones en sistemas electrónicos. Posteriormente, se estudió el modelado y simulación de sistemas de control mediante métodos numéricos, logrando discretizar las ecuaciones de control para su implementación y análisis utilizando el software MATLAB™. Se examinó el comportamiento de los sistemas de control ante variaciones en parámetros como el tamaño de paso de integración, el número de iteraciones, las condiciones iniciales y los valores de las constantes en las ecuaciones. Después de la fase de simulación, se diseñaron y sintetizaron las ecuaciones discretizadas de los sistemas de control como sistemas digitales utilizando Verilog, un lenguaje de descripción de hardware (HDL). Se empleó una programación jerárquica a través de módulos en el software Active-HDL™ Student Edition para estructurar el diseño de manera organizada y eficiente. Finalmente, se verificó el correcto funcionamiento de los sistemas de control implementados mediante la extracción y procesamiento de datos en MATLAB™. Esto permitió confirmar que la programación en Verilog HDL era precisa. Una vez validada la implementación, se realizó la programación en la tarjeta Altera Cyclone® IV EP4CGX150DF31C7N utilizando el software Intel® Quartus® II Web Edition Design Software. Para observar físicamente el comportamiento de los sistemas de control, se utilizó un osciloscopio de alta definición, garantizando así la funcionalidad y precisión de los sistemas implementados en FPGA.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos teóricos sobre la teoría de control y su aplicación en sistemas electrónicos, y se realizó la discretización de sistemas de ecuaciones diferenciales ordinarias utilizando el método numérico de Forward-Euler y Adams-Bashford de segundo orden para su implementación en FPGA mediante el lenguaje de descripción de hardware Verilog HDL. Se llevó a cabo el diseño y la síntesis de varios sistemas de control en la tarjeta Altera Cyclone® IV EP4CGX150DF31C7N, así como la observación del comportamiento de estos sistemas en un osciloscopio utilizando un Digital Analog Converter (DAC) de 16 bits. Este convertidor permitió transformar los datos digitales generados por el FPGA en datos analógicos que el osciloscopio pudo muestrear y visualizar. Los resultados obtenidos serán presentados en el congreso internacional EDIESCA 2024 con el título: " Implementation of controllers for dynamic systems with FPGA". El congreso tiene su sitio web aquí: https://sistemasdinamicos.amesdyc.org/p%C3%A1gina-principal/eventos_amesdyc/ediesca_2024.
Tec Cahun Carlos Eduardo, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

CREACIóN DE MATERIAL DIDáCTICO Y LúDICO PARA ENSEñAR MODELADO DE BASES DE DATOS RELACIONALES (CONCEPTUAL, LóGICO Y FíSICO) A ESTUDIANTES DE SECUNDARIA Y BACHILLERATO.


CREACIóN DE MATERIAL DIDáCTICO Y LúDICO PARA ENSEñAR MODELADO DE BASES DE DATOS RELACIONALES (CONCEPTUAL, LóGICO Y FíSICO) A ESTUDIANTES DE SECUNDARIA Y BACHILLERATO.

González Cáceres Hugo Fernando, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Tec Cahun Carlos Eduardo, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En el contexto educativo actual, la enseñanza de conceptos tecnológicos avanzados, como las bases de datos relacionales, a estudiantes de secundaria, representa un desafío significativo. La brecha entre el lenguaje técnico utilizado en el campo de las bases de datos y el nivel de comprensión de los estudiantes de secundaria constituye un obstáculo para el aprendizaje efectivo. Además, los métodos tradicionales de enseñanza pueden resultar poco atractivos para una generación de estudiantes acostumbrada a contenidos interactivos y multimedia. Esto plantea la necesidad de desarrollar materiales educativos que no solo sean informativos, sino también lúdicos y llamativos. Ante este panorama, realizamos un capítulo en el que se exponen los conceptos de Modelado de Bases de Datos, en sus fases Conceptual, Lógico y Físico, para un libro con un enfoque innovador para estudiantes de nivel secundaria, que explica las bases de datos relacionales con ejemplos prácticos, actualizados y relevantes en la experiencia cotidiana de los jóvenes, el cual les facilitará la comprensión y asimilación de estos conceptos fundamentales.



METODOLOGÍA

1 Análisis de requerimientos: Revisión de la literatura sobre bases de datos relacionales. Determinación de los conceptos fundamentales y esenciales que deben incluirse en el producto. 2 Selección y configuración de herramientas de IA: Evaluación comparativa de plataformas de IA generativa disponibles. Selección de herramientas basada en criterios como precisión, adaptabilidad y facilidad de uso. Configuración y ajuste de parámetros para optimizar la generación de contenido educativo. 3 Diseño de contenido: Desarrollo de un esquema curricular que cubra los conceptos fundamentales de bases de datos relacionales. Creación de prompts específicos para cada tema, diseñados para generar explicaciones, ejemplos y ejercicios. Iteración y refinamiento de prompts basados en la retroalimentación de expertos en la materia. 4 Generación y refinamiento de contenido: Utilización de las herramientas de IA para producir material didáctico inicial. Revisión y edición manual del contenido generado por expertos en pedagogía y bases de datos. Adaptación del lenguaje y ejemplos para asegurar la relevancia y comprensión por parte de estudiantes de secundaria. 5 Desarrollo de elementos interactivos: Diseño de componentes lúdicos e interactivos utilizando IA generativa. Integración de estos elementos en un producto publicable tanto de forma física como en línea. 6 Implementación piloto: Selección de un grupo de control y un grupo experimental en instituciones educativas colaboradoras. Capacitación de docentes en el uso del material generado. Implementación del programa educativo durante un semestre académico. 7 Evaluación y análisis: Recolección de datos cuantitativos mediante pruebas pre y post-intervención para medir el aprendizaje. Obtención de retroalimentación cualitativa a través de grupos focales con estudiantes y entrevistas con docentes. Análisis estadístico de los resultados de aprendizaje, comparando el grupo experimental con el de control. 8 Iteración y mejora: Identificación de áreas de mejora basadas en los resultados de la evaluación. Refinamiento del contenido y las herramientas de IA utilizadas. Desarrollo de una segunda versión mejorada del material didáctico. 9 Documentación y difusión: Elaboración de un informe detallado sobre el proceso, hallazgos y recomendaciones. Preparación de artículos académicos para su publicación en revistas especializadas. Presentación de resultados en conferencias educativas y tecnológicas.


CONCLUSIONES

Durante la estancia de verano se logró cumplir con las primeras 5 fases del proyecto y se obtuvo un capítulo completo correspondiente al modelado de bases de datos relacionales, en el que se explican las etapas de modelado conceptual, lógico y físico del desarrollo de una base de datos relacional, el cual se integrará al producto final con los capítulos elaborados por otros compañeros. Se espera que en el futuro cercano puedan implementarse las fases 6 a 9 de la metodología propuesta para concluir exitosamente este proyecto. En este proyecto aprendimos una metodología para la creación de materiales didácticos adecuados para la enseñanza de temas complejos, como las bases de datos relacionales, a estudiantes jóvenes, que esperamos aplicar en el futuro en otras temáticas. ¿Cómo podemos seguir mejorando la enseñanza de conceptos tecnológicos avanzados, como las bases de datos relacionales, para hacerlos más accesibles y atractivos a las nuevas generaciones de estudiantes? En lo personal me quedo con el valioso aprendizaje de que es posible trabajar en equipo de manera efectiva, integrando diferentes puntos de vista para enriquecer el resultado final. A través de este proyecto, no solo he profundizado mi conocimiento en bases de datos relacionales, sino que también he desarrollado la capacidad de transmitir estos conceptos complejos de manera más accesible y comprensible para estudiantes de secundaria y nivel medio superior.  Este proceso me ha mostrado la importancia de adaptar el contenido educativo a las necesidades y niveles de comprensión de los jóvenes, utilizando enfoques más lúdicos y prácticos. Creo que esta experiencia no solo ha fortalecido mis habilidades técnicas, sino que también me ha dado herramientas valiosas para enseñar de manera más efectiva en el futuro. ¿Qué impacto podría tener la integración de herramientas interactivas y métodos lúdicos en la comprensión y el interés de los estudiantes de secundaria por temas técnicos complejos?
Télles Rodríguez Miguel Ángel, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Mg. Jover Alonso Cabrales Pineda, Universidad Simón Bolivar

ARQUITECTURA HONEYPOT PARA EMPRESA DEL SECTOR PUBLICO


ARQUITECTURA HONEYPOT PARA EMPRESA DEL SECTOR PUBLICO

Télles Rodríguez Miguel Ángel, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Mg. Jover Alonso Cabrales Pineda, Universidad Simón Bolivar



PLANTEAMIENTO DEL PROBLEMA

Descripción de la investigacion realizada La investigación realizada tiene como objetivo principal implementar una solución de honeypot opensource de baja interacción a una empresa del sector privado, en este caso un ayuntamiento. La importancia de que el software sea opensource es para evaluar la eficiencia de este mismo contra uno de pago, se llevó a cabo una investigación para poder comparar diferentes opciones de honeypots y sus tipos, para asi decidirnos por cuál sería el más adecuado para este caso, seleccionamos la herramienta y los servicios que necesitamos para realizar la arquitectura, evaluamos el framework más adecuado para la tarea y todo esto lo abordaremos a detalle en la siguiente investigacion. Objetivos Objetivo General Implementar una arquitectura honeypot de baja interacción utilizando software de código abierto para mejorar la seguridad de la red en una empresa del sector público.   Objetivos Particulares Medir la capacidad de los honeypots opensource de baja interacción para identificar y registrar ataques automatizados y actividades sospechosas, además de su viabilidad en contra de las opciones de pago. Diseñar una arquitectura que se alinee con las necesidades y restricciones de una empresa del sector público. Fomentar el uso de soluciones de seguridad de código abierto dentro del sector público.   Objetivos Específicos Identificar herramientas de código abierto adecuadas para la implementación de honeypots de baja interacción. Evaluar cómo la integración de honeypots opensource de baja interacción afecta la seguridad general de la red de la empresa del sector público. Diseñar y probar una arquitectura específica que se ajuste a las necesidades del sector público.



METODOLOGÍA

Nuestro honeypot principal que usaremos es Honeyd este nos permitirá de igual manera emular las estaciones de servicios y demás acciones. Como framework vamos a utilizar OWASP Honeypot, es un software de código abierto en lenguaje Python diseñado para crear honeypot y honeynet de una manera fácil y segura.(Paz, 2020) Para crear servidores de archivos usaremos Samba con este Podremos configurar un servidor Samba para emular un servidor de archivos en la red. Para cubrir la parte de los dispositivos IoT usaremos Conpot, es un honeypot ICS (Industrial Control System) diseñado para emular dispositivos IoT. Se puede configurar para simular dispositivos como cámaras de seguridad, impresoras y otros dispositivos IoT que los atacantes podrían intentar comprometer.(Honeypot, una herramienta para conocer al enemigo | INCIBE-CERT | INCIBE, s. f.) Para la arquitectura se optó por que sea un servidor físico, ya que la mayoría de las instituciones del sector público tienen su infraestructura de manera física, además de contar solo con una red. Software Core Como el Core utilizaremos Honeyd framework OWASP honeypot Plugin Samba Plugin: Plugin para emular un servidor de archivos. Conpot Plugin: Plugin para emular dispositivos IoT. XAMPP Plugin: Plugin para emular un servidor web con aplicaciones web vulnerables. Orquestador - Consola Consola de OWASP y honeyd ¿Cuáles sería la arquitectura de la solución HoneyPot? Core Honeyd: Actúa como el núcleo del sistema, gestionando la emulación de diferentes sistemas operativos y perfiles de usuario. Honeyd se encargará de crear las estaciones de usuario y manejar la interacción con los servicios emulados. Framework OWASP Honeypot: Sirve como el framework que orquesta, monitorea y gestiona todos los honeypots y plugins. Proporciona la infraestructura necesaria para la integración y el monitoreo centralizado. Plugins Samba Plugin: Emula un servidor de archivos utilizando Samba. Conpot Plugin: Emula dispositivos IoT utilizando Conpot. XAMPP Plugin: Emula un servidor web con aplicaciones vulnerables utilizando XAMPP. Orquestador - Consola Consola de OWASP Honeypot: Interfaz centralizada para configurar, administrar y monitorear los honeypots y plugins. A continuación, se presenta un diagrama de la arquitectura del honeypot sin ningún orden de jerarquías.


CONCLUSIONES

Con este proyecto de investigación hemos podido desarrollar una solución de arquitectura honeypot de baja interacción utilizando herramientas de código abierto para la institución de servicio público. La propuesta incluye Honeyd como núcleo para emular diferentes sistemas operativos y perfiles de usuario, OWASP Honeypot como framework de gestión, y plugins como Samba, Conpot y XAMPP para simular servidores de archivos, dispositivos IoT y aplicaciones web vulnerables, respectivamente. Una vez implementado, el honeypot permitirá al ayuntamiento identificar y analizar intentos de ataque en un entorno controlado. Esto proporcionará una visión detallada de las amenazas específicas, lo que ayudará a reforzar las medidas de seguridad además de que la solución propuesta, basada en herramientas de código abierto, ofrece una alternativa económica en comparación con opciones comerciales. Esto permitirá al ayuntamiento gestionar la seguridad de manera eficiente sin incurrir en grandes gastos. En conclusión, la implementación de esta solución de honeypot ofrecerá al ayuntamiento una herramienta robusta y económica para mejorar su postura de seguridad. Con una planificación y ejecución adecuadas, se espera que el sistema brinde beneficios significativos en términos de detección de amenazas, coste y gestión centralizada, fortaleciendo así la protección de sus recursos y capacidades de respuesta a amenazas.
Tellez Giron Lizarraga Alan Albino, Universidad Autónoma de Occidente
Asesor: Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente

MISIóN: SABER Y JUGAR


MISIóN: SABER Y JUGAR

Navarro Valenzuela Jesús Ivan, Universidad Autónoma de Occidente. Tellez Giron Lizarraga Alan Albino, Universidad Autónoma de Occidente. Velarde Ramírez José Emiliano, Universidad Autónoma de Occidente. Asesor: Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Actualmente, vivimos en la era digital en donde los niños y jóvenes del siglo XXI utilizan las tecnologías de información y comunicación (TIC) desde temprana edad con distintos fines, ellos son conocidos como nativos digitales, debido a que piensan y procesan la información de una manera diferente y su destreza en el manejo de las tecnologías es superior a la de sus profesores denominados inmigrantes digitales.   Por lo cual; es importante incorporar las TIC al aprendizaje, debido a que son consideradas como una herramienta clave para participar en las dinámicas de las sociedades contemporáneas y como elemento indispensable en el modelo educativo de México y a los ODS (Objetivos de Desarrollo Sostenible) de la UNESCO, en donde se menciona que se tiene que lograr una educación de calidad. Sin embargo; a pesar de ello, se continúa viendo en las escuelas clases monótonas, en las que se puede observar que los maestros(as) siguen utilizando las mismas prácticas y métodos tradicionales en la mayoría de las asignaturas, pero sobre todo en la clase de Historia en donde se continúa recurriendo a la memorización de acontecimientos y hechos, no captando la atención de los niños ni tampoco la comprensión de los temas.   Otro de los problemas a los que se enfrentan los docentes, es no contar con los medios suficientes de un aula de medios o la infraestructura adecuada para poner en practica otras herramientas educativas, como lo es el software educativo.   



METODOLOGÍA

De acuerdo con la relevancia y el contexto del presente estudio, se plantearon diversos objetivos. Los métodos, técnicas e instrumentos para recolectar los datos y cumplir con los objetivos propuestos están cimentados en un enfoque mixto.   Para el enfoque cualitativo, se empleó la investigación documental, la cual consistió en el procesamiento y recuperación de información contenida en documentos, como: libros de la SEP de 4to., 5to. y 6to. año, artículos de revistas, la observación en el salón de clases, y entrevistas abiertas a maestros(as).   Mientras que, para el enfoque cuantitativo, se diseñó un Cuestionario, el cual se aplicó a 50 maestros(as), en donde los resultados arrojados fueron parte fundamental para el análisis, diseño y desarrollo del software educativo. Entre las preguntas que se realizaron fue ¿Cuál materia(as) cree usted que es la que se le dificulta más aprender a los estudiantes?, obteniendo un 70% Historia, posteriormente con un 34% Geografía e Inglés y después con un 30% Matemáticas. Otra fue ¿Cuál es el principal desafío que enfrenta al enseñar una asignatura? Con un 64% opinaron que los estudiantes se distraen constantemente, posteriormente con un 32% el tiempo del ciclo escolar no alcanza para abordar demasiados temas por asignatura, con un 2% la escuela primaria no permite el uso de la tecnología en clases solo la enseñanza tradicional, y otro 2% fue otra respuesta. Y una última, fue ¿Cuál considera usted que es el dispositivo tecnológico que más usan los estudiantes en la actualidad? Respondiendo con un 88% que el celular, posterior la tableta con un 38%, un 16% la laptop y un 2% computadora de escritorio.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos de análisis, diseño y desarrollo de un software educativo de historia para los grados de 4to., 5to. y 6to. grado. En cuanto a la fase de análisis y diseño del logotipo se contemplaron los puntos de vista de los maestros(as) y alumnos. Mientras que en la fase de desarrollo se contemplaron las características apropiadas para el mismo, el cual lleva de nombre Misión: Saber y Jugar. El software educativo de historia, fue creado en plataforma Unity mediante el lenguaje de programación C# para computadoras de escritorio o laptop, empezando por temas desde los primeros humanos en América y terminando en la revolución mexicana utilizando un ambiente atractivo y divertido donde los niños se adentrarán a un mundo fascinante de los hechos y acontecimientos.   Además, se pretende que el proyecto crezca a futuro, dándolo a conocer en diversas primarias del municipio de Mazatlán, Sin. así como a nivel Estatal, desarrollándolo para otros dispositivos como celulares y tabletas. Por último, contemplar lo que menciona la UNESCO El patrimonio es nuestro legado del pasado, con lo que vivimos hoy y lo que transmitimos a las generaciones futuras, por lo cual; en ello radica la importancia de dicho proyecto.
Tellez Navarrete Juan Karlo, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Yeiny Romero Hernández, Benemérita Universidad Autónoma de Puebla

CIBERSEGURIDAD PHISHING “EL ARTE DE LA ESTAFA DIGITAL”


CIBERSEGURIDAD PHISHING “EL ARTE DE LA ESTAFA DIGITAL”

Tellez Navarrete Juan Karlo, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Yeiny Romero Hernández, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La ciberseguridad hoy en día es tema de preocupación para los usuarios, ya que la protección de la información y la integridad de los sistemas informáticos son esenciales para prevenir perdidas de información y la integridad de los sistemas. Sin embargo, a medida que la tecnología sigue avanzando también las tácticas y técnicas empleadas por los ciberdelincuentes. Existen diversos tipos de ataques cibernéticos que comprometen la seguridad de los sistemas. Entre los más comunes se encuentran los siguientes: Malware: Programas maliciosos (Gusanos, Troyano, Spyware, Ransomware, etc.) diseñados solo para dañar o explotar sistemas informáticos. Ataques DDoS: Estos son ataques que hacen que un servicio en línea sea inaccesible al sobrecargarlo con una gran cantidad de tráfico desde múltiples fuentes. Ingeniería Social: Estos funcionan manipulando a las personas para que divulguen información confidencial o realicen acciones inseguras. Dentro de este ataque es donde pertenece el Phishing. Phishing: Es una técnica de engaño para obtener información confidencial, como contraseñas o datos financieros, haciéndose pasar por páginas oficiales o mensajes de correo electrónico. El phishing se ha destacado como uno de los métodos más efectivos y utilizados por los ciberdelincuentes. A pesar de los avances en la tecnología, el phishing sigue siendo una amenaza persistente y cada vez más en evolución. Es por eso que es crucial investigar y comprender las estrategias en el phishing y prevenir estos ataques. El objetivo es proporcionar una visión general de como el phishing afecta a la ciberseguridad y qué medidas se pueden tomar para mitigar este riesgo.



METODOLOGÍA

Para llevar a cabo la simulación de ataques de phishing con las herramientas de Zphisher y Socialphish se hizo uso de dos equipos con máquinas virtuales, una atacante con Kali Linux y una víctima con Alma Linux. Para la virtualización se utilizó la herramienta VMWare Workstation 17 Pro. La herramienta Zphisher permite crear páginas en unos pocos minutos, copiando incluso interfaces muy parecidas a las de páginas oficiales como Google, Instagram, Netflix, PayPal entre otros. Muchos ciberdelincuentes hacen uso de esta herramienta que está a disposición pública en Internet, ya que permite tener alto porcentaje de éxito en sus objetivos. De igual forma, la herramienta Socialphish sirve para preparar ataques dirigidos de phishing y hacer una recopilación de información en un número de perfiles como pueden ser: Facebook, Twitter, LinkedIn, WordPress, GitHub… Permite un clonado exacto de estas páginas, lo cual facilita a esta herramienta la pesca de posibles víctimas. Para la configuración del entorno desde la máquina con Kali Linux se realizó desde consola el clonado de los repositorios de las herramientas desde la página de GitHub, los comandos utilizados para cada una de las herramientas fueron los siguientes: git clone https://github.com/htr-tech/zphisher git clone https://github.com/TYehan/SocialPhish   Una vez almacenadas en el sistema de archivos, las carpetas de manera individual se accedió a cada una y se dieron los permisos necesarios para ejecutar el archivo que contiene todo el kit de herramientas. Los comandos que se usaron son los siguientes: chmod +x zphisher.sh chmod +x socialphish.sh   Y para ejecutar cada uno de esos pequeños programas se usaron los siguientes comandos: ./zphisher.sh ./socialphish.sh   Ambas herramientas presentan una lista de opciones de sitios web que pueden ser clonados para la simulación de phishing. En el caso de la herramienta Zphisher se eligió replicar la página de Facebook y con la herramienta Socialphish la página de Instagram. Tras seleccionar la opción deseada, las herramientas generaron un enlace de phishing que imita el sitio web elegido.   Del otro lado, desde el equipo víctima se configuró una máquina virtual con el sistema operativo Alma Linux para actuar como la víctima en la simulación de phishing. El enlace de phishing generado en la máquina atacante se envió a la máquina víctima y la víctima (en este caso, un usuario de prueba en Alma Linux) ingresó sus datos de acceso en el sitio web falso de cada una de las redes sociales primero en Facebook y después en la prueba con la página de Instagram. Una vez que la víctima ingresó sus credenciales en cada uno de los sitios de phishing, estos datos se reflejaron en la consola de la máquina atacante con Kali Linux. Las credenciales ingresadas por la víctima fueron capturadas y mostradas en tiempo real, demostrando la efectividad de los ataques de phishing simulados.


CONCLUSIONES

Ambas herramientas son populares en el ámbito de la ciberseguridad para la simulación de ataques de phishing con el objetivo de analizar y mejorar las defensas contra este tipo de amenazas. Su funcionamiento fue satisfactorio en las pruebas de simular ataques de phishing y evaluando las respuestas de las pruebas. Sin embargo, considero que la herramienta de Zphisher de agrado más su facilidad de descarga, instalación y uso al no tener tanta experiencia técnica. Pero en términos generales, ambas herramientas son muy buenas y valiosas para la simulación de estos ataques y la elección de una u otra dependerá de la experiencia  técnica que se cuente y las necesidades específicas de la campaña de phishing que se quiera cubrir.  Durante esta estancia virtual tuve la oportunidad de adentrarme un poco más en el mundo de la ciberseguridad y más en especial en el tema del phishing y del uso de herramientas que permiten la simulación del mismo las cuales fueron Zphisher y Socialphish que me permitieron comprender de mejor forma como se ejecutan estos ataques y tomar medidas preventivas para mitigarlos. Además de expandir mi conocimiento técnico al virtualizar sistemas operativos de Linux, específicamente Alma Linux y Kali Linux, que son sistemas orientados a la ciberseguridad donde pude instalar las herramientas mencionadas y probarlas. En resumen, esta estancia me permitió adquirir conocimientos básicos esenciales para enfrentar desafíos en el ámbito de la ciberseguridad, el cual espero en un futuro adentrarme más.
Tello Muñoz Uziel Adolfo, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Roberto Cristian Delgado Arcos, Universidad Tecnológica de Tecamachalco

ESTUDIO DE FACTIBILIDAD EN EL USO DE PANELES SOLARES FOTOVOLTAICOS COMO ENERGíA RENOVABLE: ANALIZANDO EL REQUERIMIENTO ENERGéTICO Y CONDICIONES CLIMATOLóGICAS EN EL RANCHO LA LAGUNILLA.


ESTUDIO DE FACTIBILIDAD EN EL USO DE PANELES SOLARES FOTOVOLTAICOS COMO ENERGíA RENOVABLE: ANALIZANDO EL REQUERIMIENTO ENERGéTICO Y CONDICIONES CLIMATOLóGICAS EN EL RANCHO LA LAGUNILLA.

Tello Muñoz Uziel Adolfo, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Roberto Cristian Delgado Arcos, Universidad Tecnológica de Tecamachalco



PLANTEAMIENTO DEL PROBLEMA

El Rancho La Lagunilla se encuentra alejado de las tomas de energía eléctrica suministrada por comisión federal de electricidad y es por ello que no cuenta con un sistema eléctrico, lo que dificulta realizar algunas de las actividades cuando las jornadas de trabajo son nocturnas, por lo cual los trabajadores deben acudir al uso de lámparas y baterías que les brinden iluminación, dando como propuesta la implementación de un sistema de paneles solares.



METODOLOGÍA

Objetivo general Diseñar un sistema de energía eléctrica a partir de paneles solares, mediante diseños de ingeniería, para satisfacer las necesidades de consumo energético y evaluar su viabilidad en la mezcalera del Rancho La Lagunilla. Objetivos específicos Identificar las necesidades de energía eléctrica en la mezcalera del Rancho La Lagunilla. Calcular el consumo requerido a partir de la NOM-025-STPS-2008, condiciones de iluminación en centros de trabajo, para satisfacer las necesidades del consumidor. Diseñar un sistema de instalación eléctrica para suministrar la energía en los lugares correspondientes del Rancho. Sugerir el sistema de paneles solares fotovoltaicos necesarios para la instalación eléctrica dando a conocer su factibilidad por medio de un análisis financiero. Pasos que se llevaron a cabo 1. Se realizaron visitas periódicas al rancho en distintos horarios, utilizando herramientas como; bitácoras de observación, flexómetros y cámaras fotográficas para recopilar los datos necesarios. 2. Se recopiló información relevante (análisis documental) para sustentar la viabilidad del sistema de paneles solares. 3. Basado en un croquís y la energía requerida se diseño un sistema adecuadoconsiderando las construcciones existentes, asignando a cada una de ellas el tipo de bombillas a usar por medio de un color considerando los watts. 4. El estudio se rige por la norma NOM-025-STPS-2008 para asegura la iluminación adecuada en los centros de trabajo. 5. Reopilación de datos sobre el consumo de energétio de las herramientas y aparatos eléctricos, procesados mediante software como Excel y AutoCAD , haciendo uso de fórmulas para calcular la cantidad y tipo de paneles solares necesarios. 6. Identificación de diferentes opciones de sistemas de paneles solares evaluando la viabilidad económica, considerando el retorno de la inversón, costo-beneficio y el VAN.


CONCLUSIONES

Resultados De acuerdo con los datos recolectados en las visitas de campo y la información proporcionada por las personas que se encuentran trabajando dentro del Rancho La Lagunilla, se realizaron los cálculos de energía requerida tanto diaria como mensualmente, determinando así el mejor sistema de paneles solares adaptándose a las condiciones del lugar. Con los resultados obtenidos hay dos posibles tipos de sistemas que se adecuan a las necesidades del rancho siendo uno de ellos 6 paneles solares de 550w y como segunda opción 10 paneles de 340w ambos satisfaciendo las necesidades energéticas. En este caso la inversión se recupera a partir de los 6 años comparando costo por la instalación de los paneles con el costo de pago de electricidad bimestral que es proporcionado por CFE tratándose en este caso de una empresa pequeña la cual apenas tiene una trayectoria de 11 años, por esto se encontró más fiable el uso de energía renovable, además, cabe la posibilidad de que dicha inversión se vea reducida, ya que actualmente existen programas que promueven el uso de energías limpias proporcionando lo necesario de forma gratuita beneficiando significativamente al Rancho La Lagunilla. Esto representa gran viabilidad para poder ser llevado a la realidad siendo un gran avance para impulsar el uso de energías renovables en lugares con difícil acceso a la energía eléctrica, que actualmente no cuentan con este servicio tan indispensable, pero si bien en este caso el análisis financiero no se pudo llevar a cabo con exactitud, ya que el dueño de la empresa no cuenta con los datos financieros debido al poco tiempo que se ha llevado la producción de mezcal. Dicha inversión que se propone tiene un costo de $110,000 pesos, ya que se actualmente en el mercado existen paquetes de paneles en los que uno se adapta a las necesidades de la mezcalera en el Rancho La Lagunilla contando con todo lo necesario para su instalación. Conclusiones El estudio de factibilidad de la implementación de paneles solares fotovoltaicos como propuesta para la generación de energía eléctrica en la mezcalera del Rancho La Lagunilla, Puebla, México. Representa un costo significativo para la empresa, ya que en el análisis financiero se muestra que no es viable, pero mostrándose como solución a un futuro. Dichos resultados son consecuencia de que no se cuenta con los datos financieros como lo es el flujo de caja, esto se debe a que la empresa es pequeña y solo tiene 11 años de historia, además de que la madurez de un agave para la producción de mezcal tarda alrededor de 6 a 8 años dando como consecuencia que se empezó a producir poco menos de 3 años. A pesar de esto las energías renovables como fuente de energía representan una gran innovación para lugares en las que el acceso a este recurso es casi imposible, por esto resulta muy atractivo el poder llegar a implementar este tipo de energías en pequeñas empresas, siendo que actualmente se busca incentivar el uso de estas habiendo programas ecológicos en el estado siendo algunos de ellos promovidos por la Agencia de Energía del Estado de Puebla (AEEP) lo que aumenta la factibilidad de inversión.
Tello Tovar Juana Valentina, Universidad Autónoma de Occidente
Asesor: Mg. Nadia Judith Olaya Coronado, Universidad de la Costa

IMPACTO DE LA GESTIóN DE RESIDUOS SóLIDOS EN LA SALUD AMBIENTAL EN LA ZONA COMERCIAL DEL MIAMI, DE BARRANQUILLA


IMPACTO DE LA GESTIóN DE RESIDUOS SóLIDOS EN LA SALUD AMBIENTAL EN LA ZONA COMERCIAL DEL MIAMI, DE BARRANQUILLA

Tello Tovar Juana Valentina, Universidad Autónoma de Occidente. Asesor: Mg. Nadia Judith Olaya Coronado, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

El centro comercial Miami y alrededores en la ciudad de Barranquilla presentan un problema relacionado con la gestión inadecuada de residuos sólidos, que afecta tanto a la salud ambiental como a la laboral de los trabajadores en la zona. La acumulación diaria de residuos, especialmente de restos de alimentos, plásticos y cartones, ha generado condiciones insalubres que propician la proliferación de vectores y malos olores, exponiendo a los trabajadores a riesgos de enfermedades respiratorias, dermatológicas y otras infecciones. Este problema se ve exacerbado por la falta de conocimientos sobre prácticas adecuadas de gestión de residuos entre los trabajadores y comerciantes, y la insuficiencia de infraestructura para una disposición correcta de los desechos. La situación no solo afecta directamente a la salud de las personas que laboran en el sector, sino que también tiene implicaciones ambientales, como la contaminación de suelos y cuerpos de agua adyacentes, debido a los lixiviados y la disposición incorrecta de los residuos. Identificar y analizar los factores que contribuyen a esta problemática es crucial para comprender su magnitud e impacto, y para resaltar la necesidad de intervenciones que mejoren las condiciones laborales y ambientales en el sector. 



METODOLOGÍA

Este estudio descriptivo con enfoque mixto combinó métodos cualitativos y cuantitativos para evaluar el impacto de la gestión de residuos sólidos en la salud ambiental del centro comercial Miami en Barranquilla. La metodología incluyó la delimitación del área de estudio y la recolección de datos mediante encuestas, entrevistas, observación directa y evidencias fotográficas.  Primero, se realizó una revisión de literatura para fundamentar el estudio. Luego, se llevaron a cabo visitas de campo para documentar las condiciones actuales y seleccionar una muestra representativa del 25% de la población del sector. Durante el trabajo de campo, se registraron las condiciones del manejo de residuos y se aplicaron encuestas a trabajadores y comerciantes.  Los datos obtenidos fueron analizados con técnicas descriptivas para identificar patrones y tendencias en la acumulación de residuos y su impacto en la salud y condiciones laborales. Se revisaron estrategias exitosas en contextos similares para adaptarlas localmente y elaborar propuestas de mejora, promoviendo prácticas ambientales sostenibles y responsables. 


CONCLUSIONES

El estudio realizado en la zona del centro comercial Miami de Barranquilla revela una alta concentración de actividades comerciales informales que contribuyen significativamente a la generación y acumulación de residuos sólidos, lo que plantea desafíos críticos tanto ambientales como sanitarios. La investigación muestra que una gestión inadecuada de los residuos sólidos está vinculada a riesgos sanitarios significativos para los trabajadores y la comunidad en general. Los resultados destacan la presencia de vectores de enfermedades, malos olores y contaminación visual como las principales afecciones percibidas por los trabajadores, quienes también reconocen la acumulación de residuos como un riesgo directo para su salud. La encuesta aplicada indica que la mayoría de los trabajadores no tienen conocimiento sobre la gestión adecuada de residuos sólidos, lo cual se traduce en prácticas deficientes que agravan la problemática existente. La frecuencia de recolección de residuos es insuficiente en las áreas externas al centro comercial, lo que contribuye a la alta contaminación y la presencia de vectores. Las condiciones higiénico-sanitarias se deterioran especialmente durante las lluvias, exacerbando los riesgos sanitarios debido a la acumulación de aguas sucias y la proliferación de vectores.  Para mejorar la gestión de residuos en el sector, se propone aumentar la frecuencia de recolección en las áreas externas del centro comercial, instalar contenedores en puntos estratégicos y realizar campañas de educación y sensibilización sobre prácticas sostenibles. Además, es crucial implementar sistemas de reciclaje, desarrollar infraestructuras adecuadas para el almacenamiento y recolección de residuos, y establecer medidas de control de vectores. Promover el uso de envases biodegradables y reutilizables, junto con la adopción de prácticas comerciales sostenibles, también ayudará a mitigar la problemática actual. Estas medidas contribuirán a un entorno más saludable y sostenible para los trabajadores y la comunidad en general.
Tenorio Islas Delsy, Instituto Tecnológico de Pachuca
Asesor: Dra. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla

ELABORACIóN DE CARBóN ACTIVADO A PARTIR DEL RESIDUO DE AGAVE COMO UNA ALTERNATIVA PARA EL TRATAMIENTO DE AGUAS RESIDUALES


ELABORACIóN DE CARBóN ACTIVADO A PARTIR DEL RESIDUO DE AGAVE COMO UNA ALTERNATIVA PARA EL TRATAMIENTO DE AGUAS RESIDUALES

Tenorio Islas Delsy, Instituto Tecnológico de Pachuca. Asesor: Dra. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El agave es una especie de planta del tipo de las suculentas que ha sido utilizada en Mesoamérica por más de 9 mil años para la obtención de fibras, azúcares y particularmente en México, en la fabricación de bebidas. Anualmente se emplean 1.5 millones de toneladas de esta planta en la elaboración de bebidas como tequila, mezcal, sotol, bacanora y raicilla. (Sierra, 2021). La producción de mezcal, implica procesos que tienen un impacto significativo en el medio ambiente, particularmente en el uso de recursos naturales como la leña y el agua. Estos recursos son esenciales en la fase de cocción de las piñas de agave y en la destilación del mezcal, respectivamente. La leña es el principal combustible utilizado en la cocción de las piñas de agave. Este proceso consume grandes cantidades de madera, por cada litro de mezcal se ocupan 7 kilos de leña, lo que contribuye a la deforestación y a la degradación del suelo. El proceso de destilación del mezcal requiere grandes cantidades de agua específicamente 20 litros de agua para la producción de 1 litro de mezcal. Este uso intensivo de agua puede agravar la escasez de este recurso en regiones donde el agua es ya limitada. (Valenzuela, 2003). Las diferentes etapas de elaboración de mezcal generan dos tipos de residuos: los líquidos conocidos como vinazas y los sólidos llamados bagazos (Rodríguez, 2017). En Oaxaca el bagazo es, vertido en ríos, arroyos o amontonado fuera de los palenques y parcelas (Flores et al., 2013), ocasionando con esto un grave problema al ambiente debido a los grandes volúmenes generados y por sus características morfológicas, además de ser un residuo lignocelulósico de lenta degradación (Alonso, 1997).



METODOLOGÍA

  Recepción de materia prima La materia prima bagazo de agave (Agave angustifolia) fue adquirido en La magdalena Cuaxixtla, Tecali de Herrera en el estado de Puebla. Lavado de bagazo El bagazo de agave fue lavado con 500 mL de agua destilada dos veces. Se ocuparon dos catalizadores (Hidroxido de calcio e Hicroxido de potasio) para impregnar el bagazo de agave. HIDRÓXIDO DE CALCIO Se hace un pretratamiento de hidróxido de calcio La solución de hidróxido de calcio (Ca(OH)2) se preparó con una concentración de 1 M en una solución de 1 L para realizar las soluciones se ocuparon matraces de 250 mL.  El bagazo de agave se colocó en el vaso de precipitado y este se calentó en la parrilla oscilando en una temperatura de 60-70 °C durante 3 horas. Se dejó reposar 18 horas. Lavado de hidróxido de calcio Se retiró la solución de hidróxido de calcio (Ca(OH)2) del bagao del agave para posteriormente lavarlo con 500 mL de agua destilada, se realiza la prueba de pH donde se obtuvo un Ph de 12.2 debido a que era muy básico se hace una solución de ácido acético para obtener un pH neutro Preparación de solución de ácido acético para obtener un pH neutro La solución de ácido acético se preparó con una concentración de 1 M. Neutralización del bagazo de agave Se coloca 1 mL de la solución de ácido aceitico al vaso de precipitado donde estaba el agave en agua destilada y se toma el pH de la solución si no se obtiene un pH de 7 o cercano se repite hasta que tengamos el pH deseado. Después se enjuaga con agua destilada. Secado Se colocó el bagazo de agave en una capsula de porcelana que se mete dentro del horno donde se programa un ciclo simple a una temperatura de 100 °C durante 3 horas este proceso nos permitió perder humedad para posteriormente llevarlo a proceso de carbonización. Carbonización Se colocó el bagazo de agave que sale del horno en tres capsulas de porcelana donde se realiza una combustión en una mufla a una temperatura de 200 °C por 240 min en la primera etapa y a 250°C por 90 min en la segunda etapa. Acabando este proceso obtuvimos las fibras de carbón activado. Lavado de fibras de carbón activado El carbón activado que se obtiene se lavó con 50 mL de agua destilada y se tomó su pH para posteriormente quitarle exceso de agua.                                        Secado del carbón activado La muestra húmeda se coloca dentro del horno en una capsula de porcelana a 90°C durante 20 horas Molienda del carbón activado Las fibras obtenidas de carbón activado se colocaron en el mortero para molerlas hasta tener una consistencia de polvo. HIDRÓXIDO DE POTASIO Se hace un pretratamiento de hidróxido de potasio La solución de hidróxido de calcio (KOH) se preparó con una concentración de 1 M en una solución de 1 L para realizar las soluciones se ocuparon matraces de 250 mL.  El bagazo de agave se colocó en el vaso de precipitado y este se calentó en la parrilla oscilando en una temperatura de 60-70 °C durante 3 horas. Se dejó reposar 24 horas.      Lavado de hidróxido de potasio Se retiró la solución de hidróxido de potasio (KOH) del bagazo del agave para posteriormente lavarlo con 500 mL de agua destilada, se realiza la prueba de pH donde se obtuvo un Ph de 6.8 por lo que ya no se ocupó neutralizarlo después se siguieron los mismos pasos que con el pretratamiento del hidróxido de calcio.  


CONCLUSIONES

De acuerdo con las pruebas realizadas, las fibras de carbón activado que tuvieron mayor capacidad absorción fueron en las que se utilizó el hidróxido de calcio como catalizador a comparación de las de hidróxido de potasio. En el caso de la distribución de tamaño de partículas se pudo observar que las fibras con el tratamiento de hidróxido de calcio eran más delgadas y quebradizas que las que tenían como tratamiento con hidróxido de potasio. Los resultados obtenidos en el presente trabajo de investigación son favorables hacia el uso del bagazo de agave para la realización del carbón activado utilizando un método químico con fines de tratamiento de aguas residuales ya que beneficia en el sector ambiental dándole un segundo uso y se evita que sea desechado en grandes volúmenes en ríos, arroyos y parcelas ya que al ser un residuo lignocelulósico lleva una lenta degradación en el medio ambiente.
Tijaro Sierra Danny Stefany, Universidad Cooperativa de Colombia
Asesor: Mg. Eduardo Ocampo Ferrer, Universidad La Gran Colombia

GESTIóN DE CENTROS DE DISTRIBUCIóN CON PRODUCTOS PRECEDEROS EN LA CIUDAD DE BOGOTá


GESTIóN DE CENTROS DE DISTRIBUCIóN CON PRODUCTOS PRECEDEROS EN LA CIUDAD DE BOGOTá

Tijaro Sierra Danny Stefany, Universidad Cooperativa de Colombia. Asesor: Mg. Eduardo Ocampo Ferrer, Universidad La Gran Colombia



PLANTEAMIENTO DEL PROBLEMA

El presente trabajo se basa en un análisis sistemático de la literatura, el cual se enfoca en la gestión de los centros de distribución (cedis) implementándose desde la capital de Colombia, Bogotá, dada su condición es una ciudad con mucho tráfico, vías en proceso de construcción, etc. Para empezar, se da una breve ubicación geográfica de la cuidad, de cada uno de los términos relevantes en el artículo a trabajar, se presentan los desafíos logísticos tales como se menciona anteriormente el tráfico. En este artículo, se explorara cómo los centros de distribución pueden optimizar la última milla para mejorar el servicio de la gestión de estos mismos para caso de su distribución hacia almacenes de cadena que manejan productos precederos, realizando un análisis sistemático de la literatura donde se aborde la gestión de CEDIS mediante la puesta en marcha de diferentes sistemas, para la optimización logística mediante la inclusión de tecnologías de información en la cadena de suministro y con ello la calidad y frescura de los alimentos. El objetivo principal de esta investigación es identificar posibles desafíos y con ello oportunidades en la implementación de soluciones innovadoras para la última milla en almacenes de cadena desde centros de distribución ubicados en Bogotá, esto con el estudio literario de estrategias innovadoras para la entrega y distribución eficiente de alimentos frescos a los clientes en entornos urbanos. Abordando el cómo la puesta en marcha de tecnologías puede optimizar la logística de la última milla, reducir los tiempos de entrega en una ciudad congestionada como Bogotá. Este enfoque nos permite analizar cómo se pueden adaptar procesos de distribución para satisfacer las diferentes demandas de los clientes en términos de conveniencia, rapidez y calidad en la entrega de productos, Los administrativos deben ampliar su panorama e implementar métodos que garanticen lo dicho anteriormente como el GIS (Geographic Information System), RFID (Radio-frequency identification), WSN (Wireless Sensor Networks) dentro de sus procesos logísticos, Bogotá es el centro del país, con ello se dimensiona que desde ahí los cedis distribuyen a diferentes almacenes de cadena ubicados a nivel nacional.



METODOLOGÍA

En el presente trabajo de revisión sistemática realizado se empleó una búsqueda de datos por medio de recursos en diversas bases de datos, trabajos de grado como tesis, artículos y repositorios, páginas oficiales, revistas científicas, se hizo énfasis en  repositorios, tesis o trabajos de grado sin dejar a un lado paginas oficiales que son de gran ayuda para la adquisición de la información; las bases de datos consultadas fueron: Researchgate, Google Académico, Scielo, ScienceDirect; scopus, la cantidad de fuentes de información encontradas fueron los 25, se consultaron 18 a partir de su título con palabras claves como SIG, GIS, cadena de suministro, gestión de cedis, perecederos, posteriormente se decide dar selección a 12 que se ajustaron al problema planteado en este trabajo.    


CONCLUSIONES

La gestión de centros de distribución de alimentos perecederos en Bogotá enfrenta desafíos significativos debido al tráfico congestionado y las vías en construcción, ejemplo de ello es la ubicación de la zona 4 de y sus restricciones de circulación para vehículos de carga menores a 3.5 presenta desafíos significativos para la gestión de CEDIS dado que cuentan también con almacenes a los cuales entregan en estos lugares, la demora en entrega quita ventas y hace que el producto no conserve su frescura, sin embargo, con una planificación adecuada, la implementación de tecnologías avanzadas y la adopción de estrategias innovadoras, es posible mitigar estos inconvenientes y mantener una operación eficiente y rentable.   La integración de RFID y WSN dentro de un GIS proporciona una plataforma robusta para el seguimiento, monitoreo y gestión de recursos en tiempo real. Esta combinación mejora la precisión y efectividad en una amplia gama de aplicaciones de la gestión de los cedis y la cadena de suministro esto contribuye a la sostenibilidad mediante la optimización del uso de recursos y la reducción de desperdicios. La adopción de estas tecnologías representa un avance significativo hacia operaciones más inteligentes, eficientes y sostenibles.   La optimización de la última milla en la distribución hacia almacenes de cadena que manejan productos perecederos requiere una combinación de tecnología avanzada, infraestructura eficiente, procesos bien planificados y una colaboración estrecha con socios y proveedores. Al implementar estas estrategias, los CEDIS pueden mejorar la frescura y calidad de los productos, procesos logísticos, reducir costos operativos, esto no solo mejora el servicio al cliente, sino que también fortalece la competitividad.
Tirado Cervantes Marian Estefany, Universidad Politécnica de Sinaloa
Asesor: Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)

REVISIóN DE ESTADO DEL ARTE DE PROPIEDADES MECáNICAS DE ACEROS GRADO HERRAMIENTA.


REVISIóN DE ESTADO DEL ARTE DE PROPIEDADES MECáNICAS DE ACEROS GRADO HERRAMIENTA.

Tirado Cervantes Marian Estefany, Universidad Politécnica de Sinaloa. Asesor: Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los aceros son una aleación de hierro y carbono, muy utilizada en la actualidad, ya que, tienen propiedades físicas y mecánicas que son muy deseables en las industrias de manufactura y reparación. Las propiedades mecánicas son fundamentales para entender cómo los materiales se comportan a ciertas condiciones, se refiere a la capacidad de resistir y soportar fuerzas externas, deformarse y recuperar su forma original, así como su resistencia al desgaste y fatiga. En los aceros hay variables que intervienen en estas propiedades como: concentración de carbono (figura 1): la concentración de bajo carbono (del 0.05% a 0.25%), medio carbono (0.25% a 0.55%) y alto carbono (0.55% a 2,0%), composición química, en esta parte puede intervenir elementos aleantes como lo son el Cr, W, Mo, V, entre otros, que dan paso a variaciones en las propiedades mecánicas, los tratamientos térmicos, que dependiendo cual se aplique y variables que cambien dan diversos resultado, y por último las aplicaciones a las que se le aplique. Por su parte, para el uso en herramientas de corte en operaciones de maquinado, matrices para el colado en matriz y grandes variedades de aplicaciones industriales, es necesaria alta resistencia, dureza, tenacidad y resistencia a las temperaturas, donde, por lo general se usan aceros grado herramienta. Figura 1. Diagrama hierro-carbono, representa el cambio de fases del acero dependiendo de la concentración de carbono y la temperatura. Las diferentes fases generan cambios de propiedades mecánicas. En la figura 2 se presenta una clasificación de los aceros grado herramientas donde se dividen en siete tipos principales: acero de endurecimiento por agua, para trabajo en caliente, trabajo en frío, resistente a golpes, para moldes de plástico, de alta velocidad y usos especiales. Figura 2. Tabla de clasificación de aceros grado herramienta según la AISI. Dentro de los aceros grado herramienta se destacaron los aceros D2, P20, H13, M2 y C300 para sus estudios, ya que, estos son muy utilizados en la industria por sus propiedades como la tenacidad (propiedad física para absorber energía mecánica durante su deformación antes de que logre o no romperse o quebrarse), dureza (resistencia a ser deformados por la acción de una fuerza) y punto de fusión (propiedad que indica cuando un sólido cambia a estado líquido). Por lo que hacer una recopilación de datos de propiedades mecánicas de algunos aceros grado herramienta, actualmente, cobra mucha importancia, ya que dependiendo de estas se pueden hacer aplicaciones específicas, facilitando la comparación de características y así identificar la mejor opción para su uso.  



METODOLOGÍA

Durante la estancia se han dado bases por parte del asesor de una correcta consulta bibliográfica, de las cuales se han realizado variedad, que posteriormente lleva a una buena recopilación de datos (definiciones, clasificaciones, propiedades, aplicación). Se llevó a cabo una clasificación y selección de aceros de interés para el trabajo del laboratorio PROMET del CIATEQ unidad San Luis Potosí, los cuales son: P20, D2, H13, M2 y C300.  De esta clasificación se desarrolló una revisión bibliométrica para las propiedades mecánicas de los aceros. Esta revisión consiste en un análisis cuantitativo de publicaciones científicas acerca del entendimiento de los aceros y variables que intervienen en las propiedades como la tenacidad, dureza y punto de fusión de aceros grado herramientas.  


CONCLUSIONES

Resultados. En esta estancia de investigación se hizo un estudio de las características de aceros grado herramienta de acuerdo con su contenido de carbono y de elementos aleantes. Se estudiaron las propiedades mecánicas con base a comparaciones de diagramas de región. Los aceros en estudio fueron de alto interés para el laboratorio de investigación en procesos metalúrgicos PROMET, los cuales son D2, P20, H13, M2 y C300. Según el diagrama de región (figura 3) se puede observar que el acero M2 y D2 son el más alto respecto a dureza tanto HRC y de Vickers, lo cual era de esperarse, ya que son los que tienen más alto contenido de carbono.  Por su parte, en la tenacidad y resistencia al impacto el acero C300 fue el más elevado en estas propiedades, por esta razón es muy utilizado en la industria como componente aeroespacial, como tren de aterrizajes y en otras áreas donde se necesite alto rendimiento. Hablando del punto de fusión todos rondan en las mismas temperaturas, ya que, son aceros que resisten condiciones extremas. Por último, los aceros con más conductividad térmica fueron P20 y H13 con valores aproximados a 29 W/m°C. Figura 3. Diagrama de región de propiedades mecánicas: dureza HRC, dureza de Vickers, tenacidad, resistencia al impacto, punto de fusión y conductividad térmica de aceros D2, P20, H13, M2 y C300. Conclusiones Primeramente, como objetivo de la estancia he llegado a la conclusión que los estudiantes han aprendido a utilizar herramientas de investigación y análisis de información. Se adquirieron conocimientos relacionados con la naturaleza de los aceros grado de herramienta dependiente del contenido de carbono y elementos aleantes, yendo desde aceros de bajo contenido de carbono y alta aleación como el C300, pasando por aceros de medio carbono y moderada aleación como el H13 y P20, hasta aceros de alto carbono y baja aleación como es el M2 y el D2. Por otro lado, esta revisión del arte se finaliza con un diagrama de región y análisis de este, lo que promueve un análisis general y fácil de entender para una comparación de estos aceros estudiados para posibles aplicaciones.
Tirado Rodríguez Lauren Vanessa, Universidad de la Guajira
Asesor: Mtro. Lucio Martin Estrada Garcia, Tecnológico de Estudios Superiores de San Felipe del Progreso

ELABORACIóN DE PROYECTO DE UN PUENTE SUSTENTABLE


ELABORACIóN DE PROYECTO DE UN PUENTE SUSTENTABLE

Daza Moscote Darling Duliana, Universidad de la Guajira. Tirado Rodríguez Lauren Vanessa, Universidad de la Guajira. Asesor: Mtro. Lucio Martin Estrada Garcia, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual de la ingeniería civil y la sostenibilidad, existe una creciente necesidad de desarrollar infraestructuras que no solo sean funcionales y seguras, sino también ambientalmente responsables. Uno de los desafíos principales en este campo es el diseño y construcción de puentes que puedan integrar tecnologías y prácticas sustentables para reducir su impacto ambiental y mejorar su eficiencia energética. Históricamente, los puentes han sido estructuras fundamentales para la conectividad y el desarrollo urbano, pero su construcción tradicional ha estado asociada con altos niveles de consumo energético y emisiones de carbono. Además, la infraestructura de puentes existente enfrenta desafíos de mantenimiento y renovación que también requieren soluciones innovadoras y sostenibles. El planteamiento del problema radica en la necesidad de diseñar y construir puentes que cumplan con estándares de sostenibilidad rigurosos, utilizando materiales y tecnologías que minimicen el consumo de recursos naturales, reduzcan las emisiones de carbono durante la construcción y operación, y maximicen la eficiencia energética a lo largo de su vida útil. Además, estos puentes deben ser capaces de adaptarse a condiciones ambientales cambiantes y promover prácticas de ingeniería que contribuyan a la conservación de los recursos naturales y la protección del medio ambiente local. Para abordar este problema de manera efectiva, es fundamental realizar investigaciones avanzadas y desarrollar metodologías innovadoras que integren principios de sostenibilidad desde las etapas iniciales de diseño hasta la implementación y operación del puente. Esto implica explorar nuevas tecnologías de construcción, evaluar el ciclo de vida completo de los materiales utilizados y optimizar el rendimiento estructural con consideraciones ambientales en mente.  



METODOLOGÍA

La investigación del proyecto sobre puentes sustentables se inició con la definición del problema, la justificación del estudio y el establecimiento de objetivos claros. Realizaremos una revisión exhaustiva de la literatura para identificar conceptos claves, teorías y estudios previos relevantes, además recopilaremos información mediante análisis de documentos técnicos y normativos. Identificaremos temas y patrones emergentes. Interpretaremos y contextualizaremos los hallazgos en el marco de la sostenibilidad y la ingeniería civil. Finalmente, elaboraremos un informe detallado, prepararemos una presentación visual y presentaremos los resultados a los interesados, facilitando distintos puntos de vista para obtener retroalimentación. Esta metodología nos proporcionará una comprensión profunda de los puentes sustentables, integrando perspectivas técnicas y comunitarias.


CONCLUSIONES

En conclusión, esta pasantía de investigación representó una oportunidad invaluable que nos permitió desarrollar habilidades técnicas, analíticas y de comunicación en los campos de la ingeniería civil y la energía renovable. A través de un enfoque integral, adquirimos conocimientos prácticos y teóricos esenciales, capacitándonos en herramientas especializadas como HEC-RAS y técnicas de fotogrametría. Además, fortalecimos nuestras competencias en la planificación y ejecución de proyectos, formulación de marcos teóricos, análisis de datos y comunicación efectiva de resultados. Esta experiencia no solo enriqueció nuestro aprendizaje académico, sino que también contribuyó a la innovación y mejora de procesos en ingeniería civil y sostenibilidad energética, beneficiando a la comunidad y posicionándonos como candidatos destacados para futuras oportunidades profesionales y académicas. En resumen, esta pasantía nos preparó para un futuro prometedor en la vanguardia de nuestro campo de estudio.
Tiznado Reyes Raúl Uziel, Universidad Autónoma de Nayarit
Asesor: Dr. Emilio Barocio Espejo, Universidad de Guadalajara

PROCESAMIENTO DIGITAL DE SEÑALES DE AUDIO


PROCESAMIENTO DIGITAL DE SEÑALES DE AUDIO

Tiznado Reyes Raúl Uziel, Universidad Autónoma de Nayarit. Asesor: Dr. Emilio Barocio Espejo, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el procesamiento de señales de audio ha cobrado gran importancia debido al incremento en el uso de tecnologías de inteligencia artificial, como asistentes de voz, buscadores web y aplicaciones de comando por voz. Sin embargo, el desafío radica en desarrollar modelos inteligentes capaces de analizar y procesar estas señales de audio de manera eficiente, extrayendo información clara y detallada que permita la correcta interpretación y utilización en diversas aplicaciones. La capacidad de procesar señales de audio de forma precisa es hoy en día de gran importancia, facilita la accesibilidad y optimiza el rendimiento de aplicaciones basadas en voz. Un modelo eficiente no solo mejoraría la precisión en la interpretación de comandos de voz, sino que también podría aplicarse en áreas como la transcripción automática, el análisis de emociones en voz y la identificación de sonidos específicos en entornos ruidosos. La implementación de tales modelos podría revolucionar la manera en que interactuamos con la tecnología y brindar soluciones innovadoras en múltiples campos. El proyecto se centrará en el desarrollo y evaluación de modelos para el procesamiento de señales de audio. Se cubrirán aspectos como el monitoreo, análisis, y modulación de señales. No se incluirán en este estudio otros tipos de señales no auditivas ni se abordarán aplicaciones específicas fuera del ámbito de la interacción por voz y procesamiento de audio.



METODOLOGÍA

Utilizando la herramienta de programación MATLAB se dará a conocer la importancia del procesamiento digital de señales en el análisis de audios, con el objetivo de leer y procesar de tal manera en que se pueda obtener información más clara, precisa y detallada sobre el espectro que conforma la señal de audio, como observación general nos daremos cuenta que la voz no se encuentra estandarizada a niveles de frecuencias, amplitudes instantes de tiempos definidos ya que tanto el ser humano como el ecosistema que nos rodea, tienen características únicas e individuales que generan señales oscilatorias, sean señales de audio que presentan alguna identidad o bien manifestándose como señales espurias, también conocido como ruido, las cuales intervienen y afectan en la calidad de una señal de audio específica o ideal que se requiera analizar. Es ahí donde interviene el procesamiento digital de señales DSP, el a través de un análisis matemático, realiza la descomposición de una señal de audio para poder obtener toda esa información necesaria con la finalidad de encontrar ese tipo de señales parásitas, detectar fallos o hacer comparaciones a señales ideales. Los objetivos principales por tomar en cuenta son: Descomponer la señal en componentes intrínsecos, conocidos como funciones de modo intrínseco (IMFs). Estos IMFs permiten una representación detallada de las oscilaciones simples presentes en la señal original, entendiendo el comportamiento matemático mostrado en la separación en componentes de dicha señal. Obtener la Transformada rápida de Fourier para observar y comprender como es que se desarrollan y muestran las señales portadoras fundamentales y con la mejor información interpretada en el dominio de la frecuencia. Desarrollar la transformada de Hilbert-Huang, al aplicar la Transformada de Hilbert a cada IMF, se obtiene una representación tiempo-frecuencia-energía precisa, que revela cómo las características de frecuencia cambian a lo largo del tiempo. Implementar los puntos anteriores en una señal voz humana para concluir y entender la aplicación que se realiza en el ámbito real, comprendiendo el desarrollo que interviene y conlleva el procesamiento digital en señales de voz. Comprender el uso de la descomposición en modo empírico EMD es importante, ya que forma parte de una serie de análisis matemáticos los cuales aportan eficiencia y una manera más clara, precisa y constructiva para poder obtener un resultado favorable, tal es el caso en las descomposiciones de señales en las cuales se podrá identificar las características de ella o cada una de las componentes que conforman una señal no líneas y no estacionaria, se identificarán las características y comportamiento de una señal haciendo la transformación de ésta y así obtener su espectro para analizar y observar manifestaciones encontradas en señales de audio por lo que a su vez será de gran utilidad para entender y comprender como es que se tiene este método el cual resulta una de las herramientas fundamentales y principios de lo que hoy en día lleva una base de procesamiento de señales digitales y utilizarlo en posteriores implementaciones donde se necesite desarrollar estas técnicas de análisis y manipulación de señales.


CONCLUSIONES

El análisis del procesamiento digital de señales (DSP) y sus aplicaciones en el tratamiento y análisis de señales revela una vasta complejidad y potencial en diversas áreas tecnológicas y científicas.  En conjunto, estos métodos proporcionan una gran variedad de herramientas para el análisis de señales que abarca desde la mejora de la calidad del audio hasta la detección de fallos y el análisis de datos biomédicos. La aplicación práctica de estas técnicas tiene un impacto significativo en la tecnología moderna, permitiendo avances en comunicación, música, diagnóstico médico, y muchas otras áreas. La combinación de la EMD, la FFT y la Transformada de Hilbert-Huang representa una metodología integral para enfrentar desafíos complejos en el procesamiento de señales, ofreciendo soluciones precisas y eficientes para el análisis y la mejora de datos en una amplia gama de aplicaciones.
Tobias Huerta Antonio, Universidad Tecnológica de Tecamachalco
Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac

SISTEMA DE GESTIóN Y MONITOREO PARA MáQUINA DE ENVEJECIMIENTO ACELERADO.


SISTEMA DE GESTIóN Y MONITOREO PARA MáQUINA DE ENVEJECIMIENTO ACELERADO.

Santiago Rodríguez Angel David, Universidad Autónoma del Estado de México. Tobias Huerta Antonio, Universidad Tecnológica de Tecamachalco. Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

Una cámara de envejecimiento acelerado es un dispositivo utilizado para simular y acelerar el proceso de envejecimiento de materiales bajo condiciones controladas, como lluvia o luz solar artificial. Esto permite prever en cuánto tiempo comenzarán a degradarse los materiales. Aunque comprender el envejecimiento de un material puede ser costoso y llevar años, estas cámaras permiten realizar el análisis en semanas o meses. Las pruebas de envejecimiento acelerado son esenciales para garantizar que los productos cumplan con los requisitos de calidad antes de salir al mercado. En la Universidad Politécnica de Tecámac, existe una máquina de envejecimiento acelerado utilizada por diversas instituciones y empresas. Sin embargo, las solicitudes y condiciones se registran manualmente, y el ciclo de trabajo es configurado manualmente, requiriendo supervisión constante para activar y desactivar los equipos que simulan las condiciones ambientales.



METODOLOGÍA

Para estimar con precisión el envejecimiento de los materiales, se observan sus cambios en contacto con agentes químicos y físicos diversos. Estos ensayos se realizan en cámaras climáticas que simulan distintos escenarios, combinando factores ambientales o de forma aislada. Existen varios tipos de pruebas de envejecimiento acelerado: Radiación: Exposición a luz ultravioleta y radiaciones ionizantes como rayos X y gamma. Temperatura: Uso de cámaras térmicas para inducir temperaturas específicas, estudiando los rangos que deben soportar los materiales. Humedad: Evaluación de la acción corrosiva del agua y humedad relativa, siguiendo normas como ISO 9227. Gases contaminantes: Análisis de gases ambientales como ozono y dióxido de azufre. Erosión: Exposición a aire con partículas abrasivas para medir la erosión en materiales. En la Universidad Politécnica de Tecámac, se realizan ensayos con escenarios de humedad, temperatura y radiación, utilizando un circuito con un microcontrolador ESP32 y varios sensores. El sistema incluye una página web para monitorear datos de sensores y gestionar solicitudes de empresas. El desarrollo del sistema se dividió en tres fases: Fase 1: Análisis Se identificó la necesidad de una aplicación web y móvil para automatizar la recolección de datos y facilitar las solicitudes. Fase 2: Diseño Se modelaron los datos y diseñaron las interfaces de las aplicaciones web y móvil, utilizando la herramienta Figma. Fase 3: Codificación Se desarrolló la aplicación web con ASP.NET Framework y la móvil con Xamarin.Forms, utilizando Entity Framework para el modelado de datos y MVC para la estructura del proyecto. La comunicación entre las aplicaciones se realiza mediante una API Web que envía y recibe datos en formato JSON.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre el funcionamiento de una máquina de envejecimiento acelerado, ponerlos en práctica desarrollando una aplicación web y móvil que nos permitiera tener un análisis de datos obtenidos por la máquina que ya se encontraba en funcionamiento en la universidad fue un reto, trabajar con tecnologías nuevas para mí ha sido una experiencia enriquecedora.
Tolentino Tapia Fernando, Universidad Autónoma de Guerrero
Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla

MODELADO, NAVEGACIóN E INTERACCIóN DE ARQUITECTURAS EN EL METAVERSO CON GAFAS VR Y RECONSTRUCCIóN DIGITAL FOTOGRAMETRICA DE OBJETOS Y FACHADAS ARQUITECTóNICAS USANDO DRONES.


MODELADO, NAVEGACIóN E INTERACCIóN DE ARQUITECTURAS EN EL METAVERSO CON GAFAS VR Y RECONSTRUCCIóN DIGITAL FOTOGRAMETRICA DE OBJETOS Y FACHADAS ARQUITECTóNICAS USANDO DRONES.

Nestor Alatorre Lenin, Universidad Autónoma de Guerrero. Tolentino Tapia Fernando, Universidad Autónoma de Guerrero. Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, es indispensable adaptarse a las tendencias tecnológicas en el campo de la Construcción y Diseño para lograr proyectos financiera y ecológicamente beneficiosos para los socios y futuros clientes de estos. Las nuevas herramientas digitales nos han facilitado el desarrollo de proyectos verdaderamente innovadores y eficientes dentro del ámbito de la Arquitectura, sin embargo, es importante que nosotros entendamos que el simplificar la explicación y facilitar su comprensión de estos para los clientes termina siendo un factor determinante para que puedan involucrarse de manera personal con nuestro trabajo y así crear relaciones laborales beneficiosas a largo plazo. Entonces, para lograr esto, existe una limitante, o problemática, principal, la cual radica en los costos de implementar estrategias que creen una experiencia inmersiva para el cliente y que lo relacione con el proyecto, pues esto afectaría fuertemente a la viabilidad financiera del proyecto, ocasionando que sea poco redituable para los involucrados en éste.



METODOLOGÍA

Para las actividades del primer proyecto, el equipo de trabajo revisó y analizó, principalmente, tres diferentes alternativas para la representación y proyección de modelos arquitectónicos, o convencionales, en tercera dimensión, los cuales debían contar con la posibilidad de transferirse y manipularse a un entorno de realidad virtual, todo esto a través de las Gafas de Realidad Virtual Meta Quest 2, siendo los siguientes programas/aplicaciones, los que fueron empleados para la realización del proyecto: Sketchup, Arkio y Enscape. La primera semana consistió en actividades de familiarización con el entorno virtual de los dispositivos de Realidad Virtual y las interfaces de los programas anteriormente mencionados. La segunda semana, consistió en la realización de tutoriales que explicasen: cómo desarrollar recorridos virtuales a través de las funciones particulares de cada programa; cómo realizar la instalación de cada uno de los programas, o extensiones en la computadora; cómo exportar e importar archivos dentro de sus interfaces; cómo realizar la interconexión entre la computadora y las gafas de realidad virtual; entre otras. Puntos los cuales se encuentran recopilados en documentos detallados realizados por los participantes de la estancia, al igual que imágenes y videos explicativos que se encargan de complementar la información que se encuentra dentro de los tutoriales. Para el segundo proyecto desarrollado en el verano, en la tercera semana de la estancia, nuestro asesor nos facilitó una corta capacitación acerca del programa de reconstrucción digital a base de fotogrametría, denominado 3DF Zephyr, en donde nos orientó y explicó el manejo de las funciones de dicho programa mediante un ejemplo de la reconstrucción de un Pináculo a partir de un escaneo completo, a base de fotografías digitales tomadas desde un teléfono celular, con el que se pudo realizar un modelo en tercera dimensión, en formato .obj, de éste al finalizar dicho procedimiento. Con esto, durante las siguientes semanas, se nos asignó realizar 3 actividades derivadas de este segundo proyecto, las cuales fueron: De manera individual: cada participante realizará su propio modelo a partir de cualquier objeto que deseen procesar en el programa, haciendo hincapié en que debe detallado y de textura poco convencional. En parejas: escanear y representar en un modelo 3D una Fachada de tipo Colonial existente dentro del Centro Histórico de la Ciudad de Puebla. De manera grupal: realizar el escaneo del edificio coloquialmente denominado como La Monjita (un paraboloide hiperbólico doble) utilizando drones. De esta manera, cada una de las actividades mencionadas fueron desarrolladas y concluidas satisfactoriamente gracias al empleo del programa ya antes mencionado (3DF Zephyr), además de ser avaladas por el asesor de la estancia, posteriormente.


CONCLUSIONES

Durante esta estancia de verano de investigación, se lograron los objetivos principales que se plantearon al comienzo de la explicación del plan de trabajo. Los cuales fueron: Contar con la capacidad para realizar y explicar la elaboración de recorridos virtuales, interactivos e inmersivos mediante los programas seleccionados e indicados por parte de nuestro asesor, junto con gafas de Realidad Virtual. Entender y realizar proyectos de fotogrametría correctamente mediante el programa de procesamiento y modelado 3DF Zephyr, a través de los trabajos asignados por el Asesor: Escaneo y procesamiento de un elemento libre (Individual); y escaneo y procesamiento una Fachada Colonial de la ciudad de Puebla (en parejas). Ser capaces de manejar libremente un Dron de vuelo, de buena correcta y segura. Ser capaces de manipular la aplicación requerida para el Dron de vuelo y realizar un escaneo minucioso de los detalles generales de un edificio existente en las Instalaciones de la Facultad de Arquitectura. 
Torija Peralta David, Instituto Tecnológico del Altiplano de Tlaxcala
Asesor: Mtra. Amparo Jazmín Meza Gutiérrez, Universidad Tecnológica de Bahía de Banderas

ESTUDIO Y ANáLISIS DEL COMPORTAMIENTO VISUAL DEL ESTUDIANTE PARA EL DESARROLLO DE NEUROMARKETING


ESTUDIO Y ANáLISIS DEL COMPORTAMIENTO VISUAL DEL ESTUDIANTE PARA EL DESARROLLO DE NEUROMARKETING

Flores Pérez Azhaell, Instituto Tecnológico del Altiplano de Tlaxcala. Ramirez Meza Harold, Instituto Tecnológico del Altiplano de Tlaxcala. Torija Peralta David, Instituto Tecnológico del Altiplano de Tlaxcala. Asesor: Mtra. Amparo Jazmín Meza Gutiérrez, Universidad Tecnológica de Bahía de Banderas



PLANTEAMIENTO DEL PROBLEMA

Partimos del neuromarketing que es aquel que estudia los procesos mentales y los comportamientos de compra de las personas, en este caso se enfocó en el comportamiento e interacción de estudiantes universitarios a través de Tobii Glasses 3 y Tobii Pro Lab, como primer paso fueron encuestados los profesores de una sola academia para partir de un cierto punto estratégico, preguntando cual es la colorimetría que más usan y el material didáctico que más presentan en clase, en este caso en mayoría fueron diapositivas, por lo que partimos con una presentación analizando y estudiando el comportamiento visual de cada uno y detallando cada punto visto, la duración de su mirada a un punto y el enfoque a lo mas importante de estas diapositivas.



METODOLOGÍA

Método de trabajo explicativo. A través de hipótesis explicativas, es decir se ofrecio una explicación posible sobre la causa que relaciona las variables, se buscó una relación causa-efecto entre los estudiantes evaluados para responder como sucede el comportamiento visual de cada uno.


CONCLUSIONES

Se espera obtener patrones de visualización, colorimetría, tipografía para mejorar el plan de instrumentación de los estudiantes universitarios que les permita aprender y razonar todo tipo de información.
Torregroza Medina Carlos Daniel, Corporación Universitaria de Ciencias Empresariales, Educación y Salud
Asesor: M.C. Agustín Acevedo Figueroa, Instituto Tecnológico de Iguala

ESTUDIO DE LAS VARIABLES DE DISEñO EXPERIMENTAL EN EL PROCESO DE RECUPERACIóN DE PLATA Y ORO DE LIXIVIADOS MEDIANTE EL USO DE UNA CELDA ELECTROLíTICA


ESTUDIO DE LAS VARIABLES DE DISEñO EXPERIMENTAL EN EL PROCESO DE RECUPERACIóN DE PLATA Y ORO DE LIXIVIADOS MEDIANTE EL USO DE UNA CELDA ELECTROLíTICA

Padilla Guerrero Yasser Daniel, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Torregroza Medina Carlos Daniel, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Asesor: M.C. Agustín Acevedo Figueroa, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

El proceso de recuperación de metales preciosos como la plata y el oro de lixiviados mediante celdas electrolíticas es un método electroquímico utilizado en la minería y en la recuperación de metales. Tradicionalmente, estos metales se recuperan utilizando procedimientos complejos y costosos como la desorción con carbón activado y polvo de zinc. Con el objetivo de optimizar y simplificar este proceso, se propone el uso de una celda electroquímica para la electrodeposición de los metales valiosos contenidos en la solución rica del lixiviado.



METODOLOGÍA

Para la realización correcta de este proceso hay que seguir una serie estructurada de pasos, para que la obtención del material precioso sea la más eficiente posible; lo primero es tener una muestra de mineral con contenido metálico, la cual se prepara triturándola y pulverizándola, la cual, se realizó pasándola por un molino primario (molino casero manual) y luego, por un molino de pulverización (molino de bolas de acero). Esta muestra pulverizada se vierte en un recipiente con agua y cianuro de sodio a una concentración de 5% - 10%, y de esta manera se dio inicio al proceso de lixiviación.   Se dejó la muestra en esta solución durante 3 días, suministrando aire dentro del recipiente y se vigiló constantemente su pH para mantener un pH básico en 12, siendo controlado el mismo con Hidróxido de Calcio. A continuación, posteriormente se realizó un proceso de decantación (vaciar el líquido en otro recipiente), con el objetivo de obtener agua rica, la cual, es el lixiviado y se vertió en la celda electrolítica, la cual tiene unas dimensiones de; 30cm de ancho, 25 cm de largo y 11 cm de fondo. La celda se alimentó con corriente eléctrica mediante un cargador que proporciona una corriente de salida de 3.6 V ~ 600 mA y Corrientes de entrada de 120 V ~ 60 Hz o 0,1 A con lo que se logró depositar en el cátodo los metales valiosos de oro y plata. Posteriormente se limpió con una brocha pequeña, el material depositado en el cátodo de aluminio y se lavó con agua destilada caliente para quitar residuos de cianuro. Se dejó secar el material obtenido y se procedió a realizar el proceso de copelación utilizando para ello una copela hecha de ceniza de hueso y cemento en partes iguales de 2.5 cm de diámetro y 5cm de alto. Se colocó dentro de la mufla y una vez que esta estaba entre 900°C y 1000°C.


CONCLUSIONES

Se obtuvo un botón de metal valioso de peso 0.0823 g. de Ag al 100%. No se realizó la separación vía húmeda para cotejar el porcentaje y su contenido en gramos de plata y oro, solo se agregó ácido nítrico al 10% para comprobar si el botón contenía plata u oro. Finalmente se comprobó que la celda recupera metales valiosos de minerales a usando una celda electrolítica y lixiviando minerales pulverizados.
Torrenegra Passo Jesus David, Corporación Universitaria Latinoamericana
Asesor: Mg. Patty Pedroza Barrios, Universidad Libre

DISEñO DE UN SISTEMA DE EVALUACIóN DE MéTRICAS DE GESTIóN DE PROYECTO EN LAS áREAS DE CONOCIMIENTOS GESTIóN DEL ALCANCE Y GESTIóN DEL RECURSOS HUMANOS


DISEñO DE UN SISTEMA DE EVALUACIóN DE MéTRICAS DE GESTIóN DE PROYECTO EN LAS áREAS DE CONOCIMIENTOS GESTIóN DEL ALCANCE Y GESTIóN DEL RECURSOS HUMANOS

Torrenegra Passo Jesus David, Corporación Universitaria Latinoamericana. Asesor: Mg. Patty Pedroza Barrios, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

Según las directrices del Project Management Institute (PMI), la gestión del alcance se centra en definir, gestionar y controlar lo que está incluido y excluido del proyecto, mientras que la gestión del recurso humano se enfoca en gestionar y liderar a las personas involucradas para optimizar su desempeño y contribución al proyecto. Sin embargo, la medición precisa y efectiva de estas áreas sigue siendo un desafío para muchos gestores de proyectos. En esta investigación se propone diseñar un conjunto de métricas que permitan evaluar de manera efectiva tanto la gestión del alcance como la gestión del recurso humano, proporcionando herramientas cuantitativas y/o cualitativas para mejorar la toma de decisiones y la ejecución de proyectos.



METODOLOGÍA

Revisión bibliográfica: Analizar y sintetizar la literatura existente sobre gestión del alcance y gestión del recurso humano en proyectos, con un enfoque en las directrices de PMI. Diseño de métricas: Diseñar un conjunto inicial de métricas basadas en la literatura y las prácticas actuales, que cubran aspectos cuantitativos y cualitativos de ambas áreas. Validación con Caso de estudio: Diseñar un caso de estudio de pruebas c para evaluar la aplicabilidad y la efectividad de las métricas propuestas.


CONCLUSIONES

Desarrollar un marco conceptual: Definir un marco teórico que integre los principios de la gestión del alcance y del recurso humano según PMI. Identificar métricas relevantes: Identificar y diseñar métricas específicas que puedan medir de manera efectiva la gestión del alcance y del recurso humano en proyectos. Validar las métricas propuestas: Validar las métricas desarrolladas a través de estudios de caso.
Torres Arriaga Michelle, Instituto Tecnológico Superior de Puruándiro
Asesor: Prfnal. Jean Caratt Ortiz, Universidad de la Costa

INVESTIGACIóN NUMéRICA SOBRE LA INFLUENCIA DE LAS CONFIGURACIONES Y CANTIDAD DE ALETAS EN EL COMPORTAMIENTO TéRMICO E HIDRáULICO DE UN INTERCAMBIADOR DE CALOR DE DOBLE TUBO


INVESTIGACIóN NUMéRICA SOBRE LA INFLUENCIA DE LAS CONFIGURACIONES Y CANTIDAD DE ALETAS EN EL COMPORTAMIENTO TéRMICO E HIDRáULICO DE UN INTERCAMBIADOR DE CALOR DE DOBLE TUBO

Torres Arriaga Michelle, Instituto Tecnológico Superior de Puruándiro. Asesor: Prfnal. Jean Caratt Ortiz, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La transferencia de calor en un intercambiador de calor de doble tubo a menudo no es eficiente y puede presentar pérdidas significativas. La implementación de aletas tiene el potencial de mejorar este proceso, aumentando la eficiencia térmica y reduciendo las pérdidas de calor. Sin embargo, la configuración y cantidad óptima de aletas para maximizar esta mejora no está bien definida y requiere investigación.



METODOLOGÍA

Se desarrollaron cuatro modelos 3D de intercambiadores de calor con aletas utilizando el software Autodesk Inventor. Posteriormente, se determinaron los volúmenes de control de estos modelos con el software SolidWorks. Las simulaciones se llevaron a cabo en ANSYS Fluent, empleando agua como fluido de trabajo y variando las velocidades de entrada del fluido frío. Durante las simulaciones, se analizaron parámetros como temperatura total, presión total, magnitud de velocidad y coeficiente de transferencia de calor. Finalmente con los datos obtenidos, se calcularon números adimensionales clave como el Número de Reynolds (Re), Número de Nusselt (Nu) y el factor de fricción (f).


CONCLUSIONES

Los resultados obtenidos hasta ahora son prometedores. Aunque solo se han completado las simulaciones de uno de los modelos, se ha comprobado que la implementación de aletas mejora la transferencia de calor en intercambiadores de calor de doble tubo. Sin embargo, aún no se puede determinar cuál de las configuraciones estudiadas ofrece la mejor mejora en términos de transferencia de calor. Se requiere realizar más simulaciones y análisis para llegar a una conclusión definitiva sobre la configuración óptima de aletas.
Torres Cordoba Maria Fernanda, Instituto Tecnológico Metropolitano
Asesor: Dra. Mirvana Elizabeth González Macias, Universidad Autónoma de Baja California

ANáLISIS DEL MOVIMIENTO Y POSTURA


ANáLISIS DEL MOVIMIENTO Y POSTURA

Torres Cordoba Maria Fernanda, Instituto Tecnológico Metropolitano. Asesor: Dra. Mirvana Elizabeth González Macias, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

La biomecánica es una disciplina esencial para comprender el movimiento humano y mejorar el rendimiento deportivo. En este contexto, el análisis biomecánico es crucial para optimizar la técnica de ejercicios y prevenir lesiones, especialmente en atletas. La necesidad de este proyecto surge de la importancia de entender y optimizar la técnica del ejercicio realizado por un sujeto en un banco adaptado a su altura. La ejecución incorrecta de ejercicios puede llevar a sobreesfuerzos y compensaciones en movimientos, incrementando el riesgo de lesiones y disminuyendo la eficiencia del entrenamiento. Este proyecto tiene como objetivo desarrollar una aplicación que realice análisis biomecánicos utilizando datos de captura de movimiento. Estos datos incluyen variables cinemáticas y cinéticas, como ángulos de cadera, rodilla y tobillo. El análisis se basa en información recopilada mediante cámaras de iluminación infrarroja y plataformas de fuerza, lo que garantiza una captura precisa y completa de los datos biomecánicos. La aplicación se diseñó para facilitar la interpretación de estos datos y proporcionar recomendaciones personalizadas para mejorar la técnica y el rendimiento del sujeto, contribuyendo así a un entrenamiento más efectivo y seguro. La problemática principal radica en la necesidad de una herramienta accesible y eficiente que permita realizar análisis biomecánicos avanzados sin requerir recursos excesivos. Esto es crucial para entrenadores, fisioterapeutas y otros profesionales del deporte que buscan optimizar el rendimiento de los atletas y reducir el riesgo de lesiones mediante un análisis detallado y preciso del movimiento.  



METODOLOGÍA

Para llevar a cabo este proyecto, se desarrolló una aplicación destinada al análisis biomecánico de variables cinemáticas y cinéticas, enfocándose en los ángulos de cadera, rodilla y tobillo durante la ejecución de ejercicios en un banco adaptado a la altura del sujeto. El proceso metodológico comenzó con la selección y preparación del sujeto, un maratonista activo, para lo cual se realizaron medidas antropométricas detalladas necesarias para la configuración del software de análisis. Se utilizó el sistema Vicon con 11 cámaras de iluminación infrarroja y 39 marcadores reflectantes distribuidos estratégicamente en el cuerpo del sujeto, garantizando una captura precisa de los movimientos. Los datos de movimiento fueron capturados utilizando cámaras Vicon Bonita 720c y cámaras de iluminación infrarroja Bonita10 en un entorno controlado para minimizar variables externas. La integración y procesamiento de datos se realizó mediante el sistema Nexus2, que combinó la información de los marcadores reflectantes y las plataformas de fuerza AMTI, exportando los datos a archivos Excel con columnas de coordenadas X, Y y Z. El desarrollo de la aplicación implicó una programación detallada en Python. Se crearon scripts para la importación y procesamiento de los datos desde los archivos Excel, utilizando bibliotecas como pandas para la manipulación de datos y numpy para cálculos matemáticos. La aplicación calculó los ángulos de cadera, rodilla y tobillo mediante fórmulas geométricas aplicadas a las coordenadas X, Y y Z de los marcadores reflectantes. Además, se implementaron algoritmos para filtrar y suavizar los datos, garantizando precisión en el análisis. Para la creación de gráficos y visualizaciones, se utilizó Mokka como guía, lo que facilitó el diseño de una interfaz que permitiera visualizar y analizar los movimientos del sujeto de manera intuitiva, también las asesorías semanales con la investigadora fueron fundamentales para resolver problemas técnicos y refinar el código, asegurando la eficacia y precisión del análisis. Finalmente, se desarrollaron conclusiones personalizadas sobre la técnica del sujeto.


CONCLUSIONES

El análisis de los datos indicó que los mecanismos de compensación del sujeto son consistentes, lo que sugiere una adaptación a la ejecución del ejercicio. Los hallazgos resaltan la necesidad de ajustar la técnica y el entrenamiento del sujeto para mejorar la eficiencia y reducir el riesgo de lesiones. Además, el proyecto demostró la viabilidad de realizar análisis biomecánicos avanzados con recursos limitados, proporcionando un análisis detallado del movimiento y permitiendo crear recomendaciones personalizadas para mejorar el rendimiento del sujeto. Durante el desarrollo del proyecto, se adquirieron conocimientos significativos en biomecánica y programación, lo cual fue esencial para alcanzar los objetivos planteados.
Torres Hernández Luis Ernesto, Instituto Tecnológico de La Piedad
Asesor: Dr. Marcos Alfredo Hernández Ortega, Universidad Autónoma de Guadalajara

EVALUACIóN DE SISTEMAS DE POTENCIA CON PARQUES FOTOVOLTAICOS


EVALUACIóN DE SISTEMAS DE POTENCIA CON PARQUES FOTOVOLTAICOS

Torres Hernández Luis Ernesto, Instituto Tecnológico de La Piedad. Asesor: Dr. Marcos Alfredo Hernández Ortega, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

  El uso de energías renovables ha incrementado con los años, destacando los parques fotovoltaicos que generan energía sin requerir movimiento cinético. Aunque beneficiosos para el medio ambiente, presentan desafíos en diseño, control y operación al integrarse en sistemas de potencia, específicamente la pérdida de inercia total del sistema. La inercia, energía cinética almacenada en los rotores de máquinas síncronas, es crucial para la estabilidad del sistema. Sin ella, la respuesta a fallos se debilita, afectando la frecuencia del sistema. Las fuentes fotovoltaicas, al no aportar inercia, disminuyen la estabilidad del sistema cuando enfrentan perturbaciones.



METODOLOGÍA

  Creación del Sistema: Utilizamos EMTP para crear un sistema de potencia con: 4 LFC de 750 MW. 3 Cargas: 1500 MW, 1350 MW, 150 MW. 4 Medidores de voltaje. 6 Buses. 2 Transformadores. 3 Líneas de transmisión. 4 Generadores síncronos de 900 MVA. Verificamos la estabilidad a 60 Hz con scope view. Simulaciones Iniciales: Introdujimos una interrupción de 1 ms en la carga no. 3 para observar la estabilización de la frecuencia. Usamos MPLOT y MATLAB para calcular la inercia total del sistema. Aplicamos la fórmula de inercia:   Hsis= (fo*△P)/2*RoCoF*S fo es el valor del vector de las frecuencias. S es la suma de las potencias nominales. ΔP es la potencia activa perdida. RoCoF es la tasa de cambio de frecuencia. Incremento de Cargas y LFC: Aumentamos las cargas y LFC en un 5% por iteración, hasta que el sistema no pudo estabilizarse a 60 Hz. Analizamos el punto de inestabilidad y la inercia total en este punto usando MATLAB. Integración de Parques Fotovoltaicos: Agregamos un parque fotovoltaico (75 MVA) al bus no. 6, ajustando el LFC del generador cercano de 750 MW a 650 MW. Repetimos los análisis de estabilidad e inercia, incrementando las cargas y LFC en un 5% hasta la inestabilidad. Estudio con Múltiples Parques Fotovoltaicos: Realizamos estudios similares agregando dos y tres parques fotovoltaicos, analizando los efectos en la estabilidad del sistema. Evaluación de Factores de Potencia: Probamos distintos factores de potencia: 0.95, 0.9, 0.85 y 0.8, evaluando la estabilidad en cada caso con y sin parques fotovoltaicos. Cada caso fue sometido a perturbaciones adicionales para observar el comportamiento de las máquinas síncronas. Los resultados mostraron que la integración de parques fotovoltaicos afecta la estabilidad del sistema debido a la disminución de inercia. Sin embargo, el sistema puede mantener su estabilidad incrementando la capacidad de respuesta de los LFC y ajustando las cargas. En el primer estudio, la interrupción en la carga no. 3 mostró que los generadores síncronos pueden estabilizar la frecuencia rápidamente. La inercia calculada fue suficiente para mantener la estabilidad del sistema. Al incrementar las cargas y LFC, se observó que el sistema se desestabilizaba al superar el 80% de la capacidad de los generadores. La inercia total en este punto crítico fue significativamente menor, indicando la necesidad de ajustes en la capacidad de los LFC. Con la integración de un parque fotovoltaico, la estabilidad del sistema disminuyó ligeramente, pero se mantuvo dentro de parámetros aceptables al ajustar los LFC. Sin embargo, con dos y tres parques fotovoltaicos, la estabilidad se vio comprometida más rápidamente, requiriendo mayores ajustes y una respuesta más rápida de los LFC. El estudio con factores de potencia reveló que factores más bajos (0.85 y 0.8) afectan más la estabilidad, especialmente con múltiples parques fotovoltaicos. Los sistemas con factores de potencia de 0.95 y 0.9 mostraron mejor estabilidad, pero aún así requirieron ajustes precisos para mantener la frecuencia a 60 Hz.


CONCLUSIONES

  Durante el programa, adquirí conocimientos valiosos en sistemas de potencia, esenciales para entender la generación y consumo de energía. El análisis de sistemas con parques fotovoltaicos mostró que la reducción de inercia afecta significativamente la estabilidad de frecuencia. Los resultados reflejaron que, con más parques fotovoltaicos, la capacidad de los generadores síncronos para estabilizarse disminuye, confirmando nuestra hipótesis sobre la importancia de la inercia. Estas simulaciones son cruciales para prever y mitigar problemas energéticos futuros.
Torres Loya Olga Christelle, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan

DESARROLLO DE APLICACIONES MóVILES PARA SOLUCIóN DE PROBLEMáTICAS DE IMPACTO SOCIAL, ECONóMICO, ETC.


DESARROLLO DE APLICACIONES MóVILES PARA SOLUCIóN DE PROBLEMáTICAS DE IMPACTO SOCIAL, ECONóMICO, ETC.

Hernandez Blanco Angel Jesus, Instituto Tecnológico Superior de Uruapan. Romero Sánchez José Francisco, Instituto Tecnológico Superior de Uruapan. Rosas Ibarra Ricardo, Instituto Tecnológico Superior de Uruapan. Torres Loya Olga Christelle, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Uno de los mayores desafíos que enfrentan los desarrolladores de aplicaciones móviles es la fragmentación de plataformas. Con la gran cantidad de dispositivos y sistemas operativos diferentes en el mercado, puede ser difícil crear una aplicación que funcione en todos ellos.  Otro desafío común que enfrentan los desarrolladores de aplicaciones móviles es el rendimiento. Las aplicaciones móviles deben ser rápidas y fluidas para brindar una buena experiencia de usuario.



METODOLOGÍA

Las herramientas que se utilizaron para este proyecto de forma temprana son provenientes de servicios gratuitos como puede ser IDX, siendo este un codificador similar como lo es Visual Studio Code, teniendo al diferencia en que este servicio incluso nos permitirá realizar pruebas semejantes a las de un emulador, tales como un dispositivo móvil con sistema Android o de igual forma visualizando como una página web, todo ello basándose en la programación del lenguaje Dart bajo el framework Flutter, siendo este el apartado más importante ya que la aplicación funcionara con este sistema como motor. Dart permite generar un único código fuente que, al momento de compilar, posibilita la selección de diferentes plataformas de destino. Esta característica contribuye significativamente a la reducción del tiempo de producción de aplicaciones, eliminando la necesidad de escribir y mantener múltiples versiones del código para diferentes sistemas operativos. Flutter, desarrollado por Google, es un framework de código abierto que facilita la creación de aplicaciones nativas multiplataforma a partir de un único código base. Su motor gráfico Skia proporciona interfaces de usuario de alta calidad y rendimiento, ofreciendo una experiencia fluida y consistente en plataformas como iOS, Android, web y escritorio. Además, Flutter promueve un desarrollo ágil mediante su función de "hot reload" y cuenta con una amplia comunidad y recursos de soporte que optimizan el proceso de desarrollo. Uno de los objetivos principales de esta investigación es obtener una visión integral sobre las diversas herramientas, frameworks y plataformas disponibles que pueden abordar el desafío de la producción de código multiplataforma. Esta exploración permitirá identificar las soluciones tecnológicas más adecuadas para desarrollar aplicaciones eficientes en múltiples sistemas operativos, optimizando recursos y mejorando la experiencia del usuario. El entorno de desarrollo utilizado fue Project IDX, una plataforma en la nube de Google diseñada para simplificar la creación de aplicaciones web y móviles. Permite el acceso al entorno de desarrollo desde cualquier dispositivo con conexión a internet, facilitando la colaboración en tiempo real y eliminando la necesidad de configuraciones locales complejas. Además, la plataforma permite trabajar en proyectos sin necesidad de contar con hardware especializado, ya que los recursos son proporcionados por los servidores de Google. Al estar basado en la nube, Project IDX ofrece escalabilidad y recursos bajo demanda, permitiendo a los desarrolladores gestionar proyectos de cualquier tamaño sin preocuparse por limitaciones de hardware. Inicialmente, se analizó la sintaxis del lenguaje Dart y se construyeron programas sencillos. Este enfoque facilitó la familiarización con la sintaxis del lenguaje y las diversas herramientas proporcionadas por el framework Flutter para optimizar la producción de código, destacando entre ellas los widgets. En Flutter, los widgets son los componentes fundamentales para construir la interfaz de usuario, representando todos los elementos visuales e interactivos, como botones, textos e imágenes. Estos widgets están organizados jerárquicamente en un árbol, son inmutables y configurables, lo que permite realizar cambios mediante la creación de nuevos widgets en lugar de modificar los existentes. Los widgets se clasifican en varias categorías: widgets de diseño, que controlan la disposición; widgets de interfaz, que constituyen los elementos visibles; y widgets con estado, que pueden cambiar dinámicamente, frente a aquellos sin estado, que permanecen estáticos. Esta estructura permite crear interfaces complejas y dinámicas de manera eficiente. Una vez desarrollada una aplicación más compleja que incorpora diferentes tipos de menús para facilitar la navegación, se utilizó la herramienta de GitHub para trasladar el proyecto de manera local a Visual Studio Code Visual studio Code que nos permite agregar proyectos de flutter y poder visualizarlos cómo una aplicación de escritorio y emular el proyecto de flutter en un móvil Android virtual. además de poder vincularse con GitHub, lo que permite una conexión compartida entre las plataformas de project IDX y visual studio code, esto permite la visualización y edición en ambas plataformas. EJ:  Project IDX ←→ GitHub(Repositorio) ←→ Visual Studio Code


CONCLUSIONES

Flutter resuelve el problema de la fragmentación de plataformas al permitir a los desarrolladores crear aplicaciones con una única base de código que se puede compilar tanto para Android como para iOS. Esto elimina la necesidad de escribir y mantener código separado para cada plataforma, lo que ahorra tiempo, dinero y reduce la complejidad del desarrollo. También utilizando un motor de renderizado llamado Skia permite crear aplicaciones con un rendimiento nativo. Esto significa que las aplicaciones Flutter se ejecutan tan rápido y fluidas como las aplicaciones nativas escritas en Kotlin, C++ o Swift.
Torres Martínez John Edwin, Corporación Universitaria Iberoamericana
Asesor: Mtra. Elizabeth Medina Morales, Universidad Mexiquense del Bicentenario

MODULO ADMINISTRATIVO PARA LA ASIGNACIóN DE PROYECTOS EN LA PLATAFORMA RESEARCHPRO


MODULO ADMINISTRATIVO PARA LA ASIGNACIóN DE PROYECTOS EN LA PLATAFORMA RESEARCHPRO

Torres Martínez John Edwin, Corporación Universitaria Iberoamericana. Asesor: Mtra. Elizabeth Medina Morales, Universidad Mexiquense del Bicentenario



PLANTEAMIENTO DEL PROBLEMA

Se ha implementado una funcionalidad clave en la plataforma ResearchPro donde el SuperUser podrá asignar proyectos a los docentes. Anteriormente, todos los usuarios "Docentes" tenían acceso a todos los proyectos de investigación. Esta funcionalidad permite al SuperUser seleccionar uno o varios proyectos y asociarlos a un docente específico. Al asignar los proyectos, el sistema actualiza automáticamente la colección correspondiente en la base de datos, sobrescribiendo los proyectos anteriores con los nuevos que se realice una actualización en el usuario "Docente". Los proyectos se almacenan en la colección "Uses" de la base de datos dentro del atributo "Projects" Además, se almacena el nombre del docente en la colección "DataApp" bajo el atributo "tutor", lo que facilita la gestión y seguimiento de las asignaciones dentro de la plataforma. Esta mejora asegura que solo los usuarios con privilegios de SuperUser puedan realizar cambios críticos en las asignaciones de proyectos, garantizando un control centralizado y seguro.



METODOLOGÍA

Para este módulo se siguió utilizando la metodología MVC "Modelo - Vista - Controlador", la cual, es la metodología elegida desde el inicio del proyecto. El backend se está estructurando y desarrollando con NodeJS, utilizando el Framework "Express". La base de datos para esta plataforma es NoSQL, utilizando MongoDB. En el frontend se está utilizando React.


CONCLUSIONES

Eficiencia en la Asignación de Proyectos: La implementación de un módulo para que los superusuarios puedan asignar proyectos a los docentes ha mejorado significativamente la eficiencia en la gestión de proyectos dentro de Research Pro. Este desarrollo ha permitido una mayor flexibilidad y control en la distribución de responsabilidades, alineando los recursos docentes con las necesidades de investigación. Consistencia en el desarrollo: La continuidad en la utilización de la metodología MVC (Modelo - Vista - Controlador) ha permitido mantener un desarrollo ordenado y escalable. Esta elección metodológica, combinada con tecnologías como Node.js, Express, MongoDB y React, ha facilitado la integración de nuevas funcionalidades sin comprometer la estructura existente. Robustez del backend: Al utilizar Node.js junto con el framework Express, el backend ha demostrado ser robusto y capaz de manejar las complejidades asociadas con la gestión de datos y la autenticación de usuarios. La validación de roles, en particular, ha sido fundamental para garantizar que solo los usuarios autorizados puedan realizar operaciones críticas como la asignación de proyectos. Flexibilidad y adaptabilidad del frontend: La elección de React para el frontend ha proporcionado una interfaz de usuario dinámica y reactiva. Esto ha mejorado la experiencia de usuario al permitir una interacción más fluida y una mejor presentación de la información, lo que es esencial para gestionar de manera efectiva las tareas dentro de la plataforma. Almacenamiento y acceso de datos: El uso de MongoDB como base de datos NoSQL ha proporcionado la flexibilidad necesaria para manejar y acceder a grandes volúmenes de datos de manera eficiente. La capacidad de almacenar y actualizar los datos de los proyectos y docentes en estructuras flexibles ha sido clave para el éxito del módulo. Este módulo ha logrado integrar y reforzar las funcionalidades clave de Research Pro, mejorando la eficiencia y la experiencia de usuario al mismo tiempo que se mantiene la consistencia y robustez técnica del proyecto.
Torres Mendoza Annel Paola, Instituto Politécnico Nacional
Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara

SISTEMA DE MANUFACTURA DE CELDAS SOLARES MEDIANTE EL DEPóSITO SECUENCIAL DE PELíCULAS DELGADAS


SISTEMA DE MANUFACTURA DE CELDAS SOLARES MEDIANTE EL DEPóSITO SECUENCIAL DE PELíCULAS DELGADAS

Cardoso Magaña Jesús Eduardo, Instituto Tecnológico Superior de Puruándiro. Hernández Mora Juan Carlos, Benemérita Universidad Autónoma de Puebla. López Fonseca Carlos Alberto, Instituto Tecnológico Superior de Puruándiro. Torres Mendoza Annel Paola, Instituto Politécnico Nacional. Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La creciente demanda de energía en el mundo, así como la necesidad de reducir la contaminación que generan las fuentes de energía no renovables, han llevado a la búsqueda y desarrollo de nuevos métodos y tecnologías más eficientes y sostenibles. En este contexto, las celdas solares de silicio se destacan como una de las opciones más prometedoras debido a su abundancia, su potencial de conversión energética y su tiempo de vida. Sin embargo, la fabricación de estas celdas solares tradicionales presenta desafíos significativos, como el alto costo de producción y la complejidad de los procesos involucrados. El método de "Depósito por Inmersión Sucesiva de Reactantes Químicos" (SILAR, por sus siglas en inglés), se presenta como una alternativa viable para la fabricación de celdas solares. No obstante, enfrenta desafíos técnicos que limitan su aplicación a gran escala debido al control del grosor y la composición de las películas. En este contexto, la presente investigación se ha centrado en el desarrollo y optimización de un sistema de manufactura de celdas solares basado en el método SILAR.



METODOLOGÍA

Para el desarrollo de un sistema de manufactura centrado en automatizar el método SILAR, se ha considerado una metodología estructurada. El proceso comenzó con la revisión de documentación científica para identificar los avances más recientes; a continuación, se identificaron los requisitos y especificaciones para replicar el sistema SILAR en un sistema de manufactura. Con esta base, se diseñó la arquitectura de un sistema de manufactura, desarrollando prototipos de los componentes clave, como la unidad de inmersión, el control de temperatura, el de agitación magnética y el control de dos grados de libertad; uno para la selección de una solución entre 4 posibles y el otro para la inmersión del sustrato en la secuencia y tiempos necesarios. El desarrollo e integración del sistema se implementó en el software SolidWorks 2022, en el que, adicionalmente, se llevó a cabo la reconstrucción digital de un mecanismo ya existente que se pretendía usar en el sistema de manufactura; también se realizaron diseños propios de los mecanismos necesarios para cada uno de los sistemas descritos anteriormente, asegurando las tolerancias adecuadas para integración del sistema y asegurar la funcionalidad. Finalmente, se ensamblaron virtualmente y mecánicamente los componentes para verificar el ajuste y la interacción cinemática. De igual manera, se desarrolló un sistema de control para gestionar la temperatura de hasta 4 soluciones salinas. Esto con la integración de microcontroladores y sensores, además de un control PID para tener un buen control sobre este parámetro. Asimismo, se implementó un sistema agitador magnético con control de RPM para cada una de las soluciones químicas.


CONCLUSIONES

A través de la presente investigación hemos logrado ensamblar y acoplar los mecanismos de un sistema de manufactura basado en el método SILAR para la producción de celdas solares multicapas. Con esto se ofrece una solución alternativa prometedora para los desafíos actuales en la industria fotovoltaica. El logro del proyecto se ha dado integrando de manera efectiva el diseño de los mecanismos, así como de la instrumentación necesaria. Durante esta estancia de investigación, se alcanzó un avance notable en la optimización de la parte mecánica del sistema, con una integración precisa de los componentes que permitió verificar su función, así como en las funciones de control: de selección, inmersión, temperatura y agitación.
Torres Morales Luis Daniel, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. Maricela Aguilar Almanza, Instituto Tecnológico Superior de Irapuato

PROTOTIPO PARA EL CONTROL DE INVENTARIO, EMPLEANDO TECNOLOGíA RFID.


PROTOTIPO PARA EL CONTROL DE INVENTARIO, EMPLEANDO TECNOLOGíA RFID.

Ayala Mercado Eduardo, Instituto Tecnológico Superior de Irapuato. Correa González José Ulises, Instituto Tecnológico Superior de Irapuato. Granados Regalado Diego, Instituto Tecnológico Superior de Irapuato. Hernández Hdz Jonathan, Instituto Tecnológico Superior de Irapuato. Rodriguez Vázquez Magdiel Dario, Instituto Tecnológico Superior de Irapuato. Torres Morales Luis Daniel, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. Maricela Aguilar Almanza, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Objetivo    Desarrollar una alternativa viable para capturar datos del control de entradas, salidas y estatus de piezas de inventario con tecnología RFID, y almacenar los datos en un manejador de base de datos para consultas y/o modificaciones posteriores.  Problemática   La problemática identificada se da en una escuela de educación básica en una comunidad del Municipio de Irapuato, en la que la directora debe realizar inventario de material y mobiliario por lo menos una vez al finalizar el ciclo escolar. Actualmente el registro del material en inventario se almacena en archivos de Excel en los que la directora debe ir identificando salón por salón la existencia y estado de cada uno de los materiales mencionados. Antes de iniciar la revisión, debe asegurarse de realizar una copia de seguridad del archivo anterior para prevenir la pérdida de información o eventualidades. La revisión es tediosa ya que debe ir filtrando y haciendo notas en el mismo archivo, lo que es tardado y extenuante, hay ocasiones en que le lleva casi una hora concluir con el inventario en un solo salón, esto depende de la organización o ubicación del material o recurso.  



METODOLOGÍA

Metodología  El prototipo se desarrolló a través de la metodología XP (Extreme Programming/Programación Extrema).  Primero, se identificó la problemática central: la dificultad y el tiempo que conlleva revisar los elementos, se realizaron preguntas clave a la persona encargada, para entender a fondo el proceso actual y explorar alternativas que facilitarían el trabajo, se inició con el proceso de planificación donde se plantearon las posibles soluciones, tales como el desarrollo de una aplicación web, una aplicación móvil o de escritorio que cubriera las necesidades mediante el uso del prototipo.    Se optó por continuar con el desarrollo de una aplicación de escritorio, ya que es más beneficiosa para realizar los movimientos específicos que indicó el cliente en su problemática.  Antes de planearse las pestañas necesarias para desarrollar la aplicación de escritorio, se debían migrar los datos de Excel a una base de datos adecuada, se propuso usar SQLite3 para manejar los datos de forma local sin afectar el rendimiento del equipo, la migración se realizará una vez que la base de datos esté normalizada.  Como se mencionó anteriormente, se requiere normalizar las tablas antes de migrarlas. El cliente indicó que desea separar los datos A de los datos B, por lo que se procedió a realizar esta separación, asignando los campos requeridos para cada uno.  Aunque inicialmente se había definido que sería una aplicación de escritorio, es necesario tener en cuenta las pestañas a utilizar, inicialmente, se había pensado en una única pestaña que recibirá los datos de lectura del prototipo, sin embargo, tras analizar nuevamente la problemática, se identificó la necesidad de varias pestañas para la elaboración de la actividad, ya que se debe cubrir un sistema de inicio de sesión así como un menú para los diferentes campos que se quieren abarcar, por consiguiente, se propusieron las siguientes ideas:  Una pantalla encargada de realizar el Log-in.  Una pantalla encargada de fungir como Menú principal.  Una pantalla encargada de recibir los datos recabados por el prototipo y validar que existan en la base de datos.  Una pantalla que reciba y permita modificar cualquier campo de los datos recopilados por el prototipo.  Después de decidir las pantallas necesarias para la aplicación y determinar a dónde migrar los datos, se procede a desarrollar el prototipo para leer y enviar los datos a la aplicación de escritorio. 


CONCLUSIONES

Conclusión  Durante el verano, se adquirieron conocimientos teóricos y prácticos esenciales para simplificar y agilizar el proceso de inventario en la escuela mencionada. Se utilizaron tecnologías como Wifi, Bluetooth e infrarrojo para mejorar la eficiencia y precisión del registro y gestión de materiales. Sin embargo, debido a la extensión del trabajo, aún se encuentra en la fase de prototipo y no se pueden mostrar los datos obtenidos. Se espera una reducción de tiempo al realizar el inventario, así como un incremento en la eficiencia del inventario y en la búsqueda de este. 
Torres Orozco Ismain, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

ENSEñANZA EFECTIVA DE LA NORMALIZACIóN EN BASES DE DATOS: UN ENFOQUE DIDáCTICO DESDE LA PRIMERA HASTA LA TERCERA FORMA NORMAL


ENSEñANZA EFECTIVA DE LA NORMALIZACIóN EN BASES DE DATOS: UN ENFOQUE DIDáCTICO DESDE LA PRIMERA HASTA LA TERCERA FORMA NORMAL

Torres Orozco Ismain, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, las escuelas de nivel básico y medio superior enfrentan una carencia significativa de clases en materias especializadas. Esta deficiencia limita las oportunidades de aprendizaje continuo para los estudiantes, quienes a menudo dependen de la información proporcionada por las instituciones educativas. Un área particularmente afectada por esta falta de recursos es el estudio de bases de datos, que representa una valiosa oportunidad de aprendizaje y desarrollo académico. La escasez de información especializada en los niveles educativos básicos y medio superior impide que los estudiantes adquieran conocimientos profundos y aplicables en el campo de las bases de datos. Esta limitación no solo afecta su desarrollo académico, sino también su preparación para futuros estudios y oportunidades laborales en un mundo cada vez más digitalizado. Es fundamental que los estudiantes de niveles básicos y medio superior tengan acceso a una educación de calidad que incluya materias especializadas. Para abordar esta necesidad, se propone la creación y distribución de libros que contengan información detallada y especializada sobre bases de datos. Estos materiales educativos deben estar redactados en un lenguaje coloquial y accesible, facilitando así su comprensión y aprovechamiento por parte de los estudiantes. Esta iniciativa no solo mejorará la formación académica de los alumnos, sino que también les proporcionará herramientas esenciales para su desarrollo profesional futuro.



METODOLOGÍA

Para abordar la escasa distribución de material e información sobre conceptos de bases de datos, se desarrolló un libro especializado mediante el siguiente proceso: Identificación de conceptos clave: Normalización Primera forma normal Segunda forma normal Tercera forma normal Búsqueda y recopilación de información: Se consultaron portales de internet confiables, la biblioteca de la institución y bibliotecas virtuales para obtener información precisa y actualizada sobre los conceptos clave. Desarrollo del contenido: La información recopilada se organizó y desarrolló de manera detallada en un documento. Cada concepto se explicó con claridad y se incluyeron ejemplos prácticos para facilitar la comprensión. Creación de materiales complementarios: Se produjeron videos explicativos sobre los temas cubiertos en el libro, con el objetivo de reforzar el aprendizaje de los estudiantes. Para hacer el aprendizaje más interactivo, se diseñaron crucigramas y sopas de letras relacionados con los conceptos de bases de datos. Diseño de presentaciones: Se elaboraron presentaciones didácticas para facilitar la explicación de los temas en clase. Estas presentaciones fueron diseñadas para ser visualmente atractivas y fáciles de seguir. Evaluación y refuerzo del aprendizaje: Se creó un breve cuestionario para evaluar la comprensión de los estudiantes y reforzar su aprendizaje. Para la producción de videos, se desarrollaron guiones detallados basados en el libro, incluyendo explicaciones clave, ejemplos visuales y ejercicios prácticos. Se usaron herramientas de inteligencia artificial para generar videos dinámicos y atractivos, alineados con las secciones del libro, facilitando el aprendizaje autónomo y continuo.


CONCLUSIONES

El desarrollo del libro didáctico y las actividades complementarias están orientados a enseñar los conceptos básicos de bases de datos de manera efectiva y accesible. El lenguaje claro y comprensible del libro, junto con los videos interactivos, buscan mejorar tanto la comprensión como el interés de los estudiantes en este campo crucial. Resultados obtenidos: Desarrollo de un libro claro y accesible: El libro presenta los conceptos de bases de datos de una manera que es fácil de entender para los estudiantes, utilizando ejemplos prácticos y un lenguaje coloquial. Producción de videos educativos complementarios: Los videos incluyen elementos visuales y explicaciones interactivas que refuerzan el contenido del libro y facilitan el aprendizaje. Resultados esperados: Mejorar la comprensión y aplicación de los conceptos de bases de datos: Los estudiantes tendrán una base sólida en los principios de bases de datos, lo que les permitirá aplicar estos conocimientos en contextos prácticos. Atraer a más jóvenes al campo de las bases de datos: Al presentar los temas de manera interesante y accesible, se espera aumentar el interés de los estudiantes por este campo, promoviendo un interés duradero y potencialmente influenciando sus decisiones académicas y profesionales futuras. Integrar tecnologías emergentes: Inspirar a los estudiantes a explorar campos en constante evolución, como la inteligencia artificial, y comprender cómo estas tecnologías pueden aplicarse en el ámbito de las bases de datos. Conclusión personal: Mi experiencia durante el verano de investigación ha sido enormemente enriquecedora. No solo he adquirido un conocimiento profundo sobre bases de datos, sino que también he aprendido a redactar información de manera clara y precisa, y a buscar fuentes confiables en internet. Este proyecto no solo ha mejorado mis habilidades académicas y de investigación, sino que también ha fortalecido mi interés en el campo de las bases de datos y su enseñanza.
Torres Piña Dariely Michelle, Universidad Politécnica de Sinaloa
Asesor: Dra. Angélica Jiménez Rosales, Universidad Tecnológica de Zinacantepec

BREVE REVISIóN SOBRE LA APLICACIóN DE NANOPARTíCULAS DE TIO₂ PARA FOTOCATáLISIS EN LA DEGRADACIóN DE CONTAMINANTES


BREVE REVISIóN SOBRE LA APLICACIóN DE NANOPARTíCULAS DE TIO₂ PARA FOTOCATáLISIS EN LA DEGRADACIóN DE CONTAMINANTES

Torres Piña Dariely Michelle, Universidad Politécnica de Sinaloa. Asesor: Dra. Angélica Jiménez Rosales, Universidad Tecnológica de Zinacantepec



PLANTEAMIENTO DEL PROBLEMA

La contaminación por plásticos es uno de los desafíos ambientales más críticos del siglo XXI, afectando tanto a los ecosistemas terrestres como acuáticos. Los microplásticos y nanoplásticos, en particular, se han encontrado en diversas áreas ambientales, incluidos los océanos, ríos, y el aire, representando un riesgo significativo para la vida silvestre y la salud humana debido a su persistencia y potencial tóxico. La necesidad de encontrar métodos efectivos para la degradación de estos plásticos es urgente. El dióxido de titanio (TiO₂), conocido por sus propiedades fotocatalíticas, presenta una solución prometedora para este problema debido a su capacidad para degradar contaminantes orgánicos bajo la irradiación de luz UV. Los nanocompuestos semiconductores, especialmente aquellos basados en TiO₂, han emergido como soluciones prometedoras para la degradación fotocatalítica de contaminantes en aplicaciones ambientales. Su capacidad para descomponer compuestos tóxicos representa un avance significativo en el tratamiento de aguas residuales, un problema crítico en la gestión ambiental. La investigación actual no solo se centra en los métodos sintéticos para la generación de nanopartículas con estructuras específicas, sino también en la integración funcional de estas estructuras en dispositivos que optimicen su eficacia bajo la irradiación de luz UV y visible. Además, se busca reducir el riesgo de liberación de nanopartículas al medio ambiente y evitar comprometer la seguridad ambiental, garantizando su actividad y facilitando su monitoreo (Petronella et al., 2017). En el tratamiento de aguas residuales industriales, que varía considerablemente entre países, los AOP juegan un papel crucial. Las industrias con alto consumo de agua, como las plantas siderúrgicas y las centrales térmicas, son grandes generadoras de aguas residuales, lo que requiere métodos de tratamiento eficientes. Sin embargo, los AOP no son recomendables para aguas con una demanda química de oxígeno (DQO) superior a 5000 mg/L, debido al alto consumo de energía y químicos necesario para la mineralización completa. Por lo tanto, los AOP a menudo se integran en sistemas de tratamiento en serie para descomponer compuestos recalcitrantes y mejorar la biodegradabilidad del agua, aunque la toxicidad residual de los subproductos y oxidantes residuales es una consideración importante (Levchuk & Sillanpää, 2020).  



METODOLOGÍA

Para abordar la degradación de microplásticos utilizando TiO₂, se sigue un enfoque experimental riguroso que incluye la síntesis y caracterización de nanomateriales de TiO₂ mediante distintos métodos. En base a esto, tras revisar y analizar diversos métodos de síntesis, se observa que el uso combinado de las técnicas hidrotermal y por microondas es particularmente óptimo para la producción de nanomateriales de TiO₂ con una alta superficie específica y excelentes propiedades fotocatalíticas. La síntesis hidrotermal permite la obtención de nanopartículas, nanotubos y estructuras porosas con un control preciso sobre el tamaño y la cristalinidad, mientras que la síntesis por microondas ofrece uniformidad en la distribución de tamaño y una rápida producción. Estas características mejoran significativamente las capacidades fotocatalíticas de los materiales para degradar microplásticos, optimizando la capacidad para degradar contaminantes de gran interés como los microplásticos y mejorando la eficiencia en aplicaciones ambientales. Cabe resaltar que, en todo tiempo de síntesis, la elección del método de síntesis y el control preciso de los parámetros de proceso serán determinantes en las propiedades fotocatalíticas de los nanomateriales de TiO₂, maximizando su potencial para aplicaciones ambientales, energéticas y de remediación.  


CONCLUSIONES

Los nanocompuestos semiconductores, especialmente aquellos basados en TiO₂, ofrecen soluciones innovadoras para la degradación fotocatalítica de contaminantes. El TiO₂ es un fotocatalizador ideal debido a su estabilidad química y biológica, su facilidad de producción y uso, y su bajo costo y toxicidad. Además, la optimización de la fotocatálisis con TiO₂ mediante dopaje con metales y elementos no metálicos, así como la integración de técnicas de sensibilización con colorantes orgánicos, presenta una vía prometedora para mejorar la eficiencia del TiO₂ en la degradación de contaminantes. Estas estrategias amplían la aplicabilidad del TiO₂ en diferentes condiciones de iluminación y contribuyen al desarrollo de soluciones más efectivas y sostenibles para el tratamiento de aguas residuales y la mitigación de la contaminación ambiental.   Es alentador ver que la investigación se centra en la mejora continua de los procesos fotocatalíticos, lo que no solo podría aumentar la eficacia del TiO2, sino también ampliar su aplicación en el tratamiento de aguas residuales. Se resalta la importancia de considerar la aplicación de estos materiales en condiciones del mundo real con las características del agua, la estructura del agregado al evaluar la toxicidad de los nanomateriales fotocatalíticos, para comprender su comportamiento en el medio ambiente y optimizar su aplicación, así como seguir estudiando  de un enfoque más detallado y holístico para evaluar la reactividad y toxicidad de las nanopartículas fotocatalíticas, considerando el tamaño, estructura de agregado, sino también las condiciones ambientales en las que se encuentran. Esto es vital para garantizar que el uso de estas tecnologías en la remediación ambiental sea seguro y efectivo.  
Torres Rojas Andrés Felipe, Fundación Universidad de América
Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional

EL IMPACTO DE LOS GRUPOS ARMADOS EN EL RENDIMIENTO ESCOLAR EN LA EDUCACIóN BáSICA: UN ESTUDIO DE CASO APLICADO A COLOMBIA


EL IMPACTO DE LOS GRUPOS ARMADOS EN EL RENDIMIENTO ESCOLAR EN LA EDUCACIóN BáSICA: UN ESTUDIO DE CASO APLICADO A COLOMBIA

Torres Rojas Andrés Felipe, Fundación Universidad de América. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El conflicto armado en Colombia ha representado una de las crisis sociales y humanitarias más grandes en el país, comprendida entre 2005 hasta fechas actuales y alcanzando a más de 8 millones de personas hasta finales de 2023. Esta problemática, marcada por la presencia de grupos guerrilleros, paramilitares y fuerzas estatales, ha producido un desplazamiento forzado masivo de aproximadamente 5 millones de personas que tienen que salir en busca de un mejor futuro. La migración forzada ha tenido impactos desgarradores en comunidades, particularmente en zonas rurales, lo cual lleva a miles de familias a sufrir la pérdida de sus viviendas y sustento, lo que les impide tener una vida íntegra y en completa paz. Así mismo, dentro de este mismo fenómeno de violación de derechos humanos, se encuentra el poco acceso a la educación que tiene una población infantil, teniendo en cuenta que los infantes se deben estar movilizando constantemente, lo que limita la continuidad educativa para miles de niños y a su vez los obliga a abandonar la escuela o a enfrentarse a desafíos abrumadores en la adaptación a nuevas estructuras educativas. La relación entre el desplazamiento y el rendimiento académico es significativa. Existen barreras para el desempeño académico de los estudiantes desplazados debido a la falta de infraestructura en la escuela, discriminación y tensión psicológica, factores provocados principalmente por los conflictos armados sufridos en algunas zonas del país y que se combinan para el bajo rendimiento académico, o en dado caso, deserción estudiantil.



METODOLOGÍA

Recolección de Datos Las principales bases de datos usadas en esta investigación se obtuvieron del Departamento Administrativo Nacional de Estadística (DANE), Colombia, específicamente de su pestaña Microdatos, el cual es un catálogo central de datos que se enfoca en la divulgación de información por medio de bases de datos normalizadas y estandarizadas para su posterior análisis por parte de cualquier usuario. Limpieza de Datos La descarga de las bases de datos se dio con éxito, sin embargo, su análisis se vio obstaculizado por el tipo de formato en el que se almacenan los datos. Teniendo en cuenta que algunos departamentos (o bien conocidos como estados en otros países) de Colombia tiene dentro de su escritura algunas comas, como por ejemplo Bogotá, D.C., en el proceso de la carga de datos el software lo interpretaba como dos valores separados, dejando en un campo Bogotá y en el otro D.C, lo cual afecta la integridad de los datos y genera que los campos ya previamente definidos sean corridos, provocando la creación de nuevas columnas que no deberían existir y no tienen relevancia para la investigación. A partir de esta situación, se decidió hacer la limpieza de datos correspondiente por medio del software Excel, mediante herramientas como concatenar, texto en columnas, entre otras, para así poder cargar datos íntegros dentro del código de análisis de datos y realizar el análisis visual. Análisis de Datos El código utilizado para realizar el respectivo análisis de datos, y posterior a ello, la confirmación de hipótesis por medio de gráficos se basa en el lenguaje de programación Python. Para la respectiva carga, procesamiento de los archivos .csv, y la exposición o conversión de estos, se utilizaron diferentes librerías. En la primera parte, se realiza la carga del archivo ‘datos_sede_educativa.csv’, que contiene la información pertinente de 56.269 escuelas (las cuales son identificadas con una llave primaria) y que será útil para determinar las zonas más afectadas por el conflicto armado, su región y demás datos de relevancia para la investigación. Seguido, se realiza la carga de los archivos ‘alumnos_desplazados_20..’, que contiene la información de la cantidad de alumnos desplazados por el conflicto armado a lo largo de las sedes educativas de las que se tiene registro en el país. Posteriormente, en el análisis y transformación de datos, se realiza la integración de las bases de datos obtenidas desde el 2017 hasta el 2023 de alumnos desplazados, obteniendo como resultado un data frame con 14 campos y 210.590 registros. Seguido, se procede a hacer un join, o unión entre las tablas de ‘datos_sede_educativa.csv’ & ‘alumnos_desplazados.csv’, para obtener como data frame final la tabla ‘df_combinado’, el cual almacena la información de la cantidad de alumnos desplazados por causa del conflicto armado, clasificado por ‘NIVELENSE_NOMBRE’, que corresponde al nivel de escolaridad cursado en la escuela y ‘JORNADA_NOMBRE’, que corresponde a la jornada de estudio (mañana, tarde o extendida). Teniendo a ‘df_ combinado’ como data frame final, se realiza la implementación de diferentes líneas de código, las cuales proporcionan gráficos y elementos visuales que permitirán concluir comportamientos, hipótesis o cualquier tipo de fenómeno que se pueda ver explicado por diferentes aspectos socioculturales.


CONCLUSIONES

Los hallazgos encontrados durante este verano de investigación ‘Delfín’, indican que la región más afectada a lo largo de los 7 años de registros que se tienen es Antioquia, dejando cifras de más de 800.000 alumnos de educación básica desplazados en el departamento. Los municipios más afectados del departamento ‘Antioquia’, son Medellín, Carepa, Chigorodó, Apartadó y Turbo. Estos últimos 4 municipios, se encuentran apartados de la región urbana del departamento, lo que provoca que se vean más expuestos a zonas rurales y la presencia de grupos armados sea más predominante. El año en el que más se vio afectada la población educativa fue en 2018. Lo anterior, se puede estudiar a partir de diferentes factores socioculturales que rodearon la región en su momento, para establecer las causas que pudo haber provocado este comportamiento. Los niveles educativos que representan más del 70% de la población afectada son básica primaria y básica secundaria, que comprenden estudiantes desde los 5 hasta los 17 años aproximadamente.
Torres Ruvalcaba Diego Enrique, Universidad de Guadalajara
Asesor: Dr. Alberto Herrera Gomez, Instituto Politécnico Nacional

EVALUACIóN DE NANOPELíCULAS DE CARBONO COMO CAPAS PROTECTORAS PARA EVITAR LA OXIDACIóN DE PELíCULAS DE METALES PUROS


EVALUACIóN DE NANOPELíCULAS DE CARBONO COMO CAPAS PROTECTORAS PARA EVITAR LA OXIDACIóN DE PELíCULAS DE METALES PUROS

Torres Ruvalcaba Diego Enrique, Universidad de Guadalajara. Asesor: Dr. Alberto Herrera Gomez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Uno de los problemas abiertos en Espectroscopía Fotoelectrónica de rayos-X (XPS) es el origen físico del background intrínseco en espectros de fotoemisión. Hay estudios del background intrínseco que implican el análisis de materiales metálicos puros, típicamente películas, en laboratorios de sincrotrón utilizando fotones con un amplio intervalo de energías (de hasta 10keV o más). Estos experimentos implican tiempos prolongados para completar la toma de datos. Por ello, se requiere que la composición química de una muestra metálica pura se mantenga estable en el tiempo, esto es, que no se oxide, tal que todos los espectros obtenidos sean representativos de una muestra con una misma composición química de principio a fin del estudio. Algunos materiales como Al, aleaciones Al-Nb, nitruro de boro (hBN), tantalio (Ta) y carbono (C) se utilizan en diversas aplicaciones, tanto en industria como en academia, como capas protectoras de metales para evitar su oxidación. Pero, para poder utilizarlas como capas protectoras para estudios de metales puros por XPS, éstas deben cumplir con al menos tres requisitos: 1) evitar la oxidación del material metálico, 2) ser lo suficientemente delgadas como para que se pueda obtener información de la película metálica de interés en los experimentos de XPS, y 3) sus señales no deben traslaparse con las señales de la película metálica de interés en los espectros de fotoemisión. Adicionalmente, las capas protectoras deben depositarse justo después de depositar el metal puro y en la misma cámara, esto es, sin exponer la muestra a la atmósfera. En el caso del carbono, sus señales no se traslapan con la mayoría de las señales de la mayoría de los metales, por lo que es el material protector más adecuado para usarse en estudios por XPS. En el Laboratorio de Procesamiento y Caracterización de Nanopelículas (LPCN), del Cinvestav unidad Querétaro, se desea encontrar la película de C más delgada que prevenga completamente la oxidación de películas de sustratos de silicio (Si) puro cuando se exponen a condiciones atmosféricas durante un mes.



METODOLOGÍA

Se sometieron sustratos de vidrio a un proceso de limpieza la cual se dividió en dos partes: limpieza con solventes (acetona, 2-propanol y metanol) y limpieza con solución piraña. En la primera parte, los sustratos fueron sumergidos en cada uno de los solventes por 5 min, en un baño ultrasónico, luego fueron enjuagados y secados. La limpieza con solución piraña se hizo con una solución con relación H2SO4: H2O2 5:1 a 80°C por 10 min. Al finalizar este proceso se retiraron los sustratos y se enjuagaron con metanol. Posteriormente se secaron  y se colocaron por separado en cajas Petri. Los depósitos se realizaron en el equipo de sputtering del LPCN, colocando un blanco de carbono. Se establecieron condiciones estándar de presión de operación (5mTorr), rotación del sustrato a 5rpm aproximadamente, presión base de inicio (2x10-7Torr), frecuencia de la fuente (20kHz) y flujo del gas (20sccm de argón) utilizadas para el proceso de depósito. Mientras, los parámetros a variar fueron la potencia de la fuente DC y el tiempo de depósito. Se requirieron de 3 horas de depósito y una potencia de 30W para obtener una película gruesa de carbono. El espesor de esta película fue caracterizado por SEM. Para poder analizar la muestra por SEM, fue necesario recubrirla con una capa conductora de Au/Pd. Una vez depositado el recubrimiento conductor sobre la muestra, se procedió a realizar la caracterización de la sección transversal de la muestra y la composición elemental por EDS utilizando un equipo FE-SEM JEOL-7610F del laboratorio nacional LIDTRA. A partir de el espesor de la película de carbono determinado por SEM y el tiempo de depósito de dicha muestra, se determinó la razón de crecimiento real que fue de .0.315 Å/s Posteriormente se realizo el deposito de una película de carbono de 5 nm de espesor sobre sustratos de Si (100) (previamente sometidos a limpieza con solventes), con las condiciones anteriores exceptuando el tiempo de deposito, esta vez con una duración de 3 min. Las muestras fueron caracterizadas por XPS con una fuente dual de Mg-Al no monocromática de rayos-X y un espectrómetro hemisférico Alpha110 con un detector de 7 canales multiplicadores de electrones. Se utilizó el ánodo de Al con una energía de fotón de alrededor de 1486.7 eV. La presión base fue de 6.8x10-9 Torr. Se obtuvo un espectro de inspección con una energía de paso de 100 eV y 50 ms de tiempo de integración. También se obtuvieron espectros de alta resolución de los niveles profundos Si 2p, C 1s y O 1s con una energía de paso de 10eV, un número de 15scans y un tiempo de integración de 200ms.  


CONCLUSIONES

Durante la estancia, se consolidaron conocimientos teóricos y prácticos en la preparación de sustratos, el manejo de sistemas de depósito de películas delgadas y la caracterización de materiales por XPS. Se adquirió experiencia en el depósito de películas ultradelgadas y el análisis de ajuste de picos de espectros de fotoemisión, incluyendo el desarrollo de buenas prácticas en el procesamiento de datos. El análisis realizado mediante XPS mostró que los depósitos de películas ultradelgadas de carbono depositadas sobre sustratos de silicio tenían un espesor adecuado (< 5nm). Los resultados de los espectros de fotoemisión mostraron un efecto protector en los sustratos en contra de la formación adicional de oxidos. Los resultados obtenidos subrayan la importancia de un adecuado ajuste de los picos para una correcta identificación de las especies químicas presentes en las muestras, lo cual es esencial para una caracterización detallada de materiales mediante XPS. Los resultados obtenidos servirán como base para futuras investigaciones, orientadas a determinar el espesor óptimo de las películas de carbono para su aplicación como capa protectora sobre sustratos de silicio y titanio, maximizando así su desempeño en las condiciones específicas que se requieren en los experimentos realizados en laboratorios de sincrotrón.
Torruco Ortiz Yajaira Cecilia, Instituto Tecnológico Superior de Los Ríos
Asesor: Dra. Ingrid Mayanin Rodriguez Buenfil, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)

TECNOLOGíAS VERDES PARA LA EXTRACCIóN DE METABOLITOS


TECNOLOGíAS VERDES PARA LA EXTRACCIóN DE METABOLITOS

Torruco Ortiz Yajaira Cecilia, Instituto Tecnológico Superior de Los Ríos. Asesor: Dra. Ingrid Mayanin Rodriguez Buenfil, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Debido al aumento significativo de residuos lignocelulósicos por parte de diversos sectores, surge un considerable interés para aprovechar su uso, aún más si se componen de importantes metabolitos con propiedades benéficas para la salud, un ejemplo de ello es la producción de chile habanero (Capsicum chinense), hoy en día la Península de Yucatán aporta el 30% de la producción nacional de la cual solo el 20% es industrializado (Avilés-Betanzos et al., 2022), las hojas y tallos son desechados pues inevitablemente mayor producción representa un incremento en subproductos que sin un tratamiento o uso posterior se convierten en residuos. Estudios recientes han reportado que estos subproductos son ricos en polifenoles, carotenoides, capsaicinoides y vitaminas (principalmente A y E), por lo que se convierten en una fuente potencial para el desarrollo de nuevos productos (Chel-Guerrero et al., 2021) Resulta interesante conocer de qué modo pueden extraerse estos biocompuestos, anteriormente los métodos convencionales de extracción eran maceración, reflujo, Soxhlet,  que empleaban solventes orgánicos como metanol, etanol,  acetona y acetato de etilo, sin embargo, debido a la contaminación, a los bajos rendimientos y altos costos que conllevaba de por medio surgieron nuevos métodos con mayor eficiencia y responsabilidad con el medio ambiente (Ferreira & Sarraguça, 2024) , entre ellos destacan los solventes eutécticos naturales Por lo tanto, en el presente proyecto se realizará la extracción de metabolitos en hojas de chile habanero (variedad jaguar) empleando solventes eutécticos profundos naturales y metanol al 80% para comparar si existe una diferencia estadísticamente significativa entre ambos métodos



METODOLOGÍA

Materia prima La planta de chile habanero (variedad jaguar) se cultivó en suelo negro (Boox Lu´um) en el pueblo Chablekal, Yucatán, en condiciones de invernadero, la muestra de hojas se secó previamente por liofilización, y fueron entregadas como un polvo de hoja de chile habanero, Extracción de polifenoles en hojas de chile habanero Se realizó la extracción de polifenoles en hojas de chile habanero por dos métodos: empleando solventes eutécticos naturales profundo (NADES) empleando cloruro de colina como aceptor de hidrógeno y glucosa como donador en una relación molar de 1:1, con 68 % de agua y en la segunda extracción se empleó metanol al 80%, en ambos casos las muestras se sonicaron 30 minutos. Se determinó la capacidad antioxidante a cada uno de los extractos mediante la metodología de DPPH y el contenido total de polifenoles (CTP) por el método Folin-Ciocalteu (Áviles-Betanzos et al., 2023)


CONCLUSIONES

Resultados Los valores más altos de CTP se registró en los extractos a partir de metanol al 80%, siendo de 138.82 0.24 mg GAE/100 g de muestra seca, por su parte se registraron menores valores en los extractos obtenidos con NADES (relación molar 1:1 mol/mol glucosa: cloruro de colina con un 68% de agua) 130.25 1.67| mg GAE/100 g de muestra seca, sin embargo a partir de este método se encontró mayor capacidad antioxidante (88.92 0.34% de inhibición), en comparación a los valores obtenidos con metanol al 80% (80.75  de inhibición). Se realizó un análisis de varianza (ANOVA) de una sola vía en el software Statgraphics Centurion para determinar si existían diferencias estadísticamente significativas entre un método de extracción u otro sobre el contenido de polifenoles totales y la capacidad antioxidante. Los resultados obtenidos indicaron que con un nivel de confianza del 95.0% (p<0.05) existen diferencias estadísticamente significativas sobre el contenido total de polifenoles y la capacidad antioxidante en los extractos de hojas de chile habanero. Con base a los resultados obtenidos puede observarse que la capacidad antioxidante no es directamente proporcional al contenido de polifenoles totales probablemente debido a la presencia de otros compuestos como vitaminas, carotenoides entre otros que no fueron cuantificados y que también tienen capacidad antioxidante. Conclusiones Los solventes eutécticos profundos naturales (NADES) representan una buena alternativa  para la extracción de biocompuestos como los polifenoles, ya que forman parte de las tecnologías verdes, destacan por ser solventes biodegradables, económicos, que además de presentar baja toxicidad pueden ser selectivos a otros metabolitos de interés (Ferreira, C., & Sarraguça, M., 2024), por ello el trabajo realizado resulta interesante puesto que es posible evidenciar como los extractos obtenidos con NADES muestran mayor capacidad antioxidante y valores muy cercanos al contenido  de polifenoles totales a los obtenidos con metanol al 80% que si bien presentó mayor concentración  es un solvente tóxico que no podría emplearse si se pretende desarrollar nuevos productos o alimentos nutracéuticos dirigidos al ser humano.
Tovar de Jesús Susana, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Roberto Cristian Delgado Arcos, Universidad Tecnológica de Tecamachalco

PROPUESTA DE DISEñO Y DESARROLLO DE UN SISTEMA DE CORTE DE PIñA DE MAGUEY MAPISAGA: PARA LA OPTIMIZACIóN DE TRABAJO HUMANO.  


PROPUESTA DE DISEñO Y DESARROLLO DE UN SISTEMA DE CORTE DE PIñA DE MAGUEY MAPISAGA: PARA LA OPTIMIZACIóN DE TRABAJO HUMANO.  

Tovar de Jesús Susana, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Roberto Cristian Delgado Arcos, Universidad Tecnológica de Tecamachalco



PLANTEAMIENTO DEL PROBLEMA

  Objetivo general Diseñar un equipo de corte de piña de agave mapisaga para optimizar el proceso de molienda maximizando el aprovechamiento de azúcares. Objetivos específicos Analizar el proceso de corte manual para identificar las variables que lo retrasan. Determinar las características que se adecuen al tamaño de las piñas en el proceso de corte. Sugerir un modelo de cortadora manual que se adapte de acuerdo a las necesidades del área de corte.                                                                                                              PLANTEAMIENTO DEL PROBLEMA                  En el rancho LA LAGUNILLA atraviesan un gran problema ya que no cuentan con un sistema que les facilite realizar el corte de las piñas de agave, lo cual retrasa muy significativamente el proceso de corte ya que esto lo hacen de manera manual usando un machete para este proceso. teniendo como resultado un sobre esfuerzo de los trabajadores lo cual provoca agotamiento y en ocaciones lesiones.



METODOLOGÍA

El rancho la lagunilla hubicado en el estado de puebla se realiza la destilacion de piñas de maguey mapisaga para la creacion de mezcal,donde dicho proceso se realiza de manera artesanal par coservar la calidad del mezcal, por ello se presentan algunas ineficiencias al momento de porducir el mezcal,es por esto que realizaron visitas de campo para recavar informacion y observar que es lo que les afectaen  su producción. Para determinar una de las problemáticas presentadas en el Rancho La Lagunilla fue usada la investigación de campo usando como técnica observación directa que a su vez se apoya de herramientas como lo son: bitácoras para llevar acabó el registro de horas que el trabajador tardaba en realizar el corte de piña, uso de cámara fotográfica para captar evidencia de como realizan el proceso de manera manual y por ultimo el uso de un cuestionario de preguntas abiertas aplicado a los trabajadores del rancho. Al obtener las respuestas de los trabajadores se ve necesario el uso de una cortadora de piña de maguey mapisaga par amezcal ya que se observa un consumo considerable de tiempo en este procreso. Todos estos datos fueron recavados a lo largo de 7 semanas en las cuales se llevo un registro de el tiempo que consume el corte de piña. Por lo tanto se planea lograr el desarrollo de una cortadora de piña que les sea de ayuda en el palenque ya que esta les permitira ajilizar los tiempos de corte que es uno de los problemas que enfrenta el rancho, la cortadora esta diseñada para realizar los cortes con una medida de 10x10 cm que es la medida que requieren para pasarla al siguiente proceso. De igual manera se busca que esta cumpla con los requerimientos ergonomicos para que el trabajador no tenga que realizar esfuerzos que repercutan en su salud.


CONCLUSIONES

En conclusion al diseñar una cortadora de piña manual representara una solución eficiente y sobre todo practica para el corte de piña de maguey mapisaga, al diseñar este dispositivo se permitira realizar el corte de manera rapida a demas de conservar las propiedades de la piña. Esta propuesta no solo proporciona la implementacion de la cortadora si no tambien asegura que esta sea ergonomica y funcional adaptada para facilitar el trabajo, tambien contribuye a mejorar el rendimiento de los trabajadores, promoviendo asi mismo un lugar de trabajo mas agradable y efectivo para los usuarios de esta misma. Esperando que sea de gran funcionalidad cuando esta sea implementada en el proceso ya que aun no se sabe con serteza si dicha propuesta de desarrollo sea usada en el rancho, debido a la falta de tiempo para ser efectuada, por ello aun no se tienen los posibles resultados. Referencias Durán, H., & Pulido, J. L. (2007). Análisis de la molienda en el proceso de elaboración de mezcal. Información tecnológica, 18(1), 47-52.  Bautista-Justo, M., García-Oropeza, L., Corona, J. B., & Parra-Negrete, L. A. (2001). El Agave tequilana Weber y la producción de tequila. Acta Universitaria, 11(2), 26-34. Autodesk. (2024). Autodesk Inventor (Versión 2024) [Software]. Autodesk. 
Tovar Jimenez Anderson, Universidad Simón Bolivar
Asesor: Dra. Cristina Juárez Landín, Universidad Autónoma del Estado de México

CLASIFICACIÓN INTERACTIVA DE ANIMALES DOMÉSTICOS CON PYTHON: INTRODUCCIÓN PRÁCTICA DE IA Y EJEMPLO EDUCATIVO


CLASIFICACIÓN INTERACTIVA DE ANIMALES DOMÉSTICOS CON PYTHON: INTRODUCCIÓN PRÁCTICA DE IA Y EJEMPLO EDUCATIVO

Tovar Jimenez Anderson, Universidad Simón Bolivar. Asesor: Dra. Cristina Juárez Landín, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

La rápida expansión de la inteligencia artificial (IA) en el ámbito educativo está transformando los métodos tradicionales de enseñanza y aprendizaje, lo que representa oportunidades significativas y desafíos complejos. A medida que la IA se integra más profundamente en las aulas, surge la promesa de personalizar la educación mediante la adaptación dinámica a las necesidades individuales de los estudiantes y la facilitación de herramientas avanzadas para la enseñanza y evaluación. Sin embargo, esta integración también plantea varias preocupaciones. Primero, la precisión del contenido generado por IA es un tema crítico, ya que los errores pueden llevar a malentendidos y aprendizaje incorrecto. Segundo, la ética en la aplicación de la IA en la educación es una cuestión importante, ya que implica la necesidad de asegurar que estas tecnologías se utilicen de manera justa y responsable. Finalmente, la preparación necesaria para que educadores y estudiantes interactúen eficazmente con estas herramientas tecnológicas es un desafío, ya que requiere capacitación adecuada y un cambio en las metodologías de enseñanza. Para abordar estos problemas, se ha propuesto un proyecto que desarrollará una herramienta educativa interactiva. Esta herramienta permitirá a estudiantes y entusiastas explorar y comprender los fundamentos de la inteligencia artificial y el procesamiento de imágenes mediante un caso práctico.



METODOLOGÍA

La metodología utilizada en este proyecto combina una revisión bibliográfica con una fase experimental práctica.  La primera fase del proyecto consistió en una revisión bibliográfica profunda sobre temas clave relacionados con la inteligencia artificial y el procesamiento de imágenes. Para llevar a cabo esta revisión, se utilizó la biblioteca virtual de la Universidad Simón Bolívar, enfocándose especialmente en la base de datos de IEEE Xplore debido a su reputación en los campos de la ingeniería y las ciencias de la computación. Se seleccionaron y analizaron 30 artículos académicos relevantes, empleando palabras clave previamente definidas. Estos artículos proporcionaron una base teórica esencial para el desarrollo del proyecto, abarcando tanto aplicaciones prácticas como revisiones teóricas. La información obtenida fue cuidadosamente organizada y citada para asegurar claridad y precisión en la documentación. En la fase experimental práctica, se abordaron cuatro etapas principales: preprocesamiento de datos, desarrollo del modelo, entrenamiento y validación del modelo, e integración e implementación del sistema final. La etapa de preprocesamiento comenzó con la recopilación de datos. Las imágenes necesarias para el dataset se obtuvieron principalmente de Freepik, una plataforma que ofrece imágenes libres de licencia.  Después de la descarga, las imágenes fueron minuciosamente filtradas y limpiadas para garantizar su relevancia y calidad, seleccionando un total de 1297 imágenes por categoría (perros y gatos) para su uso. En cuanto al desarrollo del sistema, se empleó el lenguaje de programación Python y varias bibliotecas esenciales como OpenCV, NumPy, Matplotlib y TensorFlow/Keras. Estas herramientas permitieron el manejo y procesamiento eficiente de las imágenes, así como la implementación de modelos de aprendizaje automático. El siguiente paso fue el desarrollo del modelo de red neuronal convolucional. Este modelo se diseñó específicamente para clasificar imágenes de perros y gatos. La arquitectura del modelo incluyó varias capas convolucionales y de pooling para la extracción de características, seguidas de capas densas que combinan y clasifican esas características. El modelo se compiló utilizando el optimizador Adam, la función de pérdida binary_crossentropy y la métrica de precisión. Durante la etapa de entrenamiento y validación, el modelo se entrenó utilizando el método fit de Keras, que incluyó un generador de datos tanto para el entrenamiento como para la validación. Se configuró TensorBoard para visualizar los parámetros del entrenamiento y monitorear el progreso. El proceso de entrenamiento se realizó durante 100 épocas para asegurar un aprendizaje exhaustivo del modelo. Tras el entrenamiento, se visualizaron las métricas de precisión y pérdida tanto en los datos de entrenamiento como en los de validación para evaluar el rendimiento del modelo. Finalmente, el modelo entrenado se guardó en un archivo en el formato nativo de Keras, asegurando su disponibilidad para futuros usos. Para verificar el funcionamiento del modelo, se implementó un código de predicción que permite cargar una imagen de prueba y determinar su categoría, comprobando así la efectividad del sistema desarrollado  


CONCLUSIONES

El proyecto ha desarrollado un sistema para la clasificación de imágenes de perros y gatos, utilizando un modelo de red neuronal convolucional implementado en una interfaz interactiva. Este sistema es capaz de clasificar imágenes con alta precisión y ofrece una herramienta educativa valiosa para la enseñanza de conceptos de inteligencia artificial. La implementación práctica del modelo ha demostrado su efectividad en la clasificación de imágenes y ha cumplido con los objetivos del proyecto, proporcionando una solución concreta al problema identificado. Además, el proyecto ha establecido un marco educativo innovador, facilitando una metodología clara y replicable para la enseñanza de tecnologías emergentes. Esto evidencia cómo la inteligencia artificial puede transformar la educación, preparando a los estudiantes para los desafíos del futuro tecnológico.
Tovar Morales Tania Carolina, Instituto Politécnico Nacional
Asesor: Dr. Edgar Gonzalo Cossio Franco, Universidad del Valle de Atemajac

DESARROLLO DE SOFTWARE PARA LA VISUALIZACIóN DE BIOMARCADORES COMO APOYO A ENTREVISTAS CLíNICAS REALIZADAS A JóVENES CON TENDENCIAS SUICIDAS


DESARROLLO DE SOFTWARE PARA LA VISUALIZACIóN DE BIOMARCADORES COMO APOYO A ENTREVISTAS CLíNICAS REALIZADAS A JóVENES CON TENDENCIAS SUICIDAS

Betancourt Soto Roberto, Universidad Autónoma de Sinaloa. Duran de la Rosa Ailed Citlalli, Instituto Politécnico Nacional. Martinez Hernandez Jorge, Instituto Tecnológico Superior de Ciudad Hidalgo. Melendez Bustamante Luis Fernando, Instituto Politécnico Nacional. Ramírez Estrada Julio César, Universidad de Guadalajara. Tovar Morales Tania Carolina, Instituto Politécnico Nacional. Asesor: Dr. Edgar Gonzalo Cossio Franco, Universidad del Valle de Atemajac



PLANTEAMIENTO DEL PROBLEMA

La depresión y el suicidio son problemas graves de salud mental que afectan a un número creciente de jóvenes en todo el mundo, según datos de la OMS.  El manejo y tratamiento de la depresión y la prevención del suicidio requieren un enfoque multifacético, que incluya la monitorización y análisis de indicadores biométricos y comportamentales. Sin embargo, existe una falta de herramientas integradas que permitan a los profesionales de la salud mental correlacionar datos biométricos con respuestas emocionales y psicológicas en tiempo real. En respuesta a esta necesidad, nuestro proyecto tiene como objetivo desarrollar un software que interprete los datos de wearables y los relacione con audios de entrevistas a estudiantes con problemas de depresión que han intentado suicidarse. El software generará una base de datos que permitirá a los usuarios observar los cambios en las respuestas biométricas ante preguntas que puedan causar incomodidad. Este análisis proporcionará una visión integral de las interacciones entre las respuestas fisiológicas y emocionales, facilitando la identificación de patrones de riesgo y posibles intervenciones. Durante el periodo de investigación, estudiaremos las respuestas biométricas, tales como la acelerometría, giroscopio, actividad electrodermal (EDA), temperatura, frecuencia cardíaca (BVP) y picos sistólicos, correlacionándolas con las respuestas emocionales extraídas de los audios de las entrevistas. Esto permitirá un análisis predictivo de los trastornos, las formas de actuar de las personas y los cambios físicos del cuerpo, proporcionando una herramienta valiosa para la prevención y el tratamiento de la depresión y el comportamiento suicida en estudiantes.



METODOLOGÍA

Para el desarrollo de nuestro proyecto, seguimos una metodología estructurada basada en la investigación científica, inteligencia artificial aplicada a tendencias suicidas y principios de ingeniería de software. A continuación, se detallan los pasos seguidos: Recolección de Información: Se realizó una revisión exhaustiva de artículos científicos y bases de datos relevantes sobre metodologías de investigación, el método científico, tendencias suicidas y el uso de IA en este contexto. Se recopilaron datos sobre el diseño y desarrollo de software utilizando wearables, así como los aspectos biométricos que estos dispositivos pueden registrar. Diseño de Requerimientos Funcionales: Con base en la información recolectada, se definieron los requerimientos funcionales del software. Se elaboraron distintos tipos de diagramas para la representación de estos requerimientos: de estados, de secuencia, de clases, de casos de uso, de componentes, de nodos, de comunicación y de flujo. Documentación: Se prepararon documentos siguiendo los estándares IEEE 1016 y 830, que incluyen especificaciones de diseño y requisitos del software. Búsqueda y Selección de Herramientas y Librerías: Se investigaron y seleccionaron aplicaciones y librerías que facilitaran la creación de repositorios de código y la conversión de archivos. Para el manejo de datos biométricos, se optó por utilizar librerías de Python que permitan convertir archivos .avro (formato de los wearables) a .csv. Para la transcripción de entrevistas, se seleccionaron herramientas que conviertan archivos de audio .m4a a texto (.txt). Recolección de Datos: Con la colaboración de estudiantes de psicología de la Universidad del Valle de Atemajac (UNIVA), se realizaron entrevistas a estudiantes con problemas de depresión que han intentado suicidarse. Los datos biométricos se obtuvieron mediante el uso de wearables que registran cambios físicos como acelerometría, giroscopio, actividad electrodermal (EDA), temperatura, frecuencia cardíaca (BVP) y picos sistólicos. Desarrollo del Software: Se desarrollaron códigos y scripts en Python para la conversión de los datos recolectados y la creación de un sistema de correlación. Se diseñaron y programaron las estructuras de datos necesarias para almacenar y procesar la información biométrica y las transcripciones de las entrevistas. Se generaron archivos JSON y otros formatos de datos necesarios para el funcionamiento del software. Implementación y Validación: Se implementó el software de correlación que relaciona las respuestas biométricas con las transcripciones de las entrevistas. Se están desarrollando modelos de IA para la predicción del riesgo de suicidio basado en los datos obtenidos, utilizando técnicas avanzadas de análisis predictivo y machine learning. Próximos Pasos: Continuar con el desarrollo del software de predicción utilizando IA. Validar y mejorar los modelos predictivos con más datos y pruebas. Integrar el sistema completo y realizar pruebas exhaustivas para asegurar su precisión y efectividad en la identificación de patrones y riesgos asociados con tendencias suicidas. Con estas investigaciones y desarrollo se dió lugar a los inicios de los artículos para poder plasmar el análisis de este proyecto para futuros estudiantes e investigadores.


CONCLUSIONES

Durante la estancia de verano se logró el estudio y la interpretación en la logística y el desarrollo del software indicado, de factores que se relacionan a respuestas físicas y mentales con algún estímulo externo como son preguntas y/o personas en una entrevista, y de patrones sociales en estudiantes respecto a la forma de actuar ante la depresión, el estrés y la ansiedad con la finalidad de deducir signos de suicidio. Hasta este momento sólo se pueden mostrar las correlaciones físicas en el software de las entrevistas, aún faltan las predicciones respecto a estas pruebas.
Treviño Flores Rosangel Fernanda, Instituto Tecnológico de Piedras Negras
Asesor: Mg. Harold Enrique Cohen Padilla, Fundación Universitaria Tecnológico Comfenalco

HERRAMIENTAS 5S Y KANBAN PARA MEJORAR LA COMPETITIVIDAD EN EL MERCADO GLOBAL DE LA INDUSTRIA AUTOMOTRIZ MEXICANA.


HERRAMIENTAS 5S Y KANBAN PARA MEJORAR LA COMPETITIVIDAD EN EL MERCADO GLOBAL DE LA INDUSTRIA AUTOMOTRIZ MEXICANA.

Treviño Flores Rosangel Fernanda, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Harold Enrique Cohen Padilla, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

La industria automotriz en México es un pilar fundamental en la economía del país puesto que aporta $6.26B MX de PIB. Por años México se ha posicionado dentro de los diez mayores productores de automóviles. En 2022 México ocupó el quinto lugar como exportador mundial de vehículos ligeros, el séptimo como fabricante de vehículos en el mundo, el primer productor de autos en América Latina, cuarto exportador de autopartes, primer proveedor de componentes de Estados Unidos. La participación mexicana en la totalidad de importaciones estadounidenses de autopartes pasó de 42,5% de enero a abril de 2023 a 42,8% en el mismo lapso de 2024, un máximo histórico. Sin embargo, el constante avance de la tecnología y la adopción de metodologías de Lean Manufacturing por parte de otros países comprometen a México en las estadísticas globales ya que otros países han desarrollado tecnologías para hacer sus procesos mucho más rápidos y sin necesidad de tantos recursos. El presente estudio tiene como objetivo analizar y demostrar cómo la implementación adecuada de las herramientas de Lean, cinco eses (5s) y Kanban puede impulsar la competitividad de las empresas automotrices en México. Las 5S son una metodología que promueve la eficiencia, la seguridad y la moral del personal mediante la organización y limpieza del lugar de trabajo, estableciendo estándares claros y fomentando la mejora continua. Por otro lado, Kanban es una herramienta poderosa para la gestión visual y el control de procesos, que promueve la eficiencia, la transparencia y la mejora continua mediante la limitación del trabajo en curso y la optimización del flujo de trabajo. 



METODOLOGÍA

Tipo de estudio: Investigación documental y de casos. Fuentes de información: Bases de datos científicas ScienceDirect, Scielo, publicaciones de instituciones relevantes (INEGI, OICA, AMIA), informes de empresas automotrices y estudios de casos. Se tomaron alrededor de cincuenta referencias para hacer este artículo, donde se desecharon algunos de poca relevancia o credibilidad.   Criterios de selección de información: Relevancia, actualidad y pertinencia para el tema de investigación. Los datos mencionados son verídicos por instituciones reconocidas en el país de México. La información tomada es no mayor a diez años de publicación.


CONCLUSIONES

La implementación exitosa de las 5S y Kanban ha sido clave para mejorar la competitividad en la industria automotriz. Estas metodologías no solo ayudan a reducir costos y mejorar la eficiencia operativa, sino que también contribuyen a mantener altos estándares de calidad y cumplir con los tiempos de entrega exigidos por los clientes automotrices globales. Al implementar las herramientas 5S y Kanban de manera integrada y estratégica, las empresas automotrices pueden mejorar significativamente su competitividad global al reducir costos, mejorar la calidad, aumentar la eficiencia operativa y responder de manera ágil a las demandas del mercado. En conclusión, al visualizar los beneficios de las metodologías de acuerdo a casos de empresas automotrices que han mejorado su productividad se ha llegado a la conclusión que estas herramientas al ser implementadas mejoran la competitividad ya que si todas las empresas automotrices del país de México adoptan estas herramientas juntas pueden aumentar su desempeño posicionado a México como los principales países productores de autos. (Loraine Gastell Piloto, 2021). Las 5S ofrecen un marco sólido para optimizar el entorno de trabajo, reduciendo desperdicios, mejorando la eficiencia operativa y promoviendo una cultura de organización y limpieza que son fundamentales para mantener estándares de calidad y productividad elevados. Al aplicar 5s las empresas automotrices pueden no solo reducir costos operativos sino también mejorar la seguridad y el ambiente laboral, elementos críticos para la sostenibilidad a largo plazo. (E. Alexander Piñero, 2021). Por otro lado, Kanban proporciona un enfoque ágil para gestionar el flujo de trabajo y el inventario, asegurando una producción just-in-time que minimiza el desperdicio y responde de manera eficiente a las demandas del mercado. La visualización clara de las tareas y el flujo de materiales permite una planificación más precisa y una capacidad de adaptación rápida a cambios en la demanda o en las especificaciones del cliente. (Socconini Pérez Gómez, 2019). La integración estratégica de las 5S y Kanban crea una sinergia que no solo mejora la eficiencia y la calidad, sino que también fortalece la capacidad de las empresas automotrices mexicanas para competir a nivel global. Esto se traduce en mayores niveles de productividad, menores costos de producción, tiempos de entrega más rápidos y una capacidad mejorada para satisfacer las expectativas cambiantes de los consumidores y las condiciones del mercado global. (Chacaliaza Villar, 2021).
Trinidad Guerrero Ana Cristina, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Karen Hariantty Estevez Sanchez, Benemérita Universidad Autónoma de Puebla

SIMULACIóN DE UN SISTEMA DE DESALINIZACIóN CON RECIRCULACIóN


SIMULACIóN DE UN SISTEMA DE DESALINIZACIóN CON RECIRCULACIóN

Trinidad Guerrero Ana Cristina, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Karen Hariantty Estevez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El acceso al agua potable es fundamental para la supervivencia y el desarrollo de las actividades diarias de la humanidad. No obstante, diversas regiones de México se enfrentan a una grave escasez de agua dulce, provocada por factores como el cambio climático, el crecimiento poblacional y la contaminación. Un caso representativo de esta problemática es la ciudad de Puebla, donde se estima que, en el presente año, el 42.5% de la población ha sufrido las consecuencias de la falta de este recurso vital (Nuñéz, 2024). La desalinización del agua se presenta como una solución viable para afrontar la creciente demanda de agua potable. En este contexto, la destilación por membrana (DM) ofrece amplias oportunidades, ya que, a diferencia de la ósmosis inversa, utiliza gradientes de presión de vapor para manejar altos niveles de sal, sin necesidad de bombas de vacío. Esto convierte a la DM en una opción sostenible y rentable. El objetivo de este trabajo es modelar y simular la desalinización de agua salada mediante un diseño innovador de la cámara DM en un sistema de desalinización por recirculación.



METODOLOGÍA

El estudio se llevó a cabo en dos fases. La primera fase, se enfocó en la modelación matemática del sistema con recirculación. En la segunda fase, se realizó un análisis del sistema utilizando SolidWorks, un entorno de diseño asistido por computadora. Las ecuaciones diferenciales ordinarias (1-8) fueron formuladas para modelar el comportamiento dinámico del sistema de desalinización por recirculación, teniendo en cuenta los flujos de entrada y las fluctuaciones en la concentración de sales. Las ecuaciones (6-7) describen la variación en el volumen de recirculación de la corriente de salmuera y agua potable. Por su parte, la ecuación (8) se centra en el cambio en la concentración de sal en la salmuera de recirculación. dTaj/dt =1/Vj(Faj-1Taj-1-FajTaj)-AajSj(lamajJj-haj(Taj-Tmj))                 (1) dTpj/dt =1/Vj(Fpj-1Tpj-1-FpjTpj)+ApjSj(lampjJj+hpj(Tmj-Tpj))               (2) dCaj/dt=(Faj-1roaj)/Vj-(Fajroaj)/Vj                                                           (3)​ Faj=Faj-1-JjSj/roaj                                                                                           (4)     Fpj=Fpj+1-JjSj/ropj                                                                                         (5)    dVaRj/dt=Fa,out-Fa,in                                                                                     (6)    dVpRj/dt=Fp,out-Fp,in                                                                                        (7) dCaRj/dt=(Fa,out/VaRj)Ca,out-(Fa,in/VaRj)Ca,in-(Ca,in/VaRj)dVaRj/dt    (8) La simulación de este modelo se llevó a cabo utilizando la función ODE15s en MATLAB, aplicando las siguientes condiciones iniciales: temperatura de la cámara de salmuera (343 K), temperatura de la cámara de agua potable (293 K), concentración de sal (40.84854 kg de NaCl/m³ de agua), velocidad inicial de la salmuera (0.25 m/s), velocidad inicial del agua pura (0.2 m/s) y dimensiones de la cámara (longitud: 0.1 m, ancho: 0.002 m, profundidad: 0.05 m). Las características de la membrana fueron definidas a partir de datos experimentales reportados por Elewi et al. (2016). En la segunda fase, se procedió a diseñar la cámara DM utilizando SolidWorks. Inicialmente, se crearon cada una de las piezas del reactor de forma individual, a través de las herramientas de croquis y extrusión de SolidWorks. El diseño incorpora espacios adecuados para la junta tórica, los tornillos y la membrana de PTFE, lo que facilita su ensamblaje posterior. Una vez que se completó el ensamblaje del reactor en SolidWorks, se utilizó Flow Simulation para simular el comportamiento del fluido en contraflujo dentro del reactor. Para ello, se especificaron las entradas y salidas, así como las condiciones iniciales definidas en MATLAB. A partir de estas simulaciones, se obtuvieron perfiles del volumen promedio recirculado, velocidad, turbulencia y temperatura, lo que posibilita un análisis detallado de los patrones de flujo y la distribución de la concentración de sales en el sistema.


CONCLUSIONES

La investigación en desalinización es crucial para abordar la escasez de agua potable a nivel global, afectando a millones de personas. Ofrecer soluciones sostenibles en este ámbito puede mejorar la calidad de vida en Puebla y fomentar el desarrollo sostenible en la región. Este trabajo se enfoca en optimizar la simulación en SolidWorks de un sistema de desalinización de DM, considerando la porosidad de la membrana, lo que facilitará la comparación con los resultados del análisis experimental tras ensamblar el prototipo. Mi participación en este proyecto ha sido clave para aplicar mis conocimientos teóricos, desarrollar habilidades en investigación y trabajo en equipo, y fortalecer mi compromiso con soluciones innovadoras. He aprendido a utilizar SolidWorks y a analizar cómo los gradientes de presión y temperatura impactan la eficiencia del sistema, optimizando así la producción de agua potable. Esta experiencia ha sido invaluable para mi desarrollo académico y profesional.
Trujillo Terrones José Alberto, Universidad Tecnologica de León
Asesor: Dr. Francisco Javier Cuevas de la Rosa, Centro de Investigaciones en Óptica (CONACYT)

RECONOCIMIENTO DE TEXTURAS BINARIAS RUIDOSAS MEDIANTE TRANSFORMADA DE CúMULOS COORDINADOS


RECONOCIMIENTO DE TEXTURAS BINARIAS RUIDOSAS MEDIANTE TRANSFORMADA DE CúMULOS COORDINADOS

Trujillo Terrones José Alberto, Universidad Tecnologica de León. Asesor: Dr. Francisco Javier Cuevas de la Rosa, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

el propósito de cualquier técnica de reconocimiento de patrones es el de clasificar imágenes de prueba empelando un conjunto de atributos extraídos de imágenes patrón, el problema es el de establecer un conjunto de atrbutos significativos que puedan ser usados eficientemiente en la clasificación, debido a esto se emplea la CCR para comprobar que tan eficiente es su uso para reconocer las texturas corrompidas con ruido.



METODOLOGÍA

Se genera por computadora un conjunto de 20 texuras empleando una ventana denominada como "texel" de 5 x 5 el cual puede definirse como una matriz que contiene valores aleatorios de 0 y 1 debido a quu se trabaja con imágenes binarias, el texel se repite de manera secuencial para crear una textura con una resolución de 100 x 100, la imagen será aleatoria en su localidad pero periódica en totalidad. Posteriormente se debe de agregar un ruido uniforme con incrementos de 5% para cada textura creando un set de 20 imágenes ruidosas para cada textura generada. La comparación sucece al calcular para cada imágen ruidosa su CCT y se compara mediante distancias de hamming con las CCT de las 20 texturas originales, Se identifica la textura original con la menor distancia y es considerado un reconocimiento exitoso si la textura original identificada corresponde a la verssión sin ruido de la imagen ruidosa analizada. Para evaluar que tan eficiente ha sido el uso de la CCT en determinado nivel de ruido se calcula la tasa de reconocimiento correcto para cada nivel de ruido. El experimento se repite con un set de texturas natruales obtenidas por el catálogo de brodatz.


CONCLUSIONES

Tanto para el set de imágenes generadas por computadora como para el set de imágenes naturales, se espera obtener el porcentaje más alto de eficiencia del reconocimiento para las imágenes con un porcentaje de ruido menor al 30%.
Tuyu Piñeiro Ricardo Emiliano, Universidad Autónoma de Yucatán
Asesor: Dr. Alejandro Gutierrez Giles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

SISTEMA DE DETECCIóN Y CLASIFICACIóN DE PERSONAS MEDIANTE EL ANáLISIS DE HISTOGRAMAS Y DETECCIóN DE PRENDAS DE VESTIR POR UN ROBOT DE SERVICIO


SISTEMA DE DETECCIóN Y CLASIFICACIóN DE PERSONAS MEDIANTE EL ANáLISIS DE HISTOGRAMAS Y DETECCIóN DE PRENDAS DE VESTIR POR UN ROBOT DE SERVICIO

Tuyu Piñeiro Ricardo Emiliano, Universidad Autónoma de Yucatán. Asesor: Dr. Alejandro Gutierrez Giles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La rápida evolución de la tecnología ha impulsado el desarrollo de robots de servicio capaces de realizar tareas en entornos domésticos. El objetivo es que se integren de manera efectiva en la vida cotidiana. Uno de los desafíos más significativos en el desarrollo de estos robots es dotarlos de habilidades que les permitan procesar y entender el entorno de la misma manera que lo haría un ser humano. Esto incluye la capacidad de identificar a las personas en el hogar y reconocer sus características específicas.



METODOLOGÍA

Para la implementación del sistema, se utilizó el programa ROS (Robot Operating System) para realizar la intercomunicación entre los diferentes lenguajes de programación utilizados. En este sistema se emplearon C++ y Python. El funcionamiento básico consiste en la aplicación de C++ junto con la librería OpenCV para la obtención de los frames de la cámara. Estos frames se envían a Python, donde se utiliza YOLOv8 para el preprocesamiento de la imagen y poder predecir si hay personas presentes. En caso afirmativo, el frame se envía a través de diferentes instancias que permiten la obtención de su histograma y rellenar de blanco el frame en ciertos casos para prevenir la pérdida de información. Posteriormente, se envía la información hacia un tópico en el cual se procesa con un modelo entrenado para la detección de prendas de vestir. Finalmente, los resultados se almacenan en una base de datos, que se utilizarán como referencia para que, al momento de realizar un seguimiento, el sistema pueda identificar a la persona analizada, discriminando a las demás en caso de haber múltiples personas en el recuadro. El uso de técnicas de análisis de histogramas para el procesamiento de imágenes y la detección de prendas de vestir ofrece una solución a estos desafíos. Los histogramas permiten una representación compacta y eficiente de la distribución de colores y texturas en una imagen, facilitando la identificación y clasificación de objetos y personas. Al integrar estas técnicas en los robots de servicio, se puede alcanzar un nivel de comprensión del entorno que permita una respuesta más precisa y adaptativa a las necesidades de los usuarios. Desarrollar un sistema de detección y clasificación de personas es importante debido a su potencial para revolucionar el uso de robots en aplicaciones domésticas. Un robot que pueda reconocer y responder adecuadamente a las personas y sus vestimentas puede ofrecer servicios personalizados. Esto no solo mejoraría la calidad de vida de los usuarios, sino que también permitiría una mayor independencia y seguridad para personas mayores o con discapacidades.


CONCLUSIONES

Durante esta estancia de verano se logró adquirir conocimientos de diferentes áreas como el aprender un nuevo sistema operativo como Linux, aprender sobre la librería OpenCV, el uso de redes neuronales como YOLO, modelos como deep fashion para detección de objetos e intercomunicación como lo es ROS. Al momento, se tiene un sistema capaz de analizar personas, crear una base de datos de su información de vestimenta y color mediante histogramas y los arreglos de salida del modelo deep fashion. Además, en su estado de seguimiento es capaz de discernir entre a quien debe seguir. Sin embargo, debido a las limitaciones de hardware, el sistema aún se puede optimizar aplicando configuraciones que permitan un mayor rendimiento como el uso de una tarjeta gráfica. Con ello se espera que pueda ser un sistema con mayor precisión y velocidad al momento de identificar y clasificar personas.
Tzintzun Ornelas Juan Carlos, Instituto Tecnológico de Morelia
Asesor: Mg. Diana Suarez Lopez, Corporación Universitaria Americana

SISTEMA DE NOTIFICACIONES PARA ALERTAS POR VENCIMIENTO DE MEDICAMENTOS UTILIZANDO TéCNICAS DE ANáLISIS DE DATOS


SISTEMA DE NOTIFICACIONES PARA ALERTAS POR VENCIMIENTO DE MEDICAMENTOS UTILIZANDO TéCNICAS DE ANáLISIS DE DATOS

Tzintzun Ornelas Juan Carlos, Instituto Tecnológico de Morelia. Asesor: Mg. Diana Suarez Lopez, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

En el ámbito de la gestión de inventarios en el sector salud, el almacenamiento y control de medicamentos es una tarea crítica. Los errores en la gestión del inventario pueden llevar a desperdicios significativos debido a la caducidad de los productos, así como a la escasez de medicamentos esenciales en momentos cruciales. La falta de un sistema automatizado y eficiente para administrar el almacenaje de medicamentos puede resultar en la expiración de productos y en un mal manejo del inventario, lo cual no solo representa una pérdida económica, sino que también puede afectar la disponibilidad de medicamentos necesarios para los pacientes. Implementar un sistema de software para la administración de medicamentos es esencial para garantizar que los productos estén disponibles cuando se necesiten y para reducir las pérdidas asociadas con la expiración de medicamentos, siendo este el principal problema a resolver. Un sistema de software automatizado proporcionará un control preciso sobre el inventario, reducirá el desperdicio de medicamentos por expiración, permitirá tener el control para poder llevar a mostrador los medicamentos que tienen una vida útil más corta, mandará alertas al usuario y mejorará la eficiencia en la gestión del almacén. Esto también contribuirá a una mejor atención al paciente al asegurar la disponibilidad de medicamentos.



METODOLOGÍA

La metodología para el desarrollo del software de administración de almacenamiento de medicamentos se ha basado en un enfoque iterativo y modular, permitiendo la implementación y prueba de componentes individuales antes de integrarlos en un sistema completo. El proceso se ha dividido en tres fases principales: desarrollo de la plataforma de usuario, creación de la base de datos, y conexión y lógica en Python para el manejo de datos.   Desarrollo de la Plataforma de Usuario Objetivo: Crear una interfaz intuitiva y fácil de usar que permita a los usuarios gestionar el inventario de medicamentos de manera eficiente. Actividades: Diseño de la interfaz de usuario utilizando herramientas de diseño gráfico y de prototipado. Implementación de la plataforma utilizando tecnologías web modernas como HTML, CSS y JavaScript. Pruebas de usabilidad con usuarios finales para obtener retroalimentación y realizar ajustes necesarios.   Creación de la Base de Datos con SQL Server Objetivo: Desarrollar una base de datos robusta y escalable para almacenar la información del inventario de medicamentos, incluyendo fechas de caducidad y cantidades disponibles. Actividades: Diseño del esquema de la base de datos, incluyendo tablas, relaciones y restricciones necesarias. Implementación de la base de datos utilizando SQL Server. Pruebas iniciales de la base de datos para asegurar su integridad y rendimiento. Conexión y Lógica en Python Objetivo: Desarrollar la lógica del sistema para gestionar las fechas de caducidad y las cantidades de productos disponibles, integrando la base de datos con la plataforma de usuario.   Conexión y Lógica en Python Objetivo: Desarrollar la lógica del sistema para gestionar las fechas de caducidad y las cantidades de productos disponibles, integrando la base de datos con la plataforma de usuario.   Actividades: Configuración del entorno de desarrollo en Python y las bibliotecas necesarias (por ejemplo, `pymssql` para la conexión con SQL Server). Implementación de scripts y funciones en Python para realizar consultas a la base de datos y procesar la información. Desarrollo de la lógica para alertar sobre productos próximos a caducar y manejar el inventario de manera eficiente. Pruebas integradas del sistema para asegurar que la plataforma de usuario, la base de datos y la lógica en Python funcionen de manera coherente y efectiva.   Esta metodología ha permitido un desarrollo estructurado y sistemático, asegurando que cada componente del sistema se construya y pruebe adecuadamente antes de pasar a la siguiente fase. La retroalimentación continua y las pruebas iterativas han sido claves para el éxito del proyecto, permitiendo ajustar y mejorar el sistema según sea necesario.


CONCLUSIONES

El desarrollo del software de administración de almacenamiento de medicamentos ha sido un proyecto integral orientado a resolver uno de los problemas más críticos en la gestión de inventarios farmacéuticos: la expiración de medicamentos. A través de una metodología estructurada y modular, se pretende lograr crear una solución eficaz que permite a los usuarios tener un control preciso sobre las fechas de caducidad y las cantidades disponibles de los productos. El principal objetivo de este software, evitar la expiración de los medicamentos mediante el envío de alertas al usuario, se ha alcanzado con éxito gracias a la implementación de una plataforma de usuario intuitiva, una base de datos robusta y una lógica de procesamiento eficiente en Python. La capacidad del sistema para monitorear constantemente el inventario y alertar a los usuarios sobre los medicamentos próximos a caducar garantiza que los productos sean utilizados de manera oportuna, reduciendo significativamente las pérdidas por expiración y asegurando un suministro eficiente y seguro de medicamentos.
Ubaldo Sanchez Juan Carlos, Universidad Politécnica de Sinaloa
Asesor: M.C. Roberto Antonio Martínez Thompson, Universidad Politécnica de Sinaloa

CARRO DE BúSQUEDA LIGHTNINGDRIVE


CARRO DE BúSQUEDA LIGHTNINGDRIVE

Lizarraga Acosta José Yair, Universidad Politécnica de Sinaloa. Montes Villarreal Liliana Guadalupe, Instituto Tecnológico de Tepic. Ozuna Diaz Ruanet Alejandro, Universidad Politécnica de Sinaloa. Ubaldo Sanchez Juan Carlos, Universidad Politécnica de Sinaloa. Asesor: M.C. Roberto Antonio Martínez Thompson, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En caso de desastres naturales la búsqueda y comunicación con las personas atrapadas puedes ser muy difícil,peligrosa y tardada



METODOLOGÍA

Se creará un carrito a control remoto para realizar la búsqueda más rápida y de forma más segura


CONCLUSIONES

Crear un carrito que facilite el buscar a las personas atrapadas en un desastre natural
Ugalde Vidal Daira Alejandra, Instituto Politécnico Nacional
Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías

MODULO DE CONTROL DE CARGAS POR IOT


MODULO DE CONTROL DE CARGAS POR IOT

Rodríguez Ibarra Aurora Sofía, Instituto Politécnico Nacional. Ugalde Vidal Daira Alejandra, Instituto Politécnico Nacional. Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías



PLANTEAMIENTO DEL PROBLEMA

En este proyecto se plantea el problema de un asistente virtual el cual está basado en los dispositivos Alexa y Google Home, el cual nos basamos en el implemento de IoT con la finalidad del mismo implemento doméstico y asistencia virtual que los anteriores dispositivos.     Los sistemas de IoT que se planean utilizar en este proyecto nos ofrecerá numerosas ventajas, como es la automatización de tareas, monitorización remota, así como la integración de dispositivos inteligentes, además de que siempre con la finalidad de ayudar al ser humano a facilitar las tareas conectando también ciertos dispositivos a una sola red para que obtengan comunicación y se implementen todas las instrucciones de una manera más fácil con ayudar de Steren Home.   Dentro de los aspectos más destacados en este proyecto, es la capacidad de controlar cargas eléctricas a distancia, ya que nos facilitará la gestión eficiente de energía y además promueve el ahorro económico y ambiental, también hay que resaltar que esta tecnología proporciona mejoras significativas en términos de seguridad y comodidad para los usuarios, optimizando así la calidad de vida en el hogar, de esta manera ayudando al ser humano y cumpliendo su función principal de un dispositivo inteligente.    Por otro lado, se utilizó un dispositivo ESP-32 para poder hacer las conexiones a Wi-Fi y Bluetooth y mediante el dispositivo IoT permite una gama de aplicaciones de autorización en el hogar, con el cual ayuda a conectar a otros dispositivos inteligencia artificial y virtual como son los dispositivos Alexa y Google Home, el cual permite enviar datos al ESP-32.   Ya que al dispositivo Alexa se le describe como un asistente por voz por medio de su propia plataforma de desarrollo, al hacer una interconexión con el ESP-32, ambos dispositivos pueden comunicarse a través del Voice Service de Alexa, para que se puedan realizar acciones mediante comandos por voz.   Algunas de las características que cuenta el dispositivo ESP-32 por el motivo que lo vamos a utilizar es por los detalles la conectividad con Wi-Fi el cual es posible formar una comunicación inalámbrica con la nube y con el propósito de este proyecto, también tener una conexión con el dispositivo Alexa.



METODOLOGÍA

Se inicio diseñando la placa la cual cuenta con un dispositivo ESP-32 el cual es el protagonista de la placa y del dispositivo ya que nos permita manejar por medio de voz las cargas en una casa inteligente desde cualquier lugar en el que estemos, con la condición de estar conectados a alguna señal de internet.    En un contexto mas amplio el dispositivo ESP-32 es un  microcontrolador de SoC (System on Chip), desarrollado por Espressif empresa china y fabricada por TSMC, cuenta con un procesador Tensilica Xfensa de doble núcleo de 32 bits a 160 MHz con un alcance en potencia de 240 MHz en cada chip con conectividad a Wifi y Bluetooth, se considera completo de Wifi y Bluetooth certificado para proporcionar un procesador con radio inalámbrico y con capacidad para conectarse a varios elementos, con respecto a sus 2 núcleos de procesamiento de datos con una frecuencia que llega a controlar libremente entre los 80 MHz Y 240 MHz, todos los elementos que se pueden conectar al procesador permiten el funcionamiento fácil al  omento de elaborar tareas. Como anteriormente lo comentábamos es un chip combinado con Wifi y Bluetooth, tiene el objetivo para lograr la mejor potencia y rendimiento de RF, mostrando robustez, versatilidad y fiabilidad en variedad de aplicaciones y escenarios de potencia.   Por otro lado, el internet de las cosas también conocido como IoT es la consolidación a través de una red de redes la cual aloja una gran cantidad de dispositivos, el cual puede interconectar a todos aquellos con interfaces de conexión simples tales como electrodomésticos, dispositivos, objetos y hasta torres de edificios con capacidad de comunicación (López Garzón, W; Cárdenas López, J. 2019).   En resumen, el internet de las cosas es una interconexión entre los objetos del mundo físico por medio de Internet. Con ello adentrándose a la cuarta revolución industrial, las nuevas tecnologías impulsan el crecimiento de las industrias y nuevos sectores, incluyendo hogares.   Las aplicaciones y usos que tiene el IoT son muy amplias, ya que se pueden ajustar a cualquier tipo de proyecto que cuente con internet, así, ayudando al desempeño de una actividad monitoreándose remotamente.  Entre las aplicaciones, tenemos las siguientes: Estacionamiento inteligente Salud Iluminación inteligente Transporte Seguridad     En este proyecto también se hizo uso del SINRIC PRO, el cual es una aplicación la cual permite el dispositivo ESP-32 se pueda conectar a dispositivos como lo es Alexa por medio de una aplicación desarrollada, su funcionamiento consiste en habilitar una conexión al ESP-32 se fabrica a través de la nube, el cual da a cada usuario una clave para seguridad, se suele limitar a Alexa y a Google Home, aplica la función de enlace entre asistente virtual y el ESP-32, ya que esta aplicación cuenta con una skill en la librería de Amazon, lo cual tiene compatibilidad con Alexa.  


CONCLUSIONES

En conclusión, este dispositivo está diseñado para facilitar al ser humana, como todo dispositivo inteligente, pero con la finalidad de su manipulación a larga distancia donde tiene la tarea de apoyar en tu hogar a largas distancias y virtualmente, gracias a los elementos implementados en el como es el ESP-32 con su conexión a Wi-Fi y Bluetooth, el IoT que facilita la conexión entre otros dispositivos.    Por ello este dispositivo es indicado al momento de querer manipular alguna tarea del hogar o asistencia de problemas y tareas, este dispositivo será útil, como lo comentamos gracias al ESP-32 y el internet de las cosas se pueden hacer desde distancias largas, además de todo puede ser por una misma red o mediante voz. 
Ugarte Reyes Alondra Montserrat, Universidad Mexiquense del Bicentenario
Asesor: Dr. Diego Ernesto Mendoza Patiño, Universidad Antonio Nariño

MODELOS DE CADENA DE SUMINISTRO EN LA AGROINDUSTRIA


MODELOS DE CADENA DE SUMINISTRO EN LA AGROINDUSTRIA

Ugarte Reyes Alondra Montserrat, Universidad Mexiquense del Bicentenario. Asesor: Dr. Diego Ernesto Mendoza Patiño, Universidad Antonio Nariño



PLANTEAMIENTO DEL PROBLEMA

¿Que es cadena de suministro?, Elementos de la cadena de suministro, que es agroindustria, su importancia y origen, cadena de suministro en agroindustria. Por ende, el objetivo principal del presente artículo de investigación es optimizar el desempeño y la sostenibilidad de la cadena de suministro en agroindustria 



METODOLOGÍA

Para el desarrollo del presente artículo de investigación se llevaron a cabo diversas etapas para profundizar en el estado del arte de los modelos en las cadenas de suministro en agroindustria. En primer lugar, se realizó una consulta exhaustiva en las bases de datos científicos de la  Universidad Antonio Nariño para encontrar 15 artículos científicos relevantes, de tipo Q1 y Q2, relacionados con el tema. Consultamos bases de datos de investigación relevantes como IEEExplore, ScienceDirect, y Virtual Pro con la siguiente combinación de palabras clave: modelos de cadena de suministro, agroindustria, cadena de suministro, cadena de suministro en agroindustria. En este estudio, se recopilaron y revisaron un total de 15 artículos publicados entre 2001 y 2023. Posteriormente, se procedió a elaborar un mapa conceptual que permitiera identificar la estructura del marco teórico del trabajo. Este mapa visual fue de gran ayuda para organizar y entender los distintos elementos encontrados en la literatura. Con base en la información recopilada y el mapa conceptual, se desarrolló el marco teórico del trabajo. En esta etapa, se describieron los conceptos y enfoques clave de los modelos en la cadenas de suministro en agroindustria. Se identificaron los principales Modelos utilizados en las cadenas de suministro, centrándose especialmente en aquellos que podrían ser relevantes para la cadena de suministro en agroindustria. A continuación, se llevó a cabo una revisión minuciosa de los artículos científicos seleccionados para analizar la presencia de los principales Modelos de cadena de suministro en agroindustria identificados y su aplicación en la cadena de suministro de la agroindustria Posteriormente, se realizó un análisis exhaustivo de los resultados obtenidos en la revisión de literatura. Se identificaron patrones, tendencias y conexiones relevantes entre los modelos de la agroindustria. Finalmente, se formularon las conclusiones del trabajo, destacando la importancia de los modelos en la cadena de suministro en agroindustria para la mejora del desempeño y la sostenibilidad


CONCLUSIONES

Este trabajo presenta una revisión de modelos de la cadena de suministro en agroindustria  para el analisis de la producción y el transporte por lo  que se busca la mejora de su desempeño y sostenibilidad.  En este contexto se percibe a los modelos como una de las alternativas válidas y necesarias para enfrentar las gestiones y optimizar la cadena de suministro en agroindustria dado que permite mejorar la eficiencia, reducir costos, maximizar el servicio al cliente y obtener una ventaja competitiva en el mercado. Para finalizar, podemos reconocer a los modelos de cadenas de suministro en agroindustria, como una forma de mejorar el desempeño del suministro de la agroindustria que contribuye a su sostenibilidad y posibilidad de desarrollo y crecimiento.
Uicab Nahuat Victor Manuel, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana

OPTIMIZATION OF LARGE LANGUAGE MODELS, COMPUTATIONALLY EFFICIENT.


OPTIMIZATION OF LARGE LANGUAGE MODELS, COMPUTATIONALLY EFFICIENT.

Uicab Nahuat Victor Manuel, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana



PLANTEAMIENTO DEL PROBLEMA

These models, despite their enormous potential to revolutionize natural language processing, face a significant barrier: the excessive demand for computational resources for their training and execution. This challenge limits the practical implementation of LLMs in resource-limited environments, such as mobile devices and embedded systems. The research presented in the paper seeks to overcome this barrier by optimizing LLMs without sacrificing their performance or accuracy. Approach Objectives: Identify the main optimization techniques for LLMs: The paper discusses various methods to reduce the consumption of computational resources in LLMs, including model compression, implementation of new architectures and algorithms, and rigorous evaluation of the impact on performance and accuracy. . Evaluate the effectiveness of optimization techniques: An experimental study is presented to evaluate the impact of the proposed techniques on the computational efficiency of LLMs, using relevant metrics and representative data sets. Analyze the impact of optimization on the accessibility and development of LLMs: It explores how the optimization of LLMs can expand its field of application, allowing its implementation in environments with limited resources and promoting the development of new, more efficient and accessible applications.



METODOLOGÍA

The methodology is based on three fundamental pillars: Dimension Reduction: Techniques such as tensor decomposition and quantization are used to reduce the dimensionality of LLM models, thus reducing memory and computing requirements. Transfer Learning: The knowledge of pre-trained models is used to perform new tasks, improving efficiency and performance. Pruning Neural Networks: Redundant or irrelevant connections in neural networks are eliminated, reducing the complexity of the model without significantly affecting its accuracy. The methodology also includes optimizing the source code of the LLM models for different hardware architectures, which can significantly improve performance. Rigorous Evaluation: To evaluate the effectiveness of the proposed techniques, an experimental study is carried out that analyzes the impact on the computational efficiency of LLMs, using relevant metrics and representative data sets. Conclusions and Future Work: The results obtained in the experimental study demonstrate significant improvements in the computational efficiency of the LLMs, achieving substantial reductions in memory consumption and processing time. These improvements are achieved without compromising model accuracy, allowing for a favorable balance between efficiency and performance. The research presented in the paper opens new possibilities for the application of LLMs in resource-limited environments and encourages the development of new, more efficient and accessible applications.


CONCLUSIONES

Memory Used: 8-bit quantization significantly reduces memory usage, allowing execution on less powerful hardware. In our tests, the memory used was reduced by 48%, going from 11.38 GB to 5.96 GB. Model Loading Time: The quantized model loads much faster, making it ideal for applications that require quick initialization. Loading time was reduced by 100%, from 2 minutes and 18 seconds to being practically instantaneous. Text Generation Time: Although text generation is 74% slower with the quantized model (9.38 seconds vs. 5.39 seconds), the reduction in memory usage may justify this trade-off in memory-constrained environments. Recommendations: For systems with sufficient GPU memory and where the quality of the generated text is a priority, it is recommended to use the unquantized model. However, for environments with GPU memory limitations, such as smaller devices or cloud applications with optimized hardware costs, the use of the quantized model is highly recommended, as the decrease in text quality and the increase in time inference are offset by the significant reduction in memory usage and loading time.
Ulloa Rios Jesus Yahir, Universidad Autónoma de Occidente
Asesor: Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente

OPTIMIZACIóN DE INVENTARIOS: DESARROLLO DE UN SISTEMA INTELIGENTE


OPTIMIZACIóN DE INVENTARIOS: DESARROLLO DE UN SISTEMA INTELIGENTE

Ulloa Rios Jesus Yahir, Universidad Autónoma de Occidente. Asesor: Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

En la era digital actual, la adopción de Tecnologías de la Información y Comunicación (TIC)  juega un papel fundamental en la gestión y operación eficientes de las empresas. En este contexto, la ingeniería de software emerge como una disciplina clave para el análisis, diseño, desarrollo e implementación de soluciones tecnológicas personalizadas que abordan desafíos específicos en la administración empresarial. Una de las áreas críticas donde la aplicación de ingeniería de software puede tener un impacto significativo es la optimización de procesos empresariales. Por ello; las empresas modernas se enfrentan a un entorno empresarial cada vez más competitivo y dinámico, donde la eficiencia operativa y la agilidad son esenciales para mantenerse relevantes en el mercado.   Actualmente, uno de los negocios más rentables que existen es la de helados. El negocio analizado, es una franquicia internacional del grupo empresarial GANFER, con más de 6,000 sucursales en más de 20 países que tiene su origen en brindar la máxima satisfacción de gusto y sabor, en un ambiente familiar, a través de productos alimenticios de la más alta calidad, especialmente en postres hechos a base de nieve suave. Sin embargo; a pesar de que la empresa renueva constantemente con el fin de ofrecer más y mejores soluciones a los procesos y negocios, se ha detectado problemas en su inventario, el cual; realizan de manera manual diariamente. Este inventario se divide en dos partes con la finalidad de agilizar los tiempos de conteo. La primera parte es la que se realiza diariamente por parte de los supervisores donde se contabilizan los productos clave y con más movimiento en el día, la segunda parte constituye el conteo general de todos los insumos de la sucursal, este es realizado una vez a la semana y lo realiza el propio gerente, lo que ocasiona pérdida de tiempo en la atención y errores.   Por lo anterior; en la presente investigación se propone el desarrollo de una aplicación como sistema inteligente denominado Programa Gestor de Inventario que va dirigido a optimizar la producción, reducir costos, mejorar la gestión de la cadena de suministro y garantizar la satisfacción del cliente mediante la disponibilidad de productos.



METODOLOGÍA

De acuerdo con la relevancia y el contexto del presente estudio, se plantearon diversos objetivos. Los métodos, técnicas e instrumentos para recolectar los datos y cumplir con los objetivos propuestos que están cimentados en un enfoque mixto. Para llevar a cabo esta investigación, se emplea un enfoque mixto (enfoque cualitativo y enfoque cuantitativo) con el objetivo de obtener datos relevantes y significativos para el estudio. En primer lugar, se utilizó un enfoque de investigación cualitativo, ya que se observó las ventajas de implementar un sistema automatizado de conteo de inventarios. Esto implica la recolección de datos que permitirán evaluar el impacto del desarrollo  de la nueva solución en la eficiencia operativa de la empresa.   El alcance de la investigación es descriptivo, por lo que se describe detalladamente el proceso de conteo de inventarios anterior y el nuevo proceso automatizado. Esto proporcionará una comprensión completa de las diferencias entre ambos métodos y permite identificar los beneficios y desafíos asociados con la implementación de la nueva solución. En cuanto al diseño de la investigación, se utilizó un enfoque no experimental. Esto implica un estudio controlado en el que se compararán los resultados del conteo de inventarios antes y después de la implementación del sistema automatizado. Esta metodología permitió establecer relaciones de causa y efecto entre la introducción de la nueva solución y los cambios en la eficiencia y productividad de la empresa.   Además, se llevó a cabo un estudio de caso, que es un método de investigación comúnmente utilizado, en donde se analizó a detalle el proceso de conteo de inventarios, así como el desarrollo y resultados de la solución automatizada.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos de análisis, diseño y desarrollo de la ingeniería de software, el cual busca optimizar los procesos empresariales mediante el uso      de una aplicación diseñada para la automatización: enfocada a mejorar la eficiencia y la productividad, enfocándose a los siguientes procesos: automatizar el sistema de conteo para agilizar tiempos y evitar errores; mejorar la forma de captura del inventario en el PORTAL, agilizar tiempos y evitar que los supervisores descuiden actividades primarias. Respecto al framework y el lenguaje de programación que se utilizó para desarrollar el sitio, es Flutter y JavaScript y para el manejo de bases de datos MySQL como el sistema gestor de la base de datos.
Urenda Garay Luis Alonso, Universidad Tecnológica de Nayarit
Asesor: Dr. Jorge Luis Bacca Acosta, Fundación Universitaria Konrad Lorenz

APLICACIóN MULTIUSUARIO EN REALIDAD VIRTUAL PARA GAFAS META QUEST 2 ACERCA DE LA HISTORIA DE MIGRACIóN DE KARINA.


APLICACIóN MULTIUSUARIO EN REALIDAD VIRTUAL PARA GAFAS META QUEST 2 ACERCA DE LA HISTORIA DE MIGRACIóN DE KARINA.

Polanco Cortes Johan Oswaldo, Universidad Tecnológica de Nayarit. Urenda Garay Luis Alonso, Universidad Tecnológica de Nayarit. Asesor: Dr. Jorge Luis Bacca Acosta, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

Desde hace varios años Colombia ha experimentado una significativa afluencia de migrantes venezolanos debido a la crisis política, económica y social en Venezuela. Según datos del Gobierno colombiano y de organizaciones internacionales, millones de venezolanos han cruzado la frontera en busca de mejores oportunidades, seguridad y estabilidad.   Este movimiento masivo ha generado diversos desafíos tanto para los migrantes como para las comunidades receptoras. Entre estos desafíos se encuentran la integración socioeconómica, el acceso a servicios básicos y la aceptación social de los migrantes. A pesar de los esfuerzos gubernamentales y de organizaciones no gubernamentales para atender las necesidades de los migrantes, persisten prejuicios y actitudes discriminatorias en algunas partes de la sociedad colombiana.   La falta de concientización y sensibilización en la población colombiana respecto a la situación de los migrantes venezolanos ha generado estigmatización, discriminación y, en algunos casos, xenofobia. Este problema afecta negativamente la integración de los migrantes y la cohesión social en las comunidades receptoras.



METODOLOGÍA

El proyecto de concientización sobre las personas venezolanas en Colombia comenzó con una entrevista realizada anteriormente a una migrante venezolana. La entrevista se complementó con representaciones gráficas, a través de dibujos, de los puntos más destacados de su historia. Estas imágenes gráficas proporcionaron una representación visual poderosa de su experiencia, sirviendo como base para el desarrollo del proyecto. Primero, se consolidaron los conocimientos en desarrollo de aplicaciones en Unity completando el curso Create with VR, enfocado en el desarrollo de experiencias de realidad virtual, incluyendo la configuración de VR, uso de controladores de movimiento y optimización del rendimiento, además de realizar pruebas y capacitación para el uso de las gafas de realidad virtual Meta Quest 2, asegurando un uso correcto y efectivo de las mismas. Con los conocimientos adquiridos, se inició la construcción de un prototipo de aplicación multiusuario con realidad virtual, pudiendo añadir una gran cantidad de personajes en escena. Integrar elementos 3D que ayuden a contar la historia de migración basada en las representaciones gráficas de la entrevista. Luego, se realizaron pruebas exhaustivas del prototipo de la aplicación con realidad virtual para identificar oportunidades de mejora. Basándose en los resultados de estas pruebas, se aplicaron las mejoras necesarias para perfeccionar la aplicación. Finalmente, se redactó un informe detallado documentando todo el proceso, desde la concepción y desarrollo del proyecto hasta las pruebas finales y los ajustes realizados. Para gestionar el proyecto, se utilizó una metodología ágil como SCRUM para manejar el progreso de las tareas y mantener la transparencia y colaboración entre los miembros del equipo. La implementación de esta metodología en el proyecto permitió una gestión efectiva y un desarrollo organizado, asegurando que el equipo pudiera adaptarse a cambios y entregar resultados de valor de manera continua. A través de un ciclo estructurado de capacitación, desarrollo, optimización, pruebas y documentación, se logró una campaña efectiva que promueve la integración y aceptación de los migrantes en la sociedad colombiana.


CONCLUSIONES

Durante la estancia de verano logramos obtener una percepción más amplia sobre el tema social que implica la migración de las personas venezolanas en Colombia además se adquirieron conocimientos en desarrollo de aplicaciones de realidad virtual a través del curso Create with VR y la capacitación en el uso de las gafas Meta Quest 2. Se creó un prototipo de aplicación multiusuario en realidad virtual, integrando elementos 3D basados en la historia de una migrante venezolana. El proyecto avanzó con la optimización y ajuste del prototipo, así como pruebas para identificar y aplicar mejoras, se espera que este proyecto brinde una herramienta efectiva para la concientización y la integración de los migrantes venezolanos en la sociedad colombiana.
Uribe de los Santos Manuel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Francisco Manuel Pacheco Aguirre, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE LA COMPOSICIóN DEL CAFé COMERCIAL SOLUBLE POR MEDIO DE SUS VOLáTILES EMPLEANDO UNA NARIZ ELECTRóNICA Y EL DESARROLLO DE UNA VERSIóN EVOLUTIVA DE LA NARIZ ELECTRóNICA


ANáLISIS DE LA COMPOSICIóN DEL CAFé COMERCIAL SOLUBLE POR MEDIO DE SUS VOLáTILES EMPLEANDO UNA NARIZ ELECTRóNICA Y EL DESARROLLO DE UNA VERSIóN EVOLUTIVA DE LA NARIZ ELECTRóNICA

Uribe de los Santos Manuel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Francisco Manuel Pacheco Aguirre, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En los procesos alimenticios se deben de seguir una serie de estándares de alta calidad que le den certeza al consumidor que está recibiendo un buen producto. Durante su elaboración es un interés general determinar las propiedades de nuestro producto en las diferentes etapas que constituyen su producción, puesto que en cada transformación que experimenta sus propiedades cambian y tendremos diferentes aspectos que evaluar para determinar si este producto se encuentra en nuestros estándares de calidad, de principio a fin. En la rama de la ingeniería es nuestro deber desarrollar diferente métodos y herramientas que nos ayuden a lograr esta labor, con una mezcla de eficiencia y eficacia para lograr desarrollar que estos sean efectivos. Es aquí donde aparece la nariz electrónica, un dispositivo que es capaz o debería de ser capaz de emular al sentido del olfato humano, donde reconoce los olores e interpreta que es a lo que ha sido expuesto, tal como lo hace la nariz humana. Es un dispositivo que no es nuevo en la industria, pues tiene años de desarrollo e innovación por detrás, pero su evolución es continua, lo que abre la puerta a contribuir a la mejora de los procesos de supervisión de calidad.



METODOLOGÍA

Se realizaron pruebas en una nariz electrónica diseñada por el ingeniero Emilio Morales López compuesta de 6 paredes de acrílico ranuradas en 4 de sus caras para albergar 9 sensores electroquímicos: MQ2, MQ3, MQ4, MQ5, MQ6, MQ7, MQ8, MQ9 y MQ135 respectivamente, configuración que es acompañada de una placa calefactora PTC que está configurada para alcanzar los 60°C regulada por un módulo relé, todos estos componentes electrónicos regulados por dos placas Arduino, que transmiten su información a una interfaz creada en LabVIEW  2017. Las muestras constaron de en un recipiente cuadrangular hecho de papel aluminio donde se depositaba una alícuota de café soluble, que se ingresaba a la nariz electrónica tras 5 minutos de aireamiento, donde iniciábamos la medición de los sensores con la cámara abierta, ingresada la muestra cerrábamos la cámara y la manteníamos ahí por los siguientes 30 minutos una vez transcurrido ese tiempo la retirábamos y dejábamos abierta la cámara para darle otros 5 minutos de aireamiento. Para la realización de las muestras se analizaron seis especies diferentes de café soluble de la marca Nescafé: Reserva Xiapan, Decaf, Estilo Café de Olla, Clásico Black, Reserva Verarica y Clásico. En el transcurso de la toma de muestras se presentó una irrupción en la corriente del sensor MQ4, motivo que propicio el recableado del equipo para evitar futuras irrupciones de corriente en los sensores y reducir la interferencia en las señales de los sensores. Al realizar el recableado del equipo nos percatamos de la oportunidad de mejorar y rediseñar el equipo que se presentaba ante nosotros, evaluando, optamos por el camino de diseñar un equipo capaz de analizar al grano de café durante su tostado y en función de los volátiles que se presentan en este proceso químico determinar sus propiedades químicas, pues es en esta etapa donde expertos en café son capaces de determinar su geografía, las técnicas de agricultura empleadas y los sabores que este presentara en sus preparaciones. Para la construcción de este nuevo equipo se ha determinado que se requerirá que el grano de café antes sea sometido a una fase de secado en un equipo diferente, para posteriormente pasar a la fase de análisis de volátiles en el equipo, donde conservaremos la fase de aireamiento para estabilizar la señal de los sensores, que ahora será una configuración de tres centrada en la capacidad de analizar los volátiles que se producen en las reacciones de  Maillard, degradación del ácido fenólico y degradación de Strecker; eligiendo dos sensores electroquímicos y uno de fotoionización. Como propuesta a la nueva construcción del equipo se plantea la semi automatización de la toma de muestra, generando un sistema que inicie solo el proceso de aireamiento abriendo el equipo de manera automática y alertando al usuario cuando preparar la muestra y cuando depositarla, una vez concluido el aireamiento el equipo se cerrara para llevar la temperatura de la muestra hasta los 190°C en su primera fase y posteriormente elevarla hasta los 240°C, una vez concluido el análisis de los volátiles el equipo se abrirá  para que el usuario pueda retirar el café tostado y deponerlo adecuadamente. En el diseño del mecanismo de semi automatización se emplearán piezas diseñadas a medida e impresas en una impresora 3D, en el diseño de estas piezas se han empleado sistemas de ecuaciones vectoriales que nos facilitan la comprensión de su movimiento y limitaciones al acoplarlas a servomotores por pasos. Para la operación y escritura de los datos de los sensores, así como la placa de calentamiento PTC y servomotores que accionaran los mecanismos de semi automatización emplearemos una placa Arduino y una interfaz en LabVIEW 2017.


CONCLUSIONES

Al momento de finalizar este verano de investigación hemos encontrado que es posible distinguir con claridad el Café Soluble Nescafé Estilo Café de Olla de los otro analizados, aunado esto hemos encontrado que los sensores electroquímicos que mayor diferencia presentan de otros es el MQ3 y MQ4, que detectan principalmente alcohol (etanol) y metano, respectivamente, cada una de las especies analizadas arrojan tendencias particulares en estos sensores a lo largo de la toma de muestra, estos datos nos muestran que hasta ahora nuestras propuestas en el diseño de equipos orientados al análisis de los volátiles en el café son favorables, ya que las repuestas de estos sensores no indican una alta presencia de hidrocarburos con átomos de oxígeno en su composición, por lo que en nuestro futuro trabajo sobre el tostado del café deberíamos esperar resultados favorables que gradualmente con esfuerzo y trabajo constante nos conduzcan a los resultados que deseamos.
Uriostegui López Angel Daniel, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dra. Milen Balbis Morejon, Universidad de la Costa

REVISIóN SISTEMáTICA SOBRE LA INTEGRACIóN DE SISTEMAS DE AUTOGENERACIóN CON ENERGíAS RENOVABLES EN EDIFICACIONES NZEB


REVISIóN SISTEMáTICA SOBRE LA INTEGRACIóN DE SISTEMAS DE AUTOGENERACIóN CON ENERGíAS RENOVABLES EN EDIFICACIONES NZEB

Uriostegui López Angel Daniel, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Vera Ruiz Jose Angel, Instituto Tecnológico de Tepic. Asesor: Dra. Milen Balbis Morejon, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

En respuesta a la creciente prioridad del desarrollo sostenible a nivel global, especialmente en los campos de la energía y la construcción, este estudio aborda la evolución y el estado actual de la investigación en estas áreas entre 2019 y 2025. A través de un análisis cienciométrico detallado y utilizando el marco PRISMA, se revisaron y evaluaron 2084 registros bibliográficos extraídos de la base de datos Scopus. El estudio aplica técnicas avanzadas de mapeo científico cuantitativo para investigar múltiples aspectos, como las tendencias anuales de publicaciones, redes de coocurrencia de palabras clave, análisis de revistas académicas, coautorías, patrones de citación y la participación de diferentes países en la investigación. Los resultados de este análisis no sólo trazan la evolución temporal de la investigación en Energía y Construcción (E&B), sino que también identifican áreas críticas que requieren mayor atención y profundización académica, ofreciendo así una hoja de ruta para futuros estudios en este campo crucial.



METODOLOGÍA

En este estudio, se ha aplicado el marco PRISMA en una revisión cienciométrica que comprende cuatro etapas: la identificación de palabras clave y dominios relevantes, la detección y descripción de resultados, la evaluación de la elegibilidad basada en principios específicos, y la inclusión de análisis a través de redes bibliométricas y colaborativas. Este método se utiliza para examinar la aplicación de estas técnicas en la investigación actual. Además, se adopta un enfoque de revisión cienciométrica y mapeo científico, lo que facilita la visualización de las relaciones entre documentos, autores, campos y especialidades. La revisión cienciométrica toma en cuenta aspectos como la política científica y la comunicación en la ciencia, considerados elementos de la informática científica. Este método permite mapear aspectos clave de la investigación, como tendencias, redes de autoría, impacto de publicaciones y la selección de herramientas para el análisis de redes y la extracción de datos bibliométricos. El mapeo científico se considera un método computacional para visualizar y analizar investigaciones científicas, capaz de extraer redes de autores, documentos, revistas, países y términos utilizados. Para el análisis cienciométrico, se utilizan diversos programas de software. Ruiz-Rosero et al. presentan una variedad de herramientas en su artículo, incluyendo SciMAT, Bibexcel, CiteSpace, CoPalRed, Network Workbench, Ciencia 2, VOSviewer, BiblioTools, Publish or Perish y Bibliometrix. En este estudio, se emplea VOSviewer (versión 1.6.15), un software que ha sido utilizado previamente para revisar construcciones ecológicas y sistemas de confort personal. VOSviewer es adecuado para los objetivos de este trabajo, ya que es un software especializado que permite visualizar redes bibliométricas y analizar patrones en la literatura, identificando conexiones entre autores, documentos y palabras clave, y proporcionando una visión integral del estado de la investigación.


CONCLUSIONES

El presente documento proporciona una revisión sistemática exhaustiva sobre la evolución y el estado actual de la investigación en este campo entre 2019 y 2025. A través de un análisis bibliométrico detallado y utilizando el marco PRISMA, el estudio revisa y evalúa 2084 registros bibliográficos de la base de datos Scopus. Los principales hallazgos y contribuciones del estudio se pueden resumir de la siguiente manera: Evolución Temporal y Tendencias de Publicaciones: El estudio traza la evolución de las publicaciones en el campo de la energía y la construcción, mostrando un crecimiento significativo en la cantidad de investigaciones y destacando los años pico de actividad.  
Urrego Higuita David Alexander, Universidad Nacional Abierta y a Distancia
Asesor: M.C. Alba Maribel Sánchez Galvez, Benemérita Universidad Autónoma de Puebla

MODELO DE MACHINE LEARNING PARA LA CARACTERIZACIóN DE CARGA Y ESTIMACIóN DE COSTOS DE TRANSPORTE, A PARTIR DE HISTóRICO DE MANIFIESTOS DE CARGA EN COLOMBIA


MODELO DE MACHINE LEARNING PARA LA CARACTERIZACIóN DE CARGA Y ESTIMACIóN DE COSTOS DE TRANSPORTE, A PARTIR DE HISTóRICO DE MANIFIESTOS DE CARGA EN COLOMBIA

Urrego Higuita David Alexander, Universidad Nacional Abierta y a Distancia. Asesor: M.C. Alba Maribel Sánchez Galvez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El problema central que enfrenta el sector de transporte en Colombia se centra en la baja capacidad para caracterizar adecuadamente la carga y estimar con precisión los costos, esto se evidenció en la última década y en el proceso de implementación de la Resolución 377 de 2013, del Ministerio de Transporte (Resolución 377 de 2013, 2013), donde se obliga a las empresa de transporte a registrar todas sus operaciones de carga a través de manifiestos de carga, creando un histórico de información con baja aplicación en la toma de decisiones.. Esta limitación se traduce en una serie de ineficiencias operativas y estratégicas que afectan directamente la rentabilidad y competitividad de las empresas dentro de este sector. La caracterización inadecuada de la carga y la estimación errónea de costos no solo dificultan la planificación logística, sino que también impiden una asignación óptima de recursos y activos de transporte, generando sobrecostos y afectando la calidad del servicio ofrecido (Gonzalez, 2022) La ineficiencia en la planificación logística conlleva a aumentos en los tiempos de tránsito de la carga, lo que repercute negativamente en la satisfacción del cliente y en la capacidad de cumplir con los tiempos de entrega prometidos(Martinez, 2022). A su vez, el uso ineficiente de recursos y activos de transporte incrementa los costos operativos, reduciendo los márgenes de beneficio y limitando la capacidad de inversión en innovación y mejora continua. Estas consecuencias resaltan la necesidad urgente de optimizar los procesos logísticos y de estimación de costos para mantenerse competitivos en el mercado (Boyer et al., 2017). Es así que se define como pregunta de investigación, ¿Cuál es el modelo de Machine Learing que permite estimar los costos de transporte con mayor precisión, con base en variables provenientes de los manifiestos de carga en Colombia?



METODOLOGÍA

El objetivo principal de este proyecto es desarrollar un modelo de Machine Learning que permita la estimación de los costos del transporte de carga en Colombia a partir de datos históricos de manifiestos de carga entre 2015 y 2023, donde se logre estimar los costos de transporte basado en una serie de factores determinantes, tales como la fecha, la ciudad de origen y destino, el peso del vehículo, el tipo de carga, el tipo de producto transportado, entre otros, la principal fuente de información se encuentra en la plataforma del RNDC donde se puede bajar todos los registros de manifiesto de carga (MINTRANSPORTE, 2024). Este modelo busca proporcionar a las empresas de logística una herramienta para estimar los costos asociados a las operaciones de transporte, facilitando la planificación financiera y la toma de decisiones estratégicas (Boyer et al., 2017; Singh, Wiktorsson, et al., 2021). La metodología de desarrollo de este proyecto aplicado es una aproximación mixta, en la cual se utiliza procesos descriptivos para reconocer los datos y la información que contienen y procesos experimentales en el diseño e implementación de los modelos de Machine Learning para encontrar un candidato que permita modelar la estimación los costos.


CONCLUSIONES

Se establece un mecanismo adaptado para el procesamiento de información que facilita el alistamiento para el entrenamiento y despligegue de un modelo de machine learning para estimar los costos de transporte  El tratamiento, limpieza y transformación de los datos permite desarrollar un modelo eficiente para la estimación de los costos de transporte en Colombia El modelo de Random Forest obtiene un nivel de 95% en la clasificación de la información, por eso se selecciona para el tratamiento y despliegue del modelo de Machine Learning Este modelo logra una precisión suficiente en la predicción de costos de transporte, demostrando ser una herramienta valiosa para las empresas de logística. Las variables de peso en kilogramos y la distancia entre ciudades, son las más adecuadas para comprensión de la complejidad del problema Permite sentar las bases para otro tipo de estudios como clasificación de tipo de carga (Nama et al., 2021), segmentación de rutas de transporte (Akbari & Do, 2021), análisis de tendencias temporales(Moscoso-López et al., 2021) y predicción de la demanda de transporte en Colombia (Plakandaras et al., 2019)
Valderrabano Perez Acxel, Universidad Veracruzana
Asesor: Dr. Rolando Arturo Cubillos González, Universidad Católica de Colombia

DISEÑO DIGITAL DE PROTOTIPOS DE VIVIENDA SOCIAL


DISEÑO DIGITAL DE PROTOTIPOS DE VIVIENDA SOCIAL

Gomez Nuño Mauro Martin, Universidad de Guadalajara. Sánchez Hermosillo Brenda Nayeli, Universidad de Guadalajara. Valderrabano Perez Acxel, Universidad Veracruzana. Asesor: Dr. Rolando Arturo Cubillos González, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

MERCURIO: PROYECTO DE DESARROLLO TECNOLÓGICO presenta el Proyecto: Prototipo de Vivienda de Interés Social que fue elaborado en el Verano de la Investigación Científica y Tecnológica del Pacifico 2024.  El objetivo principal es ofrecer una solución innovadora y eficaz para los problemas de vivienda de interés social en Latinoamérica, especialmente en México y Colombia. Los problemas comunes incluyen la poca accesibilidad debido a los altos costos, el uso de materiales de baja calidad, la falta de infraestructura adecuada, y la deficiente gestión y mantenimiento de las viviendas. Estos factores contribuyen a una planificación urbana ineficiente y a la segregación socioeconómica de las comunidades.



METODOLOGÍA

El enfoque metodológico se centró en integrar principios de sostenibilidad, eficiencia de costos y adaptabilidad para proporcionar soluciones habitacionales asequibles y de rápida implementación. Para alcanzar estos objetivos, se emplearon técnicas de diseño tridimensional, comenzando con la elaboración de 17 módulos tridimensionales de 3 m x 3 m x 3 m, cada uno con diversas variantes en su estructura. Estos módulos fueron diseñados con una tabla de dimensiones para asegurar espacios flexibles. Luego, se cuantificaron los componentes por módulo para realizar tablas de planificación y construcción de módulos con sus respectivos elementos tanto en el sentido vertical como horizontal. Posteriormente, se diseñaron tipologías espaciales, creando combinaciones espaciales a partir de los módulos propuestos, resultando en un total de 126 posibles combinaciones modulares. Obtenidos los diseños de tipologías espaciales, se procedió al diseño de diferentes prototipos de vivienda social, basados en estas combinaciones. Se desarrollaron 10 prototipos de vivienda, con variantes en sus espacios y funciones, sin alterar los módulos tridimensionales iniciales. Estos prototipos permiten adaptabilidad y personalización según las necesidades específicas de las familias, manteniendo la flexibilidad y eficiencia en la construcción. La cuantificación del valor de la vivienda se dividió en dos partes. La primera parte consistió en analizar las tipologías de vivienda social existentes e identificar sus costos en el mercado, desde el precio por metro cuadrado hasta el costo total de la vivienda en distintos sectores de varias ciudades. Este análisis incluyó la revisión de factores como materiales, mano de obra y ubicación, proporcionando una visión completa de los costos actuales. En la segunda parte, se cuantificaron los costos de los prototipos de vivienda social propuestos, evaluando sus costos a partir de sus modulaciones y espacios. Este análisis consideró no solo los costos de construcción, sino también aspectos como la durabilidad de los materiales, la eficiencia energética y el mantenimiento a largo plazo. Además, se realizó una comparación entre los costos de las viviendas existentes y los prototipos propuestos, permitiendo identificar posibles ahorros y mejoras en la eficiencia económica. Este enfoque integral asegura que los prototipos de vivienda social no solo sean viables desde el punto de vista técnico y funcional, sino también accesibles y sostenibles desde el punto de vista financiero. Al integrar principios de sostenibilidad, eficiencia de costos y adaptabilidad, se busca ofrecer soluciones habitacionales que puedan adaptarse a las necesidades cambiantes de las familias y contribuir al desarrollo de comunidades cohesionadas y sostenibles a largo plazo.


CONCLUSIONES

El proyecto "Mercurio: Prototipo de Vivienda de Interés Social", desarrollado durante el Verano de la Investigación Científica y Tecnológica del Pacífico 2024, representa un esfuerzo significativo por abordar los problemas críticos que enfrentan las viviendas de interés social en Latinoamérica, particularmente en México y Colombia. A través de una metodología innovadora que integra sostenibilidad, eficiencia de costos y adaptabilidad, se han propuesto soluciones habitacionales modulares que responden a las necesidades reales de las comunidades más vulnerables. En resumen, este proceso de diseño y cuantificación proporciona una base sólida para la implementación de proyectos de vivienda social, garantizando que las soluciones propuestas sean prácticas, económicas y beneficiosas para las comunidades destinatarias; el uso de técnicas de diseño tridimensional y la creación de módulos flexibles y polivalentes han permitido generar múltiples combinaciones espaciales y prototipos de vivienda que no solo mejoran la accesibilidad y calidad de las viviendas, sino que también fomentan el desarrollo integral de las comunidades. Estos módulos pueden adaptarse a diversas configuraciones, permitiendo a las familias personalizar sus espacios según sus necesidades específicas y posibilitando futuras expansiones. En conclusión, este proyecto ofrece un enfoque viable y eficiente para mejorar la vivienda de interés social, demostrando que es posible combinar innovación tecnológica con responsabilidad social para crear soluciones habitacionales que realmente beneficien a quienes más lo necesitan. A través de la implementación de tecnologías avanzadas, el uso de materiales sostenibles y un diseño centrado en el usuario, este prototipo de vivienda no solo aborda las necesidades inmediatas de vivienda, sino que también contribuye al bienestar y desarrollo a largo plazo de las comunidades.
Valdez Aguilar Jesus Gael, Universidad Autónoma de Occidente
Asesor: M.C. Jesus Osuna Cabanillas, Universidad Autónoma de Occidente

ROBOT RECOLECTOR DE BASURA


ROBOT RECOLECTOR DE BASURA

Guerra Barron Moises Rigoberto, Universidad Autónoma de Occidente. Valdez Aguilar Jesus Gael, Universidad Autónoma de Occidente. Asesor: M.C. Jesus Osuna Cabanillas, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

El trabajo aborda la problemática de la contaminación plástica, un desafío moderno derivado del uso masivo de plásticos en empaques y productos. Se estima que solo en México se producen 9 mil millones de botellas de plástico al año, de las cuales solo el 12% se recicla, resultando en residuos visibles en espacios públicos como calles y parques. Estos residuos pueden exacerbar problemas durante eventos climáticos, como inundaciones, al bloquear sistemas de drenaje. Además, afectan a la fauna, con plásticos encontrados en los estómagos de aves marinas y peces. A pesar de la existencia de robots para recoger basura en hogares o playas, no hay suficientes soluciones para recolectar residuos en áreas urbanas y naturales



METODOLOGÍA

El estudio se enmarca en un enfoque cualitativo, con un diseño no experimental y transversal. Se centra en la creación de un robot recolector de basura con inteligencia artificial, diseñado para mejorar la gestión de residuos en áreas urbanas. La recolección de datos se realizó mediante entrevistas a expertos y análisis documental de materiales relacionados con robótica, redes neuronales y electrónica. El enfoque cualitativo se justifica por la naturaleza del desarrollo del prototipo y la programación del robot


CONCLUSIONES

El trabajo concluye que la implementación de un robot recolector de basura con IA es factible y puede ser una solución efectiva para la problemática de la contaminación plástica en espacios públicos. La investigación destaca la importancia de desarrollar tecnologías innovadoras para abordar problemas ambientales y mejorar la eficiencia en la recolección de residuos​. El prototipo de robot diseñado e implementado fue capaz de identificar, clasificar y recolectar basura de manera autónoma, obteniendo un 75% de éxito en sus pruebas. Esto se logró utilizando inteligencia artificial combinada con elementos electromecánicos, lo que diferencia al prototipo de otros proyectos similares. Aunque hubo un 25% de intentos con éxitos parciales, se logró un avance significativo en el uso de IA para la gestión de residuos​
Valdez Sánchez Pedro Rafael, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

TRANSPORTE Y SEGURIDAD VIAL


TRANSPORTE Y SEGURIDAD VIAL

Figueroa Salazar Enrique Angel, Universidad Politécnica de Sinaloa. García Reyes José Miguel, Universidad Politécnica de Sinaloa. Valdez Sánchez Pedro Rafael, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el crecimiento urbano demanda una nueva política pública que propicie valor a un crecimiento ordenado y sostenible, la comunidad urbana debe estar comunicada asegurando la prosperidad para todas las personas, tomando en cuenta el factor ambiental, social y económico donde el balance es cada vez más complejo, reduciendo la brecha en el cumplimiento del objetivo de la Ley General de Movilidad y Seguridad Vial. En un ámbito de desarrollo económico de la región de Mazatlán en el Estado de Sinaloa, la cual pone a prueba la conciencia en movilidad de las actividades del sector logístico y transporte, pues si bien las necesidades de conectividad urbana son esenciales a la vez  sí necesitan ser sostenible, con una atención principal en las empresas de servicios turísticos y comunidad social, por lo anterior nos vemos en la necesidad de abordar la problemática compleja en el ámbito  del objetivo 11.- Ciudades y Comunidades Sostenibles de los ODS de la ONU, en especial en la meta 11.2 incluidos en la agenda 2030 al realizar un estudio preliminar que nos proporcione un conocimiento para la reflexión y difusión del conocimiento sobre la movilidad y seguridad vial en la ciudad y su conciencia en la sostenibilidad. El alcance de la investigación cuantitativa de tipo campo es identificar si las condiciones en materia de movilidad y seguridad vial son adecuadas para el uso público considerando factores sociales, desde la perspectiva pública.



METODOLOGÍA

Para nuestro estudio científico se utiliza la metodología de investigación cuantitativa, de tipo campo la cual consiste en la recolección de datos directamente de la realidad donde ocurren los hechos, sin manipular o controlar variable alguna, con una extensión del estudio de investigación de campo con medios de instrumentos a distancia con medios digitales de tecnología de la información y la comunicación, el nivel de la investigación descriptiva donde se busca el diagnosticar la relación de los hechos. El método de recolección de datos es a través de instrumento de encuesta con 15 reactivos, se aplicó a personas con edad entre los 17 y 22 años, con una muestra de 288 personas, orientada a conocer las opiniones de la población joven en materia de movilidad y seguridad vial de forma individual para el uso público considerando el  factor social, desde la perspectiva pública. Se analiza la información de forma gráfica estadística descriptiva para realizar una argumentación sustentada ante una hipótesis preliminar de que si la sociedad conoce la Ley General de Movilidad y Seguridad Vial; así también, se realiza un estudio entre variables dar respuesta a una hipótesis planteada que consiste en identificar si existe correlación significativa entre las variables de entrada sexo y edad con respecto a la variable del como aprendió a conducir vehículos automotor con el propósito de identificar si las condiciones en materia de educación vial son adecuadas para el uso público considerando factores sociales, desde la perspectiva pública. Con base al análisis de correlación de variables donde la interpretación es de acuerdo con la hipótesis nula de Ho = El sexo de los conductores es independiente a la forma de como aprendió a manejar, y la hipótesis alterna Ha= El sexo de los conductores es dependiente a la forma de como aprendió a manejar, donde  p value al ser mayor a 0.05 se acepta la hipótesis nula. Desde una perspectiva social con base a un entorno público más ordenado y limpio el sistema de transporte público es clave para el logro de las condiciones antes mencionadas, por lo anterior se analiza en este estudio el resultado de la opinión que si el transporte fuera más económico, limpio, ecológico y con buen servicio, los usuarios dejaran de utilizar su vehículo propio con mayor frecuencia.


CONCLUSIONES

La población encuestada oscila entre los 17 y 22 años, el 54.2% son de género masculino y el 45.1% son de género femenino, de la muestra general de 288 personas, uno de los cuestionamientos fue que si el transporte fuera más económico, limpio, ecológico y con buen servicio, los usuarios dejaran de utilizar su vehículo propio con mayor frecuencia, donde el 54.4% respondieron con sí,  mientras que el 22.1% respondieron que no; otro de los cuestionamientos realizados fue que dónde aprendieron a conducir los usuarios, un 49.5% de los encuestados respondió que aún no saben conducir, un 36.1% señalaron que aprendieron gracias a un familiar, un 8.4% aprendieron por cuenta propia, y finalmente, un 6% acudieron a una escuela de manejo; Con base al análisis de correlación de variables entre sexo y como aprendió a conducir la interpretación es de acuerdo con la hipótesis nula de Ho = El sexo de los conductores es independiente a la forma de como aprendió a manejar, y la hipótesis alterna Ha= El sexo de los conductores es dependiente a la forma de como aprendió a manejar, donde  p value fue menor a 0.05 es decir no se acepta la hipótesis nula, es decir el ambos sexos mantienen una tendencia similar del como aprenden a conducir vehículos automotor. Con relación a la variable edad y como aprendió a conducir  se detecta que entre los jóvenes de 18 años la mayoría aprendió a manejar con un familiar (36%) seguido por cuenta propia (8%) y en un menor número en una escuela (5%) y jóvenes que no saben conducir un 51%.                                 Los resultados en materia de educación vial y transporte urbano nos proporcionan la necesidad de una política pública para garantizar la continuidad en proyectos orientados al punto 11 Conseguir que las ciudades y los asentamientos humanos sean inclusivos, seguros, resiliente y sostenibles, referente a uno de los 17 Objetivos de Desarrollo Sostenible de la agenda 2030.
Valencia Amezcua Ricardo Daniel, Instituto Tecnológico Superior de Uruapan
Asesor: Mg. Darwin Ramos Franco, Fundación Universitaria Colombo Internacional

OPTIMIZACIóN DEL DESEMPEñO DE UN SISTEMA FLOW SHOP FLEXIBLE MEDIANTE SIMULACIóN EN EL SOFTWARE DE FLEXSIM


OPTIMIZACIóN DEL DESEMPEñO DE UN SISTEMA FLOW SHOP FLEXIBLE MEDIANTE SIMULACIóN EN EL SOFTWARE DE FLEXSIM

Valencia Amezcua Ricardo Daniel, Instituto Tecnológico Superior de Uruapan. Asesor: Mg. Darwin Ramos Franco, Fundación Universitaria Colombo Internacional



PLANTEAMIENTO DEL PROBLEMA

El sistema de producción Flow Shop Flexible enfrenta problemas significativos de cuellos de botella e ineficiencias en su programación, lo que resulta en un bajo rendimiento general. Estas ineficiencias requieren una intervención urgente para mejorar el desempeño del sistema. Debido a que las limitaciones financieras impiden la adquisición de capacidad adicional y es imposible ajustar los tiempos de llegada y operación, es necesario encontrar alternativas efectivas para optimizar la producción. El principal reto es desarrollar y aplicar estrategias eficientes para la distribución del flujo de materiales a las máquinas, considerando su capacidad por hora, con el objetivo de maximizar la eficiencia del proceso y reducir los tiempos de inactividad. Utilizando la simulación, se evaluarán diferentes escenarios y estrategias de distribución para identificar las mejores prácticas y optimizar el proceso de producción.



METODOLOGÍA

En este estudio, se investigaron métodos para mejorar el rendimiento de un proceso Flow Shop en un 35%. Se identificaron ineficiencias y cuellos de botella en el sistema actual. Se realizaron 30 premuestreos para realizar una estimación de la desviación muestral y el error, determinando que eran necesarias 116 réplicas para obtener resultados fiables. Primero, se implementó un balanceo de línea manual ajustando la distribución de los porcentajes para las colas de productos. Este método, aunque laborioso, incrementó el rendimiento en un 11%, con una utilización del sistema del 49.56% y 1766 productos terminados. Después, se utilizó el método Montecarlo, generando 10,000 datos aleatorios para cada distribución de las máquinas y realizando un análisis estadístico para calcular la media de productos procesados por hora. Se crearon y simularon múltiples configuraciones, lo que llevó a un diseño de experimentos con 117 réplicas. Este enfoque resultó en un incremento del rendimiento del 40%, con una utilización del sistema del 61.13% y 2232 productos terminados. La combinación de análisis detallado y simulación basada en datos, permitió identificar y aplicar las mejores prácticas para optimizar el proceso de producción, demostrando que el método Montecarlo es una estrategia mayormente efectiva para mejorar el rendimiento del sistema.


CONCLUSIONES

El uso de FlexSim en este proyecto ha permitido la identificación y el análisis de las causas que generan un bajo rendimiento en cuanto el sistema Flow Shop, así como la implementación de soluciones efectivas para mejorar la operación. El balanceo de línea surgió como una estrategia clave para optimizar la distribución del trabajo. Además, la capacidad de FlexSim para modelar y simular diferentes escenarios fue fundamental para el análisis de las repeticiones, facilitando una visión clara y basada en datos sobre cómo los ajustes en la distribución de los porcentajes influyen en la operación y rendimiento. En resumen, la combinación de un análisis detallado y la simulación en la segunda propuesta de balanceo resultó ser la estrategia mas eficiente, considerando su incremento en el desempeño del sistema de un 40%.
Valencia Diaz Citlali Estefania, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dr. Juan Carlos Hernández Criado, Universidad Francisco de Paula Santander Seccional Ocaña

OBTENCIóN DE FIBRAS DE PET Y CELULOSA MICROCRISTALINA, CON TéCNICAS ESPECIALES DE LABORATORIO, COMO ESTRATEGIA EN EL TRATAMIENTO DE AGUAS RESIDUALES INDUSTRIALES.


OBTENCIóN DE FIBRAS DE PET Y CELULOSA MICROCRISTALINA, CON TéCNICAS ESPECIALES DE LABORATORIO, COMO ESTRATEGIA EN EL TRATAMIENTO DE AGUAS RESIDUALES INDUSTRIALES.

Jaimes Diaz Ricardo, Tecnológico de Estudios Superiores de Tianguistenco. Valencia Diaz Citlali Estefania, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dr. Juan Carlos Hernández Criado, Universidad Francisco de Paula Santander Seccional Ocaña



PLANTEAMIENTO DEL PROBLEMA

Actualmente, los residuos sólidos forman gran parte de diversos problemas ambientales; siendo el plástico uno de los residuos con más presencia y abundancia a nivel mundial. A lo largo del año 2020 mediante estudios realizados, se estimó que globalmente se producen alrededor de 300 millones de toneladas de plástico, de las cuales menos del 10 % se recicla. México es el mayor consumidor de bebidas embotelladas a nivel global, con un consumo estimado de aproximadamente 800 mil toneladas de PET al año, con un incremento anual del 13 %, donde el principal uso de los envases de PET es de botellas de refresco con 58.2 %, seguido de agua embotellada con 17 %. (González Gómez, M. P. (2020)) El consumo de bebidas embotelladas es uno de los problemas medioambientales más urgentes en la contaminación por plásticos, debido a que su producción en productos de plásticos supera la capacidad del mundo de hacerse cargo de ello. (López Fernández, M. D. M., González García, F., & Franco Mariscal, A. J. (2022)). El PET es el material plástico más utilizado en nuestra vida diaria, y por consiguiente el residuo plástico de mayor generación, este se ha reforzado con diferentes materiales, algunos provenientes de fuentes renovables. Uno de los polímeros naturales que han revolucionado la historia es la celulosa obtenida a partir de materiales lignocelulósicos aprovechables de manera ilimitada en biomasas como las plantas. (Miguel Aleza, R. (2020)). En México, la industria del tequila tiene una gran relevancia, y el creciente interés por esta bebida lleva a la producción de millones de litros cada año. La producción de tequila resulta en la generación de aproximadamente 1.4 a 2.0 kg de bagazo un residuo lignocelulósico compuesto principalmente de celulosa, hemicelulosa y lignina (con una humedad del 60 %) por cada litro de tequila (con 40 % de alcohol) siendo este uno de los principales residuos asociados con la producción del destilado.( Estrada-Maya, A., & Weber, B. (2022)). Dado su alto contenido de celulosa, el bagazo representa una fuente potencial para la obtención de celulosa, la cual puede ser extraída y utilizada en diversas aplicaciones industriales



METODOLOGÍA

La obtención de la celulosa microcristalina a partir del bagazo de agave se realizó mediante el método reportado por Ventura-Cruz et al 2020. El cual indica un pretratamiento con peróxido de hidrogeno y blanqueamientos sucesivos. El PET reciclado utilizado tuvo un lavado. Secado y triturado hasta obtener 690g. Se dividieron tres partes de PET con 230 g cada una, lo que representó el 97.5%, 97 % y 96.5 % del total para llevar a cabo una mezcla con celulosa microcristalina en concentraciones de 0.5 % ,1 % y 1.5 % respectivamente, para lograr que existiera una mejor adición de los dos materiales se utilizó el compatibilizante ADICCO en una relación del 2 % para cada una de las mezclas. Para llevar a cabo la extrusión de PET en filamento, se utilizó un prototipo a escala. Se utilizó un tambor de acero inoxidable de 10 cm de diámetro y 11 cm de alto, al que se le adaptaron 6 orificios de 3 mm en la parte inferior, permitiendo que el material fundido saliera en forma de filamento. La temperatura de fusión se alcanzó utilizando un soplete con un tanque de gas butano, y se monitoreo mediante un termómetro infrarrojo (marca TRUPER modelo T600A). La velocidad de extrusión se reguló con un taladro manual (marca BOSCH modelo GSB 20-2 RE). El filamento extruido se recolectó en un recipiente de metal. Para la extrusión del filamento se realizaron pruebas preliminares. Con la finalidad de probar la eficiencia del filamento se preparo un agua sintética con 6 g de tinte para telas # 17 azul oscuro marca IRIS en 500 mL de H2O previamente hervida para después ser diluida en un total de 6 L se registró el pH, la temperatura y se tomó una muestra inicial de 100ml. A demás se llevo a cabo la construcción de un filtro de flujo descendente en vidrio, previamente modelado en el software SolidWorks, teniendo una altura de 60 cm y un depósito con una capacidad de 7 L en la parte superior, la parte inferior del filtro conto con un orificio de salida de 4 mm y se empaco en su interior con el filamento reforzado con celulosa microcristalina después se vertió el agua sintética en tres repeticiones con un tiempo de retención de 1 min y se tomó una muestra final de 100ml. Se realizaron pruebas preliminares para la medición de color verdadero siguiendo la metodología de coeficientes de absorción espectral descrita en la norma NMX-AA-017-SCFI2021, midiendo a longitudes de onda de 436, 525 y 620 nm, respectivamente, las lecturas se realizaron por triplicado


CONCLUSIONES

Las condiciones óptimas del manejo para extruir el filamento en el equipo fueron una temperatura media de 250 ºC, una velocidad aproximada de 600 rpm y con una cantidad máxima de 15 g de mezcla PET-celulosa microcristalina. La formación de fibra de PET reforzada con celulosa microcristalina a partir de residuos es una técnica prometedora, con un potencial para la remoción de color en aguas residuales textiles. Los resultados preliminares mostraron que la fibra con celulosa microcristalina se tiñó, evidenciando su capacidad para retener y absorber colorantes. Se espera que, en futuros resultados, realizados bajo diferentes condiciones de operación las fibras pueden eliminar las concentraciones de colorantes para cumplir con la normatividad vigente. Creemos que esta innovación no solo mejorará el tratamiento de aguas residuales textiles, sino que también contribuirá a los Objetivos 6, 9 y 12 de Desarrollo Sostenible. La estancia de investigación ha representado un significativo crecimiento personal y académico, permitiéndonos adquirir valiosos conocimientos tanto teóricos como prácticos.
Valencia Huerta Jose Alberto, Universidad Vizcaya de las Américas
Asesor: Dra. Beatriz Alicia Leyva Osuna, Instituto Tecnológico de Sonora

TIPO DE LIDERAZGOS PARA LA MEJORA DEL DESEMPEñO ORGANIZACIONAL: UNA REVISIóN DOCUMENTAL.


TIPO DE LIDERAZGOS PARA LA MEJORA DEL DESEMPEñO ORGANIZACIONAL: UNA REVISIóN DOCUMENTAL.

Valencia Huerta Jose Alberto, Universidad Vizcaya de las Américas. Asesor: Dra. Beatriz Alicia Leyva Osuna, Instituto Tecnológico de Sonora



PLANTEAMIENTO DEL PROBLEMA

Anteriormente se utilizaba solo un tipo de liderazgo, jefe-empleado, el cual, si es verdad que encaminaba el cumplimento y seguimiento de objetivos necesarios para desarrollar una organización competitiva, pero no daba espacio para nuevas áreas de oportunidad como por ejemplo comunicación efectiva, fomentar el trabajo en equipo, nuevas ideas entre otras. Las nuevas generaciones estuvieron en desacuerdo con ciertas condiciones laborales, salario, insatisfacción con el empleador o flexibilidad laboral (Randstad, 2017). Esto último se ha visto reflejado en una tendencia de aumento en la tasa de rotación laboral (Banco Central, 2016; Deloitte, 2018), implicando un impacto negativo desde los costes de los procesos de selección, capacitación y entrenamiento, hasta el bajo desempeño e incumplimiento de metas organizacionales (Flores Zambada et al., 2006), poniendo en peligro no solo la rentabilidad, sino la existencia de la empresa (Mendoza, 2003). Los cambios y necesidades a los que se han tenido que enfrentar las nuevas generaciones organizacionales, ha generado la necesidad de fomentar diferentes tipos de liderazgo. Ante dicha problemática se han tenido que implementar nuevas estrategias para impulsar la mejora y el rendimiento en el desempeño de las nuevas generaciones, esto con la intención de que las organizaciones puedan seguir siendo rentables y competitivas dentro del mercado. Incluso las mismas organizaciones han buscado maneras de implementar herramientas nuevas, capacitaciones, cursos y talleres que fomenten el desarrollo de un mejor liderazgo, con la finalidad de que las nuevas generaciones creen un sentido de engagement dentro de las mismas, y a su vez promover un sentido de permanencia.  Es por ello que la pregunta de investigación queda de la siguiente manera ¿Cuál es el tipo de liderazgo que más se utiliza para mejorar el desempeño organizacional menciona en la revisión documental?



METODOLOGÍA

La investigación se basa en el enfoque Cuantitativo-Descriptivo, este análisis documental se considera cuantitativo por su medición de datos numéricos en cada rubro investigado en el tema (Flores & Aguilera, 2020) y se considera Estudio Descriptivo según (Castellanos & Parra, 2023) ya que se revisa, resume, mide y evidencia las características a través de una sola muestra, y expone el comportamiento de la productividad en la ciencia. se considera un estudio descriptivo. La unidad de análisis se conforma por los documentos publicados de la variable de estudio Tipo de Liderazgo más efectivo en Desempeño Organizacional durante el período de los años 2004 a 2023, dentro de la base de datos de: Redalyc. La búsqueda de información se realizó del 08 al 15 de julio del 2024. El total de documentos seleccionados para su análisis son 25. Los criterios para seleccionar estos documentos fueron: a) tamaño de la empresa o empresas; b) giro de la empresa estudiada o estudiadas; c) país; d) población o/y muestra; e) que el documento esté dentro del período de tiempo 2004-2023; f) que en el título del documento lleve la o las palabras de: LIDERAZGO, DESEMPEÑO ORGANIZACIONAL.


CONCLUSIONES

La investigación confirma que el liderazgo transformacional es el más efectivo para mejorar el desempeño organizacional. Este estilo de liderazgo, que enfatiza la inspiración y el crecimiento personal, no solo motiva a los empleados, sino que también mejora la productividad y la cohesión dentro del equipo. En contraste, el liderazgo transaccional, basado en recompensas y castigos, muestra una eficacia limitada en comparación. Las organizaciones deben considerar la adopción y promoción de prácticas de liderazgo que fomenten la innovación y el compromiso para optimizar el rendimiento y lograr un ambiente laboral más saludable y productivo.
Valencia Lopez Nancy Yesenia, Instituto Politécnico Nacional
Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar

API INTELIGENTE PARA EL MONITOREO Y EVALUACIóN DE SISTEMAS FOTOVOLTAICOS


API INTELIGENTE PARA EL MONITOREO Y EVALUACIóN DE SISTEMAS FOTOVOLTAICOS

Ojeda Valencia Urbano Vicente, Universidad Tecnológica de Tecamachalco. Serrano Sánchez Juan José, Universidad Tecnológica de Tecamachalco. Valencia Lopez Nancy Yesenia, Instituto Politécnico Nacional. Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

Los sistemas fotovoltaicos se están posicionando como una solución clave en la transición hacia energías renovables. Sin embargo, su eficiencia y rendimiento dependen de un monitoreo constante y una evaluación precisa. La complejidad de los datos generados por estos sistemas y la necesidad de analizar múltiples variables simultáneamente hacen que la gestión manual sea ineficiente y propensa a errores.  Se requiere una solución tecnológica avanzada que permita:  Calcular automáticamente los Indicadores Clave de Rendimiento (KPIs) críticos.  Integrar datos de diversas fuentes, incluyendo APIs externas.  Proporcionar análisis en tiempo real para optimizar el rendimiento de las instalaciones.  Facilitar la toma de decisiones basada en datos para el mantenimiento y mejora de los sistemas.  Este proyecto busca desarrollar una API inteligente que aborde estas necesidades, mejorando significativamente la gestión y eficiencia de las instalaciones solares. 



METODOLOGÍA

Para el desarrollo de la API para el Cálculo de KPIs en Sistemas Fotovoltaicos, se implementó una metodología estructurada en diversas fases.   Inicialmente, se llevó a cabo una fase de planificación y configuración, que incluyó la elaboración de un plan de trabajo detallado, el análisis de los requerimientos del sistema y la instalación y configuración de las herramientas necesarias, como Visual Studio y las extensiones relevantes para el desarrollo de APIs. Posteriormente, en la fase de diseño y planificación de KPIs, se definieron los indicadores a implementar basados en métricas estándar de la industria fotovoltaica y se identificaron las APIs externas necesarias, incluyendo una para datos de temperatura y otra de Huawei para los datos de la energía solar. Es importante destacar que los datos obtenidos del enlace de Huawei corresponden específicamente a la planta UTB Solar. Durante la fase de desarrollo e integración, se implementaron módulos de autenticación y funciones para manejar solicitudes y respuestas, además de crear algoritmos para el cálculo de KPIs.   La implementación del código se realizó utilizando FastAPI como framework principal y Pydantic para la validación y serialización de datos. Se definió una estructura de datos robusta con la clase KPIData para asegurar la integridad de los datos de entrada, y se desarrolló el endpoint principal para procesar estos datos y calcular los KPIs relevantes.   Finalmente, se realizaron pruebas iniciales de la API para verificar su funcionamiento y precisión en el cálculo de KPIs.


CONCLUSIONES

El desarrollo de esta API para el Cálculo de KPIs en Sistemas Fotovoltaicos representa un avance significativo en la gestión eficiente de instalaciones solares. Durante el periodo de investigación, se logró crear una API capaz de calcular automáticamente KPIs como el rendimiento de referencia, rendimiento específico, índice de rendimiento con corrección de temperatura, rendimiento esperado y el índice de rendimiento energético.   Es importante señalar que, aunque la API está diseñada para calcular KPIs, actualmente no se conecta directamente a los datos reales de la planta UTB Solar. Sin embargo, durante las pruebas realizadas con datos aleatorios, la API demostró funcionar correctamente, lo que valida su capacidad de cálculo y procesamiento.   La implementación en FastAPI promete un procesamiento rápido de las solicitudes, sentando las bases para futuros análisis en tiempo real. Además, el uso de tecnologías modernas como FastAPI y Pydantic proporciona una base sólida para la escalabilidad y mantenibilidad del sistema.   La estructura modular del código permite la futura adición de nuevos KPIs o la integración de algoritmos más avanzados. Aunque el proyecto se encuentra aún en una fase inicial, los resultados obtenidos durante el verano de investigación son un buen comienzo.   Se ha establecido una base para el desarrollo futuro de una herramienta que podría revolucionar la forma en que se gestionan y optimizan los sistemas fotovoltaicos, contribuyendo significativamente a la eficiencia y sostenibilidad de la energía solar. 
Valencia López Rodrigo, Instituto Tecnológico de Morelia
Asesor: Dr. Antonio Gomez Roa, Universidad Autónoma de Baja California

DISEñO Y CONSTRUCCIóN DE SATéLITES Y COHETES EDUCATIVOS CANSAT


DISEñO Y CONSTRUCCIóN DE SATéLITES Y COHETES EDUCATIVOS CANSAT

Gala Cauich Carlos David, Universidad Autónoma de Yucatán. Ramirez Guzman Luis Dariel, Universidad Autónoma de Yucatán. Ramos Vázquez Dariana Lucia, Universidad de Colima. Rodríguez Gallardo Héctor Fernando, Universidad de Colima. Valencia López Rodrigo, Instituto Tecnológico de Morelia. Asesor: Dr. Antonio Gomez Roa, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Durante los últimos años, el desarrollo de proyectos espaciales ha tomado relevancia en el marco de las áreas de la ingeniería. Agencias espaciales y empresas privadas alrededor del mundo han podido aprovechar el constante avance tecnológico para desarrollar satélites y vehículos espaciales dentro de este boom espacial.  En México, la investigación y el desarrollo en las áreas de construcción de satélites y cohetes, tanto experimental como educativa han enfrentado muchos desafíos como la falta de recursos financieros, reformas constitucionales y recurso humano capacitado en los temas de la ingeniería espacial, lo cual deja a nuestro país rezagados a comparación de países emergentes.  Esta problemática puede ser minimizada de diferentes formas, ya sea con una nueva reforma espacial, el aumento del capital humano nacional al desarrollo espacial en México o con el apoyo del gobierno a través del financiamiento de proyectos de investigación en estas áreas. Por ello, este programa nos brinda la oportunidad de capacitarnos en temas de espaciales, además de trabajar con nuevas innovaciones para mejorar los lanzamientos de cohetes y diseños de satélites ya existentes. Por otro lado, para difundir las ciencias espaciales en nuestras localidades y continuar promoviendo el aumento de nuevos proyectos espaciales en el país.  Actualmente, en las competencias y lanzamientos de satélites CANSAT se realizan con drones, que llevan la carga útil a cierta altura. Se planteó la posibilidad de subir los satélites usando cohetes por lo que en el verano de investigación se estudió la posibilidad de utilizar diferentes cohetes para saber cuan viable son de esa manera.   Para esta investigación se propuso el lanzamiento de 3 diseños de cohetes construidos con materiales reciclables y económicos como una propuesta de transporte para llevar un diseño de pico satélite del tipo CanSat a cierta altura estipulada con el objetivo de recabar datos meteorológicos, de localización y orientación. 



METODOLOGÍA

Se planeó la construcción de 3 cohetes que usaran diferentes métodos de manufactura y un diseño de pico satélite CanSat para realizar una misión de análisis atmosférico y de localización en la Laguna Salada, Mexicali.Se inicio con el planteamiento de una placa de forma circular, de forma que se hacía un reto diferente el poder crear un diseño que cumpliera con los requerimientos necesarios para poder contener de manera correcta todos los componentes que se contendrían dentro del CanSat, para esto se crearon un total de 3 diseños experimentales con el software de diseño mecánico de SolidWorks, buscando con estos la mejor forma de acomodar los componentes, dando como resultado un diseño que podría contener todos los elementos seleccionados cumpliendo así con la misión inicial  la cual fue integrar de manera óptima los componentes del CanSat dentro del volumen de una lata de 355ml. Una vez teniendo los modelos 3D en el software se imprimieron todos estos por medio de una impresora 3D culminando así en su posterior ensamblaje. Previo a la construcción de los cohetes se realizaron diversos análisis de simulación en el software de simulación OpenRocket para modelar y simular el rendimiento de las diversas propuestas de cohetes a construir. Entre las variables analizadas estuvieron las dimensiones, geometría y peso a elegir del cono, fuselaje y aletas del cohete. La elección del motor a utilizar en particular también fue un factor clave a la hora de la simulación. Para los primeros 2 modelos diseñados y simulados se usaron tubos de cartón semigrueso en espiral como el fuselaje, las aletas de fueron cortadas a medida en madera y el cono utilizado una máquina de corte CNC Router.  El tercer cohete fue un diseño que utilizó materiales de fibra de vidrio en la mayor parte de su estructura. Las aletas, fuselaje, contenedor del motor y cono fueron hechos de rollos de tela de fibra de vidrio. Una vez armados los 3 cohetes, se instaló el sistema de recuperación a cada uno que consistió en una cuerda atada desde el fuselaje hasta el cono. Entre la cuerda de ató un paracaídas junto a un protector de paracaídas para la explosión de liberación. Finalmente, se instalaron los motores G-125 y G-80T para los primeros dos cohetes de cartón nombrados Loro 1 y Jaguar Zero y el motor I-175WS para el tercer cohete de fibra de vidrio nombrado Alebrije. El CanSat se decidió lanzar dentro de Loro 1, mientras que los demás serían lanzados vacíos para el día de lanzamiento. 


CONCLUSIONES

Para validar los diseños de cohetes y satélites se utilizó el campo de lanzamiento de COEHTES de la asociación TRIPOLI MEXICO ubicado en la Laguna Salada en el municipio de Mexicali en el estado de Baja California, para lanzar los 3 cohetes diseñados y construidos durante la estancia del verano de investigación del programa delfín   La misión tuvo 3 vuelos exitosos de los modelos Loro 1, Jaguar Zero y Alebrije los cuales lograron altitudes de 285 m, 355 m, 353 m respectivamente. Estos fueron recuperados en óptimas condiciones a excepción del modelo Alebrije que tuvo un impacto a tierra sin paracaidas. Con estos lanzamientos de cohete comprobamos que son una buena solucion como medio de expulsión de satélites tipo CanSat ademas que resulto rentable en relación al tiempo de elaboración, bajo costo y alto rendimiento.  El modelo CanSat representó un reto diseño innovador ya que la propuesta original se logró el objetivo de diseñar y construir un satélite con componentes de montaje superficial. Mismo que también detectamos un área que mejorar y reconsiderar para futuras misiones.  La misión y programa de investigación realizada durante el programa delfín fue una experiencia enriquecedora para aprender conceptos, técnicas y la logística de un proyecto espacial desde su planeación hasta su lanzamiento. Estos conocimientos serán bases firmes que nos permitirán formar parte de la comunidad de cohetería experimental de México desde nuestras localidades, promoviendo la ingeniería espacial en el país. 
Valencia Marines Abdiel, Instituto Tecnológico Superior de Apatzingán
Asesor: Mg. Jairo Enrique Parra Herrera, Institución Universitaria Politécnico Grancolombiano

EL IMPACTO DE LOS BANCOS DE ALIMENTOS DE MéXICO EN LA SEGURIDAD ALIMENTARIA DEL PAíS.


EL IMPACTO DE LOS BANCOS DE ALIMENTOS DE MéXICO EN LA SEGURIDAD ALIMENTARIA DEL PAíS.

Cruz Pérez Angie Yanelly, Universidad Veracruzana. Valencia Marines Abdiel, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Jairo Enrique Parra Herrera, Institución Universitaria Politécnico Grancolombiano



PLANTEAMIENTO DEL PROBLEMA

Los bancos de alimentos en México son fundamentales para combatir la inseguridad alimentaria y reducir el desperdicio de alimentos. La Red de Bancos de Alimentos de México (BAMX) es una organización que coordina y apoya el trabajo de diversos bancos de alimentos en el país. Fue fundada en 1995 y desde entonces ha crecido para abarcar una gran parte del territorio mexicano. Actualmente, la integran 58 bancos de alimentos en diversos estados de la República Mexicana que rescatan y redistribuyen alimentos, según datos de la Red BAMX, en 2023 se distribuyeron más de 200 millones de kilogramos de alimentos, beneficiando a más de 1.8 millones de personas al mes en México. Estudios como el de Velasco (2019) en "Seguridad Alimentaria y Bancos de Alimentos en México" destacan la importancia de estas organizaciones en la mitigación del hambre. Velasco subraya que los BAMX no solo proporcionan alimentos, sino que también educan a las comunidades sobre nutrición y sostenibilidad. Autores como Gómez y Martínez (2021), en su artículo "El Rol de los Bancos de Alimentos en la Sociedad Mexicana", argumentan que estas organizaciones no solo tienen un impacto en la reducción del hambre, sino también en la creación de comunidades más solidarias y sostenibles. En un informe de la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO) de 2020, se menciona que aproximadamente el 34.9% de la población mexicana vive en condiciones de inseguridad alimentaria. Los BAMX son fundamentales para reducir esta cifra. La red cuenta con el apoyo de miles de voluntarios que ayudan en la recolección, clasificación y distribución de los alimentos. La red BAMX trabaja en colaboración con diversas organizaciones, empresas y gobiernos locales para implementar programas que aborden la inseguridad alimentaria y promuevan la nutrición adecuada; tales como Alsea Fundación, Walmart, Unilever, Carl’s Jr, NATURESWEET, SEMPRA, entre muchos otros. El objetivo de esta investigación es identificar cómo operan los bancos de alimentos en México, analizando sus procesos de recolección, almacenamiento y distribución de alimentos, así como sus estrategias de colaboración con donantes y organizaciones comunitarias.



METODOLOGÍA

Para este artículo hemos considerado adoptar un enfoque cualitativo con un diseño descriptivo y exploratorio para comprender conceptos, opiniones y experiencias, pero también incluir datos cuantitativos que aporten información acerca de análisis estadísticos y obtener resultados generales de poblaciones grandes. Se ha seleccionado este tipo de metodología para obtener una comprensión más profunda de las operaciones, impacto y desafíos de los Bancos de Alimentos en México. La población del estudio incluye a todos los Bancos de Alimentos afiliados a la Red de Bancos de Alimentos de México (Red BAMX). La muestra se seleccionó de manera intencional e incluyó a diez Bancos de Alimentos distribuidos en diferentes regiones del país para asegurar la representación geográfica y operacional, los cuales son:     1.    BAMX Veracruz     2.    BAMX Tijuana     3.    BAMX Querétaro     4.    BAMX CDMX     5.    BAMX Baja California Sur     6.    BAMX Quintana Roo     7.    BAMX Puebla     8.    BAMX Morelia     9.    BAMX Nuevo León     10.    BAMX Guadalajara   Recolección de Datos Los datos se recopilarán mediante dos técnicas principales:            1.         Entrevistas: Se realizarán entrevistas en profundidad con directores y personal clave de los Bancos de Alimentos seleccionados. Las entrevistas se enfocarán en los procesos operativos, fuentes de donaciones, distribución de alimentos, y los desafíos enfrentados.            2.         Análisis Documental: Se revisarán documentos y artículos internos, además de reportes anuales proporcionados por los Bancos de Alimentos, así como estudios y publicaciones relacionadas con la seguridad alimentaria y la gestión de bancos de alimentos en México. Análisis de Datos El análisis de datos se realizará por etapas:            1.         Transcripción: Las entrevistas se transcribirán íntegramente.            2.         Análisis Temático: Se aplicará un análisis temático para identificar las principales áreas de interés y preocupación en las operaciones de los Bancos de Alimentos.             3.         Triangulación de Datos: Los datos obtenidos de entrevistas, observaciones y documentos se triangularán para asegurar la validez y confiabilidad de los hallazgos. Limitaciones del Estudio Entre las limitaciones se incluyen el tamaño de la muestra y la posible falta de representatividad de todos los Bancos de Alimentos en México. Además, la investigación cualitativa puede estar sujeta a sesgos del investigador, aunque se tomarán medidas para minimizar estos efectos.


CONCLUSIONES

Como resultado de este proyecto de pasantía de investigación se identifican los siguientes elementos frente al estudio:     •    Los Bancos de Alimentos de México (BAMX) son actores clave en la mejora de la seguridad alimentaria en el país. Al establecer una red de distribución y colaboración, han logrado reducir la inseguridad alimentaria y mejorar la calidad de vida de millones de personas. Sin embargo, la logística, especialmente en zonas rurales, representa un desafío significativo que limita su alcance y eficiencia. Para superar esta barrera, es fundamental invertir en infraestructura y adoptar tecnologías innovadoras que optimicen la distribución de alimentos.     •    La efectividad de los BAMX radica en la colaboración entre diversos sectores y la activa participación de la comunidad. Las alianzas estratégicas con el sector privado, organizaciones no gubernamentales y el gobierno han sido esenciales para expandir su alcance y capacidad operativa. Sin embargo, persiste la necesidad de ayuda por parte de los diferentes sectores     •    El estudio proporciona una visión general del impacto de los BAMX, sin embargo, es necesario continuar con la recolección de información, etapa aun en desarrollo para con ayuda de las entrevistas identificar en detalle las operaciones diarias de los bancos de alimentos, sus desafíos específicos y las necesidades de las comunidades a las que sirven.
Valencia Valdez Maricela, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mg. Zhoe Vanessa Comas González, Universidad de la Costa

DESARROLLO DE OBJETOS VIRTUALES DE APRENDIZAJE PARA LA ENSEñANZA DE ECUACIONES DIFERENCIALES


DESARROLLO DE OBJETOS VIRTUALES DE APRENDIZAJE PARA LA ENSEñANZA DE ECUACIONES DIFERENCIALES

Iturbide Mendoza Guadalupe, Tecnológico de Estudios Superiores de San Felipe del Progreso. Martinez Suarez Dorelys Esthefany, Universidad Libre. Valencia Valdez Maricela, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Zhoe Vanessa Comas González, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La enseñanza de las ecuaciones diferenciales ha sido un pilar fundamental en la formación de ingenieros, físicos y matemáticos. Tradicionalmente, esta materia se ha impartido de manera presencial, mediante clases expositivas y resolución de problemas en pizarra. Sin embargo, a pesar de su importancia, la enseñanza de este tipo de asignatura presenta desafíos significativos debido a la alta complejidad de los conceptos, la abstracción matemática, así como la falta de recursos interactivos que permitan una exploración más profunda de los conceptos. Además, el aprendizaje en un entorno tradicional puede ser rígido y menos adaptativo a las necesidades individuales de los estudiantes, lo que puede resultar en una experiencia de aprendizaje menos efectiva para algunos. Ante estos desafíos, surge la necesidad de explorar nuevas estrategias pedagógicas que faciliten el aprendizaje de las ecuaciones diferenciales.  Los cursos de ecuaciones diferenciales frecuentemente no cumplen con las expectativas de los estudiantes, lo que resalta la necesidad de integrar tecnologías que conecten diferentes áreas de las matemáticas y apliquen estos conocimientos a problemas del mundo real (Bejarano, 2019). Las TIC, promovidas por la OECD, son fundamentales para avanzar en la educación, ofreciendo nuevas metodologías y herramientas didácticas (Grandia Asencio, 2019). Ante esta situación, surge la pregunta: ¿cuáles son los resultados de aprendizaje alcanzados por los estudiantes en la asignatura de ecuaciones diferenciales al implementar objetos virtuales de aprendizaje? En los últimos años, la tecnología educativa ha comenzado a jugar un papel cada vez más importante en la mejora de los métodos de enseñanza. Los avances en software educativo y plataformas de aprendizaje en línea han permitido la creación de recursos interactivos que pueden complementar y, en algunos casos, incluso reemplazar los métodos tradicionales. Los Objetos Virtuales de Aprendizaje, por sus  siglas OVA, se presentan como una alternativa prometedora, ya que ofrecen un entorno flexible y personalizado que permite a los estudiantes aprender a su propio ritmo y recibir retroalimentación inmediata.  El presente proyecto tiene como objetivo desarrollar Objetos Virtuales de Aprendizaje específicamente diseñados para la enseñanza de ecuaciones diferenciales, con el fin de mejorar los resultados de aprendizaje de los estudiantes.



METODOLOGÍA

 Diseño Metodológico El estudio es de carácter experimental, ya que controla variables en una relación de causa y efecto, utilizando un grupo de control y un grupo experimental. Tipo de Investigación El enfoque es mixto. Se utiliza un enfoque cuantitativo para recolectar y analizar datos numéricos, probar hipótesis y establecer patrones de comportamiento en los resultados de aprendizaje. Además, se emplea un enfoque cualitativo para obtener datos a través de descripciones y observaciones sin medición numérica (Quiñonez, 2018). Población La población del estudio incluye a los 700 estudiantes matriculados en la asignatura de ecuaciones diferenciales en la Universidad de la Costa CUC durante el semestre 2024-2, representando diversas carreras de ingeniería. Muestra Se seleccionaron 70 estudiantes de diferentes programas de Ingeniería de manera no probabilística por conveniencia. Se dividieron en dos grupos de 30 estudiantes: uno como grupo de control y otro como grupo experimental, bajo la supervisión de un mismo profesor. Se incluyó el consentimiento informado de los participantes.                            Fases de la Investigación  Fase 1: Documentación y Análisis Se realizó una revisión sistemática de la literatura sobre la enseñanza de ciencias naturales y exactas utilizando OVA y herramientas digitales. Fase 2: Desarrollo Se diseñó y desarrolló un OVA para enseñar los contenidos de la clase de ecuaciones diferenciales, de acuerdo con especificaciones técnicas y pedagógicas identificadas en la fase de análisis. Fase 3: Planificación de la implementación y evaluación Se diseñó el plan para la implementación de este experimento, en el cual los estudiantes serán conscientes de esto, y estarán no solo aprendiendo y siendo evaluados, sino que también darán retroalimentación a la experiencia de aprender utilizando estas herramientas tecnológicas para posterior mente analizar estos resultados.


CONCLUSIONES

Como resultado de este proyecto se obtuvieron Objetos Virtuales de Aprendizaje para la enseñanza de ecuaciones diferenciales, el cual incluye especificaciones técnicas y pedagógicas para asegurar su eficacia en la enseñanza de ecuaciones diferenciales. Además se espera que muy pronto se lleven a cabo pruebas piloto para identificar áreas de mejora, y se realizaron ajustes basados en el feedback recibido durante estas pruebas. Luego de la aplicación de este experimento, se espera analizar los datos obtenidos de la evaluación de los conocimientos de cada grupo de estudiantes y así saber si la implementación de estos Objetos Virtuales de Aprendizaje contribuyen a mejorar los resultados de aprendizaje de los estudiantes de ecuaciones diferenciales.
Valencia Zavala Irving Miguel, Universidad Tecnológica de Nayarit
Asesor: Dra. Ma. del Rocio Maciel Arellano, Universidad de Guadalajara

SMART CITIES - INTERNATIONAL CONFERENCE DIGRA 2024, UNDER THE THEME “PLAYGROUNDS”


SMART CITIES - INTERNATIONAL CONFERENCE DIGRA 2024, UNDER THE THEME “PLAYGROUNDS”

Carballo Zapién Miguel Angel, Universidad de Guadalajara. Sánchez Alarcón Cinthia Elizabeth, Universidad Tecnológica de Nayarit. Valencia Zavala Irving Miguel, Universidad Tecnológica de Nayarit. Asesor: Dra. Ma. del Rocio Maciel Arellano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El proyecto "Smart Cities - International Conference DiGRA 2024, under the theme ‘Playgrounds’", presentado en la conferencia DiGRA 2024, se centró en explorar el potencial del metaverso en la educación a través de la gamificación. Utilizando la plataforma Roblox, se recrearon experiencias basadas en la conferencia, demostrando cómo los entornos virtuales pueden enriquecer el aprendizaje.  



METODOLOGÍA

Semana 1: Organización y Planificación El equipo definió objetivos, investigó proyectos similares y tecnologías aplicables, y desarrolló un diagrama de Gantt con tareas y cronogramas. También se identificaron recursos necesarios y se estableció un plan de comunicación. Semana 2: Desarrollo de Conceptos y Prototipos Iniciales Se generaron y seleccionaron conceptos para la integración de videojuegos en sistemas de movilidad. Se desarrollaron prototipos iniciales utilizando herramientas como Unity y Unreal Engine, los cuales fueron probados y ajustados según el feedback recibido. Semana 3: Desarrollo e Integración El equipo desarrolló e integró funcionalidades del videojuego en sistemas de movilidad existentes, asegurando la cohesión y resolviendo problemas de integración. Se documentó el progreso y los desarrollos realizados. Semana 4: Pruebas Finales y Presentación Se realizaron pruebas de usuario, se implementaron mejoras basadas en el feedback, y se preparó una presentación final del proyecto, incluyendo una demostración del videojuego y resultados de las pruebas. Semana 5: Optimización y Refinamiento Se optimizó el proyecto basado en el feedback de las pruebas. Se mejoraron funcionalidades, se garantizó la estabilidad del sistema y se añadieron funcionalidades adicionales. La documentación fue actualizada y se realizó una revisión interna. Semana 6: Preparación para el Lanzamiento Se definió la estrategia de lanzamiento, se realizaron pruebas beta y se ajustaron según el feedback. Se prepararon materiales de comunicación y se realizó un ensayo general del lanzamiento. Semana 7: Lanzamiento y Seguimiento Post-Lanzamiento El proyecto fue lanzado y monitoreado en tiempo real. Se estableció un canal de soporte para usuarios y se recogió feedback para identificar áreas de mejora. Se definió un plan de mantenimiento y mejora continua del proyecto.    


CONCLUSIONES

El proyecto ha mostrado que la gamificación en entornos virtuales mejora la motivación y el compromiso de los estudiantes. Las fases de pruebas, optimización y refinamiento aseguraron la funcionalidad y estabilidad del sistema, permitiendo una transición suave al uso real. Este proyecto establece una base sólida para futuras investigaciones y desarrollos en el campo de la educación gamificada, aportando valiosas lecciones y prácticas aplicables en otros contextos educativos y tecnológicos.  
Vallejo Vázquez Sanjuana Candelaria, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa

IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA DETECCIóN DE OBJETOS Y MOVIMIENTOS MEDIANTE LAS APLICACIONES DE LAS REDES NEURONALES CONVOLUCIONALES Y YOLO


IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA DETECCIóN DE OBJETOS Y MOVIMIENTOS MEDIANTE LAS APLICACIONES DE LAS REDES NEURONALES CONVOLUCIONALES Y YOLO

Betancourt Rodriguez Miguel Angel, Instituto Tecnológico Superior de Apatzingán. Cordoba Alvarez Bryan Abel, Instituto Tecnológico Superior de Apatzingán. Lara Fernandez Jhonatan Omar, Instituto Tecnológico Superior de Apatzingán. Reyes Baeza Oliver Uriel, Instituto Tecnológico Superior de Apatzingán. Vallejo Vázquez Sanjuana Candelaria, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

A medida que la tecnología ha avanzado, la IA ha evolucionado desde algoritmos básicos hasta sofisticados modelos de aprendizaje profundo, mejorando significativamente la precisión y la eficiencia en múltiples aplicaciones. Desde los primeros enfoques en visión por computadora, la IA ha integrado técnicas innovadoras como las redes neuronales convolucionales (CNN) y el aprendizaje profundo para detectar y analizar objetos y movimientos en tiempo real. Al usar algoritmos de aprendizaje profundo y redes neuronales, los dispositivos pueden identificar y clasificar objetos con rapidez y precisión, lo que a su vez tiene un impacto positivo en la seguridad civil, la atención médica y la eficiencia operativa en múltiples industrias. Los avances en IA han potenciado la detección de objetos, movimientos y tiempos, destacando sus aplicaciones en diversos sectores, la inteligencia artificial está transformando la detección de objetos y movimientos, los desafíos asociados y las oportunidades emergentes en un mundo cada vez más interconectado.  La inteligencia artificial ha emergido como una herramienta crucial en la detección de objetos, movimientos y tiempos, revolucionando diversos sectores mediante la mejora de precisión y eficiencia en el análisis de datos. El artículo realizado a lo largo de la estancia se entrenó una inteligencia artificial con métodos diferentes y analizar los campos de aplicación en los cuales se utiliza la inteligencia artificial para la detección de objetos y movimientos de forma rápida y precisa.



METODOLOGÍA

Para el desarrollo de cada uno de los métodos se implementaron diferentes algoritmos y modelos de aprendizaje, así como bibliotecas y frameworks de software entre otras herramientas para lograr el objetivo de detectar los objetos y los tiempos de movimientos, así como medir las estadísticas de entrenamiento, precisión y la predicción en la detección de los objetos. Para esto, el primer experimento de prueba será un carro de juguete. El experimento con el carro de juguete se llevará a cabo en varias fases: ·      Preparación del Dataset. -      Se recopilarán imágenes del carro de juguete en diferentes posiciones, ángulos y condiciones de iluminación. -      Se etiquetarán las imágenes utilizando herramientas como LabelImg para identificar las partes del carro (carrocería, chasis, llantas, luces, etc.). ·      Configuración del Entorno de Desarrollo. -       Se instalarán y configurarán las bibliotecas y frameworks necesarios, como TensorFlow, PyTorch y OpenCV. -      Se utilizará YOLOv3 para la creación del dataset y YOLOv8 para el entrenamiento del modelo de detección de objetos. ·      Entrenamiento del Modelo. -      Se dividirá el dataset en conjuntos de entrenamiento y validación. -      Se ajustarán los hiperparámetros del modelo, como el número de épocas, la tasa de aprendizaje y el tamaño del lote. -      Se ejecutará el entrenamiento del modelo, monitorizando las métricas de rendimiento como la precisión, la sensibilidad y la especificidad. ·      Evaluación del Modelo. -      Se evaluará el rendimiento del modelo en un conjunto de datos de prueba no visto durante el entrenamiento. -       Se analizarán las métricas de rendimiento para determinar la eficacia del modelo en la detección de las partes del carro de juguete. -      Se realizarán ajustes en el modelo y se volverá a entrenar si es necesario para mejorar la precisión y la robustez. ·      Implementación y Pruebas en Tiempo Real. -       Se implementará el modelo entrenado en un entorno de producción. -      Se realizarán pruebas en tiempo real utilizando un flujo de video en directo para detectar y rastrear el carro de juguete. -      Se medirán los tiempos de respuesta y la precisión en la detección en diferentes condiciones de prueba. ·      Análisis de Resultados y Mejora Continua: -       Se recopilarán y analizarán los resultados obtenidos durante las pruebas en tiempo real. -      Se identificarán posibles áreas de mejora y se propondrán soluciones para optimizar el rendimiento del modelo. -      Se iterará sobre el proceso de entrenamiento y evaluación para refinar el modelo y mejorar su capacidad de detección y predicción.


CONCLUSIONES

El artículo destaca herramientas como OpenCV, TensorFlow y Keras, junto con otros recursos como GitHub, Python y Anaconda, son esenciales para el desarrollo y la implementación de soluciones de detección basadas en IA. En conclusión, la capacidad de la IA para detectar y seguir objetos y movimientos continuará evolucionando, impulsando la transformación y el progreso en numerosos sectores, y su futuro es prometedor en la modernización de nuestras interacciones con el mundo digital y físico El experimento inicial con el carro de juguete proporcionará una base sólida para el desarrollo y la validación del modelo de detección de objetos. Los conocimientos y experiencias obtenidos en este proceso serán fundamentales para abordar desafíos más complejos en futuros proyectos de detección y reconocimiento de objetos.
Vanegas Nolasco María Inés, Universidad Nacional Autónoma de Nicaragua, Managua
Asesor: Mg. Andres Yamil Martinez Choles, Universidad de la Guajira

ANáLISIS COMPARATIVO DEL EMPRENDIMIENTO MIGRANTE ENTRE MéXICO, NICARAGUA Y COLOMBIA


ANáLISIS COMPARATIVO DEL EMPRENDIMIENTO MIGRANTE ENTRE MéXICO, NICARAGUA Y COLOMBIA

Corona Rodriguez Ana Karen, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Vanegas Nolasco María Inés, Universidad Nacional Autónoma de Nicaragua, Managua. Asesor: Mg. Andres Yamil Martinez Choles, Universidad de la Guajira



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, las migraciones han emergido como un desafío significativo tanto en el ámbito político como normativo, particularmente en lo que respecta a la seguridad migratoria y la gestión de fronteras. Este fenómeno ha sido impulsado por el aumento considerable en los volúmenes de desplazamientos, lo que exige la implementación de políticas más robustas y efectivas para manejar los flujos migratorios de manera segura y ordenada. En este sentido, los factores causales de las migraciones son fuerzas de tipo económico, político, demográfico, ambiental y sociocultural. Los factores que facilitan o impiden la migración influyen de manera importante en la capacidad de las personas o familias de trasladarse a otro país International Organization for Migration. (s.f.).  Es por ello que según la Organización Internacional para las Migraciones. (2021), existe el emprendimiento como medio para que los migrantes consigan seguridad financiera y autosuficiencia, impactando el bienestar de sus familias y comunidad. Siendo también fuente de empleo y proveedores de ingresos a otros miembros de la comunidad migrante o nacionales. Ahora bien, desde latinoamérica, para Vásquez (2023), a pesar de las mejoras en la última década, la situación en América Latina sigue siendo alarmante en términos de desigualdad como causa de la migración, donde América Latina es la segunda región más desigual del mundo, con un coeficiente de desigualdad Gini de 0.52. Solo es superada por el África Subsahariana, que tiene un coeficiente de 0.56. En comparación, Asia tiene un coeficiente de 0.44 y Europa del Este y Asia Central tienen un coeficiente de 0.34, lo que coloca a América Latina en una posición crítica en cuanto a desigualdad socioeconómica. Esta persistente desigualdad destaca la necesidad de implementar políticas efectivas para reducir las disparidades y promover un desarrollo más equitativo en la región. Para el caso de México, señala Juárez (2023), el flujo migratorio en México, considerado como país de tránsito, ha experimentado cambios debido a diversos fenómenos económicos, sociales, políticos e incluso meteorológicos en los países de origen de los migrantes. Finalmente, se analizará conceptual y teóricamente para posteriormente hacer una comparación, así como hacer un estado del arte del emprendimiento migrante entre México, Nicaragua y Colombia. Se intenta con ello tener un acercamiento a esta temática desde la labor académica en México y Nicaragua para profundizar sobre la realidad de los empresarios migrantes que han crecido en las últimas décadas. Para ello se recurrirá al método documental, donde se hará una selección amplia del material para llegar a conclusiones y propuestas de investigación. Se utilizará un criterio cronológico de cinco años, después geográfico y cronológico para analizar el estado del arte. 



METODOLOGÍA

Se llevó a cabo un estudio descriptivo, basado en lo expuesto por Hernández et al, (2014), quienes afirman que este tipo de estudio pretende medir o recoger información de manera independiente o conjunta sobre las variables, sin necesariamente indicar cómo se relacionan. Bernal et al (2012) señalan que las investigaciones descriptivas muestran rasgos o características de un objeto de estudio, sin explicar las razones detrás de estos fenómenos. La investigación descriptiva se guía por las preguntas de investigación formuladas por el investigador y se soporta en técnicas como encuestas, entrevistas, etc. La presente investigación se desarrolla bajo un enfoque cuantitativo, que utiliza la recolección de datos (Sabino, 2012). Las principales características de este enfoque, sustentadas por los autores mencionados, son importantes para la validez del muestreo representativo de la población, obteniendo conclusiones útiles a partir de razonamientos deductivos sobre las variables determinadas. Esta investigación se desarrolla dentro del enfoque cuantitativo, planteando la medición de datos para lograr mayor coherencia, pertinencia y confiabilidad. Esta investigación se enmarca dentro de un diseño no experimental, transeccional o transversal. Según Hernández et al. (2014), los diseños no experimentales observan los fenómenos tal como se dan en su contexto natural para ser analizados. Esta investigación recolectó información de fuentes primarias y secundarias de fuentes confiables estadísticas y documentales. En cuanto a los instrumentos de recolección de la información, según Hernández et al. (2016), la técnica de recolección de datos consiste en vías a través de las cuales el investigador registra datos observables que representan verdaderamente los conceptos o variables que se pretende medir. Con relación a la recolección de los datos de los artículos se realizó una hoja de trabajo en Excel, que se detalló para evidenciar cuál de estos compartían elementos comunes para con ello delimitar los conceptos encontrados. 


CONCLUSIONES

Mediante esta estancia se logró indagar sobre el emprendimiento migrante entre México, Nicaragua y Colombia en donde se pudo observar la necesidad que hay de supervivencia económica, la cual impulsa a muchos migrantes a emprender y a enfrentar desafíos.  Al comparar las prácticas emprendedoras entre los migrantes de estos tres países mediante datos cuantitativos recopilados se descubrió que el comercio es una fuente de emprendimiento que en los tres países se utiliza. México, como país, tiene una serie de ventajas para los extranjeros que les permite emprender con mayor facilidad, de igual manera en Nicaragua, los provenientes de países de la región tienen mayor peso relativo en el sector primario (27,3%), que llega hasta el 41% en los hondureños y le sigue el comercio con (21,1%). En Colombia el 77% de los emprendimientos son liderados por mujeres, y de ellas, el 56% son jefas de hogar. Por otro lado, el proporcionar recomendaciones para mejorar las políticas y programas de apoyo al emprendimiento migrante y colaboración entre emprendedores facilitando así la formalización de negocios.
Vanegas Rodriguez Nicolas, Universidad de los Llanos
Asesor: Dr. John F. Suárez Pérez, Fundación Universidad de América

DETECCIóN DE AGARRES DEL INSTRUMENTO OCRA-CHECKLIST PARA LA ESTIMACIóN DE RIESGO BIOMECáNICO


DETECCIóN DE AGARRES DEL INSTRUMENTO OCRA-CHECKLIST PARA LA ESTIMACIóN DE RIESGO BIOMECáNICO

Vanegas Rodriguez Nicolas, Universidad de los Llanos. Asesor: Dr. John F. Suárez Pérez, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Las actividades desarrolladas por los trabajadores de la industria implican la repetición de tareas en ciclos repetitivos, lo que puede desencadenar múltiples trastornos musculoesqueléticos (TME) en los trabajadores. Se estima que existen al menos 150 tipos de TME que afectan el sistema locomotor humano. Se considera un trabajo como repetitivo si se realizan las mismas acciones durante más del 50% del tiempo del ciclo, o cuando el ciclo tiene una duración inferior a 30 segundos. Un caso particular se presenta en los entornos de la industria farmacéutica, donde los trabajadores encargados de embalar los productos finales en cajas deben realizar diferentes tipos de agarres y movimientos repetitivos de los miembros superiores durante la mayor parte de su jornada laboral. Esta repetitividad puede, a largo plazo, desencadenar diversos trastornos musculoesqueléticos. Para evaluar y prevenir estos riesgos, se utiliza el instrumento Checklist OCRA, que incluye un factor específico para evaluar las posturas y detectar los diferentes tipos de agarre. Este instrumento permite identificar las posturas forzadas y repetitivas, proporcionando una evaluación integral del riesgo y ayudando a implementar medidas correctivas y preventivas adecuadas. Los TME no solo afectan la calidad de vida de los trabajadores, sino que también tienen un impacto significativo en la productividad y en los costos asociados a la salud ocupacional. Por ello, es fundamental implementar medidas ergonómicas y de prevención en los lugares de trabajo para reducir el impacto de estas actividades en la salud de los trabajadores.



METODOLOGÍA

Para el entrenamiento de los modelos de aprendizaje automático, se comenzó con la creación del ambiente de programación en Python utilizando Anaconda. En este entorno, se instaló Jupyter Notebook junto con otras librerías adicionales necesarias para el tratamiento digital de datos e imágenes Se procedió a crear la base de datos. Esta etapa consistió en la adquisición de imágenes que monitorean el trabajo de diferentes empleados realizando ciclos repetitivos. Para ello, se utilizaron tres videos diferentes, cada uno con una duración de media hora. A partir de estos videos, se extrajeron un mínimo de 1200 imágenes. Utilizando el software LabelStudio, a cada una de las imágenes se les asignó una zona de interés y clasificación según el tipo de agarre que estaban haciendo los trabajadores, siguiendo las siguientes clasificaciones: Pinza Derecha Pinza Izquierda Gancho Derecho Gancho Izquierdo Presa Derecha Presa Izquierda Este proceso fue fundamental, ya que la clasificación asignada a cada mano detectada en cada imagen permitiría obtener una buena precisión y efectividad del modelo. Del paso anterior se obtuvo una base de datos robusta, que contiene un archivo de texto con los diferentes tipos de agarres, una carpeta con las imágenes etiquetadas y otra carpeta adicional con archivos de texto en los cuales se especifican las coordenadas de los píxeles de la zona de interés, así como la clasificación de ese recuadro. Para aumentar la efectividad del entrenamiento, las imágenes previamente etiquetadas pasaron por un procesamiento para estandarizar su formato. Utilizando la librería MediaPipe, se desarrolló un programa para extraer los puntos de las articulaciones de las manos, reconstruyendo la posición de estas. MediaPipe generó un mapa de 21 puntos que representan diversas partes de la mano. Estos puntos fueron analizados detalladamente para determinar la configuración de la mano y, mediante el cálculo de las distancias y relaciones entre estos puntos, se pudo identificar el tipo de agarre que los trabajadores estaban utilizando. Con la clasificación previamente realizada en LabelStudio y las coordenadas de los 21 puntos, se generó un archivo en formato csv. Este archivo se dividió en las entradas y salidas finales para los modelos de entrenamiento. El primer paso consistió en codificar los datos categóricos en valores numéricos, permitiendo al programa procesarlos adecuadamente. Al crear un histograma de esta clasificación, se observó un claro desbalance de clases, ya que una de las clases, la minoritaria, tenía significativamente menos ejemplos que la clase mayoritaria. Este desbalance afectaba negativamente el entrenamiento del modelo. Para equilibrar las clases y asegurar una cantidad uniforme de ejemplos por categoría, se utilizó la librería SMOTE (Synthetic Minority Over-sampling Technique). SMOTE seleccionó los vecinos más cercanos de la clase minoritaria y, mediante interpolación, generó sintéticamente nuevos ejemplos, añadiendolos a la base de datos original. Este proceso ayudó a restaurar el equilibrio en la base de datos, mejorando la capacidad del modelo para aprender de manera efectiva y precisa de cada categoría. Con los datos preparados, se procedió a evaluar diferentes modelos de clasificación, incluyendo: Máquina de vectores de soporte (SVM Classifier) Árbol de decisión (Decision Tree) Bosque Aleatorio (Random Forest) Perceptrón Multicapa (Multilayer Perceptron) Para identificar el mejor modelo se emplearon diversos métodos de optimización en la búsqueda de los mejores parámetros. Sin embargo, para hacer esta búsqueda más precisa se utilizó la librería Optuna, con la implementación de este paquete se determinó el mejor conjunto de parámetros para cada modelo de clasificación. Los resultados indicaron que el modelo más adecuado para esta aplicación fue el SVM Classifier, logrando un puntaje F1 del 75%.


CONCLUSIONES

El puntaje F1 del 75% indica un buen equilibrio entre precisión y sensibilidad, lo que significa que el modelo es capaz de identificar correctamente los tipos de agarre con una alta tasa de aciertos y pocos falsos negativos. Este resultado es crucial para la aplicación, ya que garantiza que el modelo de clasificación puede ser utilizado de manera confiable para monitorear y analizar los agarres de los trabajadores, contribuyendo a la prevención de trastornos musculoesqueléticos y mejorando la ergonomía en el lugar de trabajo.
Vargas Arias Angel Felipe, Universidad de Colima
Asesor: Dr. Jorge Alberto Borrego Perez, Universidad Michoacana de San Nicolás de Hidalgo

MEJORAMIENTO DEL CONCRETO ADICIONANDO CASCARILLA DE HUEVO Y FIBRAS PARA CLIMAS COSTEROS.


MEJORAMIENTO DEL CONCRETO ADICIONANDO CASCARILLA DE HUEVO Y FIBRAS PARA CLIMAS COSTEROS.

Vargas Arias Angel Felipe, Universidad de Colima. Asesor: Dr. Jorge Alberto Borrego Perez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El concreto es uno de los materiales constructivos más utilizados la industria de la construcción. Es una mezcla de agregados como lo son la grava, arena, cemento y agua.  En el concreto puede haber adiciones de materiales que se incorporan a la mezcla para mejorar sus propiedades y rendimiento. La carbonatación del concreto es un proceso natural que se produce a medida que el dióxido de carbono del aire reacciona con el hidróxido de calcio presente en el cemento hidráulico. En ambientes marinos aumenta la tasa de carbonatación debido a la presencia de iones de cloruro, que aceleran el proceso de carbonatación y también pueden provocar la corrosión de las armaduras del concreto. La pérdida de alcalinidad del concreto denominada como carbonatación es un problema que ocurre, cuando el dióxido de carbono CO2 reacciona con la humedad dentro de los poros del concreto y convierte al hidróxido de calcio Ca(OH)2 con un pH de 12 a 13, a carbonato de calcio CaCO3 que tiene un pH menos alcalino. (CAROLINA VÁSQUEZ, 2024) La catástrofe del muelle 6 del Puerto de Progreso es un claro ejemplo; fue construido hace 10 años y su principal actividad se concentra en el trabajo de dos grandes grúas para el movimiento de los contenedores. Desafortunadamente, varios problemas debidos al diseño, proceso de construcción y operación de las grúas afectaron la infraestructura de concreto del muelle causando daño y agrietamientos. La principal consecuencia de los daños ha sido hasta ahora la corrosión del concreto reforzado de las losas, vigas y pilas. (Castro-Borges, 2012)



METODOLOGÍA

Esta investigación bibliográfica se desarrolló definiendo el problema, con el objetivo de recolectar toda la información pertinente a las estrategias de la mejora de los concretos usando materiales sustentables. Seguido, se identificaron palabras clave y términos de búsqueda que incluyeron una lista de palabras clave y sinónimos al problema. Se seleccionaron fuentes de información confiables en libros, revistas, internet, tesis, artículos etc. Después, se organizó la información, con ideas principales y datos relevantes de cada fuente. Después, se sintetizo y la información recopilada y cito cada referencia de manera correcta. Después, se escribió el resumen con la información recopilada con la estructura adecuada y se llevó a revisión. Finalmente, se hizo la comparación de diferentes tesis para conocer los diferentes porcentajes de material como lo son las fibras y la cascara de huevo, para conocer cuales fueron los porcentajes óptimos y poder agregarlos en la mezcla.


CONCLUSIONES

El uso de las fibras junto con cenizas de cascara de huevo como alternativas son una buena opción ya que mejoran las propiedades del concreto. Las fibras ayudan a reducir la porosidad en la estructura de concreto, evitando así que la humedad tarde más en poder penetrar internamente al concreto y llegar al acero. Por otra parte, las cascaras de huevo, mejoran la resistencia a compresión del concreto, prolonga el tiempo de fraguado evitando grietas en el concreto, trabajabilidad y es amigable con el medio ambiente generando un buen impacto al planeta. El porcentaje de fibras y cascaras de huevo, por el momento sigue siendo la incógnita, pero, más en la etapa de la tesis se podrá decidir cuáles serán los porcentajes que se utilizarán para las pruebas. Implementar estas alternativas es esencial para asegurar la durabilidad y sostenibilidad de las estructuras en climas costeros, protegiendo tanto los aspectos económicos como ambientales de las construcciones.
Vargas Castro Jonathan Antonio, Instituto Tecnológico de Morelia
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

ESTACIóN NIMBUS, SISTEMA DE MONITOREO AMBIENTAL


ESTACIóN NIMBUS, SISTEMA DE MONITOREO AMBIENTAL

Cortes Facio Juan Diego, Instituto Tecnológico de Morelia. de Jesús Martínez Carlos Alberto, Instituto Politécnico Nacional. Feliciano Pioquinto Jorge Osvaldo, Instituto Tecnológico Superior de Ciudad Hidalgo. Piceno Reyes Guillermo Eduardo, Instituto Tecnológico de La Piedad. Pineda Ibarra Alexandra, Instituto Tecnológico Superior de Ciudad Hidalgo. Rosales Gómez Adrian, Instituto Politécnico Nacional. Vargas Castro Jonathan Antonio, Instituto Tecnológico de Morelia. Vidal Gómez Yessica Gisel, Instituto Politécnico Nacional. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la región de los Valles, Jalisco, la agricultura enfrenta desafíos significativos debido a la variabilidad climática y la falta de datos meteorológicos precisos y actualizados. Estos problemas afectan la planificación de cultivos y la gestión de recursos hídricos, esenciales para la producción agrícola sostenible. Según el Instituto Nacional de Estadística y Geografía (INEGI), la región de Jalisco ha experimentado fluctuaciones en temperatura y precipitaciones que impactan directamente en la productividad agrícola. La falta de estaciones meteorológicas eficientes en la región agrava esta situación, limitando la capacidad de los agricultores para tomar decisiones informadas y oportunas. La problemática principal está en el ingenio azucarero de la región, estos desafíos son particularmente pronunciados. La producción de caña de azúcar requiere condiciones climáticas específicas y una gestión adecuada del agua. La falta de datos precisos dificulta la planificación y optimización de las actividades agrícolas, resultando en pérdidas económicas y una menor eficiencia en la producción.



METODOLOGÍA

Para el desarrollo de la estación de monitoreo ambiental, se siguió un proceso sistemático que involucró diversas fases de diseño, implementación y pruebas. A continuación, se detallan los pasos específicos llevados a cabo: Fase de Diseños Selección de Sensores: Se eligieron sensores adecuados para medir temperatura, humedad, precipitación pluvial, altitud, presión atmosférica, velocidad y dirección del viento, índice UV, calidad de aire (partículas), luminosidad, CO2. Los sensores seleccionados fueron DHT11 para temperatura y humedad, BMP180 para presión atmosférica, y anemómetros y veletas para medir velocidad y dirección del viento. Diseño de la estructura: Utilizando SolidWorks, se diseñaron los soportes y la carcasa para los sensores y las placas electrónicas Raspberry Pi y la Arduino Nano. Se realizaron varias iteraciones del diseño para asegurar estabilidad y protección contra condiciones climáticas adversas. FORTALECIMIENTO DE LA Fase de Implementación Montaje de Hardware: Los componentes físicos fueron hechos utilizando una impresora 3D con filamento PLA. Los sensores fueron montados en sus respectivos soportes y conectados a la Raspberry Pi y Arduino Nano. Configuración de la Raspberry Pi: Se configuró la Raspberry Pi con Raspbian OS y se instalaron las bibliotecas necesarias para la lectura de los sensores (Adafruit_DHT, BMP180, y PySerial para el anemómetro y la veleta). Así mismo con la Nano. Desarrollo de la Interfaz: Se desarrolló una interfaz de usuario utilizando Flask, un microframework de Python, para permitir la visualización en tiempo real de los datos recopilados. La interfaz incluye gráficos y alertas para condiciones climáticas extremas. Fase de Pruebas. Pruebas en Campo: La estación de monitoreo ambiental fue instalada en el Centro Universitario de los Valles de la Universidad de Guadalajara, ya que está rodeado de zonas agrícolas. Se realizaron pruebas durante un periodo de tres semanas para recolectar datos y ajustar la calibración de los sensores. Validación de Datos: Los datos recolectados fueron comparados con los registros de estaciones meteorológicas oficiales para validar la precisión de las mediciones. Se encontraron discrepancias menores que fueron ajustadas mediante calibración adicional.


CONCLUSIONES

Durante el desarrollo de la estación de monitoreo ambiental, se logró adquirir conocimientos teóricos y prácticos en el diseño e implementación de sistemas de monitoreo medio ambientales utilizando tecnologías accesibles como la Raspberry Pi, Ardunio Nano y la impresión 3D. La integración de sensores y el desarrollo de una interfaz de usuario intuitiva permitieron la recolección y visualización de datos meteorológicos en tiempo real. Los resultados obtenidos durante el periodo de pruebas demostraron que la estación de monitoreo ambiental proporciona datos precisos y confiables, la cual contribuirá esencialmente para la planificación agrícola en región de los Valles, Jalisco. La comparación de los datos recolectados con los registros de estaciones meteorológicas oficiales validó la precisión de las mediciones, y los ajustes realizados mejoraron aún más su exactitud. En el contexto del ingenio azucarero, la estación de monitoreo ambiental permitiría ajustar las prácticas de riego y manejo de cultivos, mejorando la eficiencia y reduciendo pérdidas. Esto subraya la importancia de contar con datos climáticos precisos para optimizar la producción agrícola y enfrentar los desafíos específicos de la región. A pesar de los avances logrados, el proyecto aún se encuentra en fases de prototipado. Se espera continuar con la recolección de datos a largo plazo para analizar patrones climáticos y su impacto en la agricultura local. Futuras mejoras en la calibración de sensores y la expansión de la red de estaciones de monitoreo ambiental podrían proporcionar una cobertura más amplia y datos aún más precisos. Además, se prevé que el uso continuo de esta tecnología contribuirá a incrementar la sostenibilidad y productividad agrícola en la región. El conocimiento adquirido y las técnicas desarrolladas pueden ser aplicadas en otros contextos y regiones, proporcionando una herramienta valiosa para enfrentar los desafíos del cambio climático y la variabilidad meteorológica en la agricultura. Desarrollo del proyecto "ESTACIÓN NIMBUS” Video: https://drive.google.com/file/d/1awq5EhNIY7j6gRyHKIEVdf6mNa2rBiaP/view?usp=sharing  
Vargas Hernandez Paola Dannae, Instituto Tecnológico Superior de Guanajuato
Asesor: Esp. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato

MéTODO DE SECADO EN GARBANZO (CICER ARIETINUM) Y GRILLO (ACHETA DOMESTICUS) PARA LA ELABORACIóN DE HARINA Y SU APLICACIóN EN CHURROS COMO BOTANA.


MéTODO DE SECADO EN GARBANZO (CICER ARIETINUM) Y GRILLO (ACHETA DOMESTICUS) PARA LA ELABORACIóN DE HARINA Y SU APLICACIóN EN CHURROS COMO BOTANA.

Flores Morales Yahaira Stephania, Instituto Tecnológico Superior de Guanajuato. Hernández Sánchez Adriana, Instituto Tecnológico Superior de Guanajuato. Vargas Hernandez Paola Dannae, Instituto Tecnológico Superior de Guanajuato. Yañez Aguirre Miriam Alondra, Instituto Tecnológico Superior de Guanajuato. Asesor: Esp. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

De acuerdo en el mercado de botanas en México se ha observado que la mayoría de los productos aporta nutrientes deficientes como lo es el exceso de carbohidratos, déficit de proteínas, grandes cantidades de grasas, sodio y calorías, así como también una falta significativa de fibra. Estos productos ocasionan una mala alimentación, lo que provoca la probabilidad de desarrollar factores de riesgo como lo es la obesidad, que es agente importante para el desarrollo de enfermedades crónicas como puede ser la diabetes, hipertensión, colesterol alto e insuficiencia cardíaca. En México, 36.7% de los adultos vive con obesidad, y 37.4% de los niños de 5 a 11 años presenta sobrepeso y obesidad. Esto coloca a nuestro país en el quinto lugar a nivel mundial en obesidad y sobrepeso. Un aspecto adicional por considerar es la limitada variedad de opciones disponibles para personas con alergias alimentarias, como la intolerancia al gluten. La presencia de alérgenos en muchas botanas comerciales reduce aún más las alternativas para aquellos con necesidades dietéticas específicas. Ante esta situación, surge la necesidad de desarrollar un producto de botanas que ofrezca una opción saludable y apta para personas que busquen una opción saludable. Este producto debe abordar las deficiencias nutricionales observadas en el mercado actual, proporcionando un equilibrio adecuado de nutrientes, bajos niveles de grasas y sodio, y una fuente de fibra satisfactoria. La industria alimentaria plantea necesidades de producción específicas para cada sector y producto, desarrollando nuevos productos que sean capaces de cubrir las exigencias nutricionales.



METODOLOGÍA

En primer lugar, se coció un kilogramo de garbanzos únicamente con agua. Este paso es crucial para ablandar los garbanzos y facilitar su posterior procesamiento. Una vez cocidos, se dejaron enfriar ligeramente antes de ser triturados con una licuadora. Durante este proceso, se aseguró que los garbanzos quedaran en trozos muy pequeños, para facilitar el siguiente paso de secado. Después de triturar los garbanzos, los extendimos en una bandeja para horno y los sometimos a un proceso de secado que duró tres días, para eliminar toda la humedad y ser convertidos en harina. Sin embargo, al finalizar el secado, no se logró la consistencia deseada, ya que los garbanzos no se habían convertido en un polvo fino. Por ello, se volvió a licuar la mezcla y tamizarla, hasta asegurar obtener la textura fina. Para preparar la masa, se colocó un 50% de harina de garbanzo y 30% de harina de grillo, se añadió 330 ml de agua tibia y una cucharadita de aceite de oliva. Mezclamos bien todos los ingredientes hasta obtener una masa homogénea y suave. Luego, se introdujo la masa en una churrera para darle forma. En una sartén, se calentó aceite de oliva, cuidando de alcanzar la temperatura adecuada para freír los churros sin quemarlos. Una vez que el aceite estuvo lo suficientemente caliente, se comenzó a freír los churros. En otra prueba, se experimentó añadiendo chía a la masa. La chía actúa como un ingrediente emulsificante, lo que puede ayudar a mejorar la cohesión y textura de la masa. Donde se repitió el proceso de mezcla y cocción, observando cómo la adición de chía afectaba al resultado final.


CONCLUSIONES

Ambas pruebas experimentales no lograron replicar la textura de productos ya comercializados. A pesar de los esfuerzos, la combinación de estas harinas resultó en un producto final demasiado blando y pastoso, que no se pudo llevar a cocción. Esto sugiere que la proporción de harinas utilizada puede no ser la ideal o que se requiere la adición de otros ingredientes para mejorar la cohesión. Futuras pruebas deberán enfocarse en ajustar la proporción de harinas o explorar la incorporación de otros componentes que puedan potenciar las características deseadas en el churro, sin comprometer el valor nutricional.
Varon Sanchez Angie Alejandra, Universidad del Quindío
Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana

ANÁLISIS DE EVENTOS SÍSMICOS EN LAS CIUDADES DE ARMENIA Y CALARCÁ, QUINDÍO CON ÉNFASIS EN LA AMPLIFICACIÓN SÍSMICA


ANÁLISIS DE EVENTOS SÍSMICOS EN LAS CIUDADES DE ARMENIA Y CALARCÁ, QUINDÍO CON ÉNFASIS EN LA AMPLIFICACIÓN SÍSMICA

Varon Sanchez Angie Alejandra, Universidad del Quindío. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

La ubicación de Calarcá y Armenia en la zona de subducción de la Placa de Nazca bajo la Placa del Caribe las sitúa en una región con alta actividad sísmica. La interacción de estas placas genera una acumulación de energía que se libera periódicamente en forma de terremotos. Además, la presencia de fallas geológicas locales, como la falla Pijao, incrementa la complejidad del sistema sísmico. Por otro lado está la variabilidad de los suelos, que van desde formaciones rocosas hasta depósitos aluviales, influyendo significativamente en la respuesta sísmica local, amplificando las ondas sísmicas en zonas con suelos blandos y aumentando el riesgo de daños estructurales.  



METODOLOGÍA

El presente estudio se centró en analizar la actividad sísmica de las ciudades de Armenia y Calarcá, ubicadas en el Quindío, una región reconocida por su alta actividad sísmica. Para ello, se utilizaron datos de las estaciones acelerográficas ARMEC y CCALA, respectivamente, operadas por el Servicio Geológico Colombiano. La estación de Armenia se encuentra en un tipo de suelo no identificado, mientras que la de Calarcá está ubicada en roca, lo que permitió comparar la amplificación de las ondas sísmicas en diferentes tipos de suelo. Se seleccionaron ocho eventos sísmicos con magnitud igual o superior a 5, registrados en ambas estaciones en un periodo de tiempo entre 1993 y 2017 dado que para este intervalo de tiempo el servicio geológico proporciona información pública y correctamente clasificada. A través del análisis de las acelerogramas obtenidas, utilizando la herramienta "Seismograms Analyzer", se calcularon los valores máximos de aceleración, velocidad y desplazamiento para cada componente (N-S, E-W, Z) y evento sísmico. Los resultados obtenidos evidencian una clara amplificación de las ondas sísmicas en la estación ubicada en suelo (Armenia). En promedio, se observó un factor de amplificación para la componente norte-sur de un 3.6; para la este-oeste de 4.1 y para la componente vertical de 2.9 aproximadamente en comparación con la estación ubicada en roca (Calarcá). Esta amplificación se atribuye a las propiedades dinámicas de los suelos, que tienden a amplificar las componentes de baja frecuencia de las ondas sísmicas, aumentando así la respuesta sísmica de las estructuras construidas sobre estos suelos. Los resultados de este estudio corroboran la importancia de considerar las características del suelo en la evaluación del riesgo sísmico. Los suelos blandos, al amplificar las ondas sísmicas, pueden incrementar significativamente los daños en las estructuras, especialmente en aquellas que no han sido diseñadas para resistir estos efectos.  


CONCLUSIONES

El análisis de los registros sísmicos de las estaciones ARMEC y CCALA en Armenia y Calarcá, respectivamente, ha evidenciado una clara amplificación de las ondas sísmicas en suelos. Los resultados obtenidos indican que los suelos de Armenia, al ser más blandos, amplifican significativamente la respuesta sísmica en comparación con los suelos rocosos de Calarcá. Esta amplificación implica un mayor riesgo sísmico para las estructuras construidas sobre suelos blandos, especialmente aquellas que no han sido diseñadas considerando estos efectos. Los resultados de este estudio subrayan la importancia de realizar estudios de microzonificación sísmica detallados, que permitan identificar las zonas con mayor vulnerabilidad y orientar la planificación urbana y la construcción de infraestructura resistente a sismos. Asimismo, se recomienda actualizar las normas sísmicas y los códigos de construcción para considerar las particularidades locales y garantizar la seguridad de las edificaciones.  
Vasquez Reyes Adanary Susel, Instituto Tecnológico de Piedras Negras
Asesor: Mg. Cielo Ester Marriaga Gonzalez, Universidad del Sinú

ANáLISIS DE LA ADOPCIóN DE LA BLOCKCHAIN EN LABORATORIOS UNIVERSITARIOS: MEJORA DE LA CALIDAD DE AGUA Y BROMATOLOGíA EN LA CADENA DE SUMINISTRO ALIMENTARIO Y SU IMPACTO EN LOS OBJETIVOS DE DESARROLLO SOSTENIBLES


ANáLISIS DE LA ADOPCIóN DE LA BLOCKCHAIN EN LABORATORIOS UNIVERSITARIOS: MEJORA DE LA CALIDAD DE AGUA Y BROMATOLOGíA EN LA CADENA DE SUMINISTRO ALIMENTARIO Y SU IMPACTO EN LOS OBJETIVOS DE DESARROLLO SOSTENIBLES

Centeno Marin Kevin Edgar, Instituto Tecnológico Superior de Ciudad Hidalgo. Loeza Calderón Raúl, Instituto Tecnológico de Morelia. López González Arahat Missael, Instituto Tecnológico Superior de Irapuato. Morales Mendoza Alejandra Meritxell, Instituto Tecnológico Superior de Ciudad Hidalgo. Nuñez López Gerardo, Instituto Tecnológico Superior de Irapuato. Ochoa Garcia Keila Lucia, Instituto Tecnológico de Piedras Negras. Vasquez Reyes Adanary Susel, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Cielo Ester Marriaga Gonzalez, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

En un mundo cada vez más globalizado y conectado, los consumidores demandan transparencia y seguridad en los procesos relacionados con la calidad de los productos alimenticios y del agua. En este contexto, los laboratorios que realizan análisis de estas muestras juegan un papel crucial, ya que sus procesos de recepción, análisis, y generación de resultados deben garantizar precisión, eficiencia y seguridad de la información. Sin embargo, en instituciones como la Universidad del Sinú Seccional - Cartagena, los procesos no están automatizados, lo que genera complejidades y desafíos significativos. Ante estas necesidades, se propone desarrollar un Aplicativo Web que funcionará como una plataforma digital soportada en la tecnología disruptiva Blockchain, asegurando la integridad de los datos sin alteraciones no consensuadas. El proyecto busca optimizar los procesos de los laboratorios de Bromatología y Calidad de Agua de la Universidad del Sinú Seccional Cartagena mediante un aplicativo web que utilice Blockchain para asegurar la calidad y trazabilidad de la información. Esto no solo mejorará la eficiencia operativa, sino que también contribuirá a los Objetivos de Desarrollo Sostenible (ODS), los cuales son los siguientes: Objetivo 2 (Hambre Cero): Gracias a los mejores sistemas de calidad mejorados mediante el aplicativo de la tecnología Blockchain se busca combatir ante esta problemática desde su causa raíz. Objetivo 3 (Salud y Bienestar): Al brindar nuevos sistemas mediante la implementación de la tecnología Blockchain, la calidad de los productos alimenticios incrementará, disminuyendo así los problemas relacionados a la salud. Objetivo 6 (Agua Limpia y Saneamiento): Al trabajar estrechamente con el Laboratorio de Bromatología y Calidad Ambiental, es la forma en que se combatirá a los distintos aspectos de vulnerabilidad con relación al agua y el saneamiento mediante la implementación de la tecnología Blockchain. Objetivo 7 (Energía Asequible y No Contaminante): Al hacer uso de la tecnología Blockchain se precisa en mejorar el uso sostenible de la energía sin generar desperdicios o contaminantes para el medio ambiente. Objetivo 9 (Industria, Innovación e Infraestructura): La tecnología Blockchain es una tecnología emergente, que propone nuevas ideas para hacer su uso en distintos ámbitos, creando así mejoras para distintos sectores de la sociedad. Objetivo 11 (Ciudades y Comunidades Sostenibles): La implementación de la tecnología Blockchain y en conjunto con nuevas tecnologías, servirá de partida para la transformación de las Ciudades en Ciudades Sostenibles.



METODOLOGÍA

Para el proceso de elaboración de este proyecto de investigación se determinaron 4 etapas en las cuales se desarrollarán distintas actividades con el fin de cumplir los objetivos y los resultados esperados. Las etapas son las siguientes: I. Revisión documental del estado de uso de tecnologías 4.0 (BlockChain) en laboratorios a nivel global: El punto consta de las siguientes fases: Como primera fase se estableció y delimitó el objetivo propuesto; en la segunda se delimitaron las bases de filtros para la selección de la información relevante para el artículo; en la tercera fase se definieron los descriptores de búsqueda como Google Académico, Scielo, entre otros; en la cuarta fase se delimitó el uso de gestores bibliográficos como Rayyan y Mendeley; finalmente se llevó a cabo la extracción de datos de interés para la elaboración del artículo. Las conclusiones obtenidas abordan la aplicación de la tecnología en diferentes países y su impacto en la trazabilidad de la cadena de suministro. II. Diseño de base de datos de hoja de vida de equipos (aplicativo para base de datos): Para la creación de una base de datos de las hojas de vida de los equipos, es esencial iniciar con una discusión detallada donde se definirán los requisitos específicos que deben cumplirse, asegurando que todos los aspectos y necesidades del proyecto sean considerados y abordados adecuadamente. Siguiente a esto, se procederá a la elaboración del diseño del esquema de la base de datos. Finalizado el diseño, se implementará la base de datos y se realizarán pruebas exhaustivas para verificar su correcto funcionamiento, incluyendo la inserción, actualización, eliminación y recuperación de datos III. Elaboración de procedimiento de almacenamiento de reactivos de acuerdo con SGA (Sistema Globalmente Armonizado): Es necesario realizar una revisión de las normativas del SGA para identificar las pautas de clasificación, etiquetado y manejo seguro de sustancias químicas. Basado en esta revisión, se debe llevar a cabo un control de inventario que clasifique los reactivos almacenados de acuerdo con el SGA, incluyendo secciones que contengan información sobre el uso y manejo seguro de estos reactivos. IV. Diseño de procedimientos, formatos e instructivos de trabajo bajo la norma 17025: Es necesario hacer una revisión con respecto de los requisitos específicos de la norma ISO/IEC 17025, que cubre la competencia técnica, la validez de los resultados y la gestión del laboratorio. Consecuentemente se debe determinar los procesos clave en el laboratorio que deben documentarse, como la realización de pruebas, calibración, mantenimiento de equipos y gestión de calidad.


CONCLUSIONES

Durante la estancia de verano se logró implementar dos nuevas herramientas para el control de inventario y la creación y manejo de las hojas de vida de los equipos para el Laboratorio de Bromatología y Calidad Ambiental, lo cual acredita a dichos laboratorios bajo la normativa 17025, beneficiando de esta forma con una mejora en la seguridad para el manejo de los reactivos dentro del inventario, así como también un control actualizable en tiempo real de los reactivos y de los equipos de los Laboratorios. De igual forma, se logró adquirir un amplio conocimiento gracias a las ponencias y capacitaciones que se llevaron a cabo durante este periodo, con lo cual se logra identificar la importancia y los usos que se le puede dar a la tecnología Blockchain, no solamente en las cadenas de suministro alimentarias, sino que hasta en un enfoque global, como lo es en las criptomonedas.
Vázquez Ascensión Luis Manuel, Instituto Tecnológico de Colima
Asesor: Mg. Felipe Correa Mahecha, Fundación Universidad de América

EVALUACIóN DEL PROCESO DE BIOTRANSFORMACIóN DE RESIDUOS DE ALIMENTOS PARA LA PRODUCCIóN DE BIODIESEL Y ABONOS ORGáNICOS EMPLEANDO LARVAS DE MOSCA SOLDADO NEGRA (HERMETIA ILLUCENS)


EVALUACIóN DEL PROCESO DE BIOTRANSFORMACIóN DE RESIDUOS DE ALIMENTOS PARA LA PRODUCCIóN DE BIODIESEL Y ABONOS ORGáNICOS EMPLEANDO LARVAS DE MOSCA SOLDADO NEGRA (HERMETIA ILLUCENS)

Guzmán Alcantar Alexander Misael, Instituto Tecnológico de Colima. Vázquez Ascensión Luis Manuel, Instituto Tecnológico de Colima. Asesor: Mg. Felipe Correa Mahecha, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Cada año se generan en todo el mundo más de 2.100 millones de toneladas de residuos sólidos urbanos, pero sólo alrededor del 16% se recicla y más del 46% se desecha. (Kim et al., 2021) El constante aumento de los residuos sólidos urbanos y su mala gestión generan grandes cantidades de CO2 y lixiviados que contaminan el suelo, así como los cuerpos de agua esto genera un riesgo para la salud humana, los ecosistemas y la biodiversidad. Las investigaciones sobre la larva de mosca soldado negra (Hermetia illucens) han demostrado su capacidad para descomponer residuos orgánicos siendo estos aprovechados como abono orgánico y las larvas pueden ser usadas como alimento proteico para animales o al obtener su grasa se puede generar biodiesel.



METODOLOGÍA

Se incubaron 2.1966 g de huevo de mosca soldado negra obtenidos mediante “evolutio_Col” estos mismos fueron alimentados con comida para gallina durante 5 días, las condiciones de la incubadora se establecieron en 28°C y 70% de humedad relativa. Los residuos fueron recolectados de la cafetería de la Universidad de América en Bogotá, Colombia, estos fueron caracterizados y tratados en un molino. A la edad de 5 días se comenzó con el diseño experimental se utilizó un recipiente de 50.26 cm2 preparando 4 tratamientos con 30, 40, 60 y 80 larvas, cada uno se hizo por triplicado y se utilizó un blanco. La tasa de alimentación fue de 35.69 mg (Dw) / larva*día, esta se suministró solo 1/3 los días 0, 5 y 11, esta se calculó en referencia a el autor Lalander (Lalander et al., 2019). Los días 0, 5, 7,11, 13 y 15 se realizó la medición de las larvas en donde se lavaron mediante agua de la llave y secaron con papel, se contaron las vivas y muertas, se pesaron en conjunto con una balanza analítica según el tratamiento y se comparó el tamaño por tratamiento. De cada uno de los sustratos se tomó 1g para realizar pruebas de humedad y ceniza, la prueba de humedad se realizó en un horno a una temperatura de 103°C durante intervalos de 30 minutos hasta llegar a peso constante, el análisis de cenizas se llevó a cabo en una mufla a temperatura de 900°C durante 90 minutos. En el día 15 se sacrificaron las larvas mediante congelamiento, todas las larvas se lavaron y se guardaron en bolsas ziploc según el tratamiento, se utilizó un congelador a -25°C. Se realizaron posteriormente pruebas de humedad y cenizas a cada tratamiento de larvas. A las larvas completamente secas se sometieron a una extracción de grasa por medio del soxhlet haciendo uso del hexano como solvente y se separó la grasa obtenida del solvente mediante un rotoevaporador, los matraces con grasa se sometieron a un proceso de secado en un horno a 103°C hasta alcanzar el peso constante y poder determinar la cantidad de grasa extraída.


CONCLUSIONES

De acuerdo a los resultados obtenidos sobre el sustrato encontramos que la humedad final fue de un promedio de 76.42±1.17 % entre todos los tratamientos se mantuvo constante en todo el periodo de experimentación, mientras que la ceniza encontrada en promedio este día fue de 1.29±0.16% cabe resaltar que la ceniza inicial del alimento molido fue de 6.65±0.66% debido a que la muestra usada fue más grande que en los tratamientos convencionales. En relación a las larvas se obtuvo una humedad de 65.33±2.48% y unas cenizas de 5.2±0.91%. En relación al peso unitario el mejor tratamiento fue el primero con un peso por larva de 0.1178 g, en cuanto al peso total de las larvas el tratamiento cuatro presentó un mayor rendimiento teniendo 7.9232 g, podemos relacionar esto a la cantidad de larvas que contenían los tratamientos y la cantidad de nutrientes que disponían cada larva para su alimentación. La tasa de supervivencia promedio fue de 99.37±0.79 y la mejor bioconversión la presenta el tratamiento 4 con un resultado de 22.68%(Dw). En cuanto a la extracción de grasa se encontró que el tratamiento que presenta un mejor rendimiento es el tercero con un porcentaje de 13.65% un total de 0.932g de grasa cruda, la bioconversión para este tratamiento fue de 17.38% y una eficiencia de bioconversión del 18.36% siendo así la segunda mejor en estos parámetros solo por detrás del cuarto tratamiento con unos valores de 22.68% y 20.14% respectivamente. El porcentaje de bioconversión a grasa en nuestro tercer tratamiento es de 31.55% mostrando un buen rendimiento, en cuanto a la obtención del biodiesel no es posible por la poca cantidad de grasa obtenida, además esta es solo una etapa del proyecto el cual se escalará para obtener mejores resultados.
Vazquez Castro Aracely Nataly, Universidad de Guadalajara
Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara

PUNTOS CUÁNTICOS DE ÓXIDO DE ZINC


PUNTOS CUÁNTICOS DE ÓXIDO DE ZINC

Vazquez Castro Aracely Nataly, Universidad de Guadalajara. Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los puntos cuánticos (QD’s) son nanocristales semiconductores con diámetros en el rango nanométrico, cuya diminuta escala provoca efectos de confinamiento cuántico. Este confinamiento da lugar a propiedades electrónicas y ópticas únicas, como la emisión de luz en longitudes de onda específicas que dependen del tamaño del punto cuántico. Estas nanoestructuras semiconductoras confinan el movimiento de los electrones en la banda de conducción y los huecos en la banda de valencia en las tres direcciones espaciales. Los puntos cuánticos de óxido de zinc (ZnO) han despertado un creciente interés debido a sus singulares propiedades electrónicas y ópticas, que los hacen prometedores para aplicaciones en dispositivos optoelectrónicos, sensores, biomedicina y celdas fotovoltaicas. Es crucial desarrollar métodos de síntesis que permitan un control preciso sobre el tamaño y la morfología de los QD’s de ZnO. Además, se requiere una caracterización detallada para correlacionar las propiedades estructurales con las características ópticas y electrónicas, optimizando así sus aplicaciones tecnológicas.



METODOLOGÍA

Se desarrollaron 2 métodos de síntesis para la obtención de los puntos cuánticos (QD’s) de óxido de zinc (ZnO): La primera síntesis mediante la técnica química aplicada para la síntesis coloidal por el método de precipitación consistió en preparar una solución de 0.28 M de acetato de zinc dihidratado disuelto en 20 ml de etanol al 98% durante 30 minutos con agitación costante. Paralelamente, se preparó otra solución de 0.28 M de hidróxido de potasio (KOH) disuelto en 20 ml de etanol al 98% para crear un medio alcalino en la reacción, mezclando la solución con agitación durante 30 minutos. Posteriormente, se hidrolizó el acetato de zinc (Zn) añadiendo la solución de KOH por goteo, manteniendo la temperatura a 70 °C con agitación constante durante 60 minutos. La solución de QD’ s de ZnO  se mantuvo en refrigeración durante 24 h para la precipitación. La segunda síntesis coloidal se realizó mediante el método de precipitación controlada, Se utilizó acetato de zinc dihidratado como precursor, disolviéndose en etanol al 98% para preparar una solución de 0.02 M. Por separado, se preparó una solución de LiOH a 0.1 M en etanol al 98%. La solución de LiOH se añadió gota a gota a la de acetato de zinc hasta alcanzar un pH de 9-12. La mezcla, inicialmente transparente, se colocó en un baño ultrasónico durante 3 horas. Tras la reacción, los QDs sintetizados se purificaron extrayendo los productos no reaccionados y recolectando las nanopartículas. Para precipitar las partículas, se añadió hexano a la solución en una proporción de 3:1, dejándola reposar en viales separados durante 24 horas. Finalmente, los QDs de ZnO precipitados se lavaron tres veces con etanol para eliminar los precursores no reaccionados. Posterior a la síntesis, los QD’s de ZnO se caracterizaron mediante espectroscopía UV-VIS y fotoluminiscencia (PL). Se analizaron un total de cuatro muestras: una de la primera síntesis descrita anteriormente y tres de la segunda síntesis, con variaciones de pH de 9, 10 y 12.


CONCLUSIONES

Los datos obtenidos de las muestras fueron analizados utilizando el software OriginLab. En la espectroscopía de UV-VIS reveló un pico de mayor absorbancia en el rango de 200-250 nm. Además, al aplicar la ecuación de Tauc para el análisis del espectro, se determinó que el band gap de los QD’s de ZnO se encuentra en el rango de 3.01eV~3.33eV. Estos valores son consistentes con los reportados en otros estudios publicados, lo que nos permite inferir que son característicos de los QD’s de ZnO. En cuanto a la caracterización por fotoluminiscencia (PL), se observaron diferencias significativas entre los dos métodos de síntesis. En la primera síntesis, el punto de emisión más alto se obtuvo alrededor de una longitud de onda de 570 nm, dentro del rango del color amarillo. Por otro lado, en la segunda síntesis, el punto más alto de emisión se obtuvo alrededor de 525 nm, dentro del rango del color verde. Gracias a esta investigación realizada como parte del programa del Verano Delfín, adquirí conocimiento sobre la síntesis de puntos cuánticos de óxido de zinc. Aprendí a manejar equipos de espectroscopía UV-VIS y fotoluminiscencia (PL), además de desarrollar habilidades en el análisis de datos utilizando el software OriginLab para obtener interpretaciones precisas. Sin duda, esta experiencia me permitió aprender diversas técnicas y herramientas que serán fundamentales para mi formación profesional en el campo de la ciencia y la tecnología.
Vazquez Cifuentes Maria del Pilar, Universidad de Ciencias y Artes de Chiapas
Asesor: M.C. Beatriz Espinosa Aquino, Benemérita Universidad Autónoma de Puebla

VALORIZACIóN DE RESIDUOS


VALORIZACIóN DE RESIDUOS

Vazquez Cifuentes Maria del Pilar, Universidad de Ciencias y Artes de Chiapas. Asesor: M.C. Beatriz Espinosa Aquino, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El aumento reciente de los residuos sólidos y el mal manejo sigue generando contaminación de aguas, suelos y aire poniendo en riesgo la salud humana y a la biodiversidad, debido a la modificación y mortalidad de los organismos por la contaminación de sus hábitats. La generación de residuos contribuye al impacto ambiental que tenemos que pagar, siendo a nivel mundial uno de los problemas ambientales más graves que los gobiernos deben enfrentar; en las últimas décadas su ritmo de crecimiento ha sido acelerado.



METODOLOGÍA

  1. Jornada de limpieza del río Atoyac Se realizo una invitación general para las personas que quisieran apoyar en esta causa, el día de la jornada 29 de junio del 2024 a las 8 am asistieron al lugar 2 personas del ayuntamiento para brindarnos información sobre el manejo de los residuos para después organizarnos en grupos y dividir por áreas la zona a limpiar, a continuación se procedió a recoger los residuos que se encontrarán y guardarlos en bolsas para que el personal de recolección de basura nos apoyara para levantar todas las bolsas que se llenaron. 2. Verano científico infantil El verano científico infantil se llevó acabo del 16 al 19 de julio, semanas anteriores a este evento se organizo la forma en la que se iba a llevar acabo, se alistaron los materiales como cartones, cajas de cereal, botellas de plástico y más residuos que pueden ser reutilizables, el día 19 de julio se llegó antes de las 9am para acomodar el espacio donde se recibirían a los niños, a las 10 am se realizaron las actividades proporcionando información sobre los residuos sólidos, sus clasificación y formas de aprovecharlos.      


CONCLUSIONES

Durante la estancia del verano se logró obtener más conocimientos sobre los residuos sólidos y su valorización, con esto se pudo compartir esta información con más personas, concluyendo que este tema es de gran relevancia para poder cuidar nuestro medio ambiente.
Vázquez Espino Martha Paola, Instituto Tecnológico Superior Purépecha
Asesor: Mg. Manuel Hernando Franco Arias, Universidad Autónoma de Bucaramanga

DISEÑO DE UNA HERRAMIENTA COMPUTACIONAL BASADA EN INTELIGENCIA ARTIFICIAL PARA LA IDENTIFICACIÓN DE RETINOPATÍA DIABÉTICA


DISEÑO DE UNA HERRAMIENTA COMPUTACIONAL BASADA EN INTELIGENCIA ARTIFICIAL PARA LA IDENTIFICACIÓN DE RETINOPATÍA DIABÉTICA

Pulido Sebastián Allizon Sherlin, Instituto Tecnológico Superior Purépecha. Vázquez Espino Martha Paola, Instituto Tecnológico Superior Purépecha. Asesor: Mg. Manuel Hernando Franco Arias, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

PLANTEAMIENTO DEL PROBLEMA   La retinopatía diabética es una complicación ocular de la diabetes que afecta los vasos sanguíneos de la retina. A medida que la enfermedad progresa, pueden aparecer diversas anomalías que pueden ser clasificadas en diferentes etapas. La retinopatía diabética es la causa más importante de ceguera en muchos países según la organización Mundial de la Salud, la misma estima que la retinopatía diabética produce casi 5% de los 37 millones de ciegos del mundo, ahora bien en América Latina, hasta un 40% de los pacientes diabéticos tiene algún grado de RD Uno de los problemas cruciales es la detección de cada anomalía, siendo que en la retinopatía diabética se encuentran 8 anomalías. Lo que provoca un retraso en el diagnóstico, aún más si el paciente tiene 3 o más anomalías. La inteligencia artificial ha revolucionado en el campo de la medicina especialmente en la detección y el diagnóstico de enfermedades, como lo es, la retinopatía diabética. Esta enfermedad ocular causada por la diabetes no solo puede llevar a daños irreversibles en la retina si no se detecta a tiempo. Por tal motivo se pensó en una herramienta que pueda agilizar el proceso de la detección de ellas, de una manera eficaz, en el verano trabajamos en la creación de una herramienta computacional basándonos en una inteligencia artificial, dando así una mejora al detectar patologías de retinopatía diabética. 



METODOLOGÍA

METODOLOGÍA Se creó un código donde al meter imágenes con anomalías de retinopatía diabética nos mostraba la imagen a color, a escala de grises e invertidas, esto para identificar con cuál de las tres tonalidades (rojo, verde y azul) se podían identificar mejor cada  una de las anomalías. Depende de cada anomalía se realizó un desglose dando a un resultado para agilizar el proceso de un diagnóstico fácil, rápido y eficaz. Como resultados en este código se obtuvo que en los micoaneurismas el RGB que identifica mejor la anomalía es la roja, en la anomalía de hemorragia la capa que agiliza su detección es la roja y verde descartando la capa azul, para los exudados la capa verde es la que favorece su detección, en los edemas maculares la capa verde nos facilita su detección, en desprendimiento la capara verde nos ayuda a agilizar su localización. Al tener los resultados, de cual tonalidad resaltaba más la anomalía, procedimos a realizar el cambio de brillo de la imagen con la capa que favoreció más la detección de la anomalía, esto para resaltar aún más el contorno de la anomalía, dándonos esto al paso al siguiente, donde ahí se identifican los parámetros, es decir donde se encuentra exactamente la anomalía dentro de la retina, esto para obtener su área y el porcentaje que abarca dentro de la misma, al tener los resultados se realizó otro código para generar una imagen en binario y resaltar únicamente el o las anomalías, por consiguiente lo pasamos a un código que su función es filtrar la imagen y quitar los ruidos que nos generen, estos ruidos son identificaciones no patológicas, por ultimo resaltamos los bordes dándonos el porciento de la retina. Sí una imagen de retina tiene 3 anomalías a cada una de la anomalía se saca su porcentaje y área para dar el resultado de cuantas anomalía tiene y dar un diagnostico eficaz, rápido y conciso al completar esto la herramienta no solo agiliza el proceso del diagnóstico, sino que también mejora la precisión y reduce errores. Esta herramienta detecta cuantas anomalías hay dentro de la retina de los pacientes con retinopatía diabética, así como también da como resultado que porcentaje de la retina está afectada y que área tiene cada anomalía dentro de la retina. Aunado a esto, facilita la detección temprana a las enfermedades u anomalías, lo que es crucial para intervenir a tiempo y prevenir complicaciones graves A su vez está transformando radicalmente la manera en que se aborda y trata la retinopatía diabética, promoviendo a los médicos una herramienta con atención más eficaz y personalizada para los pacientes. Las fotos con las cuales se hicieron las pruebas fueron otorgadas por el investigador y el laboratorio de biomédica en el edificio de ingenierías de la Universidad Autónoma de Bucaramanga. 


CONCLUSIONES

CONCLUSIONES   A largo de esta estadía, se logró concluir con las estipulaciones de la investigación, generando un conocimiento grato y sumamente enriquecedor tanto teórico como practico, adquirir conocimientos afondo de cada patología de la retinopatía diabética así como el proceso de la creación de una herramienta con sus métodos de programación y su procesamiento de señales para su detección, gracias al acompañamiento del investigador se alcanzaron los objetivos de la investigación.
Vázquez García Estefanía, Universidad Veracruzana
Asesor: Dr. César Antonio González Díaz, Instituto Politécnico Nacional

DISEÑO Y EVALUACIÓN DE UN SISTEMA EBI BASADO EN AD5933EBZ PARA DETERMINAR CONCENTRACIONES DE ADN


DISEÑO Y EVALUACIÓN DE UN SISTEMA EBI BASADO EN AD5933EBZ PARA DETERMINAR CONCENTRACIONES DE ADN

Romero Andrade Joshua Alán, Universidad de Sonora. Vázquez García Estefanía, Universidad Veracruzana. Asesor: Dr. César Antonio González Díaz, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La estimación de la concentracion de Acidos Desoxirribonucléicos (ADN) demanda de equipos basados en espectrofotometría Visible (Vis) y Ultravioleta (UV), tales equipos no siempre se encuentran disponibles en laboratorios de biologia molecular de bajos recursos. Tecnologías de biosensores emergentes para la detección de ADN utilizan métodos basados en marcado y/o funcionalización del analito y/o sustrato transductor, respectivamente, lo cual demanda de pre-procesos altamente especializados y reactivos de costo elevado. En este trabajo se propone explorar mediciones de bioimpedancia eléctrica multifrecuencia (EBI) como técnica libre de marcado y funcionalización para detectar diferentes concentraciones de ADN. Se propone el desarrolllo de un sistema EBI basado en la tarjeta de evaluación Analog Device Inc. AD5933EBZ, la cuál es un sistema convertidor de impedancia de alta precisión multifrecuencia.



METODOLOGÍA

1. Adecuación Sistema Microelectrodos - Sistema EBI para su Comunicación: Se estarán utilizando muestras de ADN de varios sujetos voluntarios, así como una muestra de control (Mili-Q). Dichas muestras serán colocadas en un sistema de microelectrodos adaptado para su conexión y comunicación con la Tarjeta de Evaluación AD5933EBZ mediante cable par trenzado y conector BNC macho. 2. Instrumentación (Configuración y Calibrado de Tarjeta de Evaluación AD5933EBZ): Calibración mediante circuitos RC (Modelo Cole-Cole). Estimación de resistencia de calibración para tarjeta de evaluación, además de implementación de resistencia de retroalimentación (FR) indicada por el fabricante. 3. Mediciones de Concentración de ADN por equipo Sciospec y TE AD5933EBZ y comparativa Mediciones de bioimpedancia eléctrica se realizan como mediciones de deflexión, midiendo la respuesta del sistema a una excitación eléctrica externa. Corriente es inyectada a la muestra o tejido bajo estudio (TUS) y caída de potencial generada es medida, o viceversa. Comparación de los datos obtenidos y graficados frente a mediciones realizadas en software Sciospec ISX3, con el fin de verificar correlación. 4. Organización de la base de datos obtenida con las mediciones realizadas. 5. Extracción de Características por Análisis de Bioimpedancia de ADN.   


CONCLUSIONES

Durante la estancia de investigación se analizó si la tarjeta de evaluación AD5933EBZ es eficiente para detectar diferentes concentraciones de ADN a través de la obtención de mediciones de bioimpedancia. Se llegó a la conclusión de que la tarjeta funciona en un determinado rango de frecuencias, por lo que sí es posible reemplazar el uso de otros sistemas de medición de concentraciones y pureza mucho más costosos por la tarjeta (procurando siempre que se utilice en el rango indicado). Se determinó que a futuro lo adecuado sería continuar con la extracción de características pero ahora haciendo uso de herramientas como la inteligencia artificial. 
Vazquez Ledesma Brandon, Universidad Autónoma de Baja California
Asesor: Dr. Bernardino Castillo Toledo, Instituto Politécnico Nacional

PUESTA A PUNTO DE UN DRON PARA MONITOREO PERIMETRAL.


PUESTA A PUNTO DE UN DRON PARA MONITOREO PERIMETRAL.

Iñiguez Hernández Marco Antonio, Universidad Autónoma de Baja California. Manzanares Aguilar Juan Jesús, Tecnológico de Estudios Superiores de Villa Guerrero. Nájera Aguilar Priscila, Instituto Tecnológico Superior de Irapuato. Vazquez Ledesma Brandon, Universidad Autónoma de Baja California. Asesor: Dr. Bernardino Castillo Toledo, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual, la seguridad en las instituciones educativas es una preocupación primordial. Las escuelas buscan constantemente métodos más eficientes y efectivos para garantizar la seguridad de sus instalaciones y proteger a sus estudiantes y personal. Sin embargo, los métodos tradicionales de vigilancia, como el uso de guardias de seguridad o cámaras fijas, presentan limitaciones en cuanto a cobertura, costo y efectividad. La vigilancia manual es costosa y limitada por el número de personal disponible y su capacidad para monitorear grandes áreas de manera constante. Por otro lado, las cámaras de seguridad fijas, aunque son muy útiles, no pueden cubrir todas las áreas y ángulos de un perímetro extenso, y su instalación y mantenimiento representan un costo significativo. En respuesta a estas limitaciones, surge la necesidad de un sistema de vigilancia más avanzado y eficiente. El uso de drones para el monitoreo perimetral se presenta como una solución innovadora, capaz de ofrecer una cobertura más amplia y flexible a un costo relativamente menor. Los drones equipados con cámaras pueden volar de manera autónoma alrededor de un perímetro, proporcionando una vigilancia continua y en tiempo real de áreas extensas y de difícil acceso para el personal de seguridad. Además, para que este sistema sea verdaderamente autónomo y eficiente, es crucial que los drones puedan gestionar su energía de manera independiente. Una base de carga autónoma permitiría que los drones se recarguen automáticamente cuando sus niveles de batería sean bajos, asegurando así una operación ininterrumpida. El objetivo de este trabajo de investigación es desarrollar un dron con capacidad de vuelo autónomo para el monitoreo perimetral del CINVESTAV, equipado con una cámara para vigilancia y una base de carga que permita su recarga automática. Este sistema tiene el potencial de mejorar significativamente la seguridad en esta institución, ofreciendo una solución más flexible, eficiente y económica que los métodos tradicionales de vigilancia.



METODOLOGÍA

Selección del equipo Controlador del dron: Para el control del dron se utilizó el Pixhawk 2.4.8, conocido por su capacidad de manejar vuelos autónomos y su compatibilidad con diversas plataformas de software de control de vuelo. Software de control: Inicialmente se intentó utilizar Matlab para la conexión y control del dron. Sin embargo, debido a dificultades técnicas, se optó por usar Mission Planner, un software ampliamente utilizado y compatible con Pixhawk, que permite la planificación y control de vuelos autónomos. Evaluación y selección del dron Se probaron varios drones disponibles en la escuela para evaluar su rendimiento. Las pruebas incluyeron la verificación de la estabilidad de vuelo y la duración de la batería. Tras una serie de pruebas, se seleccionó el dron que mostró el mejor desempeño y estabilidad, adecuado para el monitoreo perimetral de la escuela. Desarrollo del controlador Controlador PID: Se desarrolló un controlador PID (Proporcional-Integral-Derivativo) para el dron, con el objetivo de garantizar un vuelo estable y preciso. El controlador PID fue ajustado y probado en múltiples iteraciones para optimizar el rendimiento del dron durante vuelos autónomos. Pruebas de vuelo autónomo: Se realizaron pruebas de vuelo autónomo utilizando el controlador PID desarrollado. Estas pruebas incluyeron la planificación de rutas de vuelo específicas alrededor del perímetro de la escuela, con el objetivo de asegurar que el dron pudiera seguir la ruta planificada de manera precisa y estable. Modelado y control del dron Se dedicó tiempo a comprender y modelar el comportamiento dinámico del dron. El modelado permitió simular el comportamiento del dron bajo diferentes condiciones y ajustar los parámetros del controlador para mejorar el rendimiento.


CONCLUSIONES

El objetivo principal de este proyecto era desarrollar un sistema de vuelo autónomo para un dron destinado al monitoreo perimetral del CINVESTAV. A lo largo de las últimas siete semanas, se logró implementar y probar con éxito el controlador PID en el dron seleccionado, lo que permitió realizar pruebas de vuelo autónomo. Estas pruebas demostraron la capacidad del dron para seguir rutas planificadas de manera precisa y estable, cumpliendo así con el objetivo inicial de establecer un vuelo autónomo eficaz. La metodología empleada incluyó la selección del dron adecuado, el desarrollo y ajuste del controlador PID, y la planificación de rutas de vuelo específicas. A pesar de los desafíos iniciales con el uso de Matlab, la transición a Mission Planner permitió superar estos obstáculos y avanzar en el proyecto de manera efectiva. Los siguientes pasos en este proyecto incluyen la integración de una cámara para la captura de video en tiempo real, lo que permitirá la vigilancia continua del perímetro de la escuela. Además, es crucial definir y optimizar las rutas de vuelo del dron para maximizar la cobertura y eficiencia del monitoreo. Finalmente, la implementación de una base de carga autónoma garantizará que el dron pueda operar de manera continua sin intervención humana, completando así el sistema autónomo de monitoreo perimetral. Con estos avances, el proyecto está bien encaminado para ofrecer una solución innovadora y eficiente para la seguridad de la institución educativa, proporcionando una vigilancia flexible y económica que supera las limitaciones de los métodos tradicionales.
Vazquez Marquez Erika, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave

PLANEACIóN FINANCIERA COMO ESTRATEGIA DE GESTIóN E INNOVACIóN DE PROCESOS EN UNA MICROEMPRESA COMERCIAL DE GUASAVE, SINALOA.


PLANEACIóN FINANCIERA COMO ESTRATEGIA DE GESTIóN E INNOVACIóN DE PROCESOS EN UNA MICROEMPRESA COMERCIAL DE GUASAVE, SINALOA.

Arellano Hinojosa Fidel Ernesto, Instituto Tecnológico de Ciudad Juárez. Cantú Dueñas José Antonio, Instituto Tecnológico de Nuevo Laredo. Cervantes Dominguez Fernando Ivan, Instituto Tecnológico de Ciudad Juárez. Huerta Uribe Brittania, Instituto Tecnológico de Ciudad Juárez. Machuca Bedoya Alejandro, Universidad de Investigación y Desarrollo. Martinez Segovia Karen Paola, Instituto Tecnológico de Ciudad Juárez. Sierra Barrios José Vicente, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Vazquez Marquez Erika, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

La gestión e innovación de procesos son esenciales para que las microempresas comerciales puedan mantenerse competitivas y eficientes en el mercado actual. Sin embargo, muchas de estas microempresas enfrentan desafíos significativos debido a la falta de una planeación financiera adecuada. En el municipio de Guasave, las microempresas comerciales representan una parte sustancial de la economía local, pero a menudo carecen de las herramientas y estrategias necesarias para gestionar eficazmente sus recursos financieros y operativos. La ausencia de una planeación financiera robusta puede resultar en una gestión ineficiente de los procesos internos, llevando a problemas como la falta de control de inventarios, registros financieros inadecuados y decisiones financieras erróneas. Estos problemas no solo afectan la operatividad diaria de las empresas, sino que también limitan su capacidad para crecer y adaptarse a las cambiantes condiciones del mercado. El Instituto Nacional de Estadística y Geografía (INEGI, 2018) reporta que una gran mayoría de las microempresas en México, incluyendo aquellas en Guasave, no llevan registros contables formales y enfrentan complicaciones administrativas que obstaculizan su crecimiento. Esta situación subraya la necesidad de implementar estrategias de planeación financiera que apoyen la gestión e innovación de procesos en estas empresas. Por lo tanto, la problemática central de esta investigación se plantea de la siguiente manera: ¿Cómo influye la implementación de una planeación financiera adecuada en la gestión e innovación de procesos en una microempresa comercial en el municipio de Guasave?



METODOLOGÍA

Esta investigación adopta un enfoque mixto y descriptivo exploratorio mediante un estudio de caso para evaluar la eficiencia del proceso de gestión e innovación de procesos apoyado por la planeación financiera en una microempresa comercial. La investigación mixta, descrita por Johnson et al. (2006) como una combinación de enfoques cuantitativos y cualitativos, y definida por Sampieri, Fernández y Baptista (2014) como una metodología multimétodo, permite una comprensión integral del fenómeno estudiado. Stake (1984) define el estudio de caso como un análisis riguroso orientado a obtener relaciones generales del caso observado. La metodología descriptiva, según Caballero (2014), se enfoca en desarrollar definiciones y conceptos básicos, mientras que Cea (2010) resalta que los estudios exploratorios identifican variables relevantes para futuras investigaciones. Para la recolección de datos, se utilizaron técnicas cualitativas como entrevistas semiestructuradas y observación participante. Mendicoa (2003) describe la entrevista semiestructurada como una herramienta cualitativa que facilita la comprensión de las perspectivas de los informantes. Lahire (2008) y Spradley (1980) sostienen que la observación participante permite un estudio profundo de situaciones sociales específicas.


CONCLUSIONES

Un proceso de gestión e innovación de procesos deficiente puede llevar a decisiones erróneas, dificultades financieras y pérdida de oportunidades de crecimiento. La implementación de herramientas tecnológicas, como software para control de flujo de efectivo e inventarios, es fundamental para mejorar la eficiencia y precisión en la gestión. La elaboración de estados financieros es crucial para la toma de decisiones y planificación futura. La falta de financiamiento externo puede limitar la capacidad de expansión y respuesta a situaciones imprevistas. Se recomienda a la empresa implementar un punto de venta para mejorar el control de ingresos y salidas, realizar inventarios físicos semestrales y registrar adecuadamente todos los egresos. Además, se sugiere elaborar informes financieros proforma para planificar operaciones futuras. Esta investigación se realizó durante mi estancia de investigación científica, y ha sido una experiencia invaluable para mi formación profesional. Participar en este proyecto me ha permitido aplicar conocimientos teóricos a un contexto real, desarrollando habilidades prácticas en la recolección y análisis de datos, así como en la elaboración de estrategias de mejora para microempresas. Esta experiencia ha reforzado mi comprensión sobre la importancia de la planeación financiera en la gestión e innovación de procesos y su impacto en la competitividad y sostenibilidad de las empresas. Futuras investigaciones deben explorar la planificación financiera en MiPymes más organizadas y evaluar la utilidad de las estrategias propuestas en este trabajo. Además, es fundamental seguir investigando para identificar y desarrollar nuevas herramientas y metodologías que puedan apoyar aún más a las microempresas en su camino hacia una gestión más eficiente y efectiva.
Vazquez Navarro Lucia Vanessa, Universidad Autónoma de Sinaloa
Asesor: Dr. Joaquín Flores Valenzuela, Universidad Autónoma de Sinaloa

MATERIALES NANOESTRUCTURADOS EN ZEOLITAS Y ARCILLAS


MATERIALES NANOESTRUCTURADOS EN ZEOLITAS Y ARCILLAS

Rodríguez Gámez Brianda Lizbeth, Universidad Autónoma de Sinaloa. Salmerón Bastidas César Noel, Universidad Autónoma de Sinaloa. Vazquez Navarro Lucia Vanessa, Universidad Autónoma de Sinaloa. Asesor: Dr. Joaquín Flores Valenzuela, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Esta investigación surgió debido a que observamos las altas cantidades de colorantes contaminantes que existen en el medio ambiente, haciendo énfasis en el agua. Por ello, es posible utilizar alternativas para su eliminación mediante un proceso de fotocatálisis.



METODOLOGÍA

Preparación del Equipo Preparación del Laboratorio Limpieza y Organización: Limpiar y organizar el espacio de trabajo para asegurar un entorno seguro y ordenado. Inventario de Equipos: Verificar la disponibilidad y estado de todos los equipos e instrumentos necesarios. Calibración de Instrumentos Verificación de Funcionamiento: Asegurarse de que todos los instrumentos están funcionando correctamente. Calibración: Realizar la calibración de equipos como balanzas, espectrómetros, microscopios, etc., según las especificaciones del fabricante. Adquisición de Materiales Lista de Materiales: Crear una lista detallada de todos los materiales y reactivos necesarios. Compra y Recolección: Adquirir y/o recolectar los materiales adicionales que no estén disponibles en el laboratorio. Experimentación con Zeolita A4 Preparación de Reactivos y Muestras Preparación de Soluciones: Preparar las soluciones y reactivos necesarios para la experimentación con zinc. Preparación de Muestras: Preparar las muestras de zinc siguiendo los protocolos específicos establecidos. Ejecución del Experimento Protocolos: Ejecutar el experimento siguiendo los protocolos detallados previamente definidos. Registro de Datos: Registrar todos los datos experimentales de manera precisa y detallada. Control de Calidad Verificación de Datos: Verificar la precisión y reproducibilidad de los datos recolectados. Experimentos de Control: Realizar experimentos de control si es necesario para asegurar la validez de los resultados. Secado de Muestras Preparación para el Secado Selección del Método de Secado: Seleccionar el método de secado más adecuado (Mufla). Preparación de las Muestras: Preparar las muestras para el proceso de secado, asegurando que están listas para ser secadas sin alteraciones. Proceso de Secado Condiciones de Secado: Secar las muestras siguiendo las condiciones específicas (temperatura y tiempo). Monitoreo: Monitorear continuamente el proceso de secado para evitar la degradación de las muestras. Almacenamiento de Muestras Secas Condiciones de Almacenamiento: Almacenar las muestras secas en condiciones adecuadas para su preservación. Etiquetado y Registro: Etiquetar y registrar cada muestra de manera precisa para facilitar su identificación posterior. Caracterización de Muestras Selección de Técnicas Analíticas Identificación de Técnicas: Seleccionar las técnicas analíticas necesarias para la caracterización de las muestras de zeolita (FTIR). Preparación para la Caracterización Preparación de Muestras: Preparar las muestras según los requerimientos de cada técnica analítica. Verificación de Equipos: Asegurarse de que los equipos de análisis están correctamente calibrados y en buen estado de funcionamiento. Realización de la Caracterización Análisis: Realizar los análisis utilizando las técnicas seleccionadas. Registro y Análisis de Datos: Registrar y analizar los datos obtenidos para determinar las propiedades del zinc. Interpretación de Datos Análisis Comparativo: Interpretar los datos obtenidos y compararlos con la literatura existente. Identificación de Discrepancias: Identificar posibles discrepancias y discutir sus causas.


CONCLUSIONES

Ya que se obtuvieron las nanopartículas de la zeolita A4 con cobre, se procede a analizar los resultados arrojados, para buscar una función en su correcta aplicación.
Vazquez Peraza Lilia Yaritzy, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

APRENDIENDO LA SINTAXIS DE SQL: DESDE COMANDOS BáSICOS HASTA CONSULTAS AVANZADAS


APRENDIENDO LA SINTAXIS DE SQL: DESDE COMANDOS BáSICOS HASTA CONSULTAS AVANZADAS

Vazquez Peraza Lilia Yaritzy, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El presente trabajo tiene como objetivo proporcionar una guía comprensible y práctica sobre la sintaxis básica de SQL, enfocada en los comandos fundamentales y su aplicación en la manipulación de bases de datos. Dado que SQL es una herramienta esencial en el campo de las Tecnologías de la Información y Comunicación, este manual está dirigido a estudiantes y profesionales que deseen adquirir o reforzar sus conocimientos en la materia. El contenido se estructura desde los comandos más básicos hasta consultas avanzadas, proporcionando ejemplos claros y resultados esperados de cada operación.



METODOLOGÍA

Para la elaboración del trabajo, se ha seguido un enfoque didáctico y estructurado. El trabajo se divide en varias secciones, cada una dedicada a un comando específico de SQL. Cada sección incluye: Descripción del Comando: Explicación teórica del comando y su utilidad. Sintaxis: Presentación de la sintaxis correcta del comando. Ejemplo Práctico: Ejemplo de código SQL que utiliza el comando descrito. Resultados: Muestra de los resultados esperados tras la ejecución del comando. Verificación: Confirmación de la ejecución correcta del código mediante figuras que ilustran los resultados obtenidos. Los comandos analizados incluyen SELECT, INSERT, UPDATE, DELETE, JOIN e INNER JOIN. Se emplearon bases de datos ficticias para los ejemplos, garantizando así que los conceptos sean fácilmente entendidos sin requerir conocimientos previos avanzados.


CONCLUSIONES

Este trabajo ofrece una herramienta educativa valiosa para aquellos interesados en aprender SQL desde sus fundamentos. A través de una explicación detallada y ejemplos prácticos, se facilita la comprensión y aplicación de los comandos básicos y avanzados de SQL. La estructura clara y el enfoque práctico aseguran que los lectores puedan seguir y reproducir los ejemplos por sí mismos, fomentando un aprendizaje activo. En conclusión, esta guía no solo sirve como un recurso de aprendizaje, sino también como una referencia rápida para consultas futuras en el ámbito de la administración de bases de datos. En lo personal, la realización de este trabajo ha representado una oportunidad para profundizar en el conocimiento de SQL, consolidando habilidades fundamentales en la gestión de bases de datos. La experiencia adquirida no solo ha sido enriquecedora en términos técnicos, sino también en la capacidad de transmitir conocimientos de manera efectiva. No solo sirve como un recurso de aprendizaje, sino también como una referencia rápida para consultas futuras en el ámbito de la administración de bases de datos. ¿Cómo crees que el dominio de SQL podría impactar tu desarrollo profesional y las oportunidades en el campo de la tecnología de la información?
Vazquez Ramos Jose Gregorio, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dra. Mirna de Jesús Ojeda Arana, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías

DISEñO DE UN COMAL SOSTENIBLE PARA LA COCCIóN EN SECO DE TORTILLAS DE MAíZ Y DE HARINA.


DISEñO DE UN COMAL SOSTENIBLE PARA LA COCCIóN EN SECO DE TORTILLAS DE MAíZ Y DE HARINA.

Vazquez Ramos Jose Gregorio, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dra. Mirna de Jesús Ojeda Arana, Consejo Quintanarroense de Humanidades, Ciencias y Tecnologías



PLANTEAMIENTO DEL PROBLEMA

En las comunidades rurales de México, las personas dedicadas a la elaboración de tortillas a mano ocupan comales que liberan mucho humo a partir de la quema de combustible que es la leña, muchas veces el inhalar este tipo de humo puede causar problemas respiratorios e incluso problemas cardiovasculares, la Organización Mundial de la Salud (OMS) indica que la exposición prolongada y la escasez de un método para extraer el humo de los hogares es un problema de morbilidad, pues la combustión de la leña o quema de biomasa generan gases y partículas que son factores de riesgo para la salud. Así mismo Pablo Ramos (2018) nos dice que la incompleta combustión de los hidrocarburos o madera de estos dispositivos puede provocar la inhalación de este gas tóxico produciendo graves daños en la salud ya que el monóxido de carbono se acumula en las viviendas si la circulación de aire y el funcionamiento es inadecuado.es así que si no hay una completa combustión no se podrá aprovechar adecuadamente la energía producida por la quema de leña y por ende puede provocar diversos problemas que son perjudiciales.



METODOLOGÍA

Al conocer el contexto del problema se realizó una investigación documental, donde se visitó diversas fuentes de información que aporto información importante para el diseño sostenible del comal como los diferentes tipos de materiales que se pueden ocupar con ello se observó que los materiales fueran sostenibles y duraderos, en este caso como sabemos que es para el uso alimenticio se optó por buscar materiales que se ocuparan en este ámbito para ello se encontró que el acero inoxidable serie 300 son más utilizados en el sector alimenticio, este tipo de material seria ocupado para el comal y acompañado de ello buscar las diferentes formas geométricas que permite la distribución uniforme del calor esto para que se pudiera aprovechar aún más el flujo de calor, además que se requirió buscar materiales que soportaran altas temperaturas y que pudiera funcionar como un aislante térmico para que la energía obtenida por el calor se aproveche de la mejor manera, con eso se encontró que el material apto para este tipo de condiciones es el ladrillo pues sus propiedades térmicas como resistivas permite que nuestro diseño de comal pueda ser eficiente, por ende este material  seria ocupado para nuestra cámara de combustión y la base que sostendría a nuestro comal. Además, que se buscó materiales que permitiera el flujo de salida de humo y se encontró que los materiales más utilizados para esta labor y que son denominadas chimeneas es el acero galvanizado, el cual se puede ocupar en un espacio externo puesto que se busca que la salida de humo salga al exterior y reste no se quede estancando en la cámara de combustión y por consecuencia la persona que prepara la tortilla llegue a inhalar el humo poniendo en riesgo su salud. Una vez considerando los materiales se realizaron diferentes bocetos que permitiera plasmar una idea central, teniendo en cuenta diferentes factores como la eficiencia energética, la facilidad de uso y la durabilidad, con ello se procedió a seleccionar el más adecuado para poder plasmarlo ahora en un software de diseño y poder ahora plasmar la idea realizada en un boceto en una idea más centrada. Con ello llevo a cabo el diseño del comal en un software llamado SolidWorks, para ello se realizó las diferentes partes que conformarían al comal en general como lo es el comal, la cámara de combustión junto con la base y la chimenea, una vez diseñado cada uno de las partes se realizó un ensamble con todas las piezas juntas que obtendríamos como resultado el comal que se plasmó en el boceto generando así una idea final por medio del software de dibujo.


CONCLUSIONES

Se puede decir que el diseño del comal sostenible para la cocción de tortillas de maíz y de harina es un proyecto que ha logrado crear una solución innovadora y eficiente que no solo mejora la salud de las personas, sino que también ayuda a contribuir al desarrollo de las comunidades de México, además que la implementación del proyecto puede tener un impacto significativo ya que la tortilla es un alimento básico para la dieta diaria de millones de personas. Al proporcionar un diseño que sirva como herramienta sostenible podemos ayudar tanto como a las personas de las comunidades como también a la sostenibilidad ambiental. Además,  que el comal sostenible diseñado reduce el consumo de energía, así mismo es fácil de limpiar y mantener lo cual lo hace más accesible a las comunidades rurales con ello podemos decir que es una herramienta poderosa para abordar desafíos sociales como ambientales y con ello esperamos que el proyecto sea un punto de partida para futuras iniciativas que busquen mejorar la calidad de vida de las comunidades rurales en México y que inspiren a otros a seguir trabajando hacia un futuro sostenible.
Vazquez Regalado Hariana Lluvia, Universidad Autónoma del Estado de México
Asesor: Dr. Franchescoli Didier Velázquez Herrera, Benemérita Universidad Autónoma de Puebla

SíNTESIS DE MATERIALES POROSOS PARA LA PRODUCCIóN DE BIODIéSEL


SíNTESIS DE MATERIALES POROSOS PARA LA PRODUCCIóN DE BIODIéSEL

Vazquez Regalado Hariana Lluvia, Universidad Autónoma del Estado de México. Asesor: Dr. Franchescoli Didier Velázquez Herrera, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La búsqueda de alternativas sostenibles a los combustibles fósiles ha impulsado el interés en el biodiésel, un combustible renovable producido a partir de aceites vegetales y grasas animales mediante procesos químicos. El biodiésel puede ser utilizado como sustituto directo o aditivo del diésel, destacándose como una opción renovable y menos contaminante. A pesar de sus ventajas en términos de eficiencia del proceso, los catalizadores utilizados en la transesterificación de triglicéridos, el principal proceso en su producción, enfrentan limitaciones en estabilidad y reutilización, afectando la eficiencia y rentabilidad del proceso. La transesterificación de triglicéridos con metanol o etanol en presencia de catalizadores ácidos (H₂SO₄) o básicos (NaOH) produce metil ésteres de ácidos grasos (biodiésel) y glicerol. Las hidrotalcitas de Mg/Al y las cenizas volcánicas, con su alta superficie específica y estructura porosa, presentan propiedades catalíticas que pueden mejorar la eficiencia de este proceso. Estos materiales permiten una buena difusión de reactivos, optimizando el rendimiento de los catalizadores convencionales. El uso de materiales porosos en la producción de biodiésel puede contribuir al desarrollo de catalizadores más eficientes y sostenibles, impactando positivamente en la industria del biodiésel. 



METODOLOGÍA

Proceso de síntesis para la preparación de catalizadores La síntesis de hidrotalcita de composición metálica Mg/Al se realiza a partir de dos soluciones acuosas: una con nitrato de magnesio Mg(NO3)2·6H2O y nitrato de aluminio Al(NO3)3·9H2O disueltos en agua destilada, y otra con hidróxido de sodio (NaOH) a 0.2 M. Las proporciones de los nitratos se ajustan para obtener relaciones molares de Mg/Al de 2:1, 3:1, 5:1, 7:1 y 10:1. Estas soluciones se añaden simultáneamente a un reactor con agitación, manteniendo el pH de la mezcla en 11.0. La mezcla resultante se somete a ultrasonido durante 20 minutos a una frecuencia de 200 GHz y 25°C para mejorar la dispersión del material y facilitar la precipitación de sólidos. El sólido se recupera por decantación y se lava dos veces en un vaso de precipitados de 4 L para eliminar impurezas. Posteriormente, se seca en una estufa a 60°C durante 24 horas para eliminar la humedad y obtener un material seco. Se toman 2 g de cada hidrotalcita seca y se mezclan con 1 g de carbonato de potasio (K₂CO₃) disuelto en 10 ml de agua destilada. Esta solución se agita durante 24 horas para asegurar una mezcla homogénea. Tras la agitación, la solución se lleva a una estufa a 60°C hasta la completa evaporación del agua, dejando una mezcla seca, que luego se somete a calcinación. Reacción de transesterificación del biodiésel El sistema térmico para la transesterificación incluye un reactor de vidrio de 500 ml, un agitador magnético y una parrilla de calentamiento. En el reactor se añaden 200 ml de aceite usado, llevándolo a 60°C y cubriéndolo con papel de aluminio para evitar la evaporación del metanol. Previamente, se disuelven 1.6 g de KOH en 60 ml de metanol para preparar una solución de alcóxido. Una vez que el aceite alcanza 60°C, se añade la solución de alcóxido lentamente, manteniendo la agitación constante y asegurando que la temperatura permanezca entre 50°C y 70°C durante 30 minutos. Al finalizar, se apagan la parrilla y el agitador, dejando enfriar la mezcla. La mezcla se vacía en un embudo de separación y se deja reposar 24 horas, separando posteriormente el glicerol del biodiésel. El biodiésel se lava con agua destilada a 60°C hasta que el agua se muestra cristalina. Luego, se seca en una estufa a 60°C durante 24 horas, obteniendo un volumen final de 72 ml de biodiésel. Este procedimiento se repite utilizando los catalizadores de hidrotalcita y ceniza volcánica para obtener diferentes muestras de biodiésel.


CONCLUSIONES

Durante la estancia de verano, se logró llevar a cabo con éxito el proceso de transesterificación para producir biodiésel utilizando diferentes catalizadores, como hidrotalcitas, ceniza volcánica, y utilizar un catalizador básico como KOH como referencia. Sin embargo, faltaron métodos de caracterización para verificar si se obtuvo el biodiesel con la ceniza y las hidrotalcitas. Es esencial realizar pruebas como la medición de densidad, viscosidad, etc. Además, de hacer análisis con técnicas como la cromatografía de gases, la espectroscopía de fluorescencia UV y el análisis de fluorescencia por rayos X son necesarias para tener información detallada de las características del biodiesel obtenido.
Vazquez Tovilla Valeria, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Mg. Diana Patricia Urrea Ramirez, Corporación Universitaria Remington

COMPARATIVA DEL COMPORTAMIENTO A COMPRESIóN Y A FLEXIóN ENTRE UN CONCRETO TRADICIONAL Y UN CONCRETO ELABORADO CON REEMPLAZO DE METACAOLíN Y ADICIóN DE FIBRAS DE PET


COMPARATIVA DEL COMPORTAMIENTO A COMPRESIóN Y A FLEXIóN ENTRE UN CONCRETO TRADICIONAL Y UN CONCRETO ELABORADO CON REEMPLAZO DE METACAOLíN Y ADICIóN DE FIBRAS DE PET

de los Santos Tovilla Paulina, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Vazquez Tovilla Valeria, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Mg. Diana Patricia Urrea Ramirez, Corporación Universitaria Remington



PLANTEAMIENTO DEL PROBLEMA

El crecimiento continuo de la población mundial incrementa no solo la demanda de  viviendas, sino también la necesidad de una infraestructura más extensa. A medida que la  población aumenta, se hace evidente la necesidad de construir más edificaciones y mejorar  los servicios públicos para satisfacer las necesidades de la sociedad.  Según las Naciones Unidas, se espera que la población mundial alcance los 9.700  millones para 2050 (United Nations, 2019). En América Latina, más del 70% de la  población ya reside en áreas urbanas. Este escenario, que estaba previsto para 2030, señala  una situación preocupante en la que el impacto ambiental está en aumento (UNPP, 2019). El sector de la construcción es uno de los más contaminantes a nivel global. Según  un informe del Programa de las Naciones Unidas para el Medio Ambiente (UNEP), este  sector representa aproximadamente el 38% de las emisiones de dióxido de carbono (CO2)  relacionadas con la energía a nivel mundial. Este alto porcentaje se debe tanto a las  emisiones operativas de los edificios como a las emisiones derivadas de la producción de  materiales de construcción como el cemento, el acero y el aluminio (United Nations  Environment Programme, 2020; International Energy Agency, 2019). Además, el informe "Global Status Report for Buildings and Construction 2019" de  la Agencia Internacional de Energía (IEA) señala que el sector de la construcción y los  edificios también es responsable del 36% del uso final de energía. Para mitigar su impacto  ambiental, es crucial adoptar estrategias que incluyan la reducción de la demanda  energética en los edificios, la descarbonización del sector energético y la implementación  de materiales de construcción más sostenibles (International Energy Agency, 2019). Por estas razones se deben implementar acciones que vayan en favor de la eficiencia  del concreto, el uso racional y adecuado de recursos naturales y materias primas, además, el  uso de materiales innovadores para la fabricación de este. Es por esto que la formulación del problema que origina esta investigación es ¿Como se vería afectado la resistencia del concreto hidráulico al agregarle a su dosificación  metacaolín y fibras de PET  



METODOLOGÍA

El crecimiento continuo de la población mundial incrementa no solo la demanda de  viviendas, sino también la necesidad de una infraestructura más extensa. A medida que la  población aumenta, se hace evidente la necesidad de construir más edificaciones y mejorar  los servicios públicos para satisfacer las necesidades de la sociedad.  Según las Naciones Unidas, se espera que la población mundial alcance los 9.700  millones para 2050 (United Nations, 2019). En América Latina, más del 70% de la  población ya reside en áreas urbanas. Este escenario, que estaba previsto para 2030, señala  una situación preocupante en la que el impacto ambiental está en aumento (UNPP, 2019). El sector de la construcción es uno de los más contaminantes a nivel global. Según  un informe del Programa de las Naciones Unidas para el Medio Ambiente (UNEP), este  sector representa aproximadamente el 38% de las emisiones de dióxido de carbono (CO2)  relacionadas con la energía a nivel mundial. Este alto porcentaje se debe tanto a las  emisiones operativas de los edificios como a las emisiones derivadas de la producción de  materiales de construcción como el cemento, el acero y el aluminio (United Nations  Environment Programme, 2020; International Energy Agency, 2019). Además, el informe "Global Status Report for Buildings and Construction 2019" de  la Agencia Internacional de Energía (IEA) señala que el sector de la construcción y los  edificios también es responsable del 36% del uso final de energía. Para mitigar su impacto  ambiental, es crucial adoptar estrategias que incluyan la reducción de la demanda  energética en los edificios, la descarbonización del sector energético y la implementación  de materiales de construcción más sostenibles (International Energy Agency, 2019). Por estas razones se deben implementar acciones que vayan en favor de la eficiencia  del concreto, el uso racional y adecuado de recursos naturales y materias primas, además, el  uso de materiales innovadores para la fabricación de este. Es por esto que la formulación del problema que origina esta investigación es ¿Como se vería afectado la resistencia del concreto hidráulico al agregarle a su dosificación  metacaolín y fibras de PET  


CONCLUSIONES

La presente investigación propone el uso de materiales no convencionales como el  metacaolín y las fibras de PET como elementos de refuerzo del concreto con el fin de poder  mejorar su resistencia a la compresión y flexión. Para poder lograrlo, se hizo un análisis  comparativo de las propiedades antes mencionadas con un concreto tradicional y un  concreto con un reemplazo en peso de cemento de 10% de metacaolín y 1% de fibras de  PET en volumen de la mezcla de concreto. Las conclusiones obtenidas son las siguientes: 1. El ensayo a compresión se basó en la norma ASTM. Los resultados obtenidos indican que el concreto con reemplazo de metacaolín y reforzado con fibras de  PET tiene una mayor resistencia que las muestras del grupo de control.  2. El ensayo a tensión se basó en la norma ASTM. Los resultados obtenidos  indican que el concreto con reemplazo de metacaolín y reforzado con fibras de  PET tiene una mayor resistencia que las muestras del grupo de control. 3. Las fibras de PET añadieron la capacidad de soportar cargas post-agrietamiento  en ambos ensayos. Sin embargo, añadir fibras de PET, de 10 cm de longitud,  disminuyó la trabajabilidad del concreto. Por lo que, se recomienda que en  futuras investigaciones se pueda hacer un cambio en la longitud de las fibras de  PET Esta investigación hace énfasis en el mejoramiento a la resistencia a compresión y  flexión del concreto con el uso de metacaolín y fibras de PET  
Vázquez Trujillo Seth Urich, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato

ADECUACIóN DE SISTEMA DE FRENADO PARA AUTOMóVIL CON CONVERSIóN ELéCTRICA


ADECUACIóN DE SISTEMA DE FRENADO PARA AUTOMóVIL CON CONVERSIóN ELéCTRICA

Vázquez Trujillo Seth Urich, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Como consecuencia del cambio climático, de la limitada disponibilidad de combustibles fósiles y del recambio de matriz energética que se está experimentando a nivel global, la venta de autos eléctricos sigue tomando fuerza cada año. Sin embargo, uno de los obstáculos más grandes que tienen las personas que desean pasarse al electro movilidad es el precio de los autos eléctricos, tanto nuevos como usados. Por eso, en los últimos años ha surgido una apuesta distinta y que puede ser más conveniente: convertir el vehículo de motor convencional a uno eléctrico.



METODOLOGÍA

La conversión se realizará en un automóvil Chevrolet, modelo Optra del año 2008. El kit eléctrico que se obtuvo consta de los siguientes elementos:   Motor eléctrico de inducción Controlador de velocidad Convertidor DC/DC electrónico Cargador de baterías inteligente de alta eficiencia x2 Acelerador de pedal de pie para varios vehículos eléctricos Kit de bomba de vacío eléctrica universal para sistema de refuerzo de freno BMS inteligente Monitor de batería con alarma programable de alto y bajo voltaje Enchufe de entrada de carga para vehículo eléctrico Regulador de voltaje Batería Acumulador Enchufe para cargador Batería Lifepo4 fosfato prismático modulo con 8 celdas     Para comenzar con el proyecto se investigó toda aquella información relevante sobre automóviles eléctricos y, sobre todo, del proceso para realizar la conversión de un vehículo de combustión interna a eléctrico. Luego de los primeros prototipos, el escocés Robert Anderson desarrolló el primer vehículo eléctrico de la historia, que funcionaba con una batería no recargable. Para 1899 los avances de esta tecnología seguían sorprendiendo al mundo entero, pues se conoció el primer vehículo capaz de romper el récord de velocidad para la época. Gracias a este acontecimiento y a los avances en las baterías, los vehículos eléctricos comenzaron a tomar mayor fuerza en las ciudades. No obstante, la alegría y el futuro prometedor de los carros eléctricos se desvaneció en 1908, cuando Henry Ford empezó a producir automóviles con motor de combustión en grandes cantidades, con un sistema industrializado que permitió que se vendieran a menores precios y que fueran accesibles para todas las clases sociales. Actualmente, debido al cambio climático y a los múltiples beneficios que ofrece la movilidad sostenible, los carros eléctricos están en auge de nuevo. Durante el año 2022 se comercializaron en México más de 7000 unidades 100% eléctricas, unas 51061 considerando también el subsegmento de los híbridos, según cifras de la Asociación Mexicana de la Industria Automotriz, y más de 30000 en el primer semestre de 2023 (ambas categorías). En los últimos años ha surgido una propuesta diferente y que puede resultar más conveniente. La conversión eléctrica. Por lo que, durante las primeras semanas del verano se investigó todo el proceso necesario para realizarlo. Conociendo el procedimiento general para el cambio de sistema de locomoción, se trazó un camino para llevar a cabo el proyecto. Lo primero que se realizó fue el desmontaje del motor de combustión, filtros, radiador, tanque de gasolina, escape y algunos depósitos para líquidos. Solamente se dejaron las cosas más esenciales para la movilidad del auto como la transmisión y el clutch del auto, además de la batería y la caja de fusibles. Como algunos de estos componentes contenían aceite y tierra, se limpiaron con gasolina, espátulas y cepillos de alambre. Esto, para dejar listo el espacio necesario para el montaje del kit eléctrico. Sin embargo, no es tan fácil como eso; aún con el espacio libre se deben de tomar en cuenta ciertos aspectos, como: Realizar bases y acopladores para algunos de los componentes; al ser una conversión, el vano y, en general el vehículo, no está diseñado para ese tipo de sistema eléctrico Buscar la manera de conectar los sistemas de luces, ventilación, etc Adaptar el sistema de frenado del motor. Este último punto es el más importante; los vehículos eléctricos tienen exigencias especiales. Los vehículos son más pesados debido a las baterías, los pares de giro son mayores, la aceleración más fuerte. Se podría pensar que esto provoca un mayor desgaste de los discos y las pastillas de freno durante el frenado. Por un lado, es cierto, pero los frenos mecánicos se aplican mucho menos en comparación con los vehículos con motor de combustión debido al sistema. Si bien se contará con un sistema auxiliar de frenado; con ayuda de la bomba del kit, que hará la función de vacío que se lograba con el motor de combustión interna; la palabra clave es el frenado regenerativo. Consiste en aprovechar toda la energía cinética del vehículo en el momento de la desaceleración para recargar la batería, sin desperdiciar energía en forma de calor en los discos de freno. Es decir, el proceso habitual de conversión de electricidad a movimiento se invierte y lo que sucede es que desde el motor eléctrico se frena el movimiento convirtiéndolo en energía eléctrica a modo de alternador eléctrico. Esta energía creada se acumulará y de esta manera se sumará a la autonomía ya existente en la batería del coche eléctrico.


CONCLUSIONES

Durante la estancia del verano se realizó todo el trabajo de investigación teórica para la conversión del auto, donde lo más complicado fue la elección del sistema de frenado; con una opción completamente mecánica, un circuito de frenado asistido o un sistema completo de regeneración. En estas semanas se realizó la parte de acondicionamiento del vano para el acoplamiento del motor eléctrico; al momento de escribir este reporte se está en proceso de instalación del sistema eléctrico.
Vázquez Zaraos Lizayda, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Mg. Nelly Clavijo Clavijo Bustos, Universidad Cooperativa de Colombia

PROYECTO IMPLEMENTACIóN DE UN MODELO DE APROPIACIóN SOCIAL DEL CONOCIMIENTO PARA LA OPTIMIZACIóN DE LOS SISTEMAS PRODUCTIVOS DE CACAO, AGUACATE, LIMóN, ARRACACHA Y CAFé CON LOS PEQUEñOS PRODUCTORES DEL DEPARTAMENTO DEL TOLIMA


PROYECTO IMPLEMENTACIóN DE UN MODELO DE APROPIACIóN SOCIAL DEL CONOCIMIENTO PARA LA OPTIMIZACIóN DE LOS SISTEMAS PRODUCTIVOS DE CACAO, AGUACATE, LIMóN, ARRACACHA Y CAFé CON LOS PEQUEñOS PRODUCTORES DEL DEPARTAMENTO DEL TOLIMA

Cruz Cruz Ricardo, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Perez Sanchez Ana Karen, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Vázquez Zaraos Lizayda, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Mg. Nelly Clavijo Clavijo Bustos, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

El departamento del Tolima en Colombia es una región agrícola diversa y fértil, conocida por la producción de diversos cultivos como cacao, aguacate, limón, arracacha y café. Estos productos representan una fuente crucial de ingresos para los pequeños productores locales y son fundamentales para la economía regional. Sin embargo, los finqueros y agricultores enfrentan serias dificultades para darse a conocer y comercializar sus productos agrícolas, la ausencia de herramientas tecnológicas y plataformas digitales impide que estos productores puedan acceder a un mercado más amplio y variado, limitando así sus oportunidades de venta y exposición. Los métodos tradicionales de venta, como mercados locales y ferias, no son suficientes para satisfacer las necesidades comerciales de los finqueros, lo que conlleva a varios problemas significativos: Los productos agrícolas no alcanzan un público amplio, lo que reduce las oportunidades de venta y genera un ingreso limitado para los finqueros. La falta de un sistema organizado de inventario provoca pérdidas por caducidad y una planificación inadecuada de la producción. Sin una plataforma centralizada, la comunicación con los compradores es dispersa e ineficiente, dificultando la negociación y venta de productos. En un entorno comercial cada vez más digital, la ausencia de una presencia en línea pone a los agricultores locales en desventaja frente a competidores que utilizan herramientas digitales avanzadas.



METODOLOGÍA

Se seleccionaron 6 asociaciones y 35 fincas de los productores con las que se habían firmado convenio anteriormente. A estas fincas se les trabajó, una página web de publicidad y una página web de control de inventario. Además, se realizó un informe detallado en el que se agregan los convenios firmados entre la finca o asociación y la Universidad Cooperativa de Colombia. Se levantó los requerimientos funcionales para cada uno de las páginas web de acuerdo a las especificaciones y necesidades de cada una de las fincas y asociaciones involucradas, dado que cada uno tiene información diferente, la idea fue realizar cada página personalizada con su descripción, misión, visión, productos y datos de contacto. Se   formó grupos de trabajo, para asignar responsabilidades, cada uno de los miembros del programa Delfín, se le asignó una tarea y alumnos pertenecientes del programa de estudio de la Universidad Cooperativa, debido al corto tiempo de la estancia y de la urgencia de los entregables. Se elaboraron informes de cada una de las 35 fincas y 6 asociaciones, para proporcionar una guía integral para el diseño, desarrollo, y gestión de la página web del proyecto, asegurando que todas las áreas importantes sean consideradas y que el resultado final cumpla con los objetivos del proyecto y las necesidades del público objetivo, así mismo para poder completar el informe se hizo una búsqueda de cada uno de los convenios de cada una de las fincas para plasmar el acuerdo que se ha realizado con las fincas y asociaciones. Se desarrolló una página web de publicidad y una página web de sistema de inventario utilizando herramientas digitales como, Visual Studio Code (VSCode), como editor de código fuente, HTML y CSS, para diseñar el frontend, para estructurar y diseñar la interfaz de usuario. PHP y JavaScript, fueron los lenguajes de programación utilizado para el desarrollo del backend y funcionalidades de las páginas web. Se diseñó una página web con una interfaz amigable y responsiva, que permite a los finqueros listar sus productos con detalles como descripción, imágenes de sus productos, agregando un resumen de su finca. Se integró funciones como WhatsApp que permiten a los compradores realizar pedidos directamente a través de la web con los finqueros. Se desarrolló un sistema que permite la entrada y seguimiento de productos agrícolas, incluyendo reportes de entrada y salida de productos. El sistema fue adaptado a las necesidades específicas para fincas, basado en la información recolectada durante la investigación de campo. También, se utilizó un servicio de hosting para que cada uno de los finqueros y asociaciones puedan ver las páginas web en línea. Para ello se configuró un servidor web que permite alojar las páginas web y las bases de datos que se manejó. Para que cada uno de los finqueros sepan cómo funciona las páginas se realizaron manuales prácticos, sencillos y personalizados, de esta manera, aunque ellos no estén familiarizados con las tecnologías ellos entenderán muy fácilmente el funcionamiento de cada una de las páginas que se les crearon. Este sistema pretende proporcionar una solución integral que facilite la gestión del inventario y amplíe el alcance de venta de los productos, permitiendo a los agricultores optimizar sus operaciones y aumentar su competitividad en el mercado.


CONCLUSIONES

Durante la estancia de verano, logramos implementar una página web de publicidad y una página web para un sistema de control de inventario, para cada uno de los 35 finqueros y 6 asociaciones, del departamento del Tolima, Colombia. Esta iniciativa promete ser una solución viable y efectiva para mejorar la comercialización de productos agrícolas. Esperamos que el uso de las herramientas digitales permita a los finqueros alcanzar un mercado más amplio, optimizar la gestión de sus inventarios y fortalecer su competitividad en el sector agrícola.
Vega Hernández Adriana Sayuri, Instituto Tecnológico de Querétaro
Asesor: Mtro. Javier Hilario Reyes Cordova, Universidad Tecnológica de Tehuacán

MEJORA DE LOS PROCESOS INSTITUCIONALES DE LA UNIVERSIDAD TECNOLóGICA DE TEHUACáN A PARTIR DE LA IMPLEMENTACIóN DE LA NORMA ISO 9001:2015


MEJORA DE LOS PROCESOS INSTITUCIONALES DE LA UNIVERSIDAD TECNOLóGICA DE TEHUACáN A PARTIR DE LA IMPLEMENTACIóN DE LA NORMA ISO 9001:2015

Avendaño Sánchez Zaira, Instituto Tecnológico Superior de Tierra Blanca. Collazos Bolaños Luisa Fernanda, Corporación Universitaria Remington. González Herrera Juan Alberto, Instituto Tecnológico de Querétaro. Romero Cordero Jhojan, Corporación Politécnico de la Costa Atlántica. Vega Hernández Adriana Sayuri, Instituto Tecnológico de Querétaro. Asesor: Mtro. Javier Hilario Reyes Cordova, Universidad Tecnológica de Tehuacán



PLANTEAMIENTO DEL PROBLEMA

En la constante necesidad de que en las instituciones de educación superior en México cuenten con un sistema que asegure la calidad de los procesos y servicios que se brindan dentro de la misma ha llevado a que todas estas instituciones busquen obtener la acreditación de un organismo que asegure que todos los procesos que se llevan a cabo dentro de las instituciones educativas cumplan con el principio de la mejora continua, a su vez la universidad tecnológica de tehuacán busca obtener la certificación en la norma iso 9001:2015, para poder demostrar ante la secretaría de educación pública que es una institución que cumple con los lineamientos básicos y que todos los procesos y servicios que se llevan a cabo dentro de la institución son de calidad y cumplen con el principio de la mejora continua por lo que una de las formas de poder lograrlo es a través de una casa certificadora que brinde el certificado y que lleva a cabo una evaluación de todos los procesos y servicios que brinda la institución y que se ven afectados por las partes interesadas, por lo que la presente investigación busca determinar si la certificación de la norma ISO 9001:2015 contribuye a la mejora de los procesos productivos en las instituciones de educación superior y los miembros de la comunidad universitaria perciben los beneficios de contar con dicha certificación, el poder evaluar los resultados que nos brinda el poder obtener una certificación como la norma ISO 9001:2015, permitirá determinar si la mejora continua contribuye hay crecimiento y desarrollo de las instituciones de educación superior, mejora las condiciones con respecto a un tiempo anterior, la presente investigación se lleva a cabo en el periodo de Enero a Septiembre del 2024, evaluando los indicadores del Programa Operativo Anual (POA) y esta supedito a la disponibilidad de la información que brinden las áreas de la Universidad tecnológica de Tehuacan.



METODOLOGÍA

La presente investigación parte del análisis de caso que ocurre en la universidad tecnológica de tehuacán y que parte de un estudio longitudinal que abarca del periodo de enero a septiembre del 2024, adicional a lo anterior el presente estudio comprende a toda la comunidad universitaria y a las partes interesadas que la conforman entendiendo qué se trata de un estudio descriptivo de cómo se lleva a cabo el proceso para lograr la certificación de la norma iso 9001:2015 en la universidad y cómo contribuye a la mejora de los procesos educativos y el alcance de los mismos en el círculo de Deming, que comprende planear, hacer, verificar y actuar que parte desde la alta dirección y el compromiso de la misma para poder llevar a cabo un proceso de certificación ya que la asignación y estrategias que mantiene la rectoría con respecto a dicha institución permiten establecer los alcances del sistema de gestión de la calidad y la evaluación de los mismos a través de algunos indicadores que ha desarrollado la institución y un análisis mixto, ya que se evalúan variables cuantitativas y cualitativas de la comunidad universitaria y se obtendrá información de primera mano mediante entrevistas a miembros de dicha comunidad para obtener su percepción con respecto a la implementación del sistema de gestión de la calidad y poder determinar mediante un análisis descriptivo de los múltiples beneficios que ofrece la universidad.


CONCLUSIONES

Lo que podemos apreciar de la presente investigación es que por cuestiones de tiempo no se podrá concluir de manera satisfactoria y que por la situación del programa delfín y el la corta estancia dentro de la misma no podremos ver de primera mano los resultados obtenidos pero sí podemos concluir que el proceso de la mejora continua dentro de las instituciones de educación superior es un proceso que se tiene que llevar a cabo de una manera muy particular de un análisis detallado y constante con la finalidad de entender qué lleva una institución de educación superior a buscar una certificación de calidad no solamente con el objetivo de cumplir con un mero requisito sino como la constante necesidad de la mejora continua de los procesos y el óptimo aprovechamiento de los recursos para lograr los fines con los que son desarrolladas las instituciones he aquí un avance que requiere más investigación y que no solamente corresponde a una cuestión de costos sino una situación en la que se tiene que atender los servicios educativos de calidad para que un alumno sea capaz de alcanzar estas metas y objetivos ya que no únicamente acude para llevar a cabo la generación del conocimiento sino para mejorar sus condiciones actuales y que las instituciones de educación superior son un medio para que éstas se logre no solamente buscando convenios con instituciones educativas homónimas sino con empresas a las que deberá de apoyar de una forma de otra brindando a alumnos de calidad y procesos y capacitación y todo aquello que le permita a la universidad mejorar su relación con las partes interesadas y con la comunidad misma en la que el desarrollo humano y la sostenibilidad junto con la sustentabilidad son mecanismos por los cuales tenemos que buscar un crecimiento constante.
Vega Mendez Ema, Instituto Tecnológico Superior de Huauchinango
Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan

APLICACIÓN DE HERRAMIENTAS LEAN MANUFACTURING PARA LA OPTIMIZACIÓN DE PROCESOS


APLICACIÓN DE HERRAMIENTAS LEAN MANUFACTURING PARA LA OPTIMIZACIÓN DE PROCESOS

Alejandre Guerrero Laura Patricia, Instituto Tecnológico Superior de Uruapan. Vega Mendez Ema, Instituto Tecnológico Superior de Huauchinango. Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

En el sector productivo de transformación a nivel estatal se identifican las PYMES como escenarios para la reducción y/o eliminación de desperdicios en los procesos productivos; es un problema común en las empresas que impactan negativamente en la eficiencia, la calidad y los costos. El término defectos, se produce cuando se generan productos o servicios que no cumplen con los estándares de calidad establecidos, lo que conlleva costos adicionales por reprocesos, reparaciones, devoluciones y reclamos de clientes.  En Michoacán, existen casos de empresas que se dedican a la fabricación de cajas de cartón, como es C.M. en Morelia, enfrentaba problemas significativos con altos niveles de inventario, materia prima y producto terminado, lo que resulta en elevados costos de almacenamiento por pérdidas y obsolescencia. Otra en Uruapan, E.B. enfrentaba problemas de desperdicio de materiales debido a defectos en el proceso de corte y montaje de las cajas de cartón.  En el diagnóstico de 2024 que se realizó en la empresa MTPM, se identificaron los siguientes desperdicios: sobreproducción, inventario, transportación, espera, movimiento y retrabajo.  Determinando que el problema principal es la falta de optimización en la fabricación de cajas de cartón, en donde se establecen las causas que generan el problema y los efectos que impactan negativamente al proceso productivo. 



METODOLOGÍA

Durante la primera intervención, se realizó un diagnóstico preliminar con ayuda de las técnicas de observación y entrevista. A través de la observación, se elaboró un listado exhaustivo de los tipos de desperdicios presentes en el proceso productivo, que incluyó defectos en la producción, tiempos de inactividad, exceso de inventario y problemas de organización en el área de trabajo. Mediante la entrevista, se conoció en detalle el manejo del proceso productivo y administrativo, permitiendo identificar áreas críticas que requerían atención inmediata. Posteriormente, se realizó la medición de las instalaciones del área de producción para registrar las dimensiones espaciales, utilizando flexómetros de 5 y 7 metros, y con esto se procedió a diseñar la distribución actual de la planta en los programas SolidWorks y AutoCAD. Esta etapa permitió visualizar y evaluar la disposición de los equipos y el flujo de trabajo, identificando cuellos de botella y áreas de mejora en la disposición actual. En la segunda intervención se presentó el diagnóstico formal que muestra la situación actual de la empresa, identificando las áreas de oportunidad en el proceso productivo y administrativo, definiendo el problema principal y estableciendo las herramientas que se utilizarán en el desarrollo de las soluciones propuestas. Este diagnóstico permitió establecer una base sólida para las siguientes intervenciones, alineando los objetivos y metas del proyecto con las necesidades reales de la empresa. Posteriormente, en la tercera intervención, se hizo el planteamiento de acciones correctivas, como la aplicación de la metodología 5S (Seleccionar, Ordenar, Limpiar, Estandarizar y Disciplina) en el área de producción. Esta aplicación se enfocó en optimizar el espacio de trabajo, reducir el desorden y mejorar la organización. Se implementaron cambios en la disposición de las herramientas y materiales, así como la capacitación del personal para mantener los estándares establecidos. La herramienta Kaizen se centró en la mejora continua de los procesos y la optimización del flujo de trabajo mediante la identificación de desperdicios y la implementación de mejoras prácticas. TPM (Mantenimiento Productivo Total) se enfocó en asegurar la fiabilidad de los equipos mediante un mantenimiento eficiente y la integración de prácticas de mantenimiento en la gestión operativa diaria. La combinación de ambos enfoques ayudó a mejorar la eficiencia en la fabricación de cajas de cartón, reduciendo costos y optimizando el proceso productivo. Para evaluar la efectividad de las mejoras, se realizaron estudios de tiempos y movimientos para medir la reducción de tiempos de ciclo y la mejora en la calidad del producto. En la cuarta intervención, se presentaron las propuestas de mejora para la distribución de la planta y la parte administrativa. Dado que el 60% de los problemas en administración se enfocaban en retrabajos, las propuestas incluyeron recomendaciones para el reordenamiento de los equipos y la reorganización de los procesos administrativos. Se realizaron simulaciones en los programas de diseño para evaluar el impacto de las modificaciones en el flujo de trabajo y se ajustaron las propuestas según los resultados obtenidos. Finalmente, se realizó la presentación de las propuestas de mejora a los miembros del equipo y se discutieron los beneficios que se pueden obtener al hacer la redistribución de la maquinaria en el proceso productivo y los cambios en el área administrativa. Se destacó que la implementación de algunas propuestas resultó en un aumento del área libre y disponible, facilitando un flujo de trabajo más eficiente y reduciendo los tiempos de inactividad. La aceptación de las propuestas por parte del equipo directivo y la implementación efectiva llevaron a una mejora significativa en el rendimiento general de la empresa.


CONCLUSIONES

La participación que tuvimos en el programa Delfín 2024, nos dio la oportunidad de conocer un escenario real para aplicar los conocimientos sobre Lean Manufacturing y Lean Management, identificando áreas de oportunidad e implementando las diferentes metodologías, técnicas y herramientas para incrementar la productividad en los procesos de la empresa MTPM. El porcentaje de área que quedó libre después de la aplicación de las 5’S fue del 12%. Y los desperdicios en el proceso de fabricación se redujeron en un 65.06%.
Vega Robles Ana Lizbeth, Universidad Politécnica de Altamira
Asesor: Dr. Carlos Arturo Hernández Gracidas, Benemérita Universidad Autónoma de Puebla

RECONOCIMIENTO DE EMOCIONES UTILIZANDO INTELIGENCIA ARTIFICIAL.


RECONOCIMIENTO DE EMOCIONES UTILIZANDO INTELIGENCIA ARTIFICIAL.

Marmolejo Jimenez Belen Elizabeth, Universidad Politécnica de Altamira. Romero Perez Lucio Angel, Universidad Politécnica de Altamira. Vega Robles Ana Lizbeth, Universidad Politécnica de Altamira. Asesor: Dr. Carlos Arturo Hernández Gracidas, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Este proyecto desarrolla un sistema de inteligencia artificial para identificar y clasificar emociones humanas a partir de expresiones faciales utilizando redes neuronales convolucionales (CNN). El objetivo es crear un modelo preciso para reconocer emociones como felicidad, tristeza, enojo, miedo y sorpresa. Se emplean técnicas avanzadas de procesamiento de imágenes y aprendizaje profundo para mejorar la precisión y generalización del modelo. También se exploran técnicas como Eigenrostros para la reducción de dimensionalidad y la optimización de parámetros para mejorar el rendimiento.



METODOLOGÍA

1. Preparación de datos 1.1 Fuente y descripción de los datos El conjunto de datos, extraído de Kaggle, incluye siete categorías de emociones: enojo, disgusto, miedo, felicidad, tristeza, sorpresa y neutral. Las imágenes están en escalas de grises, tienen un tamaño de 48x48 píxeles y los rostros están centrados y ocupan un espacio consistente en cada imagen. El conjunto consta de 28,709 ejemplos de entrenamiento y 2,589 ejemplos de prueba. 1.2 Preprocesamiento de imágenes Redimensionamiento y normalización de las imágenes. Técnicas de aumento de datos: rotación, traslación, cambio de escala y flip para ampliar el conjunto de datos de entrenamiento. 2. Desarrollo del modelo 2.1 Arquitectura del modelo El modelo utiliza una CNN con capas convolucionales, filtros, funciones de activación, capas densas y dropout. 2.2 Implementación de Eigenrostros La técnica de Eigenrostros utiliza el análisis de componentes principales (PCA) para reducir la dimensionalidad de las imágenes faciales. Esta técnica destaca las direcciones principales de variación en los datos, simplificando la posterior clasificación y reconocimiento facial. 2.3 Bloques de atención Los bloques de atención ayudan al modelo a enfocarse en las regiones más relevantes de las imágenes, mejorando la identificación de características cruciales para el reconocimiento de emociones. 3. Entrenamiento del modelo 3.1 Configuración del entrenamiento El modelo se entrena con lotes de 32 imágenes durante 100 épocas. La tasa de aprendizaje es 0.001 y se aplican técnicas de regularización como dropout para mejorar la generalización y evitar el sobreajuste. 3.2 Optimización de hiperparámetros Se utiliza búsqueda bayesiana para optimizar los hiperparámetros del modelo. Este método ajusta sus estimaciones basándose en resultados anteriores, encontrando configuraciones óptimas de manera más eficiente que la búsqueda aleatoria. 3.3 Uso del dropout El dropout previene el sobreajuste al apagar aleatoriamente un porcentaje de neuronas durante el entrenamiento, promoviendo un peso más uniforme entre las neuronas. 4. Evaluación del modelo 4.1 Balance del conjunto de datos Para mejorar la precisión, se equilibró el conjunto de datos eliminando la clase de disgusto y ajustando el número de ejemplos en cada clase: 3000 para entrenamiento y 830 para prueba por clase. 4.2 Métrica de evaluación Se utilizan las siguientes métricas para evaluar el modelo: Exactitud (Accuracy): Mide la cantidad de aciertos del modelo en los datos de prueba y entrenamiento. Pérdida (Loss): Observa la discrepancia entre las predicciones del modelo y los resultados reales. Matriz de Confusión: Detalla las predicciones del modelo, mostrando las emociones que el modelo confunde más y aquellas que clasifica con mayor precisión.


CONCLUSIONES

Análisis de Resultados Precisión del Modelo: El modelo de seis emociones (feliz, triste, enojado, sopresa, miedo y neutral) alcanzó una exactitud del 88% en entrenamiento y 55% en prueba. Aunque es efectivo, emociones como la tristeza tienen menor precisión comparada con emociones como felicidad o sorpresa. Impacto del Preprocesamiento y Aumento de Datos: Las técnicas de aumento de datos, como rotación y escalado, mejoraron la robustez del modelo ante variaciones en las imágenes, evitando el sobreajuste y mejorando el rendimiento en el conjunto de prueba. Evaluación de Arquitecturas de Redes Neuronales: Se probaron diversas arquitecturas de CNN. Las más profundas ofrecieron mayor precisión pero también un mayor riesgo de sobreajuste. Se encontró un equilibrio óptimo entre profundidad y capacidad de generalización. Desempeño en Diferentes Categorías de Emociones: El modelo clasifica algunas emociones con mayor facilidad que otras. Emociones como felicidad y tristeza tienen características faciales distintivas, facilitando su clasificación, mientras que el miedo presenta mayor variabilidad y menos ejemplos, dificultando su clasificación. El desarrollo del sistema de reconocimiento de emociones mediante CNN ha logrado avances significativos desde nuestro primer modelo hasta el último que se realizó. Aunque la precisión es destacable, hay áreas para mejorar, especialmente en la clasificación de ciertas emociones. Los resultados validan la efectividad de las técnicas empleadas y proporcionan una base sólida para futuros trabajos en este campo.
Velarde Ramírez José Emiliano, Universidad Autónoma de Occidente
Asesor: Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente

MISIóN: SABER Y JUGAR


MISIóN: SABER Y JUGAR

Navarro Valenzuela Jesús Ivan, Universidad Autónoma de Occidente. Tellez Giron Lizarraga Alan Albino, Universidad Autónoma de Occidente. Velarde Ramírez José Emiliano, Universidad Autónoma de Occidente. Asesor: Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Actualmente, vivimos en la era digital en donde los niños y jóvenes del siglo XXI utilizan las tecnologías de información y comunicación (TIC) desde temprana edad con distintos fines, ellos son conocidos como nativos digitales, debido a que piensan y procesan la información de una manera diferente y su destreza en el manejo de las tecnologías es superior a la de sus profesores denominados inmigrantes digitales.   Por lo cual; es importante incorporar las TIC al aprendizaje, debido a que son consideradas como una herramienta clave para participar en las dinámicas de las sociedades contemporáneas y como elemento indispensable en el modelo educativo de México y a los ODS (Objetivos de Desarrollo Sostenible) de la UNESCO, en donde se menciona que se tiene que lograr una educación de calidad. Sin embargo; a pesar de ello, se continúa viendo en las escuelas clases monótonas, en las que se puede observar que los maestros(as) siguen utilizando las mismas prácticas y métodos tradicionales en la mayoría de las asignaturas, pero sobre todo en la clase de Historia en donde se continúa recurriendo a la memorización de acontecimientos y hechos, no captando la atención de los niños ni tampoco la comprensión de los temas.   Otro de los problemas a los que se enfrentan los docentes, es no contar con los medios suficientes de un aula de medios o la infraestructura adecuada para poner en practica otras herramientas educativas, como lo es el software educativo.   



METODOLOGÍA

De acuerdo con la relevancia y el contexto del presente estudio, se plantearon diversos objetivos. Los métodos, técnicas e instrumentos para recolectar los datos y cumplir con los objetivos propuestos están cimentados en un enfoque mixto.   Para el enfoque cualitativo, se empleó la investigación documental, la cual consistió en el procesamiento y recuperación de información contenida en documentos, como: libros de la SEP de 4to., 5to. y 6to. año, artículos de revistas, la observación en el salón de clases, y entrevistas abiertas a maestros(as).   Mientras que, para el enfoque cuantitativo, se diseñó un Cuestionario, el cual se aplicó a 50 maestros(as), en donde los resultados arrojados fueron parte fundamental para el análisis, diseño y desarrollo del software educativo. Entre las preguntas que se realizaron fue ¿Cuál materia(as) cree usted que es la que se le dificulta más aprender a los estudiantes?, obteniendo un 70% Historia, posteriormente con un 34% Geografía e Inglés y después con un 30% Matemáticas. Otra fue ¿Cuál es el principal desafío que enfrenta al enseñar una asignatura? Con un 64% opinaron que los estudiantes se distraen constantemente, posteriormente con un 32% el tiempo del ciclo escolar no alcanza para abordar demasiados temas por asignatura, con un 2% la escuela primaria no permite el uso de la tecnología en clases solo la enseñanza tradicional, y otro 2% fue otra respuesta. Y una última, fue ¿Cuál considera usted que es el dispositivo tecnológico que más usan los estudiantes en la actualidad? Respondiendo con un 88% que el celular, posterior la tableta con un 38%, un 16% la laptop y un 2% computadora de escritorio.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos de análisis, diseño y desarrollo de un software educativo de historia para los grados de 4to., 5to. y 6to. grado. En cuanto a la fase de análisis y diseño del logotipo se contemplaron los puntos de vista de los maestros(as) y alumnos. Mientras que en la fase de desarrollo se contemplaron las características apropiadas para el mismo, el cual lleva de nombre Misión: Saber y Jugar. El software educativo de historia, fue creado en plataforma Unity mediante el lenguaje de programación C# para computadoras de escritorio o laptop, empezando por temas desde los primeros humanos en América y terminando en la revolución mexicana utilizando un ambiente atractivo y divertido donde los niños se adentrarán a un mundo fascinante de los hechos y acontecimientos.   Además, se pretende que el proyecto crezca a futuro, dándolo a conocer en diversas primarias del municipio de Mazatlán, Sin. así como a nivel Estatal, desarrollándolo para otros dispositivos como celulares y tabletas. Por último, contemplar lo que menciona la UNESCO El patrimonio es nuestro legado del pasado, con lo que vivimos hoy y lo que transmitimos a las generaciones futuras, por lo cual; en ello radica la importancia de dicho proyecto.
Velasco Duran Luis Danilo, Universidad de Guadalajara
Asesor: Mg. Jessica Gissella Maradey Lázaro, Universidad Autónoma de Bucaramanga

¡BIKE-UP!: DEVELOPMENT OF ​E-BIKES FOR URBAN MOBILITY


¡BIKE-UP!: DEVELOPMENT OF ​E-BIKES FOR URBAN MOBILITY

Velasco Duran Luis Danilo, Universidad de Guadalajara. Asesor: Mg. Jessica Gissella Maradey Lázaro, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

A lo largo de los años han crecido los problemas ambientales de forma exponencial, así como también ha crecido la preocupación publica problemas que esto conlleva, tales como el cambio climático o el sobrecalentamiento global. A lo largo de los últimos años han empezado a crearse y a difundirse nuevas tecnologías que atribuyan a una reducción de estos problemas, en particular la movilidad ecológica ha atraído cada día más atención. Las bicicletas eléctricas (o E-bikes) son bicicletas las cuales tienen un motor eléctrico con el cual se ayuda al ciclista generándole una fuerza eléctrica y no únicamente motriz, han sido una nueva tendencia la cual se adapta a distintas necesidades según el ciclista, estos vehículos eléctricos se han vuelto los más populares en el mercado de las bicicletas, donde en 2021 el mercado alcanzo unos 25 mil millones de dólares. Se estima que la tasa de crecimiento anual sea del 10 por ciento entre 2021 y 2028, donde se estima que alcanzara los 48,500 millones de dólares para 2028.



METODOLOGÍA

Fase de Verificacion Investigación de Movilidad en Bucaramanga Objetivo: Analizar ciclorrutas y condiciones de movilidad. Resultados: Mapas y especificaciones de ciclorrutas. Requisitos de la Bicicleta Eléctrica Objetivo: Determinar componentes clave: motor, controlador, batería. Resultados: Lista de requisitos y funcionalidades del sistema. Selección de Baterías Recargables Objetivo: Elegir la batería adecuada. Resultados: Selección de baterías de Ion-Litio por sus ventajas. Fase de Diseño Configuración de Baterías y Sistema Eléctrico Objetivo: Diseñar el sistema de baterías. Resultados: Sistema de baterías configurado para 48V. Selección y Posicionamiento del Motor Objetivo: Determinar tipo y posición del motor. Resultados: Motor DC de 48V en el eje central. Diseño del Circuito de Control Objetivo: Desarrollar el circuito de control del motor. Resultados: Circuito diseñado con reductor de voltaje Buck. Fase de Validacion Montaje del Sistema Eléctrico Objetivo: Ensamblar componentes eléctricos. Resultados: Sistema eléctrico operativo. Integración de Sensores y Telemetría Objetivo: Implementar sistema de telemetría. Resultados: Sistema de telemetría funcionando. Fase de Verificación y Validación Pruebas del Sistema Eléctrico Objetivo: Verificar funcionamiento del sistema eléctrico. Resultados: Sistema eléctrico validado. Pruebas de Telemetría y Recolección de Datos Objetivo: Validar sistema de telemetría. Resultados: Datos recolectados y analizados. Fase de Mantenimiento y Mejora Optimización y Mantenimiento del Sistema Objetivo: Mejorar y mantener el sistema. Resultados: Sistema optimizado y mantenido.


CONCLUSIONES

A lo largo de este verano pude adquirir nuevos conocimientos en temas como motores eléctricos, la importancia de un cálculo correcto de banco de baterías y la seguridad que se le debe dar al mismo, telemetría y telemática. Conocí mas a profundidad como es que se debe de accionar un controlador para vehículo eléctrico y la importancia de proteger el motor con circuitos de seguridad.Aprendí como es que se debe de realizar una búsqueda científica y como es que la calidad de esta influye en nuestro proyecto, se me enseño a realizar un artículo científico y a trabajar con otros compañeros de distintas áreas.
Velasco López José Carlos, Universidad de Guadalajara
Asesor: Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

APLICACIONES DEL DEEP LEARNING AL DIAGNóSTICO MéDICO


APLICACIONES DEL DEEP LEARNING AL DIAGNóSTICO MéDICO

Velasco López José Carlos, Universidad de Guadalajara. Asesor: Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La leucemia linfoblástica aguda (LLA) es un tipo de cáncer en el que la médula ósea produce demasiados linfocitos (glóbulos blancos). Se caracteriza por su rápida evolución y consiguiente deterioro de la salud del paciente. En fases tempranas de la enfermedad los signos y síntomas incluyen fiebre, sudoración, dificultad para respirar, debilidad, dolor de estómago; todos estos suelen confundirse con otras patologías más simples como el resfriado común. En pacientes sanos, la médula ósea produce células madre sanguíneas que pueden convertirse en celular madre mieloides o linfoide. Las primeras pueden a su vez convertirse en glóbulos rojos, plaquetas o granulocitos; mientras que las últimas dan lugar a linfoblastos que luego se vuelven linfocitos B, T o linfocitos citolíticos naturales; todas estas con alguna función en el sistema inmunológico. En la LLA se producen sin control linfocitos inmaduros incapaces de cumplir con su función. Este aumento desmedido provoca la reducción de las células sanguíneas sanas produciendo anemia, sangrado e infecciones. El diagnóstico de la LLA suele realizarse mediante un frotis de sangre, que consiste en extraer una pequeña muestra de sangre del paciente y analizarla en el microscopio. Sin embargo, el diagnóstico no siempre es acertado o no se produce de manera oportuna debido a la falta de un estándar para el diagnóstico, o algún error de interpretación que este sujeto a la opinión del laboratorista.



METODOLOGÍA

Se obtuvieron dos bases de datos de imágenes de frotis sanguíneos en la red. La primera contiene 3242 imágenes y la segunda consta de 3256 imágenes de frotis sanguíneos, ambas provenientes del hospital Taleqani en Teherán, Irán. Las imágenes capturadas fueron captadas con un microscopio Zeiss utilizando un aumento de x100 y almacenadas en formato jpg. Tras el análisis de un experto en el laboratorio de dicho hospital, en ambos casos se dividieron las imágenes en 4 clases: Benign, Early Pre-B, Pre-B y Pro-B. Estas categorías responden a un diagnóstico negativo o positivo y a la clasificación del mismo. La segunda base de datos proporciona también la segmentación de las regiones de interés, que también se utilizan para el análisis. A continuación, en el software Deep Learning Tool se crea un nuevo proyecto y se cargan las imágenes. La disposición de las bases de datos utilizadas donde las imágenes correspondientes a una categoría especifica se encuentran agrupadas en un folder especifico permite al software asignar dichas clases de manera automática, aunque se pueden realizar cambios de ser necesarios. Una vez cargadas las imágenes están pueden visualizarse de manera conjunta o una por una para asegurarse que están asignadas a la categoría correcta. Después se procede a realizar el Split o repartición de las imágenes en los conjuntos de entrenamiento, validación y prueba. El primero de ellos utilizo una distribución de 70%, 15% y 15%; respectivamente. La segunda distribución utilizó 40%, 20% y 40%, respectivamente.  Con la distribución establecida es posible comenzar el entrenamiento utilizando uno de los 6 tipos de redes disponibles en el software. Los 6 tipos de redes disponibles son: Compact: Diseñada para hacer uso eficiente de la memoria y al mismo tiempo tener un tiempo de entrenamiento reducido. Enhanced: Contiene una mayor cantidad de capas ocultas que la compact, por lo que es mayor para tareas complejas, aunque se asume un mayor tiempo de cómputo. No tiene límites en cuanto al tamaño de la imagen, pero imágenes muy grandes aumentaran el costo computacional y el tiempo de entrenamiento significativamente. ResNet-50: También diseñada para tareas complejas, aunque con estructura distinta para un entrenamiento estable y más robusto internamente. De igual modo, no existe límite en las dimensiones de imagen con las implicaciones que ello conlleva. ResNet-18: Una versión simple de la anterior, con un tiempo de inferencia más rápido. MobileNetV2: Red pequeña con poder limitado, ideal para aplicaciones mobiles y embebidas. Se beneficia en gran medida de las GPU, que logran una mayor velocidad que los CPU. AlexNet: Creada especialmente para clasificación, por sus kernels de convolución que la vuelven especialmente útil para dicha labor. En este caso se excluye solamente la red ResNet-50 por su costo computacional elevado y tiempo de entrenamiento prolongado. Para cada uno de los entrenamientos se utiliza la configuración por defecto del software que establece 20 épocas y un tamaño de lote de 30, así como una tasa de aprendizaje de 0.0001. La cantidad total de iteraciones es 820, realizando así 41 iteraciones por época. El tamaño de las imágenes también puede modificarse, pero en este caso se mantienen en su tamaño original de 224 x 224 píxeles. La GPU utilizada en este caso es la AMD Ryzen 3 2300U with Radeon Vega. Otros parámetros adicionales también utilizan la configuración predeterminada cambiando solamente el Split utilizado y el tipo de red. Durante el entrenamiento se muestra en tiempo real la los function y el top-1 error para el entrenamiento y validación. Se despliega además el tiempo transcurrido desde el inicio del entrenamiento y el tiempo restante aproximado. Cuando el entrenamiento ha concluido se puede pasar a la etapa de prueba donde se puede apreciar en tiempo real la cantidad de imágenes que han sido procesadas y la cantidad errores en la prueba. Finalmente, se exportan los resultados en formato pdf para su análisis.


CONCLUSIONES

Durante la estancia de verano pude aprender no sólo sobre el Deep Learning y conceptos afines a este, si no también sobre una patología cuya rápida evolución y dificultad de diagnóstico la vuelven especialmente letal. El software utilizado facilito mucho el trabajo, aunque los resultados obtenidos no son del todo satisfactorios, puesto que la poca variación en la precisión hace suponer que existe algo raro con los datos con los que se trabaja o que hubo algún error en el procesamiento. De cualquier modo, me gustó mucho trabajar con el software pues está muy bien documentado y es muy intuitivo.
Velasco Medrano Carlos David, Universidad Veracruzana
Asesor: Dra. Daniela Alejandra Moctezuma Ochoa, Centro de Investigación en Ciencias de Información Geoespacial, A.C. (CONACYT)

EVALUACIóN Y ENTRENAMIENTO DE MODELOS DE SEGMENTACIóN SEMáNTICA USANDO UNA MUESTRA DE LA BASE DE DATOS COCO


EVALUACIóN Y ENTRENAMIENTO DE MODELOS DE SEGMENTACIóN SEMáNTICA USANDO UNA MUESTRA DE LA BASE DE DATOS COCO

Velasco Medrano Carlos David, Universidad Veracruzana. Asesor: Dra. Daniela Alejandra Moctezuma Ochoa, Centro de Investigación en Ciencias de Información Geoespacial, A.C. (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La segmentación semántica es una tarea crucial en la visión por computadora, en donde el objetivo es clasificar cada pixel de una imagen en una categoría especifica. La eficiencia y rendimiento de los modelos de segmentación semántica pueden variar significativamente en función de la arquitectura del modelo, los hiperparámetros y la calidad del conjunto de datos. Se buscó evaluar varios modelos de segmentación semántica para determinar cuáles son los más adecuados para un entrenamiento de recursos limitados y junto con la base de datos COCO. Los principales desafíos encontrados incluyeron la complejidad de algunos modelos, problemas de compatibilidad con versiones de librerías, la capacidad de procesamiento y la memoria disponibles influyeron en la viabilidad de los modelos más complejos, limitando la posibilidad de evaluar completamente algunos modelos.



METODOLOGÍA

Se llevó a cabo una búsqueda exhaustiva de modelos de segmentación semántica para identificar los más adecuados para nuestra investigación. La tarea de segmentación semántica ha evolucionado significativamente a lo largo de los años, con mejoras constantes en los modelos. Aunque hay una variedad de modelos disponibles, algunos se han vuelto obsoletos debido a avances en el campo. Sin embargo, durante la implementación y pruebas de entorno de trabajo, surgieron varios problemas. Algunos modelos presentaron errores debido a incompatibilidades de versiones o la insuficiencia de recursos de hardware disponibles. Como resultado, varios modelos fueron descartados, y se seleccionó el modelo Detectron2 para la evaluación final. Para el entrenamiento, se utilizó la base de datos COCO, que es una amplia colección de datos para detección y segmentación de objetos, disponibles de forma gratuita. Dado el tamaño de la base de datos completa, se optó por utilizar una muestra reducida para hacer el entrenamiento más eficiente. Se seleccionaron las imágenes que contenían la clase person, extrayendo 1000 imágenes para entrenamiento y 500 imágenes para evaluación. Esto implico la creación de un subconjunto personalizado del archivo JSON original de COCO, que solo incluyo las imágenes y anotaciones correspondientes a la clase person . Dado que los requisitos de hardware para entrenar el modelo Detectron2 son elevados, se utilizó Google Colab para realizar el entrenamiento. Google Colab es un servicio gratuito de Google que proporciona recursos de computación en la nube, aunque con ciertas limitaciones en su uso gratuito Con el conjunto de datos preparados y el modelo configurado, se procedido al entrenamiento con un máximo de 1500 iteraciones, en un tamaño de lote de 64 y la detección de una sola clase, person. El entrenamiento delo modelo tomo aproximadamente 2 horas 'AP': 58.24403306922562 'AP50': 86.49409884476533 'AP75': 65.13609988935342 'APs': 40.937993237240526 'APm': 65.7629034286503 'APl': 74.16197878654062 AP (Precisión media): Son los promedios de precisión de todos los valores de recuperación entren 0 y 1. AP50 (Precisión media en un umbral de la IoU del 50%): Mide la precisión media cuando se considera que una predicción es correcta si la intersección sobre la Unión (IoU) entre la caja predicha y la caja verdadera es mayor o igual al 50%. AP75 (Precisión media en un umbral de la IoU del 75%): Mide la precisión media cuando se considera que una predicción es correcta si la intersección sobre la Unión (IoU) entre la caja predicha y la caja verdadera es mayor o igual al 75%. APs (Precisión media para objetos pequeños): Mide la precisión media en objetos que tienen un área pequeña a la imagen APm (Precisión media para objetos medianos): Mide la precisión media en objetos que tienen un área mediana a la imagen APl (Precisión media para objetos medianos): Mide la precisión media en objetos que tienen un área grande a la imagen  Finalmente, se realizó una evaluación del modelo utilizando las imágenes de validación para determinar la precisión y eficacia de la segmentación


CONCLUSIONES

Durante la estancia de verano, se logró entrenar un modelo de segmentación semántica y se adquirieron conocimientos teóricos valiosos sobre visión por computadora. A pesar de las limitaciones de hardware que impidieron realizar más pruebas con diversos modelos, se exploraron técnicas para el entrenamiento con otras bases de datos. Además, se desarrolló la capacidad de crear conjuntos de datos personalizados, lo que permitió adaptar el modelo a datos específicos. Se pretende avanzar en la implementación de técnicas de segmentación semántica en tiempo real, utilizando cámaras para la detección y segmentación en vivo, lo cual abriría las puertas a nuevos desarrollos y aplicaciones en el campo de la visión por computadora
Velázquez Dominguez José Angel, Universidad Autónoma de Sinaloa
Asesor: Dr. Héctor Luis López López, Universidad Autónoma de Sinaloa

PROPUESTA DESARROLLO DE UN MODELO DE IA PARA LA DETECCIóN AUTOMáTICA DE ESTILOS DE APRENDIZAJE A PARTIR DE DATOS MULTIMODALES: UN ENFOQUE INNOVADOR EN LA INGENIERíA EDUCATIVA


PROPUESTA DESARROLLO DE UN MODELO DE IA PARA LA DETECCIóN AUTOMáTICA DE ESTILOS DE APRENDIZAJE A PARTIR DE DATOS MULTIMODALES: UN ENFOQUE INNOVADOR EN LA INGENIERíA EDUCATIVA

Velázquez Dominguez José Angel, Universidad Autónoma de Sinaloa. Asesor: Dr. Héctor Luis López López, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En el contexto educativo actual, la diversidad de estilos de aprendizaje entre los estudiantes representa un desafío significativo para los docentes y las instituciones académicas. Esta diversidad se manifiesta en las diferentes formas en que los estudiantes absorben, procesan y retienen la información, lo que impacta directamente en su rendimiento académico y en la eficacia de las estrategias de enseñanza implementadas.                                      En particular, en la Facultad de Informática Mazatlán, donde se forman profesionales en un campo altamente técnico y dinámico, es crucial comprender y adaptarse a los estilos de aprendizaje específicos de los estudiantes para promover un proceso de enseñanza-aprendizaje más efectivo y personalizado. Sin embargo, identificar estos estilos de aprendizaje de manera precisa y escalable representa un desafío para los docentes y los programas educativos. Las herramientas tradicionales de diagnóstico de estilos de aprendizaje, basadas en cuestionarios y pruebas estáticas, pueden ser limitadas en su capacidad para capturar la complejidad y la variabilidad de los estilos de aprendizaje de manera dinámica y en tiempo real. En este contexto, surge la necesidad de desarrollar una herramienta de diagnóstico de estilos de aprendizaje más avanzada y efectiva, que aproveche el potencial de las tecnologías emergentes, como las redes neuronales, para proporcionar una evaluación más precisa y personalizada de los estilos de aprendizaje de los estudiantes de informática en la Facultad de Informática.



METODOLOGÍA

Este estudio propone el desarrollo de un modelo de inteligencia artificial (IA) para la detección automática de estilos de aprendizaje utilizando una red neuronal de Perceptrón Multicapa (PMC), también conocida como Multilayer Perceptron (MLP). La investigación se centra en estudiantes del ciclo escolar 2018-2019 de la Facultad de Informática Mazatlán, y la muestra está compuesta por 28 casos. La implementación del modelo se realizó en línea debido a los altos requisitos de hardware y software necesarios para ejecutar el código en una computadora convencional. Diseño del Modelo: La red neuronal creada consta de tres capas principales, las cuales son: - Capa de entrada: Consta de 8 neuronas, que corresponden a las preguntas del instrumento VARK, diseñadas para identificar los estilos de aprendizaje visual, kinestésico, auditivo y de escritura. - Capa oculta: Compuesta por 7 neuronas, esta capa procesa las entradas y extrae características relevantes a partir de los datos. - Capa de salida: Incluye 4 neuronas, cada una representando uno de los estilos de aprendizaje. Los valores en esta capa son representados como unos y ceros, indicando el estilo de aprendizaje dominante de cada estudiante. Los datos para el entrenamiento y validación del modelo fueron recolectados mediante el cuestionario VARK, el cual fue administrado a los estudiantes de la muestra. Este cuestionario consiste en una serie de preguntas diseñadas para identificar las preferencias de aprendizaje de los individuos. Las respuestas obtenidas fueron codificadas y normalizadas para ser utilizadas como entradas para la red neuronal. El entrenamiento del modelo se realizó en una plataforma en línea para aprovechar los recursos computacionales necesarios. El proceso de entrenamiento incluyó los siguientes pasos: - Inicialización: Los pesos de las conexiones entre las neuronas fueron inicializados aleatoriamente. - Propagación directa: Los datos de entrada fueron propagados a través de la red, calculando las salidas en cada capa. - Cálculo del error: Se calculó el error entre las salidas predichas por el modelo y las salidas esperadas (estilos de aprendizaje reales). - Retropropagación del error: Los errores fueron propagados hacia atrás a través de la red, ajustando los pesos de las conexiones para minimizar el error. - Iteración: Este proceso se repitió durante varias iteraciones (épocas) hasta que el modelo alcanzó un nivel satisfactorio de precisión. Para evaluar la efectividad del modelo, se utilizó un conjunto de datos de validación separado del conjunto de entrenamiento. Se calcularon métricas de desempeño como la precisión, la sensibilidad y la especificidad para determinar la capacidad del modelo para identificar correctamente los estilos de aprendizaje de los estudiantes. La red neuronal de Perceptrón Multicapa desarrollada logró clasificar los estilos de aprendizaje con una precisión significativa. Los resultados indicaron que el modelo es capaz de detectar los estilos de aprendizaje visual, kinestésico, auditivo y de escritura de manera efectiva, proporcionando una herramienta valiosa para personalizar y mejorar la experiencia educativa de los estudiantes.


CONCLUSIONES

El modelo de Perceptrón Multicapa (PMC) desarrollado demostró ser eficaz en la detección automática de estilos de aprendizaje entre los estudiantes de la Facultad de Informática Mazatlán. Con una precisión significativa en la clasificación de los estilos de aprendizaje visual, cinestésico, auditivo y de escritura, el modelo proporciona una herramienta valiosa para personalizar la experiencia educativa. La capacidad del modelo para identificar los estilos de aprendizaje de manera precisa tiene el potencial de mejorar significativamente la personalización de la educación. Al adaptar las estrategias de enseñanza a los estilos de aprendizaje individuales, se puede mejorar el rendimiento académico y la satisfacción de los estudiantes. La utilización del cuestionario VARK como herramienta de entrada para el modelo de IA demuestra ser efectiva. Las preguntas del cuestionario proporcionaron datos relevantes que permitieron al modelo de PMC identificar correctamente los estilos de aprendizaje, validando así la utilidad de VARK en la investigación educativa. Los resultados obtenidos en este estudio sientan las bases para futuras investigaciones. Se puede explorar la optimización del modelo, el aumento del tamaño de la muestra y la implementación en diferentes contextos educativos. Además, se pueden investigar otros tipos de redes neuronales.
Velazquez Fuentes Michael, Instituto Tecnológico de Zitácuaro
Asesor: Mg. Sergio Daniel Martínez Campo, Universidad Cooperativa de Colombia

ANáLISIS DE LAS TENDENCIAS DE LOS VEHíCULOS A RED V2G COMO GENERACIóN DISTRIBUIDA EN SMART GRID: VIGILANCIA TECNOLóGICA


ANáLISIS DE LAS TENDENCIAS DE LOS VEHíCULOS A RED V2G COMO GENERACIóN DISTRIBUIDA EN SMART GRID: VIGILANCIA TECNOLóGICA

Velazquez Fuentes Michael, Instituto Tecnológico de Zitácuaro. Asesor: Mg. Sergio Daniel Martínez Campo, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

Los vehículos eléctricos están ganando cada vez más presencia e impacto en muchos países. Sin embargo, debido a que su fuente de alimentación es la electricidad, es fundamental que los lugares donde se implementen cuenten con una infraestructura adecuada para ofrecer un servicio eficiente de carga. A pesar de los beneficios ambientales, el uso de energía eléctrica de fuentes convencionales para estos vehículos resulta similar a utilizar vehículos a gasolina. Por ello, es necesario recurrir a energías renovables para reducir el impacto ambiental. Aunque los vehículos eléctricos obtienen energía limpia, esta no siempre se utiliza de la manera más eficiente. Por ello, se deben buscar alternativas para aprovechar la energía almacenada en los vehículos e inyectarla a las redes de distribución, beneficiando tanto a estas redes como a los propietarios de los vehículos que ceden esa energía. Es crucial explorar las últimas tendencias de los vehículos con tecnología V2G (Vehicle to Grid) para redes inteligentes, implementando estrategias que ayuden a filtrar y agrupar la información más relevante. Utilizar herramientas del Sistema de Inteligencia Tecnológica para analizar las tendencias, como lo es Vigilancia Tecnológica, que a través de una interfaz Biblioshiny permite describir un análisis sistemático basado en investigación cuantitativa de estudios cienciométricos y bibliométricos.



METODOLOGÍA

Para esta investigación se utilizaron diversas metrias y técnicas de medición de información que nos permiten gestionar y generar conocimiento en diferentes entornos. Para ello, se empleó la bibliometría, que es fundamental en todas las ciencias, ya que facilita el tratamiento de la información y establece dinámicas en cada una de ellas. Entre los tipos de información considerados se encuentran materiales bibliográficos y documentos tanto digitales como físicos, siempre cuidando las fuentes de donde se obtienen, además de la sociedad, patentes, internet-web e información estructurada. Este análisis se centra en diferentes niveles de análisis, incluyendo fuentes, autores y documentos, así como el análisis estructural, que incluye aspectos conceptuales, intelectuales y sociales. La Vigilancia Tecnológica es un proceso sistemático que capta, analiza y utiliza información valiosa para apoyar la toma de decisiones estratégicas acordes con el entorno actual. Durante el trabajo se emplearon bases de datos como Scopus y ScienceDirect, las cuales permitieron obtener información relevante según el tipo requerido, como investigaciones previas y revistas científicas. Estas bases también permiten filtrar la información por año de publicación, acceso libre e incluso por autor. Sin embargo, revisar toda esta información puede resultar tedioso y consumir mucho tiempo, por lo que se utilizaron softwares especializados que automatizan la organización de la información, entregando un resumen ordenado de lo más útil y actualizado. En este caso, se utilizó el software Bibliometrix-Biblioshiny para analizar la información y mostrar las principales investigaciones o documentos relacionados con el tema de estudio, lo que permitió avanzar a la siguiente fase de tratamiento de la información. Alternativamente, se pueden utilizar metrias para filtrar la información de manera más minuciosa, aunque esto requiere más tiempo ya que implica analizar cada aspecto del documento, como su fuente, naturaleza y campo de aplicación. Ambos procesos nos llevaron a la práctica de la vigilancia tecnológica, que nos permite generar indicadores y mapas como formas de representación. El proceso de vigilancia tecnológica consta de cuatro etapas, de las cuales en esta investigación solo se pudieron abordar dos. En la primera etapa, se definen las bases de datos a trabajar, que en este caso fueron Scopus y ScienceDirect, bases de datos de alta confianza y popularidad en el ámbito científico. Posteriormente, se define la ecuación de búsqueda, que se resume en la determinación de las palabras clave dentro del tema de investigación, tales como: vehículos a red, generación distribuida, smart grid, energía renovable, integración de vehículos eléctricos, sistemas de energía inteligente. Con la definición de la ecuación se procede a descargar la información de acuerdo a ese criterio. Una vez obtenida la información, se aborda la segunda etapa, donde se realiza una revisión inicial y depuración de registros para reducir la cantidad de información y quedarse solo con la más importante. En el siguiente paso, que es el procesamiento intermedio, se utiliza el software Bibliometrix-Biblioshiny para filtrar la información de manera más eficiente, obteniendo un top 10 de las mejores investigaciones y documentos según su relevancia, actualidad y confianza. Las siguientes dos etapas consisten en el manejo de la información para generar informes y documentos que puedan ser divulgados tanto dentro como fuera de la comunidad científica.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos que me permitieron obtener información de alta calidad sobre las últimas tendencias en vehículos V2G. Estos vehículos representan una forma sostenible de maximizar el uso de la energía eléctrica y contribuyen a la descongestión de las redes eléctricas urbanas. Como resultado, recopilamos un compendio de las principales fuentes de información relacionadas con este tema, para que posteriormente se puedan elaborar informes más detallados.
Velazquez Gonzalez Citlali, Instituto Tecnológico Superior de Tacámbaro
Asesor: Dr. Omar Guzmán Quevedo, Instituto Tecnológico Superior de Tacámbaro

CARACTERIZACIóN NUTRICIONAL DE SEMILLA DE BONETE (JACARATIA MEXICANA) PARA SU APROVECHAMIENTO EN LA ALIMENTACIóN FUNCIONAL.


CARACTERIZACIóN NUTRICIONAL DE SEMILLA DE BONETE (JACARATIA MEXICANA) PARA SU APROVECHAMIENTO EN LA ALIMENTACIóN FUNCIONAL.

Gallegos Cornejo Monica, Instituto Tecnológico Superior de Tacámbaro. Velazquez Gonzalez Citlali, Instituto Tecnológico Superior de Tacámbaro. Asesor: Dr. Omar Guzmán Quevedo, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

El bonete (Jacaratia mexicana) Es una especie presente en la zona centro de México, con remarcada presencia en la región de Tierra Caliente de Michoacán. Este fruto puede ser recolectado entre los meses de mayo y junio. Entre la pulpa del fruto se tiene una cantidad considerable de semilla. Este fruto crece de manera silvestre, ya que no necesita riego, fertilización artificial o control de plagas. Dadas sus características puede ser una buena fuente de compuestos bioactivos y materia de base para el desarrollo de alimentos funcionales. Sin embargo, para ser aprovechados es necesario caracterizar la composición nutricional y química, así como investigar sus propiedades beneficiosas para la salud de los consumidores.  Este estudio investigó el potencial uso de la semilla de bonete en la alimentación funcional, a través de la realización de análisis para determinar su valor nutricional, su contenido de polifenoles y su capacidad antioxidante.



METODOLOGÍA

Determinación de la composición nutricional de la semilla de bonete.  Los bonetes fueron obtenidos de la comunidad de Zárate, Mpio de Turicato, Michoacán. Las semillas fueron extraídas del fruto de bonete maduro y conservadas a -20°C hasta su análisis. Paradeterminar la composición nutricional se llevó a cabo un análisis bromatológico siguiendo la normativa vigente, determinando el porcentaje (en base seca) de lípidos totales, proteína, fibra y cenizas. Para los estudios se descongelaron, se deshidrataron a 60°C por 24h y se pulverizaron con un molino para alimentos, siempre evitando al máximo la exposición a la luz. Humedad: Se inició pesando 3g de muestra de la semilla, se metió a la estufa a una temperatura de 105°C por 4 h. Una vez ya concluido el tiempo se pesó y el peso perdido fue considerado como la cantidad de humedad. Cenizas: Para la ceniza, se pesaron 3g de muestra y se dejó en la mufla a una temperatura de 600°C por 6 hora. Transcurrido el tiempo se pesó y calculó el porcentaje de cenizas. Obtención de extracto etéreo: Se pesaron 2g de muestra en un papel filtro y se metió a un cartucho, el cual se llevó a una corneta soxleth, como solvente se usó hexano. Se esperó un tiempo de 4 h para finalmente la grasa quedará en el matraz bola. El exceso de solvente fue rotoevaporado y el procentaje de lípidos totales fue determinado. Obtención de fibra: Se tomó la muestra de la extracción de grasa y se agregaron 200mL de ácido sulfúrico 0.255 N. Se dejó hirviendo por 30min y se filtró en un embudo Buckner con un matraz tipo Kitasato; se enjuagó el vaso con 50/70mL de agua destilada hirviendo, una vez la fibra en el filtro se transfirió a un vaso con 200mL de NaOH al 1.25% y se dejó hirviendo durante 30min. Se filtró nuevamente enjuagando con agua destilada hasta que el pH deje de ser ácido, se dobló el papel filtro con la fibra dentro y se llevó a la estufa a una temperatura de 130°C durante 2 h y después se llevó a cenizas a una temperatura de 600°C por 6 h.  Obtención de proteína: En una muestra de 2g de semilla, se pesaron 2g de sulfato de cobre y 10g de sulfato de sodio, los cuales se agregaron a un matraz Kjeldahl, agregando también 4 perlas de ebullición. Después de mezclar se colocó en el digestor hasta adquirir un color verde esmeralda, se dejó 30min hirviendo. Una vez frío, se añadieron 400mL de agua destilada al matraz Kjeldahl disolviendo la muestra, se le agregaron posteriormente 50mL de hidróxido de sodio 1.1N y se destiló,colocando en un matraz Erlenmeyer 50 mL de ácido bórico al 0.255 N y tres gotas de Shiro-Tashiro, pasando 200 mL de destilación tomando un color violeta a verde, se tituló la muestra en el matraz Erlenmeyer con ácido clorhídrico al 0.1 N. Determinación de polifenoles totales: Se determinaron en 2g de muestra de semilla de bonete usando la técnica de determinación de fenoles totales con Folin-Ciocalteu. Para ello, a la muestra se le agregaron 20mL de hexano por cada muestra (triplicado) y se dejaron reposar por 2h. Concluido el tiempo se retiró el hexano y se colocaron 15mL de metanol/agua (80:20 v/v), la muestra se incubó a 45°C por 24h. Posteriormente se centrifugó 3 veces con 15mL de metanol/agua a 3600 rpm durante 15min, recuperando el sobrenadante en tubos. Se llevó la muestra ya centrifugada al rotovaporador a 120 rpm a 50°C, se recuperócon 5mL de metanol/agua, se filtró y se almacenó en un frasco de vidrio a -18°C en condiciones de oscuridad. Al extracto se le adicionó el Folin-Ciocalteu y una solución de bicarbonato de sodio. Después de reposar 20min se determinó la absorbencia a 700nm por espectrofotometría. La concentración de polifenoles se determinó comparando con una curva de ácido gálico. Determinación de la capacidad antioxidante por DPPH:A otra parte del extracto polifenólico se le realizó la determinación de capacidad antioxidante con la técnica de DPPH. La cual consistió en agregar el reactivo DPPH, esperar 30min y leer a 517nm en el espectrofotómetro. El valor obtenido se contrastó con una curva patrón de Quercetina.


CONCLUSIONES

Los resultados mostraron que la semilla de bonete contiene un elevado porcentaje de lípidos (38.12%), en este caso aceites. También fue detectado un alto porcentaje de proteína (19.12%) y fibra (35.44%). El contenido de minerales fue también considerable, alrededor de 6.04%. Por diferencia, se calculó 1.28% de carbohidratos. En cuanto a los polifenoles totales, los datos arrojaron la presencia de 3.45 µg equivalentes de AG/g. Además, se encontró una capacidad antioxidante considerable: de 110.83 µg equivalentes QE/100g con un %inhibición de DPPH = 76.41. En general, los resultados muestran que la semilla de bonete posee una composición nutricional sobresaliente, con alto contenido de aceites, proteína y fibra y reducida cantidad de carbohidratos. Lo anterior asociado a su actividad antioxidante vuelven a este material altamente interesante para su uso en la elaboración de alimentos saludables. Por otra parte nuestra estancia de verano fue una experiencia que nos permitió desarrollar habilidades valiosas. El convivir con estudiantes de otras regiones del país nos permitió conocer diferentes costumbres y tradiciones.
Velázquez Hernández Flor Mireya, Instituto Tecnológico de Matamoros
Asesor: Dra. Edith Corona Jiménez, Benemérita Universidad Autónoma de Puebla

EXTRACCIóN CONVENCIONAL DE COMPUESTOS FUNCIONALES DE BRáCTEAS DE BUGAMBILIA (BOUGAINVILLEA GLABRA) CON SOLVENTES CON SOLVENTES EUTéCTICOS PROFUNDOS NATURALES.


EXTRACCIóN CONVENCIONAL DE COMPUESTOS FUNCIONALES DE BRáCTEAS DE BUGAMBILIA (BOUGAINVILLEA GLABRA) CON SOLVENTES CON SOLVENTES EUTéCTICOS PROFUNDOS NATURALES.

Velázquez Hernández Flor Mireya, Instituto Tecnológico de Matamoros. Asesor: Dra. Edith Corona Jiménez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La bugambilia (Bougainvillea glabra) es una planta ornamental ampliamente conocida por sus brácteas coloridas, que no solo aportan belleza visual, sino que también son una fuente rica en compuestos bioactivos, como flavonoides, betalaínas y otros antioxidantes. La extracción de estos compuestos funcionales puede tener aplicaciones en las industrias farmacéutica, cosmética y alimentaria. Sin embargo, los métodos convencionales de extracción utilizan solventes orgánicos tóxicos que pueden ser perjudiciales para el medio ambiente y la salud humana, además de ser costosos. En este contexto, los solventes eutécticos profundos naturales (NADES) emergen como una alternativa de bajo costo, ecológica y eficiente para la extracción de compuestos bioactivos. Los NADES son solventes verdes, formados por componentes provenientes de plantas y/o animales como ácidos orgánicos, aminoácidos y azúcares, que presentan ventajas como biodegradabilidad, baja toxicidad y alta eficiencia de extracción.



METODOLOGÍA

La extracción se llevó a cabo en brácteas de bugambilia secas y pulverizadas. Se probaron 5 solventes: agua, etanol 50% v/v, NADES 1, NADES 2 y NADES 3.  En los tres NADES se utilizó ácido cítrico (30% m/m) y agua (40% m/m) en adición a fructosa (30% m/m), sorbitol (30% m/m) y xilitol (30% m/m) para los NADES 1, 2 y 3, respectivamente.  Para los 5 solventes se utilizó una relación masa/solvente de 1 g /50 mL y agitación a 500 rpm por 15 min. Los extractos se filtraron y en cada muestra se cuantificaron las cantidades de betacianinas y compuestos fenólicos totales, así como la actividad antioxidante por ABTS y DPPH. Además, se obtuvieron espectros de absorción en el rango visible (350 - 750 nm) de cada extracto.


CONCLUSIONES

Al utilizar agua como solvente se registró una mayor cantidad de betacianinas en comparación con etanol 50% y los tres NADES. Esto también se vio reflejado en los espectros de absorción en el rango visible de los 5 extractos, donde se observó un máximo de absorción alrededor de 535 nm y una disminución en la intensidad de este máximo en los tres NADES y el etanol en compasión con el agua. La menor cantidad de betacianinas registrada en los extractos de los tres NADES puede atribuirse a su menor acidez al utilizar ácido cítrico como precursor ya que se sabe que las betalaínas son pigmentos inestables en medios con pH muy bajo o alto. En contraste, con los tres NADES utilizados se obtuvieron cantidades similares de compuestos fenólicos totales y actividad antioxidante por ABTS y DPPH a los valores obtenidos con agua y etanol. En particular, la utilización del NADES con base en fructosa, ácido cítrico y agua permitió obtener valores mayores de compuestos fenólicos y actividad antioxidante por DPPH en comparación con los obtenidos con agua. Esto puede atribuirse a la fructosa, ya que es un azúcar reductor que puede participar en las reacciones de óxido-reducción implicadas en las metodologías utilizadas para compuestos fenólicos y actividad antioxidante. 
Velázquez Mejía Helen, Instituto Tecnológico Superior de Pátzcuaro
Asesor: Dr. Brhayllan Mora Ventura, Universidad de Guadalajara

DESARROLLO DE BASE DE DATOS PARA SISTEMA DE RED DE SENSORES DE CALIDAD DE AIRE


DESARROLLO DE BASE DE DATOS PARA SISTEMA DE RED DE SENSORES DE CALIDAD DE AIRE

Velázquez Mejía Helen, Instituto Tecnológico Superior de Pátzcuaro. Asesor: Dr. Brhayllan Mora Ventura, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La contaminación del aire es un problema crítico que afecta la salud pública y el medio ambiente a nivel global. Las emisiones de vehículos, industrias y otras fuentes antropogénicas liberan contaminantes peligrosos como el monóxido de carbono (CO), el dióxido de nitrógeno (NO2), las partículas en suspensión (PM2.5 y PM10) y los compuestos orgánicos volátiles (COVs). Estos contaminantes están asociados con enfermedades respiratorias, cardiovasculares, y otros problemas de salud, especialmente en poblaciones vulnerables como niños y ancianos. Según el Inventario Nacional de Emisiones de Gases y Compuestos de Efecto Invernadero (INEGYCEI), en México, las emisiones siguen creciendo, y el sector que más contribuye es el sector Energía, principalmente debido al consumo de combustibles fósiles. Además, se estima que hay 20,496 muertes anuales atribuidas a la contaminación del aire por material particulado (PM) en exteriores.  Esto ha ido empeorando a través del tiempo con la creciente urbanización en la zonas metropolitanas y sus alrededores. Sin embargo, la información sobre la calidad del aire a menudo es insuficiente o inaccesible, lo que impide que las comunidades tomen medidas preventivas efectivas y que las autoridades desarrollen políticas informadas para mitigar la contaminación. En este contexto, surge la necesidad de implementar una red de sensores de calidad del aire que pueda proporcionar datos continuos, detallados y accesibles, facilitando tanto la gestión ambiental como la protección de la salud pública.



METODOLOGÍA

1. Prueba de Prototipo de Sensores 1.1. Configuración de Sensores y Hardware ESP32: Se seleccionó la ESP32 como microcontrolador para la recolección y transmisión de datos. Sensirion SEN54: Para medir variables ambientales, se probó utilizando el bridge y la aplicación Sensirion Control Center, evaluando su precisión y fiabilidad. Sensor MQ-5: Orientado a la detección de gases como el monóxido de carbono, se integró y probó usando Arduino IDE para asegurar su correcta funcionalidad y calibración. 2. Prueba de Conexión y Almacenamiento de Datos 2.1. Almacenamiento en Base de Datos Local Base de Datos MySQL: Se configuró una base de datos local en MySQL para recibir y almacenar los datos enviados desde la ESP32, permitiendo pruebas iniciales de conectividad y transmisión de datos. 3. Investigación de Tecnologías de Almacenamiento y Hospedaje 3.1. Bases de Datos de Series Temporales Se realizó una investigación para identificar las mejores opciones de bases de datos de series temporales, que son adecuadas para manejar grandes volúmenes de datos generados en intervalos de tiempo regulares. 3.2. Opciones de Hospedaje en la Nube Se evaluaron varias opciones de hospedaje en la nube para asegurar la escalabilidad y accesibilidad de los datos. Finalmente, se eligió InfluxDB Cloud por su capacidad para manejar datos de series temporales de manera eficiente. 4. Desarrollo de Software 4.1. Programación de la ESP32 Se investigaron y seleccionaron las librerías necesarias para programar la ESP32, facilitando la conexión y envío de datos a InfluxDB Cloud. Se realizaron pruebas para asegurar la estabilidad y fiabilidad de la transmisión de datos. 4.2. Desarrollo de una Página Web Sencilla Se diseñó y desarrolló una página web sencilla para visualizar los datos de calidad del aire en tiempo real, permitiendo a los usuarios finales acceder fácilmente a la información. 5. Evaluación y Ajustes 5.1. Identificación de Errores y Fallas Durante el proceso de envío de datos, se identificaron fallas y errores, los cuales fueron documentados y abordados para mejorar la fiabilidad del sistema. 5.2. Optimización del Sistema Se realizaron ajustes en el código y la configuración del sistema para asegurar un funcionamiento óptimo y una experiencia de usuario fluida. 6. Implementación Final Tras superar las pruebas y ajustes, se completó la implementación del sistema, logrando el envío exitoso de datos desde los sensores al InfluxDB Cloud y su visualización a través de la página web desarrollada.


CONCLUSIONES

Durante la estancia se adquirieron conocimientos a través de la investigación de las tecnologías adecuadas para la implementación de una red de sensores de calidad del aire. En esta fase de prototipado y pruebas del proyecto se ha logrado la integración y prueba de sensores de calidad del aire utilizando una ESP32, incluyendo el Sensirion SEN54 y el MQ-5. La transición de un almacenamiento local en MySQL a una solución en la nube con InfluxDB Cloud ha permitido una gestión más eficiente y accesible de los datos en tiempo real. Además, el desarrollo de una página web sencilla para una fácil visualización de datos. A lo largo del proceso, se identificaron y resolvieron varios desafíos técnicos, lo que ha resultado en un sistema más robusto y confiable. Estos logros representan un paso significativo hacia el objetivo final de implementar una red de monitoreo de calidad del aire efectiva y accesible.
Velázquez Palmas Joaquín Elias, Universidad Tecnológica de Zinacantepec
Asesor: Mg. Mary Judith Arias Tapia, Universidad Tecnológica De Bolívar

DESARROLLO DE NANOPARTíCULAS MEDIANTE SíNTES VERDE A PARTIR DE ESPECIES VEGETALES COLOMBIANAS


DESARROLLO DE NANOPARTíCULAS MEDIANTE SíNTES VERDE A PARTIR DE ESPECIES VEGETALES COLOMBIANAS

Lucas Sanjuanero Michelle, Universidad Tecnológica de Zinacantepec. Velázquez Palmas Joaquín Elias, Universidad Tecnológica de Zinacantepec. Asesor: Mg. Mary Judith Arias Tapia, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

Actualmente alrededor de una quinta parte de la población mundial tiene acceso limitado o nulo a agua potable, aunque la cantidad requerida es tan solo de 5-10 litros por persona al día, muchas comunidades rurales en todo el mundo enfrentan escasez de agua a pesar de recibir abundante lluvia, que podría ser capturada, almacenada de manera eficiente y tratada localmente utilizando un enfoques asequible y sostenible para satisfacer la demanda de agua potable dado que habido pocos avances en la provisión de agua potable a las comunidades rurales. (Alim, 2020) Esto lleva a la recolección de agua lluvia, sin embargo no logra ser tratada, lo que puede provocar problemas de salud pública y de higiene (WASH), son quizás los temas más importantes que tienen un impacto sustancial en la prosperidad socioeconómica de una comunidad (et, 2005). En Colombia, especialmente en el Departamento de Bolívar ubicado al norte del país, existen municipios como San Jacinto, Bolivar San Estanislao, Cicuco y Cartagena de Indias los cuales actualmente a pesar de contar con acueductos sufren de desabastecimiento de agua, por lo cual tienen que recurrir a la recolección de agua de lluvia para su uso cotidiano. 



METODOLOGÍA

Pimpinella anisum 1.1 Preparación del extracto de Pimpinella anisum (anís): Se utilizó 1 g de semilla seca y lavada de Pimpinella Anisum esta se trituró con ayuda de un mortero, posteriormente se agregó a 100 mL de agua destilada y se colocó en una plancha de calentamiento a 80°C hasta obtener un volumen de 70 mL y finalmente se hizo el uso del papel filtro y el embudo para filtrar el extracto una vez teniendo la solución requerida. 1.2 Síntesis de las nanopartículas de plata AgNPs:  Se preparó una dilución de 30.5 mL utilizando 1.0 mL del extracto obtenido con 29.5 mL de agua destilada y a esta solución se le tomó el pH el cual fue de 5. Para el ajuste de pH se le añadieron gotas de NaOH hasta obtener un pH de 8, la concentración del NaOH fue de 0.5M. Finalmente, a la solución preparada de 30.5 mL conteniendo el extracto de Pimpinella anisum y el pH requerido se les adicionó lentamente gota a gota y en agitación constante 10 mL de solución de nitrato de plata AgNO3 1x10-3 M, se mantuvo en agitación constante hasta notar el cambio de color amarillo ámbar.      2. Eucalyptus 2.1 Preparación del extracto de Eucalyptus (eucalipto): Se utilizó 1 g de hojas secas y lavadas de Eucalyptus se trituran con ayuda de un mortero, posteriormente se agregó a 100 mL de agua destilada y se colocó en una plancha de calentamiento entre una temperatura de 80-90°C hasta obtener un volumen de 70 mL y finalmente se hizo el uso del papel filtro y el embudo para filtrar el extracto una vez teniendo la solución requerida. 2.2 Síntesis de las nanopartículas de plata AgNPs: Se preparó una dilución de 30 mL utilizando 1.0 mL del extracto obtenido con 29.5 mL de agua destilada y a esta solución se le tomó el pH el cual fue de 5.7. Para el ajuste de pH se le añadieron gotas de NaOH hasta obtener un pH de 9, la concentración del NaOH fue de 0.5M.Finalmente, a la solución preparada de 30 mL conteniendo el extracto de Eucalyptus y el pH requerido se le adicionó lentamente gota a gota y en agitación constante 10 mL de solución de nitrato de plata AgNO3 1x10-3 M, se mantuvo en agitación constante hasta notar el cambio de color amarillo ámbar.      3. Rosmarinus officinalis 3.1 Obtención del extracto natural de la hoja de Romero: Para la obtención del extracto natural de la planta se siguieron los siguientes pasos: primero se procedió a seleccionar las hojas que presentaron mejor estado. Estas se lavaron y desinfectaron con una solución de agua destilada 50 ml con alcohol 20 ml. Posteriormente el extracto obtenido se llevó a punto de ebullición (100 ◦C), hirviendo 8 gr de hojas con 100 ml de agua durante 20 a 25 minutos con agitación constante. Luego, la muestra se filtró en papel y al extracto obtenido se le agregaron 100 gr de hojas adicionales para concentrarlo hasta un volumen de 50 ml, repitiendo el procedimiento de extracción anteriormente mencionado. Por último, se filtró el extracto final, se dejó enfriar a temperatura ambiente y luego se almacenó en un recipiente de vidrio. Para mayor concentración se puede conservar durante 6 días en refrigeración a 4°C 3.2 Síntesis de nanopartículas de plata: Posteriormente y para comprobar cuál era la concentración adecuada se utilizó el extracto de hojas de romero en volúmenes de 10 ml, 20 ml, 30 ml, siempre manteniendo constantes la solución del nitrato de plata (5 ml). El pH de cada una de las soluciones preparadas se ajustó con hidróxido de sodio (NaOH) al 0,1 N hasta obtener un pH básico entre 8 y 10, medido con un potenciómetro, La temperatura en la cual se mantuvieron estas soluciones fue de 65 ◦C en agitación constante.      4. Petroselinum crispum 4.1 Elaboración del extracto: Se deshojó el perejil, se lavó con agua destilada, se puso a secar 15 min, se pesan 10 g de este, se trituró en el mortero, hasta que quede como masa y se vació el perejil en 200 ml de agua destilada, se puso a calentar en el agitador magnético a 65°C a por 20 min por último se lleva a filtrar, obtención del extracto de perejil. 4.2 Síntesis de nanopartículas: Se tomó 30 ml de solución de nitrato de plata y con ayuda de una pipeta se dejó gotear el extracto de extracto de perejil hasta 10 ml. Finalmente se puso a calentar en el agitador magnético a 65°C por 10 min. Esto se repitió con 20 ml y 30 ml de extracto de perejil.


CONCLUSIONES

Durante la estancia de verano se logró adquirir información sobre las nanopartículas de Ag, así como se logró obtenerlas mediante síntesis verde, las muestras se caracterizaron y analizaron mediante UV-vis y DLS para ver la presencia de nanopartículas de Ag. Posteriormente se utilizarán las nanopartículas de plata para el tratamiento de agua de lluvia gracias a una de sus propiedades de las nanopartículas de Ag ya que estas son antimicrobianas.
Velázquez Vidal Carlos Daniel, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. German Herrera Vidal, Universidad del Sinú

DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA


DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA

Martínez Mejía Carlos Eduardo, Instituto Tecnológico Superior de Ciudad Hidalgo. Velázquez Vidal Carlos Daniel, Instituto Tecnológico Superior de Uruapan. Zapien Garcia Carlos, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. German Herrera Vidal, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

La constante globalización hace que cada vez sea necesario que las Pymes se encuentren en constante actualización, adoptando nuevas estrategias y dando paso a la industria 4.0 para seguir siendo cada vez más competitivas. El objetivo de esta investigación es poder enfocarse en las problemáticas y desafíos que actualmente presentan este sector de empresas, investigando a fondo que son los factores que no permiten el desarrollo y avance de las mismas, además a su vez, que las vuelve más vulnerables a que no sigan adoptando un nuevo y mejorado paso a la tecnología y por ende todo termine en quiebra o pérdidas. Para el debido desarrollo de la investigación se tomó a el país de Colombia, enfocándonos en los principales departamentos para terminar con el departamento de Bolívar donde se encuentra la ciudad de Cartagena; que, observando la ubicación, cuenta con una gran oportunidad para la comercialización y desarrollo de empresas. 



METODOLOGÍA

La metodología para llevar a cabo la investigación se desarrolla en cuatro principales etapas que se conforman por, (1) Investigación de la documentación científica sobre la industria 4.0, (2) Investigación de la documentación científica sobre la industria 4.0 en el contexto nacional de Colombia, (3) Investigación de la documentación científica sobre la industria 4.0 en el contexto local Cartagena,-Colombia, (4) Análisis de los desafíos hacia la industria 4.0 en la ciudad de Cartagena, Colombia.  Investigación de la documentación científica sobre la industria 4.0. Los documentos utilizados (libros, tesis y artículos científicos) fueron obtenidos mediante la herramienta de Google académico. Investigación de la documentación científica sobre la industria 4.0 en el contexto nacional de Colombia. Se investigó documentación científica que examina cómo se está desarrollando la Industria 4.0 en Colombia, identificando investigaciones previas, tendencias actuales, desafíos, y oportunidades que se están presentando a nivel nacional en Colombia. Investigación de la documentación científica sobre la industria 4.0 en el contexto local de Cartagena, Colombia. Se investigó documentación científica que aporta conocimiento sobre los antecedentes, problemas y principales desafíos a nivel local de la ciudad de Cartagena hacía la industria 4.0. Análisis de los desafíos hacia la industria 4.0 en la ciudad de Cartagena, Colombia. Para el análisis de los desafíos hacia la industria 4.0 se tomaron en cuenta los principales problemas que los autores de los documentos de investigación abordaron cómo los principales desafíos que enfrenta la ciudad de Cartagena Colombia hacia la industria 4.0.


CONCLUSIONES

Los hallazgos encontrados nos dicen que las Pymes representan una parte crucial del tejido empresarial colombiano, constituyendo el 99.5% del total de empresas y generando aproximadamente el 65% del empleo. Sin embargo, estas empresas enfrentan una alta volatilidad económica y desafíos financieros significativos debido a la falta de acceso a garantías mobiliarias y créditos adecuados, lo que aumenta su riesgo de quiebra y su vulnerabilidad financiera.   Aunado a lo anterior y centrándonos en una parte específica, las Pymes en Cartagena, al igual que en el resto del país, enfrentan una serie de problemas, como la falta de recursos propios, la inadecuada estructura financiera, y la escasa formación del personal en nuevas tecnologías. Estos problemas resultan en una baja calidad de productos y una falta de ventajas competitivas, lo que pone en riesgo la sostenibilidad de estas empresas en el largo plazo. Eso sumado a problemas de gestión estratégica, y una baja participación en procesos de innovación provocan variaciones notables en su producción y la falta de visión estratégica a mediano y largo plazo limita la competitividad de las Pymes. Algunas recomendaciones que se sugieren son que las Pymes deben invertir en la formación y capacitación de su personal en nuevas tecnologías y procesos innovadores. Programas de capacitación y desarrollo profesional ayudarán a mejorar la calidad de los productos y servicios ofrecidos, incrementando su competitividad. A su vez es vital que las Pymes adopten una visión estratégica a mediano y largo plazo. La planificación estratégica permitirá a estas empresas anticipar desafíos y aprovechar oportunidades de manera más efectiva, mejorando su sostenibilidad y crecimiento. Esto va de la mano con la siguiente recomendación, ya que se debe incentivar la participación de las Pymes en procesos de innovación y abordar investigaciones sobre la industria 4.0 generando estrategias para implementar nuevas tecnologías en los procesos productivos y logísticos que permitan estandarizar los procesos y se aprovechen al máximo los recursos como mano de obra, tiempo, materia prima, etc., dando ese diferenciador que ayude al crecimiento de las Pymes. Para lo anterior es necesario ayuda del gobierno, Es esencial que las Pymes accedan a financiamiento adecuado. Se recomienda promover políticas públicas que faciliten el acceso a créditos y garantías mobiliarias. Las instituciones financieras deben simplificar los trámites administrativos y fomentar el crecimiento de las Pymes, esto genera mayor crecimiento económico y un impulso hacía nuevos horizontes en todo el país colombiano.
Vélez Rosas Dulce María, Universidad Tecnológica de Tecamachalco
Asesor: Post-doc Mauricio Becerra Fernández, Universidad del Rosario

DINáMICA DE SISTEMAS EN LA CONSTRUCCIóN DE MODELO DE SIMULACIóN DE LA CADENA DE SUMINISTRO EN LA EXPORTACIóN DE UN PRODUCTO AL EXTRANJERO


DINáMICA DE SISTEMAS EN LA CONSTRUCCIóN DE MODELO DE SIMULACIóN DE LA CADENA DE SUMINISTRO EN LA EXPORTACIóN DE UN PRODUCTO AL EXTRANJERO

Garcia Rojas Ana Karen, Instituto Tecnológico de Morelia. Vélez Rosas Dulce María, Universidad Tecnológica de Tecamachalco. Asesor: Post-doc Mauricio Becerra Fernández, Universidad del Rosario



PLANTEAMIENTO DEL PROBLEMA

En una cadena de suministro, los diferentes eslabones (proveedores, fabricantes, distribuidores y minoristas) están interconectados y las acciones de uno pueden tener un impacto significativo en los demás. Las fluctuaciones en la demanda, los retrasos en la entrega, los problemas de calidad de los productos y otros factores pueden causar efectos en cadena que afectan la eficiencia y la capacidad de respuesta de toda la cadena de suministro. Cabe destacar que las industrias han tenido un crecimiento a lo largo de la historia; al desarrollar la dinámica de sistemas nos permite mejorar la toma de decisiones, optimización de recursos, resiliencia y adaptabilidad. Por consiguiente, se desarrollará un modelo de simulación en el cual se analizará el comportamiento de la cadena de suministro en la exportación de un producto.



METODOLOGÍA

La dinámica de sistemas es una metodología utilizada para comprender y simular el comportamiento de sistemas complejos a lo largo del tiempo. Este enfoque se basa en la creación de un modelo que represente las interacciones entre diferentes componentes de un sistema (exportación), permitiendo el análisis de cómo las variaciones en una parte del sistema pueden afectar al conjunto. Así mismo, utilizando la herramienta Vensim;  un software en el cuál se puede crear el modelo deseado para nuestra cadena de suministro, mediante gráficos se podrá observar el impacto que tiene cada nivel y variables que conforman el modelado, y a su vez se identificarán las posibles causas que alteran el sistema. Metodología La dinámica de sistemas es una metodología utilizada para comprender y simular el comportamiento de sistemas complejos a lo largo del tiempo. Este enfoque se basa en la creación de un modelo que represente las interacciones entre diferentes componentes de un sistema (exportación), permitiendo el análisis de cómo las variaciones en una parte del sistema pueden afectar al conjunto. Así mismo, utilizando la herramienta Vensim;  un software en el cuál se puede crear el modelo deseado para nuestra cadena de suministro, mediante gráficos se podrá observar el impacto que tiene cada nivel y variables que conforman el modelado, y a su vez se identificarán las posibles causas que alteran el sistema. Etapas de la dinámica de sistemas: Definición del Problema Identificación del problema central: Determinar qué aspecto del sistema se desea estudiar o mejorar. Determinación del alcance: Delimitar los límites del sistema y definir qué elementos se incluirán en el modelo. Establecimiento de objetivos: Clarificar los objetivos del estudio, como mejorar la eficiencia, reducir costos, o aumentar la resiliencia. Desarrollo del Modelo Conceptual Se desarrolla un modelo conceptual que represente las relaciones causales y los flujos dentro del sistema. Este modelo incluye: Variables: Identificación de las variables clave que afectan el sistema (por ejemplo, inventario, demanda, tasa de producción). Feedback loops: Identificación de los bucles de retroalimentación, que pueden ser positivos (refuerzan el cambio) o negativos (contrarrestan el cambio). Diagramas de Causalidad: Creación de diagramas que muestren cómo las variables están interrelacionadas. Construcción del Modelo en Vensim Interfaz de Vensim: Familiarizarse con la interfaz de Vensim, que incluye herramientas para dibujar diagramas de flujo y de causalidad. Diagramas de Stock y Flujos: Construcción de diagramas que representan los stocks (acumulaciones) y los flujos (tasas de cambio) del sistema. Stocks: Son variables que se acumulan o decrecen con el tiempo (por ejemplo, inventario de productos). Flujos: Son las tasas a las que los stocks aumentan o disminuyen (por ejemplo, tasa de producción, tasa de ventas). Ecuaciones: Definición de ecuaciones matemáticas que describan las relaciones entre las variables y los flujos del sistema. Calibración y Validación del Modelo Recolección de Datos: Obtener datos históricos del sistema que se está modelando. Ajuste del Modelo: Ajustar los parámetros del modelo para que sus salidas coincidan con los datos históricos. Pruebas de Sensibilidad: Realizar pruebas para ver cómo cambios en los parámetros afectan los resultados del modelo, lo que ayuda a identificar los factores más críticos. Simulación y Análisis de Escenarios Con el modelo calibrado y validado, se pueden realizar simulaciones para analizar diferentes escenarios y estrategias. Simulación de Escenarios: Probar diferentes escenarios (por ejemplo, cambios en la demanda, variaciones en la producción) para ver cómo afectan al sistema. Análisis de Resultados: Evaluar los resultados de las simulaciones para identificar patrones, tendencias y puntos críticos. Optimización: Utilizar herramientas de optimización en Vensim para encontrar las mejores estrategias que cumplan con los objetivos establecidos. Implementación y Monitoreo Finalmente, las estrategias y decisiones basadas en el modelo se implementan en el sistema real. Es crucial monitorear el desempeño del sistema y ajustar el modelo según sea necesario. Esto incluye: Implementación de Estrategias: Aplicar las decisiones y estrategias derivadas del análisis del modelo. Monitoreo Continuo: Supervisar el desempeño del sistema para detectar desviaciones y ajustar el modelo y las estrategias según sea necesario. Retroalimentación: Utilizar los datos del sistema real para refinar y mejorar continuamente el modelo.


CONCLUSIONES

A través de la definición del problema, desarrollo del modelo conceptual, construcción y calibración del modelo en Vensim, y simulación de escenarios, se pueden identificar ineficiencias y mejorar la toma de decisiones. Esta metodología facilita la planificación estratégica, la optimización de procesos, y la resiliencia ante cambios, proporcionando una ventaja competitiva en un entorno dinámico y complejo.
Venegas Hernández Ángel, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Omar Jehovani López Orozco, Instituto Tecnológico Superior de Apatzingán

DESARROLLO DE UNA PLATAFORMA PARA GENERAR MODELOS UTILIZANDO EL MéTODO DE EMBEDDINGS


DESARROLLO DE UNA PLATAFORMA PARA GENERAR MODELOS UTILIZANDO EL MéTODO DE EMBEDDINGS

Naranjo Mercado Monserrat, Instituto Tecnológico Superior de Apatzingán. Venegas Hernández Ángel, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Omar Jehovani López Orozco, Instituto Tecnológico Superior de Apatzingán



PLANTEAMIENTO DEL PROBLEMA

Las micro, pequeñas y medianas empresas (MIPyMES) enfrentan problemas significativos en la atención al cliente debido a la falta de recursos suficientes para contratar personal dedicado y la ausencia de sistemas y herramientas modernas. Esto resulta en un servicio al cliente lento y deficiente, lo que disminuye la competitividad de estas empresas en mercados cada vez más competitivos. Además, las MIPyMES a menudo carecen de la capacitación necesaria para manejar eficientemente las interacciones con los clientes, lo que agrava el problema. La digitalización de los procesos y la implementación de soluciones de inteligencia artificial (IA) personalizada pueden ofrecer una mejora significativa en la eficiencia y la satisfacción del cliente.



METODOLOGÍA

Se realizó una investigación documental sobre las tendencias tecnológicas, sociales y comerciales del periodo 2022-2024 en donde se logró identificar la gran atracción de las personas hacia las nuevas Inteligencias artificiales. Después de investigar en diversas fuentes, fue que por medio de la documentación de OpenAl se logró encontrar una solución para implementarlo a nuestras necesidades. Se utilizaron herramientas tipo API avanzadas como Chat-GPT y técnicas de búsqueda basadas en Embeddings, estos convertirán el lenguaje humano en vectores numéricos, los cuales son una representación del lenguaje humano para permitir que las computadoras procesen de manera más efectiva la información. Para nosotros manipular los embeddings y realizar búsquedas de acuerdo a estos, nosotros utilizamos Pinecone, la cual es una plataforma encargada de un servicio de indexación y búsqueda de vectores que utiliza embeddings para mejorar la eficiencia y precisión de la búsqueda de información, esta plataforma nos permite crear nuevos embeddings a partir de la información que nosotros ingresemos. Para la implementación de esta búsqueda utilizamos el lenguaje de programación Python para así utilizar las librerías necesarias para nuestro programa. Para que el desarrollo sea utilizado será accedido mediante una página web utilizando lenguajes para frontend y backend tales como: HTML, CSS, JavaScript y Python. Lo anterior con la finalidad de crear un servicio de chatbots personalizados que puedan ser entrenados con la información específica proporcionada por cada empresa y dar pruebas gratuitas a cada cliente que acceda a nuestra página. Los usuarios interesados en crear un modelo personalizado para su empresa o negocio podrán ingresar documentos con las extensiones docx o pdf, el backend de esta plataforma web se encargará de leer el contenido de los documentos cargados y una vez extraída la información de los documentos estos se convertirán en embeddings utilizando la librería de Pinecone, con esta librería se implementó también nuestra búsqueda basada en embeddings para así realizar una búsqueda mediante similitud entre los embeddings y filtrar la información de nuestros documentos de texto, escoger la información más relevante y de esta manera la información recolectada será enviada a la API de Chat Gpt para así este pueda responder sólo de acuerdo a la información enviada.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos teóricos sobre el uso de inteligencia artificiales y embeddings los cuales logramos ponerlos en práctica mediante un programa hecho en python para una página web y así con esto crear inteligencias artificiales automatizadas para las empresas, al ser un extenso trabajo aún se encuentra en una fase incompleta y no se pueden mostrar con un diseño gráfico en total funcionamiento. Se espera que se finalice el frontend para así implementar seguridad a esta página y se pueda integrar todo el backend.
Venegas Martínez Fernando, Universidad de Guadalajara
Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara

DESARROLLO DE NANOCOMPOSITES BASADOS EN ACEITE DE SOYA EPOXIDADO ACRILATADO (AESO) Y NANOFIBRAS DE CELULOSA TEMPO-OXIDADAS/AMINADAS, OBTENIDAS DE RESIDUOS LIGNOCELULóSICOS DE PERSEA AMERICANA MILL.


DESARROLLO DE NANOCOMPOSITES BASADOS EN ACEITE DE SOYA EPOXIDADO ACRILATADO (AESO) Y NANOFIBRAS DE CELULOSA TEMPO-OXIDADAS/AMINADAS, OBTENIDAS DE RESIDUOS LIGNOCELULóSICOS DE PERSEA AMERICANA MILL.

Ortiz Soto Jazmin, Universidad de Guadalajara. Venegas Martínez Fernando, Universidad de Guadalajara. Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El objetivo de este proyecto es obtener nanocelulosa de un espécimen de Persea americana Mill, para utilizarlo como refuerzo en los nanocomposites y/u obtener un nanocomposite amigable con el medio ambiente mientras utilizamos los residuos de la poda de estos árboles. La principal problemática a la que nos enfrentamos es que al cosechar aguacate se hace una poda de las ramas que se creen menos importantes para la producción, generando así residuos que no se utilizan para otras tareas, creando un impacto negativo en el ambiente. México representa más del 30% de la producción de aguacate en el mundo, ocupando el tercer lugar en valor de exportaciones del país, solo superado por el tequila y la cerveza, por lo que utilizar los residuos de la producción de aguacate se convierte en un gran punto de interés ya que se le puede dar una segunda oportunidad de uso.



METODOLOGÍA

El proyecto consiste en varias etapas y subetapas, con diferentes metodologías para llegar al resultado esperado. Para la primera etapa se hizo la valoración y selección de la rama que se usará durante todo el proyecto. Una vez seleccionada, trituramos lo suficiente para obtener la pulpa del espécimen y pasar a la etapa dos. La segunda etapa consiste en varias etapas de blanqueo con diferentes reactivos, entre ellos dióxido de cloro, sosa cáustica y peróxido de hidrógeno a diferentes concentraciones, con una estimación de 7 etapas de blanqueo, pero se logró hacer en 5 y una etapa de extracción de goma. Para definir que ya no se necesitaban más blanqueos, realizamos dos fases de maceración, una entre la cuarta y quinta etapa de blanqueo y otra después de la etapa de extracción de goma. La maceración consiste en hacer la medición de la celulosa alfa, beta y gamma siguiendo el método de Alfa, beta, gamma celulosa en pulpa (T203 cm-99) con el uso de ácido sulfúrico concentrado y una muestra de la pulpa blanqueada, durante esta fase se valora si se debe seguir blanqueando la pulpa hasta obtener un porcentaje de alfa celulosa de 90%. En la tercera etapa se hace uso de la refinación Jokro con el propósito de separar las microfibras de la pulpa y poder hacer la cuarta etapa en donde se hace una oxidación por TEMPO (C9H18NO) llevándola y manteniéndola en un pH de entre 10 y 11. Posteriormente, se dividió y usó la celulosa TEMPO-oxidada en tres etapas diferentes. En la quinta etapa se midió el grado de carboxilaciones siguiendo el método TAPPI T237 cm-98. En la sexta etapa se mezcla parte de la celulosa TEMPO-oxidada con AESO y un fotoiniciador, obteniendo los composites que usaremos para crear figuras en moldes hechos con impresión 3D con forma de hueso y comprobar algunas propiedades físicas. Al mismo tiempo, usaremos la última parte de la celulosa TEMPO-oxidada para la séptima etapa en la que obtendremos nanofibras con ayuda de un microfluidizador, una vez obtenidas pasamos a la octava etapa de modificación con dietrilentriamina para obtener la nanocelulosa utilizada para reforzar los composites y convertirlos en nanocomposites. Un nanocomposite es un composite en el que uno de sus componentes se encuentra en escala nanométrica, en este caso las nanofibras de celulosa (o nanocelulosa).


CONCLUSIONES

Durante la estancia en este verano se adquirieron conocimientos teóricos acerca del proceso de blanqueo de la pulpa, el cálculo de la maceración, refinación de las fibras mediante Jokro, la TEMPO-oxidación de la pulpa y la medición del grado de carboxilaciones presentes en ella. Pusimos en práctica estos conocimientos con pulpa obtenida de ramas de Persea americana Mill, conocida como árbol de aguacate. Sin embargo no fue posible completar la realización del composite (mezcla con AESO) ya que la cantidad resultante no fue suficiente para rellenar los moldes y no se alcanzó a repetir el proceso con otros lotes. Tampoco realizamos la etapa de microfluidización, por tanto no pasamos a la extracción de nanocelulosa, y en consecuencia tampoco a la elaboración de los nanocomposites reforzados con la nanocelulosa.   Sin embargo, nuestra aportación durante la estancia fue útil para establecer datos preliminares sobre la cantidad de reactivos que se necesitan utilizar, las etapas necesarias para obtener un porcentaje adecuado de alfa celulosa, y las concentraciones aproximadas para obtener el grado de carboxilaciones. Se alcanzó un porcentaje adecuado de alfa celulosa con las siguientes etapas de procesamiento. Cada etapa de blanqueo fue considerada a una consistencia del 10%. 1era etapa: 2.75 g de cloro elemental contenidos en dióxido de cloro, por cada 100 gbs. Baño maría a 60°C durante 1 hrs. 2da etapa: 1.65 g de sosa cáustica por cada 100 gbs. Baño maría a 60°C durante 1 hrs. 3era etapa: 1 g de sosa cáustica y 1.5 g de peróxido de hidrógeno por cada 100 gbs. Baño maría a 60°C durante 1 hrs. 4ta etapa: 1 g de sosa cáustica por cada 100 gbs. 45 min a temperatura ambiente. 5ta etapa: 1.5 g de cloro elemental contenidos en dióxido de cloro, por cada 100 gbs. Baño maría a 30°C durante 1 hrs. Etapa de extracción de goma: 1 L de acetona y 1 L de etanol. Aproximadamente 5 hrs. Al completar la etapa de extracción, el porcentaje de alfa celulosa fue de aproximadamente 88.05%, se consideró adecuado y se pasó a la etapa de refinación Jokro. Después de sacar la pulpa del molino observamos en el microscopio el desprendimiento de las microfibrillas, lo cual nos indicó un éxito en la refinación y después TEMPO-oxidamos esa celulosa. Al intentar medir el grado de  carboxilaciones usamos parte de la pulpa TEMPO-oxidada, desgraciadamente no se completó la medición ya que los reactivos reaccionaron instantáneamente y no pudimos registrar el volumen consumido, y no se contaba más pulpa TEMPO-oxidada para repetir el proceso; pero gracias a eso, se sabe que hay que disminuir la concentración de la solución para medir el grado de carboxilaciones. Por último, se hizo una elaboración del composite con AESO pero no se pudo completar. Los resultados preliminares deberían de mostrar una consistencia y resistencia deseables.
Venegas Rosas Leslie Yazmin, Universidad de Guadalajara
Asesor: Dr. Mauricio Vásquez Rendón, Universidad de Medellín

FUNGICIDAS NATURALES PARA EVITAR LA APARICIóN Y PROPAGACIóN DE HONGOS EN BIOPLáSTICOS A BASE DE NOPAL (OPUNTIA FICUS-INDICA)


FUNGICIDAS NATURALES PARA EVITAR LA APARICIóN Y PROPAGACIóN DE HONGOS EN BIOPLáSTICOS A BASE DE NOPAL (OPUNTIA FICUS-INDICA)

Venegas Rosas Leslie Yazmin, Universidad de Guadalajara. Asesor: Dr. Mauricio Vásquez Rendón, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

El uso de bioplásticos a base de nopal ha surgido como una excelente alternativa para reducir el uso de plásticos convencionales. En la Universidad de Medellín, ubicada en Antioquia, Colombia, se ha desarrollado la elaboración de bioplástico a base de nopal con el objetivo de implementarlo en la creación de prendas en el departamento de diseño de modas. Este proyecto ha tenido muy buenos resultados, produciendo un bioplástico flexible, suave y resistente. Sin embargo, durante la elaboración de bioplásticos, se ha observado que, al dejarlos reposar por varios días, aparecen hongos. Este crecimiento fúngico representa un grave problema, ya que, aunque los hongos pueden ser removidos, las manchas que dejan no desaparecen por completo. Por lo tanto, es crucial buscar alternativas de fungicidas naturales para prevenir la aparición y propagación de hongos en el bioplástico a base de nopal, garantizando así su calidad y durabilidad



METODOLOGÍA

Para preparar la mezcla base de bioplástico, se utilizan los siguientes ingredientes: mucílago de nopal, gelatina sin sabor, agua, glicerina y vinagre. La preparación se realiza a fuego alto de la siguiente manera: Mezclar los componentes a fuego alto, agregándolos gradualmente hasta obtener una mezcla homogénea. Dejar hervir la mezcla, verter en un molde de acetato y dejar secar para obtener el bioplástico blanco. Cortar el bioplástico en forma cuadrada y colocarlo en cajas Petri. Para la preparación de fungicidas naturales que se verterán sobre el bioplástico blanco, se utilizan las siguientes recetas: Canela: Mezclar 250 ml de agua con 3 g (¼ de cucharada) de canela en polvo. Bicarbonato de sodio: Mezclar 250 ml de agua con ¼ de cucharada de bicarbonato de sodio. Vinagre de manzana: Mezclar 250 ml de agua con 62.5 ml de vinagre de manzana. Manzanilla: Dejar reposar 2 sobres de té de manzanilla en 200 ml de agua durante 24 horas. Eucalipto: Mezclar 200 ml de agua con 4 gotas de aceite de eucalipto. Estas soluciones se vertiran sobre el bioplástico blanco para estudiar sus propiedades fungicidas, además las muestras se llevarán a 3 ambientes diferentes en distintos lugares para ver qué tal se comportan los fungicidas y los hongos en caso de presentarse. Otra alternativa que se a aplica es vertir los fungicidas naturales a la mezcla de la preparación del bioplástico. Sustitui la cantidad determinada de vinagre por preparaciones de fungicidas naturales: canela, bicarbonato de sodio, manzanilla, vinagre de manzana y eucalipto. La preparación se debe efectuar de la misma manera que la preparación del bioplástico sin fungicidas.


CONCLUSIONES

Las muestras a las cuales se les rociaron los fungicidas naturales en los tres ambientes distintos no presentaron la aparición de hongos. Esto podría deberse a que las pruebas eran de tamaño pequeño y tenían mejor ventilación. Por lo tanto, la aparición de hongos en muestras grandes podría estar relacionada con la dificultad de mantener una buena ventilación, ya que en ocasiones los moldes no son completamente uniformes, lo que puede provocar el estancamiento de líquido y, a su vez, humedad, facilitando la aparición de hongos. Por otro lado, los bioplásticos a los cuales se les adicionaron diversos componentes naturales fungicidas en la mezcla tampoco presentaron la aparición de hongos. Las muestras se dejaron en observación durante tres semanas, lo que sugiere que los fungicidas son eficientes. Sin embargo, también podría ser que la aparición de hongos dependa del molde donde se deja secar el bioplástico. Además, se observó que la mayoría de los fungicidas naturales tienen un tiempo de vida de 15 días. Sin embargo, el fungicida de manzanilla solo tuvo un tiempo de vida de 7 días, lo cual es importante tener en cuenta, ya que, en caso de rociarse en muestras en estado de putrefacción, podría provocar la aparición de hongos. La incorporación de fungicidas naturales en la preparación de bioplásticos a base de nopal ofrece una solución prometedora para prevenir el crecimiento de hongos y mejorar la durabilidad y calidad del material. La investigación y pruebas de eficacia de fungicidas como la canela, bicarbonato de sodio, manzanilla, vinagre de manzana y eucalipto, son cruciales para optimizar la formulación del bioplástico y garantizar su viabilidad para aplicaciones prácticas, como en la creación de prendas en el departamento de diseño de modas de la Universidad de Medellín. Esta iniciativa no solo contribuye a la sostenibilidad ambiental, sino que también promueve la innovación en el uso de recursos naturales para la producción de materiales ecológicos y funcionales.
Vera Hernández Ariana Lizeth, Universidad de Guadalajara
Asesor: Dr. Sergio Enrique Flores Villaseñor, Universidad Autónoma de Coahuila

DESARROLLO DE RECUBRIMIENTOS HíBRIDOS PARA REDUCIR LA VELOCIDAD DE CORROSIóN EN ACEROS.


DESARROLLO DE RECUBRIMIENTOS HíBRIDOS PARA REDUCIR LA VELOCIDAD DE CORROSIóN EN ACEROS.

Gómez García Giovanni Daniel, Universidad de Guadalajara. Vera Hernández Ariana Lizeth, Universidad de Guadalajara. Asesor: Dr. Sergio Enrique Flores Villaseñor, Universidad Autónoma de Coahuila



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del Problema. La corrosión en aceros representa un desafío importante en diversas industrias, afectando la integridad estructural, la seguridad y los costos de mantenimiento. Sus principales problemas son: Pérdida de resistencia estructural: La corrosión debilita el acero, lo que puede provocar fallos en infraestructuras como puentes y edificios. Aumento de costos de mantenimiento: Las reparaciones y reemplazos frecuentes debido a la corrosión elevan los costos operativos. Riesgos para la seguridad: La corrosión puede causar fallos catastróficos, poniendo en peligro la seguridad, como en tuberías de gas o componentes de aeronaves. Impacto ambiental: Puede provocar derrames de sustancias químicas peligrosas, afectando al medio ambiente. Interrupción del servicio: En sectores críticos como el energético, la corrosión puede causar paradas en el servicio, afectando la eficiencia. Pérdida de eficiencia: Reduce el rendimiento de equipos, como intercambiadores de calor y tuberías, al obstruir el flujo o disminuir la transferencia de calor. Estética y apariencia: La corrosión deteriora la apariencia de productos y estructuras, lo que puede ser un problema en aplicaciones donde la estética es importante. Para combatir estos problemas, se emplean estrategias como revestimientos protectores, inhibidores de corrosión, diseño adecuado y sistemas de protección catódica, así como técnicas de nanotecnología para ralentizar la corrosión.



METODOLOGÍA

Metodología: Síntesis de nanopartículas: Alúmina (Al₂O₃): - Se preparó una solución 0.05M de sulfato de aluminio en agua y se disolvió con agitación constante. - Se añadió gota a gota una solución 1.2M de hidróxido de sodio mientras se agita a 75ºC. - Se dejó reposar durante 25 minutos, se centrifugó, se lavaron las partículas, y se secaron a 80ºC durante 12 horas. ZnO: - Se prepararon soluciones 1M de sulfato de zinc y 1.5M de hidróxido de sodio. - Se añadió NaOH a la solución de sulfato de zinc, y se agitó durante 5 minutos. - Se dejaron sedimentar las partículas, se retiró el sobrenadante, se lavaron, se centrifugó, se secaron a 100ºC y se calcinó a 450ºC. Óxido de Cobalto: - Se disolvió sal de cobalto en agua y se añadió una solución 3M de NaOH gota a gota hasta alcanzar pH 13. - Se calentó a 60ºC durante 4 horas, se lavó hasta alcanzar pH 7, se secó a 100ºC y se calcinó a 700ºC. Óxido de Hierro: - Se prepararon soluciones 0.3M de cloruro de hierro II y 0.6M de cloruro de hierro III. - Se añadió gota a gota a una solución 1M de NaOH a 70ºC, se agitó durante 15 minutos. - Se lavó con agua destilada y se dejó reposar durante 24 horas. Óxido de Cobre:  - Se siguió el mismo proceso que para el óxido de hierro. 2. Síntesis de Polimetilmetacrilato (PMMA): - Se preparó una solución de agua destilada y SDS. - Se añadió APS y se calentó a 85ºC, luego se incorporó MMA lentamente. - Se burbujeó argón y se dejó reaccionar durante 4 horas, se apagó la temperatura, se dejó enfriar, se precipitó el polímero en metanol, se lavó y se secó a 90ºC. 3. Preparación de recubrimientos: - Se disolvió PMMA en acetato de etilo con óxidos (1% y 3%). - Se aplicó la solución a placas de acero decapadas y se dejó secar durante 24 horas. - Se evaluó la adherencia del recubrimiento con una navaja y cinta adhesiva. 4. Prueba de corrosión: - Se aplicaron recubrimientos al 1% y 3% en piezas de acero, dejando una pieza sin recubrimiento. - Se colocaron las piezas en una solución salina sobresaturada y se registraron los cambios con fotografías cada 24 horas durante 5 días.


CONCLUSIONES

Conclusiones: Prueba de adhesión. En esta prueba en casi todas las piezas se obtuvo un buen nivel de adhesión del recubrimiento de las partículas, la mayoría obtuvo entre el nivel 1 y el nivel dos, excepto las nanopartículas de cobre que obtuvieron un nivel 0, tanto en la solución de 1% como en la solución de 3%. Caracterización con DLS. Se realizo la prueba de tamaño de nanopartículas en un DLS para así observar y registrar de qué tamaño se lograron obtener las nanopartículas tras su síntesis. Como resultado fue que la mayoría si no es que todos los óxidos contaban con nanopartícula de gran tamaño en su mayoría. Alúmina: 479nm (100%) Oxido de Zinc: 876nm (94%) y 150nm (6%) Oxido de Cobalto: 447nm (93%) y 4338nm (7%) Óxido de Hierro: 2441nm (91%) y 366nm (9%) Oxido de Cobre: 2250nm (100%) Al ver los resultados concluimos que ningún oxido tiene el tamaño de partículas de las cuales puedan ser consideradas nanopartículas, esto es importante mencionarlo ya que el tamaño de estas puede influir en la eficiencia de los recubrimientos y su funcionalidad. Prueba de la lluvia acida. El día 04/07/24 se cubrieron las piezas con el polímero y se dejaron secar hasta el día siguiente obteniendo como resultado que desde pasadas las 24 horas se logró formar óxido en la superficie de estas, sin embargo, en unas piezas es más notorio, en las que se aprecia menor óxido son las de cobalto 1%, cobalto 3%, hierro y alumna 3%. El día de las próximas fotos el día 08/07/2024 a las 10:00 am y 2:00 pm se observó que las piezas de cobre y cobalto mencionadas con mejor resultado se forma óxido de forma más lenta en comparación con las demás, y las piezas de alúmina y hierro al 3% se formaron de un tono blanquecino. En los últimos días 10,11, 12 del 07 del 24 se logró observar que la superficie de cada pieza se va oxidando paulatinamente, pero en unas es más lento el proceso siendo las mejores las de cobre y cobalto ya mencionadas, mientras la pieza de control sin nanopartículas se oxido por completo.
Vera Paniagua Ingrid Enid, Instituto Tecnológico de La Piedad
Asesor: M.C. Víctor Hugo López Enríquez, Instituto Tecnológico Superior de Guanajuato

MODELO 3D DE LA RODILLA A TRAVéS DE IMáGENES FOTOGRáFICAS


MODELO 3D DE LA RODILLA A TRAVéS DE IMáGENES FOTOGRáFICAS

Vera Paniagua Ingrid Enid, Instituto Tecnológico de La Piedad. Asesor: M.C. Víctor Hugo López Enríquez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En México, el avance en prótesis y exoesqueletos biónicos para rehabilitación es limitado. Mejorar el acceso a estos dispositivos puede aumentar la autonomía de las personas con discapacidad y reducir los costos de rehabilitación. Es crucial que estas tecnologías se personalicen para cada usuario para mejorar su calidad de vida y que los países en desarrollo generen su propia tecnología para competir con naciones industrializadas. Aunque la investigación está en crecimiento, aún hay mucho por avanzar. El uso de inteligencia artificial, diseño generativo, manufactura digital, nuevos materiales y tecnologías de escaneo e impresión 3D facilita la creación de productos más funcionales y personalizados, optimizando recursos y reduciendo tiempos y costos. La integración de tecnologías CAD, CAE, CAM, PR y PLM en la ingeniería biomédica ha impulsado la innovación en sistemas inteligentes para asistencia y rehabilitación, mejorando la función motora. El diseño de exoesqueletos biónicos personalizados mediante tecnologías computacionales es clave para la I+D+i en este campo. Desarrollar prototipos funcionales puede mejorar la movilidad y facilitar la vida diaria de quienes necesitan rehabilitación. La tecnología digital paramétrica y generativa permite simular y emular productos, mejorando la productividad, personalización y conectividad. Las herramientas de simulación y emulación computacional, como CAD, CAE, CAM, PR y PLM, aceleran la validación funcional del producto, garantizando su eficacia antes de la producción física y contribuyendo a procesos más sostenibles.



METODOLOGÍA

  Primera Fase: Elaboración de la Tabla de Componentes y Características Al comenzar el proyecto, se elaboró una tabla detallada de componentes y características necesarios para la prótesis biónica. Esta tabla incluyó todos los elementos del dispositivo, especificaciones técnicas y funcionales, y los materiales adecuados. Se identificaron los requisitos técnicos para asegurar que cada componente cumpliera con las normas necesarias, estableciendo una base sólida para el diseño. Segunda Fase: Desarrollo del Árbol de Objetivos de Diseño Se creó un árbol de objetivos de diseño para definir claramente los objetivos que debía cumplir la prótesis. Este árbol facilitó la descomposición del problema en metas específicas y medibles, permitiendo la identificación de requisitos esenciales y metas. Se establecieron prioridades y criterios de éxito, asegurando que el diseño final respondiera a las necesidades del usuario y a los estándares de rendimiento. Tercera Fase: Creación de la Estructura de Funciones Se desarrolló una estructura de funciones para detallar cómo debía operar la prótesis. Esta estructura incluyó los procesos y operaciones necesarios, definiendo las interacciones entre los componentes. Ayudó a identificar cómo cada elemento contribuiría al funcionamiento general del dispositivo. Cuarta Fase: Boceto a Mano Alzada Se realizaron bocetos a mano alzada para explorar y visualizar conceptos iniciales del diseño. Estos bocetos facilitaron la representación rápida de ideas, permitiendo la iteración y la exploración de diferentes enfoques. Definieron la forma y las características generales de la prótesis antes del modelado digital. Quinta Fase: Modelado en SolidWorks Se llevó a cabo el modelado en SolidWorks para crear un modelo tridimensional detallado de la prótesis. Utilizando la información de las fases anteriores, se construyó un modelo preciso que integraba todos los componentes y funciones especificadas. Este modelado permitió la visualización en 3D, la realización de simulaciones y análisis para verificar la funcionalidad, y la realización de ajustes según los requisitos identificados.


CONCLUSIONES

La metodología integral y secuencial empleada garantizó un desarrollo meticuloso del prototipo de prótesis biónica, asegurando un producto final bien elaborado y funcional. Durante los dos meses del proyecto, cada fase contribuyó significativamente al éxito del diseño, cumpliendo con los objetivos establecidos y satisfaciendo las necesidades del usuario. En la primera fase, la elaboración de una tabla detallada de componentes y características sentó las bases para el diseño, definiendo con precisión los elementos y sus especificaciones técnicas. Esto facilitó la creación de un diseño coherente y funcional.  La segunda fase, con el desarrollo del árbol de objetivos de diseño, permitió descomponer el problema en metas alcanzables, identificando prioridades y criterios de éxito para alinear el diseño con las necesidades del usuario y las expectativas del proyecto. La tercera fase, centrada en la estructura de funciones, fue crucial para definir el funcionamiento de la prótesis. Esta etapa clarificó cómo los componentes interactuarían y contribuirían al funcionamiento general del dispositivo. Los bocetos a mano alzada de la cuarta fase proporcionaron una visión preliminar del diseño, permitiendo explorar diferentes conceptos y enfoques antes del modelado digital. Finalmente, el modelado en SolidWorks permitió crear un modelo tridimensional detallado y funcional, integrando toda la información recopilada y facilitando simulaciones y ajustes para garantizar la efectividad del prototipo. En conclusión, el enfoque metodológico ha sido clave para desarrollar un prototipo factible y bien elaborado, estableciendo un modelo sólido para futuros desarrollos en ingeniería biomédica y diseño de dispositivos asistivos.  
Vera Rios Diana Eslibeth, Universidad Tecnológica de Xicotepec de Juárez
Asesor: Mtro. Gibran Garrido González, Instituto Tecnológico Superior de Huauchinango

REDISEñO DE ORTESIS DE MANO PARA LA REHABILITACIóN DEL SíNDROME DE TúNEL CARPIANO


REDISEñO DE ORTESIS DE MANO PARA LA REHABILITACIóN DEL SíNDROME DE TúNEL CARPIANO

Vera Rios Diana Eslibeth, Universidad Tecnológica de Xicotepec de Juárez. Asesor: Mtro. Gibran Garrido González, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El diseño y manejo de ortesis de mano es un componente importante de la rehabilitación de pacientes con trastornos del movimiento. Las ortesis actuales suelen tener una calidad, flexibilidad y comodidad limitadas. Estas limitaciones pueden afectar la eficacia del tratamiento. Los esfuerzos de rehabilitación tienen como objetivo mejorar la función de la mano a través de un proceso integral que incluye la rehabilitación de partes del cuerpo y la introducción de técnicas de manejo avanzadas.  



METODOLOGÍA

Este proyecto tiene como objetivo el rediseño y el sistema de control de la ortesis. Para la reconstrucción en 3D, se utilizó SolidWorks para crear una descripción detallada de la órtesis, se propuso un material como un material similar a la piel con propiedades físicas únicas, que es el caucho natural. En cuanto al sistema de control, se implementó un programa basado en PIC16F877A para controlar dos motores manuales para ajustar el movimiento de la ortesis. El sistema está diseñado para responder a cambios en el potenciómetro como entrada al control de movimiento. Sin embargo, el plan aún no está completo. Se ha avanzado en el diseño, pero se necesita más trabajo para finalizar la implementación y adaptar el sistema a las necesidades para la rehabilitación.  


CONCLUSIONES

Durante este verano de investigación, se han logrado avances en el rediseño de la ortesis, realizando un diseño de donde estarán sus componentes electrónicos. Pero la implementación del sistema aún no está completa. Con la ejecución del plan y la implementación del sistema de control, se espera que la ortesis logre buenos resultados y alta calidad en el tratamiento del síndrome del túnel carpiano. El proyecto continuará con el objetivo de completar el desarrollo del sistema de control y realizar más investigaciones para respaldar y mejorar el diseño. Aunque no se ha podido completar en esta etapa, se espera que el proyecto sea retomado para llevarlo a su finalización.
Vera Ruiz Jose Angel, Instituto Tecnológico de Tepic
Asesor: Dra. Milen Balbis Morejon, Universidad de la Costa

REVISIóN SISTEMáTICA SOBRE LA INTEGRACIóN DE SISTEMAS DE AUTOGENERACIóN CON ENERGíAS RENOVABLES EN EDIFICACIONES NZEB


REVISIóN SISTEMáTICA SOBRE LA INTEGRACIóN DE SISTEMAS DE AUTOGENERACIóN CON ENERGíAS RENOVABLES EN EDIFICACIONES NZEB

Uriostegui López Angel Daniel, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Vera Ruiz Jose Angel, Instituto Tecnológico de Tepic. Asesor: Dra. Milen Balbis Morejon, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

En respuesta a la creciente prioridad del desarrollo sostenible a nivel global, especialmente en los campos de la energía y la construcción, este estudio aborda la evolución y el estado actual de la investigación en estas áreas entre 2019 y 2025. A través de un análisis cienciométrico detallado y utilizando el marco PRISMA, se revisaron y evaluaron 2084 registros bibliográficos extraídos de la base de datos Scopus. El estudio aplica técnicas avanzadas de mapeo científico cuantitativo para investigar múltiples aspectos, como las tendencias anuales de publicaciones, redes de coocurrencia de palabras clave, análisis de revistas académicas, coautorías, patrones de citación y la participación de diferentes países en la investigación. Los resultados de este análisis no sólo trazan la evolución temporal de la investigación en Energía y Construcción (E&B), sino que también identifican áreas críticas que requieren mayor atención y profundización académica, ofreciendo así una hoja de ruta para futuros estudios en este campo crucial.



METODOLOGÍA

En este estudio, se ha aplicado el marco PRISMA en una revisión cienciométrica que comprende cuatro etapas: la identificación de palabras clave y dominios relevantes, la detección y descripción de resultados, la evaluación de la elegibilidad basada en principios específicos, y la inclusión de análisis a través de redes bibliométricas y colaborativas. Este método se utiliza para examinar la aplicación de estas técnicas en la investigación actual. Además, se adopta un enfoque de revisión cienciométrica y mapeo científico, lo que facilita la visualización de las relaciones entre documentos, autores, campos y especialidades. La revisión cienciométrica toma en cuenta aspectos como la política científica y la comunicación en la ciencia, considerados elementos de la informática científica. Este método permite mapear aspectos clave de la investigación, como tendencias, redes de autoría, impacto de publicaciones y la selección de herramientas para el análisis de redes y la extracción de datos bibliométricos. El mapeo científico se considera un método computacional para visualizar y analizar investigaciones científicas, capaz de extraer redes de autores, documentos, revistas, países y términos utilizados. Para el análisis cienciométrico, se utilizan diversos programas de software. Ruiz-Rosero et al. presentan una variedad de herramientas en su artículo, incluyendo SciMAT, Bibexcel, CiteSpace, CoPalRed, Network Workbench, Ciencia 2, VOSviewer, BiblioTools, Publish or Perish y Bibliometrix. En este estudio, se emplea VOSviewer (versión 1.6.15), un software que ha sido utilizado previamente para revisar construcciones ecológicas y sistemas de confort personal. VOSviewer es adecuado para los objetivos de este trabajo, ya que es un software especializado que permite visualizar redes bibliométricas y analizar patrones en la literatura, identificando conexiones entre autores, documentos y palabras clave, y proporcionando una visión integral del estado de la investigación.


CONCLUSIONES

El presente documento proporciona una revisión sistemática exhaustiva sobre la evolución y el estado actual de la investigación en este campo entre 2019 y 2025. A través de un análisis bibliométrico detallado y utilizando el marco PRISMA, el estudio revisa y evalúa 2084 registros bibliográficos de la base de datos Scopus. Los principales hallazgos y contribuciones del estudio se pueden resumir de la siguiente manera: Evolución Temporal y Tendencias de Publicaciones: El estudio traza la evolución de las publicaciones en el campo de la energía y la construcción, mostrando un crecimiento significativo en la cantidad de investigaciones y destacando los años pico de actividad.  
Verdejo Gutierrez Uriel, Universidad Politécnica de Atlacomulco
Asesor: Mg. Valentina Ramirez Hernandez, Universidad Pontificia Bolivariana

CUALES SON LAS HERRAMIENTAS DE MEJORA PARA AUMENTAR LA PRODUCTIVIDAD E INDUSTRIALIZACIóN DE LA PRODUCCIóN DEL QUESO OAXACA EN LA COMUNIDAD DE ACULCO, MéXICO.


CUALES SON LAS HERRAMIENTAS DE MEJORA PARA AUMENTAR LA PRODUCTIVIDAD E INDUSTRIALIZACIóN DE LA PRODUCCIóN DEL QUESO OAXACA EN LA COMUNIDAD DE ACULCO, MéXICO.

Santiago Gonzalez Matcel Guadalupe, Universidad Politécnica de Atlacomulco. Sosa Quiroz Cesar, Universidad Politécnica de Atlacomulco. Verdejo Gutierrez Uriel, Universidad Politécnica de Atlacomulco. Asesor: Mg. Valentina Ramirez Hernandez, Universidad Pontificia Bolivariana



PLANTEAMIENTO DEL PROBLEMA

La producción de quesos artesanales en la comunidad de Aculco, Estado de México, México, a experimentado un crecimiento exponencial esto se debe a que por más de cuatro generaciones se han dedicado a la elaboración de quesos, dicho municipio se ha convertido en uno de los preferidos en cuanto a la elaboración de quesos artesanales, para que esta tradición pueda continuar las familias dedicadas han estado innovando sus productos e incluso creando nuevas bebidas energéticas a base de sueros. Actualmente la producción de quesos esta enfrentando nuevos retos y oportunidades, esto por la gran competencia de productos industriales esto representa una amenaza para la producción artesanal, sin embargo, con la creciente demanda de productos locales y orgánicos así como también el interés de los consumidores por conocer los orígenes de los alimentos está ofreciendo un panorama prometedor para esta actividad. La principal problemática es la baja productividad, poca industrialización y estandarización en la producción del queso Oaxaca en la comunidad, estos no son los únicos aspectos que se tienen en cuenta ya que las autoridades municipales estiman que existe poco mas de 200 productores que elaboran de 25 a 28 toneladas de distintos tipos de queso cada mes que son distribuidos en el centro del país o en el estado de Querétaro con el cual se tienen una alianza, al no estar cumpliendo con los estándares de producción se obtendrían perdidas de dinero que perjudicarían a la comunidad es por ello que durante el verano de investigación se indagarán las posibles metodologías que  ayuden a aumentar la productividad, como poder implementar una industria 4.0 que permita circularizar el proceso de producción.



METODOLOGÍA

Lo primero que se hizo fue hablar de problemas específicos en el cual se dio a conocer que no se tenía una producción que favoreciera a los productores, posteriormente se buscaron las causas que producen los hechos es decir las reacciones o comportamientos que provoca estos problemas teniendo en cuenta los problemas y las causas se llego a la muestra de los efectos finales o mejor dicho el pronostico de lo que pasara si los hechos no se atienden de manera adecuada de esta manera se llegó a una sistematización del problema en la cual dio como resultado una pregunta que  durante el verano de investigación se buscara la respuesta. Una vez formulado el planteamiento del problema se analizó conceptos claves para entender la importancia de una buena implementación de ingeniería de métodos y la jerarquía de las herramientas de Lean Manufacturing, se revisó el pensamiento sistemático para analizar de manera ordenada como es que las variables interactuaban en la investigación. La elaboración de la Matriz del estado del arte permitió ordenar los artículos científicos que se investigaron, posteriormente se realizo la Matriz de marco teórico las cual toma parte de la Matriz del estado del arte, en esta matriz se relacionó en forma de cuadro las palabras que más coincidían y tenían mucha importancia para la investigación, las cuales  comparan diferencias y similitudes, de esta manera se pudieron crear conceptos propios para poder mantenerlos claros y presente durante la investigación. Posteriormente se llevó a cabo la elaboración de la justificación teórica habla sobre lo que se necesita para poder incrementar la productividad de quesos, donde se consideraron herramientas de productividad y normativas que sean necesarios para que esto sea posible, además de algunos factores que influyen para la optimización, en este apartado igual se mencionó las tecnologías que se aplican y como será el control de calidad para la productividad. Para poder tener presentes cuales son las causas de las causas se realizo el diagrama de árbol en este diagrama se identificó los problemas que afectan al proyecto que se quiere resolver, los problemas se van identificando desde un problema central y se desglosa con problemas directos e indirectos y problemas fundamentales. Tomando el árbol de problemas se pudo realizar el árbol de objetivos completo que tiene la finalidad de resolver con una propuesta o dar solución a los problemas identificados partiendo desde el problema central o propósito.


CONCLUSIONES

Se percato que todo proceso de producción debe tener una buena ingeniería de métodos establecidos para que de ahí se puedan implementar mejores estrategias que evalúen y den seguimiento a los procesos productivos, tener una documentación de todas las actividades que surjan a partir de ahí, ayudará a evaluar los resultados y gestionar las necesidades que surjan en las empresas, el objetivo es controlar, optimizar y no perder la tradición que se tiene con los quesos elaborados en la comunidad de Aculco, de esta manera se hizo uso de la jerarquización de las herramientas de Lean Manufacturing.
Verdugo Lizárraga Mariana, Universidad Autónoma de Occidente
Asesor: Dra. Maria Beatriz Bernábe Loranca, Benemérita Universidad Autónoma de Puebla

APLICACIóN DE ESTADíSTICA MULTIVARIADA EN DATOS SOBRE UNA MUESTRA PARA EL PROBLEMA DE DELINCUENCIA DELICTIVA


APLICACIóN DE ESTADíSTICA MULTIVARIADA EN DATOS SOBRE UNA MUESTRA PARA EL PROBLEMA DE DELINCUENCIA DELICTIVA

Verdugo Lizárraga Mariana, Universidad Autónoma de Occidente. Asesor: Dra. Maria Beatriz Bernábe Loranca, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La delincuencia, el crimen y el delito son temas que han acompañado a México a lo largo de los años y para darnos una idea, en México, según datos de Statista el año con más homicidios fue 2021 y de acuerdo el estudio sobre la tasa de incidencia delictiva por entidad federativa de ocurrencia por cada cien mil habitantes, desde los años 2010 a 2022, en promedio, tomando los 32 estados, el año que tiene mayor tasa es 2018. Este tipo de resultados se obtienen con la aplicación de estadística, pero al contar con datos de tipo cualitativo, las técnicas a utilizar son limitadas, sin embargo, existe un caso particular de las mismas, que son las dicotómicas, estas, no pueden ser procesadas como las variables cuantitativas, por lo que, deben existir técnicas específicas para ellas de manera que se obtenga información sobre las relaciones y efectos que tienen entre ellas, y en este caso específico sobre resultados de cuestionarios aplicados a diferentes muestras en temas relacionados a la delincuencia, el crimen y el delito en México.



METODOLOGÍA

Alumnos de la BUAP realizaron un concentrado de cuestionarios, donde se tienen diferentes encuestas/cuestionarios, aplicadas a personas habitantes del país México en temas relacionados a delincuencia, crimen y delito, siendo sus respuestas Si o No. Estas respuestas pueden reflejar ideas, percepciones, creencias y vivencias de estas personas. Se obtuvieron tres encuestas y sus resultados de tres muestras aleatorias diferentes que se decidió que fueran tratadas por separado para evitar sesgos, para así tener tres grupos que representan tres conjuntos de datos diferentes. El primer grupo cuenta con 13 preguntas y se aplicó a 40 encuestados, el segundo cuenta con 21 preguntas y 50 encuestados, y el tercero, 42 preguntas y 50 encuestados. Los cuestionarios fueron trasladados al programa Excel, donde fueron observados para aplicar lo que se conoce como la comprensión y preparación de los datos, afortunadamente los datos no necesitaron lo que se conoce como imputación de datos y son de tipo cualitativo, además, algunas preguntas que no se pueden responder con sí o no y aquellas en las que los resultados no cumplieron con la cantidad de encuestados fueron descartadas. Los resultados restantes fueron transformados a dicotómicos, de forma que ahora se tienen resultados de 1 que representa Si y 0 que representa No. Para procesar los datos primero se utilizó el lenguaje de programación Python para obtener estadística descriptiva de los datos. Para utilizar técnicas de estadística multivariada y univariada se utilizó el software PAST en su versión 4.03, este es un software gratuito para el análisis científico de datos con diferentes funciones. Como este trabajo se enfoca principalmente en la estadística multivariada se utilizaron las funciones de estadística univariada y multivariada aplicables para los datos dicotómicos que se tienen. También, se buscaron técnicas específicas para utilizar con datos dicotómicos, si es que se pueden aplicar y en que programa o lenguaje se puede encontrar la técnica.


CONCLUSIONES

Durante la estancia del verano se logró adquirir conocimientos teóricos sobre los datos dicotómicos, las técnicas estadísticas que pueden ser aplicadas, donde y como aplicarlas. Se encontró que los datos dicotómicos si se les puede aplicar estadística descriptiva, multivariada y univariada, algunas a través del software PAST. Debido a la longitud del trabajo, se espera la aplicación de más técnicas de estadística multivariada disponibles en otras herramientas para obtener más información de los cuestionarios.
Verduzco Godínez Carlos Eduardo, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dra. Claudia Santacruz Vázquez, Benemérita Universidad Autónoma de Puebla

ALIMENTOS LIOFILIZADOS


ALIMENTOS LIOFILIZADOS

Verduzco Godínez Carlos Eduardo, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dra. Claudia Santacruz Vázquez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Debido a la necesidad de encontrar métodos de conservación que mantengan la calidad nutricional y sensorial de los alimentos, prolonguen su vida útil y sean sostenibles. En el contexto actual, donde la seguridad alimentaria y la reducción del desperdicio de alimentos son prioridades globales, la liofilización surge como una opción viable, aunque no exenta de desafíos. En primer lugar, los métodos tradicionales de conservación de alimentos, como el enlatado, la deshidratación convencional y la congelación, tienen limitaciones significativas en términos de pérdida de nutrientes, cambios en la textura y sabor, y consumo de energía. La liofilización, por otro lado, presenta ventajas significativas. Este proceso permite eliminar el agua de los alimentos sin someterlos a altas temperaturas, lo que ayuda a conservar mejor los nutrientes, el sabor, la textura y el aroma. Además, los alimentos liofilizados son ligeros y tienen una vida útil prolongada sin necesidad de refrigeración, lo que los hace ideales para situaciones donde el acceso a almacenamiento en frío es limitado, como en expediciones, operaciones militares y en áreas con infraestructura deficiente. El liofilizar alimentos radica en la necesidad de encontrar un equilibrio entre los beneficios de este método de conservación y los desafíos asociados a su implementación. Es crucial desarrollar tecnologías más eficientes y accesibles, así como prácticas más sostenibles, para maximizar las ventajas de la liofilización y hacerla una opción viable y atractiva tanto para productores como para consumidores.



METODOLOGÍA

Se realizó una investigación bibliográfica para investigar más allá sobre la liofilizados, las tendencias y los hallazgos que se han introducido desde años recientes hasta la fecha, esto teniendo en cuenta los beneficios que ha tenido este método de conservación de alimentos, al igual que todo lo que se puede lograr con ello. Se consultaron bases como lo fue Google Académico y PubMet. De esto se realizó un artículo para seleccionar mejor las tendencias y hallazgos que más han resaltado en el pasar de los años. Posteriormente se realizó un liofilizado de jitomate, esto a través de una metodología dada por la investigadora, para así determinar y saber cuanto es lo que se obtiene de un producto liofilizados, tales como los es contenido de humedad, rendimiento, textura, sabor, aroma. Al igual que la misma investigadora en las instalaciones de la universidad realizo in liofilizado de papa. Finalmente, se evaluó el rendimiento de ambos productos liofilizados, así como también sus características organolépticas.


CONCLUSIONES

Se evaluó que el rendimiento del jitomate fue muy poco ya que al empezar el proceso de liofilización tenia un peso de 200gr, al final de la liofilización se obtuvo un peso de 17gr, dando un rendimiento del 9.24%, conservando su olor, su sabor, pero perdiendo textura, se estima que el liofilizado alarga la vida útil de los alimentos de entre 5 a 10 años. Lo anterior permite saber y propone que liofilizar alimentos es un método mas viable y mejor para la preservación de los alimentos y el alargamiento de la vida útil de los mismo, al igual que algunas de sus características organolépticas.
Verona Vazquez Karen, Instituto Tecnológico de Toluca
Asesor: Dr. Jeremy Patterson, Wichita State University

TEAMING AS A SKILL


TEAMING AS A SKILL

Verona Vazquez Karen, Instituto Tecnológico de Toluca. Asesor: Dr. Jeremy Patterson, Wichita State University



PLANTEAMIENTO DEL PROBLEMA

Working in teams involves a set of challenges in order to arrange the same goal, increase the productiveness of the performance, even when the group doesn’t have similar personalities. It adds a higher level of difficulty to interdisciplinary project, and this is why every team member needs teaming fluency to innovate, collaboration and willingness to help, support and listening to others. The College of Innovation and Design hosts the CosmoShox, student research and product development program which uses NASA STEM initiatives as a catalyst for student participation. Current Artemis challenges focus on lunar surface architecture and technology development. Nevertheless, to achieve all the objectives it is necessary to make a specific inspection about the trust in the group. The main approach is to identify the status of the teaming in order to arrange integration of different points of view, taking advantage of these and get enough psychological safety, where each person feels the confidence to express ideas and disagreements, to enhance the efficiency of the interpersonal processes and consequently the results. As a general objective this project has the goal of identifying the principal aspects of teaming as a skill and how students participating in the CosmoShox student research experience build this skill over time. Findings from this project will be implemented into future student research and product development experiences within the College of Innovation and Design at Wichita State University.  



METODOLOGÍA

An initial literature review was carried out to get a better understanding of the background of the theme, looking for papers which address teaming issues, new strategies for interdisciplinary groups and the importance of the collaboration role. The papers collected were selected under analysis of importance and relevance level. On the other hand, two types of surveys have been applied to different groups of CosmoShox students and these were focused on the Psychological Safety and the Cross-Functional Skills. The first one of these was applied 56 times, however some of the results were invalid due to the finished grade, so it was determined that the relevant ones were just 45. Data analysis of Psychological Safety survey had a segmentation of groups according to the gender and age with the groups of 18-24 years, with 31 members, and 25-34 years, which take in count 14 people, while in the case of gender it just considers two: Male and Female, that in total have 19 and 26 respectively. The analysis of these data has a quantitative representation through dynamics tables and graphs, which are automatically modified according to the filters applied (Group ID, Age and Gender). The psychological safety survey includes 7 questions, taken from Amy Edmondson’s The Fearless Organization. Each question was assessed using a 5-point Likert scale. Each answer selected was attached with a color to an easy identification and visualization. Likewise, each one of these have different values and together tell us how good or how bad is the trust feeling in the group indicated by a score, which shows the difference between certain periods of time.


CONCLUSIONES

The psychological safety observed in the studied group has a considerable good quality, most of the answers were inclined to a positive sense. Even when exist some opportunity areas to improve the confidence, such as the communication on feedback, as we can observe in the questions: 4. It is safe to take a risk on this team and 6. No one on this team would deliberately act in a way that undermines my efforts the final average score keeps in the high Psychological Safety sector. However, as recommendation, I would aver to say that to get a higher accuracy about the answers, it may have a structure and control of the users who answer the survey and have a monitoring of the strategies applied. On the other hand, during this internship it was acquired knowledge about psychological safety, soft skills, teamwork, leadership and vocabulary on another language as well as more specific related with this project, which is so interesting.
Vidaca Araujo Eduardo Fabian, Universidad Autónoma de Occidente
Asesor: Dra. María Berenice Fong Mata, Universidad Autónoma de Baja California

ALGORITMOS DE APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DEL ÉXITO EN CáLCULO MULTIVARIABLE A PARTIR DEL RENDIMIENTO EN MATERIAS LóGICO-MATEMáTICAS EN INGENIERíA


ALGORITMOS DE APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DEL ÉXITO EN CáLCULO MULTIVARIABLE A PARTIR DEL RENDIMIENTO EN MATERIAS LóGICO-MATEMáTICAS EN INGENIERíA

Vidaca Araujo Eduardo Fabian, Universidad Autónoma de Occidente. Asesor: Dra. María Berenice Fong Mata, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Existen diversos factores por los cuales los estudiantes de nivel superior no terminan sus estudios profesionales, entre ellos, la falta de apoyo económico, situaciones emocionales, embarazos, además de la desigualdad en el aprendizaje, la cual sufrió un incremento durante la pandemia por COVID. Durante el período escolar 2022/2023 en el estado de Baja California, el abandono escolar en estudios de nivel superior alcanzó el 7% con respecto al total de estudiantes que se inscribieron en ese mismo ciclo escolar. En la Universidad Autónoma de Baja California (UABC) se ha identificado en los estudiantes de ingeniería que además de los factores mencionados anteriormente, se suma a la deserción escolar el bajo nivel de aprovechamiento en las asignaturas de matemáticas. Es por ello que para la UABC, es crucial identificar en los primeros semestres de carrera a los estudiantes en riesgo de abandonar sus estudios, con la finalidad de canalizarlos a los programas de asesorías existentes y brindarles el apoyo adecuado para que no vean sus estudios truncados. En este contexto, la presente investigación se centra en el desarrollo de un sistema inteligente que permita predecir el riesgo de deserción en la unidad de aprendizaje Cálculo Multivariable, con base en el historial académico del estudiante.



METODOLOGÍA

Se llevó a cabo una investigación documental de los principales algoritmos predictores y clasificadores de aprendizaje automático. A partir de ella, se eligieron los algoritmos a implementar en el desarrollo del sistema inteligente. El lenguaje de programación elegido para el desarrollo del sistema fue Python por ser un lenguaje de código abierto. Para el entrenamiento y validación del sistema, se usó un conjunto de datos estructurado en formato CSV (Comma Separated Values) el cual contenía las calificaciones de los kardex de estudiantes de la Universidad Autónoma de Baja California. Para asegurar la calidad de los datos se realizó el preprocesamiento en el que se revisó que los datos estuvieran completos, no hubiera duplicados y que se encontraran en un mismo formato. El conjunto de datos utilizado tenía como variables independientes las calificaciones de las materias que cursaron los estudiantes y como variable objetivo la asignatura de Cálculo Multivariable. Los datos se dividieron en 80% para entrenamiento y el 20% para la validación. Se entrenaron varios modelos de regresión para realizar la predicción. Primero, se desarrolló un modelo de Regresión Lineal para modelar la relación entre la variable dependiente (objetivo) y las variables independientes (predictoras). Como segundo modelo, se implementó el algoritmo de Regresión Cuadrática para encontrar la ecuación de la parábola que mejor se ajustara al conjunto de datos, así como un modelo de Regresión Cúbica, el cual se usa cuando la relación entre la variable predictora y la variable de respuesta no es lineal. Además, se aplicaron técnicas de regularización, como el Regularizador Lasso (penalización L1), que fuerza a que los coeficientes de los predictores tiendan a cero, y el Regularizador Ridge (penalización L2), que reduce de forma proporcional el valor de todos los coeficientes del modelo, sin que estos lleguen a cero. También, se entrenó el algoritmo de Árboles de Decisión, que son útiles tanto para tareas de clasificación como de regresión y tienen una estructura de árbol jerárquica con un nodo raíz, ramas, nodos internos y nodos hoja. Finalmente, se implementaron Redes Neuronales Artificiales, inspiradas en el funcionamiento del cerebro humano y consistentes en capas de neuronas artificiales, o nodos, interconectados. Para la implementación de estos algoritmos, se utilizaron las librerías de scikit-learn para la predicción, pandas y numpy para manejar grandes volúmenes de datos, y matplotlib para graficar los resultados. Se calcularon métricas de desempeño para los subconjuntos de entrenamiento y prueba con el objetivo de identificar el algoritmo que presentara un mejor desempeño. Las métricas utilizadas representan la diferencia entre los valores reales y los valores predichos. A continuación, se presentan las métricas de desempeño utilizadas en los predictores y clasificadores: Error Cuadrático Medio (MSE) Raíz del Error Cuadrático Medio (RMSE) Error Absoluto Medio (MAE) Coeficiente de Determinación (R^2) Exactitud Siendo la Red Neuronal Artificial la que presentó el mejor desempeño. 


CONCLUSIONES

En esta investigación se logró adquirir conocimiento conceptual y aplicado en Machine Learning. Se exploraron y aplicaron distintos algoritmos con Python, y se evaluó el rendimiento de los modelos utilizando diversas métricas. La división del conjunto de datos en conjuntos de entrenamiento y prueba fue importante para una evaluación precisa. Se concluyó que las Redes Neuronales Artificiales fueron las más eficaces, logrando un rendimiento superior al 80%. Esta predicción resultó importante para identificar y apoyar a los estudiantes en riesgo de deserción, para mejorar los sistemas educativos y fomentar el éxito académico.
Vidal Gómez Yessica Gisel, Instituto Politécnico Nacional
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

ESTACIóN NIMBUS, SISTEMA DE MONITOREO AMBIENTAL


ESTACIóN NIMBUS, SISTEMA DE MONITOREO AMBIENTAL

Cortes Facio Juan Diego, Instituto Tecnológico de Morelia. de Jesús Martínez Carlos Alberto, Instituto Politécnico Nacional. Feliciano Pioquinto Jorge Osvaldo, Instituto Tecnológico Superior de Ciudad Hidalgo. Piceno Reyes Guillermo Eduardo, Instituto Tecnológico de La Piedad. Pineda Ibarra Alexandra, Instituto Tecnológico Superior de Ciudad Hidalgo. Rosales Gómez Adrian, Instituto Politécnico Nacional. Vargas Castro Jonathan Antonio, Instituto Tecnológico de Morelia. Vidal Gómez Yessica Gisel, Instituto Politécnico Nacional. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la región de los Valles, Jalisco, la agricultura enfrenta desafíos significativos debido a la variabilidad climática y la falta de datos meteorológicos precisos y actualizados. Estos problemas afectan la planificación de cultivos y la gestión de recursos hídricos, esenciales para la producción agrícola sostenible. Según el Instituto Nacional de Estadística y Geografía (INEGI), la región de Jalisco ha experimentado fluctuaciones en temperatura y precipitaciones que impactan directamente en la productividad agrícola. La falta de estaciones meteorológicas eficientes en la región agrava esta situación, limitando la capacidad de los agricultores para tomar decisiones informadas y oportunas. La problemática principal está en el ingenio azucarero de la región, estos desafíos son particularmente pronunciados. La producción de caña de azúcar requiere condiciones climáticas específicas y una gestión adecuada del agua. La falta de datos precisos dificulta la planificación y optimización de las actividades agrícolas, resultando en pérdidas económicas y una menor eficiencia en la producción.



METODOLOGÍA

Para el desarrollo de la estación de monitoreo ambiental, se siguió un proceso sistemático que involucró diversas fases de diseño, implementación y pruebas. A continuación, se detallan los pasos específicos llevados a cabo: Fase de Diseños Selección de Sensores: Se eligieron sensores adecuados para medir temperatura, humedad, precipitación pluvial, altitud, presión atmosférica, velocidad y dirección del viento, índice UV, calidad de aire (partículas), luminosidad, CO2. Los sensores seleccionados fueron DHT11 para temperatura y humedad, BMP180 para presión atmosférica, y anemómetros y veletas para medir velocidad y dirección del viento. Diseño de la estructura: Utilizando SolidWorks, se diseñaron los soportes y la carcasa para los sensores y las placas electrónicas Raspberry Pi y la Arduino Nano. Se realizaron varias iteraciones del diseño para asegurar estabilidad y protección contra condiciones climáticas adversas. FORTALECIMIENTO DE LA Fase de Implementación Montaje de Hardware: Los componentes físicos fueron hechos utilizando una impresora 3D con filamento PLA. Los sensores fueron montados en sus respectivos soportes y conectados a la Raspberry Pi y Arduino Nano. Configuración de la Raspberry Pi: Se configuró la Raspberry Pi con Raspbian OS y se instalaron las bibliotecas necesarias para la lectura de los sensores (Adafruit_DHT, BMP180, y PySerial para el anemómetro y la veleta). Así mismo con la Nano. Desarrollo de la Interfaz: Se desarrolló una interfaz de usuario utilizando Flask, un microframework de Python, para permitir la visualización en tiempo real de los datos recopilados. La interfaz incluye gráficos y alertas para condiciones climáticas extremas. Fase de Pruebas. Pruebas en Campo: La estación de monitoreo ambiental fue instalada en el Centro Universitario de los Valles de la Universidad de Guadalajara, ya que está rodeado de zonas agrícolas. Se realizaron pruebas durante un periodo de tres semanas para recolectar datos y ajustar la calibración de los sensores. Validación de Datos: Los datos recolectados fueron comparados con los registros de estaciones meteorológicas oficiales para validar la precisión de las mediciones. Se encontraron discrepancias menores que fueron ajustadas mediante calibración adicional.


CONCLUSIONES

Durante el desarrollo de la estación de monitoreo ambiental, se logró adquirir conocimientos teóricos y prácticos en el diseño e implementación de sistemas de monitoreo medio ambientales utilizando tecnologías accesibles como la Raspberry Pi, Ardunio Nano y la impresión 3D. La integración de sensores y el desarrollo de una interfaz de usuario intuitiva permitieron la recolección y visualización de datos meteorológicos en tiempo real. Los resultados obtenidos durante el periodo de pruebas demostraron que la estación de monitoreo ambiental proporciona datos precisos y confiables, la cual contribuirá esencialmente para la planificación agrícola en región de los Valles, Jalisco. La comparación de los datos recolectados con los registros de estaciones meteorológicas oficiales validó la precisión de las mediciones, y los ajustes realizados mejoraron aún más su exactitud. En el contexto del ingenio azucarero, la estación de monitoreo ambiental permitiría ajustar las prácticas de riego y manejo de cultivos, mejorando la eficiencia y reduciendo pérdidas. Esto subraya la importancia de contar con datos climáticos precisos para optimizar la producción agrícola y enfrentar los desafíos específicos de la región. A pesar de los avances logrados, el proyecto aún se encuentra en fases de prototipado. Se espera continuar con la recolección de datos a largo plazo para analizar patrones climáticos y su impacto en la agricultura local. Futuras mejoras en la calibración de sensores y la expansión de la red de estaciones de monitoreo ambiental podrían proporcionar una cobertura más amplia y datos aún más precisos. Además, se prevé que el uso continuo de esta tecnología contribuirá a incrementar la sostenibilidad y productividad agrícola en la región. El conocimiento adquirido y las técnicas desarrolladas pueden ser aplicadas en otros contextos y regiones, proporcionando una herramienta valiosa para enfrentar los desafíos del cambio climático y la variabilidad meteorológica en la agricultura. Desarrollo del proyecto "ESTACIÓN NIMBUS” Video: https://drive.google.com/file/d/1awq5EhNIY7j6gRyHKIEVdf6mNa2rBiaP/view?usp=sharing  
Vides Ortiz Elias David, Universidad de la Guajira
Asesor: Dr. Ivan Salgado Transito, Centro de Investigaciones en Óptica (CONACYT)

MODELADO 3D Y SIMULACIÓN CFD DE UN HORNO DE SECADO SEMI-INDUSTRIAL EN ANSYS


MODELADO 3D Y SIMULACIÓN CFD DE UN HORNO DE SECADO SEMI-INDUSTRIAL EN ANSYS

Vides Ortiz Elias David, Universidad de la Guajira. Asesor: Dr. Ivan Salgado Transito, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El secado de frutas es una técnica esencial para la conservación y prolongación de la vida útil de las mismas. Sin embargo, los métodos tradicionales de secado, como el secado al sol, presentan varias limitaciones, como por ejemplo las condiciones climáticas. Con lo anterior, se propone un horno de secado sobre el cual se pueda observar su funcionamiento con variables específicas. Este proyecto servirá para enriquecer la información existente sobre estas tecnologías de secado y, a partir de la investigación, seguir generando conocimiento sobre este proceso.



METODOLOGÍA

Se realiza una revisión de la literatura sobre los hornos de secado existentes hasta el momento. Posteriormente, se procede a realizar la simulación del sistema en ANSYS-Fluent para analizar el comportamiento de las variables de temperatura y del aire. Para ello, se debe realizar la geometría de nuestro horno de secado (el cual incluye entrada y salida de aire, tuberías de circulación de aire caliente, resistencias eléctricas, tubería de escape del aire, cámara de secado de frutas, etc.). Una vez que se tiene lista esta parte, es necesario realizar un mallado de calidad para garantizar precisión en los resultados. Asimismo, en el apartado de mallado se debe indicar la posición de los ventiladores, la entrada y salida de aire, y la ubicación de las resistencias. Ahora es necesario establecer las condiciones de entrada de nuestro sistema, es decir, las condiciones bajo las cuales va a operar (velocidad del aire de entrada, presión de los ventiladores, potencia de la resistencia). Se proceden a realizar las simulaciones para observar el comportamiento de nuestro sistema bajo condiciones específicas.


CONCLUSIONES

Las simulaciones realizadas en ANSYS-Fluent permitieron observar cómo las diferentes variables afectan el proceso de secado. Se identificó que una temperatura constante y bien distribuida es crucial para un secado uniforme de las frutas. Las simulaciones mostraron que las zonas cercanas a las resistencias eléctricas alcanzaron rápidamente las temperaturas deseadas, mientras que las áreas más alejadas presentaron una temperatura ligeramente menor, indicando la necesidad de mejorar la distribución del calor. Además, se observó que la velocidad del aire de entrada y la presión de los ventiladores juegan un papel fundamental en la eliminación de la humedad. Una velocidad del aire demasiado alta puede causar un secado superficial rápido, dejando el interior de las frutas húmedo. Por otro lado, una velocidad demasiado baja no es efectiva para remover la humedad. Se encontró un rango óptimo de velocidad que maximiza la eficiencia del secado sin comprometer la calidad de las frutas. Para el secado de frutas es necesario tener en cuenta muchas variables que conllevan un tiempo considerable de análisis. Sin embargo, en este estudio solo se analizaron el flujo del aire y la temperatura en el sistema. Se realizaron diversas simulaciones y se pudo comprobar que, aunque es necesario considerar otras variables para determinar si el horno de secado es viable o no, la temperatura del horno y el flujo de aire en el sistema se acercan a las condiciones específicas a las cuales deben estar sometidas las frutas. A partir de este diseño se pudo concluir que, aunque existen otros factores a tener en cuenta para el correcto funcionamiento del sistema, se deben estudiar alternativas para el mejoramiento del diseño. Así, se podrán seguir realizando más simulaciones y ajustar el sistema hasta llegar a un resultado óptimo.
Vieyra Alejandre Brayan Eduardo, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dra. Adriana del Carmen Téllez Anguiano, Instituto Tecnológico de Morelia

MODELO ESTADíSTICO PARA COLUMNA DE DESTILACIóN PARA IMPLEMENTACIóN EN TIEMPO REAL


MODELO ESTADíSTICO PARA COLUMNA DE DESTILACIóN PARA IMPLEMENTACIóN EN TIEMPO REAL

Gamiño Mora Luis Gilberto, Instituto Tecnológico de Estudios Superiores de Zamora. Vieyra Alejandre Brayan Eduardo, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dra. Adriana del Carmen Téllez Anguiano, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En procesos industriales, la monitorización constante de variables es crucial para la eficiencia y seguridad. Algunas variables críticas, como la composición de mezclas, no pueden medirse directamente en tiempo real debido a limitaciones de sensores y la complejidad de los métodos analíticos. Para estimar estas variables, se utilizan modelos matemáticos, pero su implementación en sistemas portátiles es difícil debido a la alta capacidad computacional requerida. Por esto, es necesario desarrollar métodos simplificados y eficientes. Los métodos estadísticos son una solución viable, ya que permiten estimaciones precisas con menor complejidad computacional. Este estudio busca desarrollar un método simplificado basado en técnicas estadísticas para el monitoreo de variables críticas en procesos industriales, facilitando su implementación en sistemas portátiles y mejorando la operatividad en tiempo real.



METODOLOGÍA

Durante el desarrollo del proyecto, se siguió un enfoque estructurado a lo largo de seis semanas, cada una de las cuales estuvo dedicada a tareas específicas que contribuyeron a la creación de un modelo simplificado para el monitoreo de variables críticas en procesos industriales. En la primera semana, nos familiarizamos con el uso de Matlab, la herramienta principal para nuestro análisis y modelado estadístico. Este software nos proporcionó las capacidades necesarias para manejar grandes cantidades de datos y realizar análisis complejos. Aprendimos tanto las funcionalidades básicas como las avanzadas de Matlab, lo cual fue fundamental para el éxito de las etapas posteriores. La segunda semana se centró en la recopilación de señales relevantes. Recopilamos datos de diferentes variables de proceso y mediciones de sensores esenciales para nuestro estudio. Aseguramos que los datos fueran precisos y de alta calidad, ya que esto era crucial para los análisis estadísticos que seguirían. En la tercera semana, realizamos análisis estadísticos preliminares utilizando métodos como la correlación de Pearson, el análisis de varianza (ANOVA) y la correlación de Spearman. Estos análisis nos permitieron identificar relaciones significativas y patrones en los datos, proporcionando una comprensión inicial que fue invaluable para la construcción de nuestros modelos. La cuarta semana estuvo dedicada al desarrollo de modelos de regresión. Probamos diferentes tipos de regresión, tanto lineales como no lineales, para predecir las variables críticas en función de otras variables más fácilmente medibles. Este paso fue clave para crear modelos que pudieran ser utilizados en sistemas portátiles con bajo requerimiento de cálculo. Durante la quinta semana, validamos los modelos de regresión desarrollados utilizando datos de prueba. Calculamos métricas de desempeño como el Error Cuadrático Medio (MSE), el Error Absoluto Medio (MAE) y el coeficiente de determinación (R²) para evaluar la precisión y fiabilidad de nuestros modelos. Esto nos permitió asegurarnos de que los modelos eran robustos y precisos. En la sexta semana, aplicamos los modelos validados para la detección de fallas en el proceso industrial. Implementamos algoritmos que nos permitieron identificar desviaciones significativas de las condiciones normales de operación, utilizando los modelos estadísticos desarrollados. Esto demostró la capacidad del modelo para detectar problemas potenciales de manera efectiva.  


CONCLUSIONES

Análisis de los resultados: RMSE (Validation) y MAE (Validation): Más bajos son mejores porque indican menores errores. RSquared (Validation): Más cercano a 1 es mejor, indicando mejor ajuste del modelo. MSE (Validation): Similar a RMSE, más bajo es mejor.   Modelos más prometedores: Model Number 2.17 (Ensemble) RMSE (Validation): 0.0001191 MSE (Validation): 1.42E-08 RSquared (Validation): 0.999874469 MAE (Validation): 4.84E-05   Model Number 1 (Tree) RMSE (Validation): 0.000185022 MSE (Validation): 3.42E-08 RSquared (Validation): 0.999697046 MAE (Validation): 8.50E-05   Model Number 2.18 (Gaussian Process Regression) RMSE (Validation): 0.00023507 MSE (Validation): 5.53E-08 RSquared (Validation): 0.99951098 MAE (Validation): 0.0001546       Selección del mejor modelo: De los tres modelos prometedores, el Model Number 2.17 (Ensemble) parece ser el mejor: RMSE (Validation): 0.0001191 (el más bajo, indicando menor error de predicción). MSE (Validation): 1.42E-08 (extremadamente bajo). RSquared (Validation): 0.999874469 (casi perfecto). MAE (Validation): 4.84E-05 (el más bajo, indicando menor error absoluto medio). Conclusión: El Model Number 2.17 (Ensemble) es el más adecuado para el estudio debido a sus bajos valores de error (RMSE, MSE, MAE) y un alto coeficiente de determinación (R²). Este modelo demuestra el mejor rendimiento y precisión, lo que lo hace ideal para obtener predicciones confiables y precisas en el estudio. La combinación de bajo error de salida y alto ajuste del modelo sugiere que depender de este modelo proporcionará los resultados más sólidos y precisos. Ya que el tener un modelo funcional y simple permite implementar sistemas de detección de fallas confiables e implementables en tiempo real
Vilchiz Linares Vivian, Universidad Vizcaya de las Américas
Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia

HACIA UN FUTURO SOSTENIBLE: DISEñO Y EFICIENCIA ENERGéTICA EN ECOVIVIENDAS


HACIA UN FUTURO SOSTENIBLE: DISEñO Y EFICIENCIA ENERGéTICA EN ECOVIVIENDAS

Ramos Barajas Christopher Alexander, Universidad Vizcaya de las Américas. Rosales Solís Jesús, Universidad Veracruzana. Vilchiz Linares Vivian, Universidad Vizcaya de las Américas. Asesor: Mg. Daniel Eduardo Ávila Velandia, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la necesidad de soluciones habitacionales que sean ambientalmente sostenibles y eficientes energéticamente es imperativa. A pesar de los avances en tecnologías como los paneles solares y los sensores de movimiento para la automatización de iluminación, aún persisten desafíos significativos en su implementación práctica y efectiva en entornos residenciales. Estos desafíos incluyen la optimización de la integración de sistemas solares para maximizar la captación y almacenamiento de energía, así como la adecuada sincronización y control de dispositivos mediante tecnologías móviles conectadas por WiFi. Además, la adaptabilidad de estas tecnologías a diversas condiciones climáticas y geográficas es crucial para garantizar su funcionalidad y eficiencia a largo plazo. La falta de estudios detallados y prototipos bien desarrollados específicamente orientados a estas tecnologías en contextos residenciales limita su adopción generalizada y efectiva. Por lo tanto, es fundamental abordar estos desafíos mediante la investigación y desarrollo de soluciones prácticas que puedan ser implementadas de manera accesible y efectiva en viviendas sustentables del mundo real.



METODOLOGÍA

La creciente preocupación por el cambio climático y el agotamiento de los recursos naturales ha impulsado el desarrollo de viviendas sustentables. Estas viviendas no solo buscan minimizar el impacto ambiental, sino también mejorar la eficiencia energética y la calidad de vida de sus habitantes. En este marco teórico se abordarán los conceptos fundamentales de la sustentabilidad en la construcción, la integración de paneles solares y la automatización mediante sensores para la mejora de la seguridad y eficiencia. Concepto de Viviendas Sustentables Las viviendas sustentables se caracterizan por el uso eficiente de los recursos naturales y la reducción de emisiones contaminantes. Según la Organización de las Naciones Unidas (ONU), una vivienda sustentable debe considerar aspectos como la eficiencia energética, el uso de materiales ecológicos, la gestión adecuada del agua y la integración de tecnologías que mejoren la habitabilidad sin comprometer el entorno. Integración de Paneles Solares en Viviendas Los paneles solares son dispositivos que convierten la energía solar en electricidad. Esta tecnología es fundamental en las viviendas sustentables, ya que permite la generación de energía limpia y renovable. Funcionamiento de los Paneles Solares Los paneles solares están compuestos por células fotovoltaicas que transforman la luz solar en corriente eléctrica. Esta electricidad puede ser utilizada directamente en la vivienda o almacenada en baterías para su uso posterior. La instalación de paneles solares no solo reduce la dependencia de fuentes de energía fósiles, sino que también puede significar un ahorro económico a largo plazo. Automatización y Sensores en Viviendas Sustentables La automatización del hogar mediante sensores y dispositivos inteligentes mejora la eficiencia energética y la seguridad. En el caso específico de la maqueta desarrollada, se han integrado sensores de movimiento y una bocina para alertar sobre cualquier actividad inusual. Sensores de Movimiento Los sensores de movimiento son dispositivos que detectan la presencia de personas o animales en un área específica. Funcionan mediante la emisión de ondas (infrarrojas, ultrasónicas, etc.) y la detección de cambios en el entorno. Control de encendido y apagado de focos led La tarjeta SP8266 se conectará a la placa Arduino R3 para poder controlar las luces led, esto se podrá hacer por medio de un dispositivo móvil (teléfono celular) el cual por medio de la red inalámbrica se podrá controlar el encendido y apagado de las luces desde cualquier parte del mundo por medio de una aplicación vinculada que se llama Blynk loT.


CONCLUSIONES

    Como resultado del proyecto se obtiene un prototipo de casa inteligente sustentable, el cual es alimentada por medio de energía solar, esta energía se acumula en una pila que trae el mismo panel solar y el cual tiene su propio regulador de energía.      Se implementó un sensor de fotocelda la cual controla las tiras led de 12 volts. Este sensor funciona o activa cundo llaga la noche o se tapa el sensor y queda obscuro.     Al igual se llevó a la practica la conexión de dos sensores de movimiento, los cuales están conectados a un zumbador o alarma. Estos sensores se activan cuando una persona esta cerca de ellos y realiza cualquier movimiento.       Por último, se realizó la conexión de la tarjeta SP8266, la cual es una tarjeta que se vincula con red Wifi para poder controlar desde un dispositivo móvil el encendido y apagado del foco de luz fría. El proceso que se acaba de explicar se puede apreciar en la siguiente liga: https://youtube.com/shorts/thqx7LzH6l0?feature=share Como conclusión se obtiene que las viviendas sustentables representan una solución viable y necesaria frente a los desafíos ambientales actuales. La integración de paneles solares y los sensores de movimiento, no solo contribuye a la reducción del impacto ambiental, sino que también mejora la calidad de vida y la seguridad de los habitantes. Además, el control de dispositivos mediante un dispositivo móvil conectado a una red Wifi añade un nivel adicional de convivencia y eficiencia energética. Este sistema permite a los usuarios encender y apagar luces y alarmas desde cualquier ubicación incluso en cualquier parte del mundo donde se tenga acceso a alguna red Wifi, ofreciendo un manejo intuitivo y flexible de la iluminación en el hogar. El desarrollo y estudio de maquetas y prototipos son pasos esenciales para la implementación y optimización de estas tecnologías en la vida real, asegurando su funcionalidad y adaptabilidad a diferentes entornos residenciales. Video del prototipo: https://youtube.com/shorts/thqx7LzH6l0?feature=share Articulo realizado con el investigador: https://docs.google.com/document/d/1m1p-XtH_5jObLeWnPf9S5f4VjbnD_v_l/edit?usp=sharing&ouid=107585600411323756748&rtpof=true&sd=true
Villa Castañeda Carolina, Instituto Tecnológico de Morelia
Asesor: Post-doc Luz Marina Flórez Pardo, Universidad Autónoma de Occidente

BIOPLÁSTICO DE ALMIDÓN NANOESTRUCTURADO POR HIDRÓLISIS ENZIMÁTICA EXTRAÍDO DEL RESIDUO DE CÁSCARA DE PAPA


BIOPLÁSTICO DE ALMIDÓN NANOESTRUCTURADO POR HIDRÓLISIS ENZIMÁTICA EXTRAÍDO DEL RESIDUO DE CÁSCARA DE PAPA

Villa Castañeda Carolina, Instituto Tecnológico de Morelia. Asesor: Post-doc Luz Marina Flórez Pardo, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La generación de residuos es un grave problema ambiental. El Programa de las Naciones Unidas para el Medio Ambiente (UNEP) señala que un tercio de los alimentos producidos globalmente se desperdicia, contribuyendo a los residuos sólidos urbanos. En México, más del 50% de los residuos son orgánicos, que emiten metano durante su degradación y afectan el calentamiento global. Las cáscaras de papa, con una producción anual de cerca de 100 millones de toneladas y un reciclaje del 33%, representan un desafío ecológico y económico. Estas cáscaras contienen almidón, que puede transformarse en bioplástico como alternativa a los plásticos convencionales. La investigación propuesta busca desarrollar un bioplástico biodegradable a partir de la hidrólisis enzimática del almidón de cáscaras de papa, con el fin de reducir los residuos sólidos orgánicos y promover la economía circular.



METODOLOGÍA

EXTRACCIÓN DE ALMIDÓN DE LA CÁSCARA DE PAPÁ Para extraer almidón de cáscaras de papa, se lavan 5 kg de cáscaras para quitar la suciedad. Luego, se licúan y homogeneizan con agua destilada en una proporción de 1 kg de cáscaras por 1 L de agua, obteniendo una solución 70/30. Esta suspensión se filtra para separar líquidos y sólidos; el sólido se lava, macera y filtra de nuevo. La solución se deja reposar a 8°C por 24 horas para recuperar el almidón, que se decanta, lava y decanta nuevamente. Finalmente, el almidón se seca en un horno a 35-40°C durante 48 horas, se muele y se almacena a 23°C. OBTENCIÓN DE ALMIDÓN NANOESTRUCTURADO A PARTIR DE HIDRÓLISIS ENZIMÁTICA Para obtener almidón nanoestructurado, se prepara una solución de alfa-amilasa liofilizada al 20% mezclando 10 g de enzima con 25 ml de agua destilada y 25 ml de buffer de fosfatos (pH 7.0). Se disuelven 25 g de almidón en 250 ml de agua destilada calentada a 40°C. En tres matraces, se añaden 20 ml de esta solución de almidón con 100 ml, 200 ml y 300 ml de solución de alfa-amilasa, respectivamente. Las muestras se mantienen a 23°C durante 15 minutos, luego se inactiva la enzima con baño maría a >90°C por 1 hora. Se realiza una muestra control con almidón de maíz comercial al 20% para comparación. CARACTERÍSTICAS MORFOLÓGICAS La caracterización morfológica se realiza utilizando un microscopio óptico LEICA ICC50W para observar los gránulos de almidón teñidos con lugol a 40x en diferentes fases del tratamiento. OBTENCIÓN DEL BIOPLÁSTICO Se proponen dos formulaciones para el bioplástico: Mezclar 100 ml de agua destilada, 10 ml de ácido acético y 10 ml de glicerina con 5 g de almidón nanoestructurado y 5 g de almidón nativo. Calentar a 90°C con agitación continua durante 3 minutos, verter en un molde de silicona y secar a 45°C por 48 horas. Preparar una solución al 1% de glicerina, mezclando 160 ml de esta solución con 1 g de glicerina adicional, y añadir 1 g de almidón nanoestructurado y 1 g de almidón nativo. Calentar a 90°C con agitación continua durante 3 minutos, verter en un molde de silicona y secar a 45°C por 48 horas.


CONCLUSIONES

RESULTADOS Caracterización Morfológica del Almidón Las micrografías del almidón extraído de cáscara de papa, observadas a resoluciones de 4X, 10X y 40X, mostraron una buena dispersión y una forma similar a la del tubérculo natural. Se identificaron impurezas y los gránulos variaron en tamaño. Obtención de Almidón Nanoestructurado Microscopia Óptica El almidón tratado con la enzima alfa-amilasa mostró ruptura de la estructura a los 15 minutos, con gránulos completos y estructuras más pequeñas alrededor. La reacción se continuó hasta los 45 minutos para completar la hidrólisis, utilizando la observación inicial para el proceso final. Hidrólisis Enzimática Se utilizó alfa-amilasa liofilizada al 20% en una solución de almidón al 10% calentada a 45°C. La enzima se dejó reaccionar a temperatura ambiente durante 15 minutos y luego se inactivó a 65°C durante 1 hora. El almidón nanoestructurado obtenido se filtró y secó a 45°C por 24 horas, resultando en nanopartículas con apariencia cristalina, que fueron molidas para facilitar su manejo. Obtención del Bioplástico Se produjeron dos formulaciones de bioplástico a partir del almidón nanoestructurado. La formulación 1 resultó en un bioplástico más duro y grueso, haciéndolo más resistente pero menos flexible. La formulación 2, aunque más delgada, mostró mayor elasticidad, haciéndolo más flexible y maleable. CONCLUSIONES Con el desarrollo de este proyecto se ha demostrado la viabilidad de aprovechar y transformar residuos sólidos orgánicos, como la cáscara de papa, en bioplásticos. Después de realizar cuatro ensayos con diferentes enzimas, pudimos confirmar que el uso de la enzima liofilizada fue el único que logró llevar a cabo la hidrólisis enzimática con éxito, permitiendo la obtención de almidón nanoestructurado.
Villa Castañeda Jesús Aramis, Universidad Autónoma de Occidente
Asesor: Dr. Marco Arturo Arciniega Galaviz, Universidad Autónoma de Occidente

EL SARGAZO COMO MEJORADOR DE SUELOS


EL SARGAZO COMO MEJORADOR DE SUELOS

Flores Gutierrez Maria Guadalupe, Universidad Autónoma de Occidente. Martínez Palafox Mariana Soledad, Universidad Autónoma de Occidente. Villa Castañeda Jesús Aramis, Universidad Autónoma de Occidente. Asesor: Dr. Marco Arturo Arciniega Galaviz, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

En 2011 se comenzaron a registrar incrementos masivos en la llegada de sargazo (Sargassum spp) a las costas. Este fenómeno ha impactado significativamente al medio ambiente, reduciendo la cantidad de luz y oxígeno en el agua. Además, el sargazo libera ácido sulfhídrico, lo que provoca un mal olor y genera molestias tanto para los habitantes como para los turistas. Debido a estas y muchas otras afectaciones que causa la acumulación del sargazo, buscar alternativas para su uso y aprovechamiento se presenta como un método efectivo para reducir el impacto ambiental de esta alga.   En el campo pesquero de El Colorado, Sinaloa, este fenómeno ha generado afectaciones en la economía local, ya que la pesca, que es la principal actividad económica de la zona, se ve comprometida debido a la alteración de los hábitats marinos. Por lo anterior, se decidió investigar al Sargazo como mejorador de suelos ya que, en el estado de Sinaloa las principales actividades económicas son la agricultura y la pesca.



METODOLOGÍA

La metodología empleada fue básicamente una metodología cuantitativa. Para el sargazo, se procedió a su recolección en el campo pesquero El Colorado, Ahome, Sinaloa. Posteriormente, se lavó con agua corriente para retirar materiales ajenos al alga. Luego, el sargazo se deshidrató en un horno a 60 grados centígrados durante 24 horas. Una vez deshidratado, se molió en un mortero hasta obtener un polvo fino y se tamizó para obtener un tamaño de partícula de 0.046 mm.   Se realizaron análisis en el laboratorio para determinar el contenido de materia orgánica, fósforo y nitratos contenidos en la biomasa del sargazo y suelo, con la finalidad de hacer mezclas del suelo natural con porciones de sargazo molido y obtener sustrato con distintas concentraciones de materia orgánica y nutrientes. Se molieron aproximadamente 500 g de sargazo y 800 g de tierra con los cuales se hicieron las mezclas que se mencionarán a continuación, para obtener 30 g de cada sustrato con porcentajes estimados de materia orgánica (MO), que se calcularon mediante operaciones de balance de materia y se les adicionó 100 mL de agua corriente: 6% de MO- 2 g de biomasa (Sargazo)- 28 g de suelo (tierra) 12% de MO- 4.9 g de biomasa- 25.1 g de suelo 18% de MO- 7.9 g de biomasa- 22.1 g de suelo 24% de MO- 10.80 g de biomasa- 19.2 g de suelo 30% de MO- 13.82 g de biomasa- 16.8 g de suelo Estas mezclas se dejaron reposar durante 2 semanas; posteriormente, se dividió cada sustrato en raciones de 10 gramos, las cuales se colocaron en 3 distintas cavidades de la charola germinadora. Por cada repetición se distribuyeron 5 semillas de rábano (Raphanus sativus) y se regó cada muestra con 5 mL de agua destilada 3 días a la semana, realizando las medidas de altura de cada germinado y el registro de la cantidad de semillas germinadas por repetición de cada sustrato. Hasta el momento, se ha observado que el único sustrato que ha generado germinación ha sido el de 6% de MO. En el resto de las muestras se intuye que la causa de ausencia de germinación pueda ser debida a la presencia de una costra que se ha generado en la parte superior donde se ubican las semillas. Para descartar errores en la metodología se planea repetir todo el proceso y realizar la biometría adecuada de ambos experimentos para obtener resultados confiables. Además se realizará un análisis detallado a las muestras ya elaboradas para descartar otras posibles causas de la ausencia de germinación en los sustratos.


CONCLUSIONES

Es importante el aprovechamiento de residuos orgánicos para ser utilizado como mejoradores de suelo, o en el tratamiento de aguas residuales, sobre todo aquellos residuos que pudieran producir problemas económicos, sociales o ambientales en comunidades rurales. El sargazo pudiera representar un problema para la comunidad pesquera de El Colorado, pero existe la opción de aprovecharlo como un abono orgánicos en los huertos familiares o jardines florísticos de ésta comunidad, reduciendo así la presencia de ésta alga en el mar y a la vez se podrá aportar nutrientes a los suelos de hogares de esta comunidad rural.
Villa Cortes Jacqueline, Universidad de Sonora
Asesor: Mg. Claudio Alberto Moreno Arias, Fundación Universidad de América

CARACTERIZACIÓN DE ACEITE DE PIRÓLISIS DE RESIDUOS PLÁSTICOS DE UN SOLO USO (POLIPROPILENO)


CARACTERIZACIÓN DE ACEITE DE PIRÓLISIS DE RESIDUOS PLÁSTICOS DE UN SOLO USO (POLIPROPILENO)

Mendez Lomeli Valeria Irais, Universidad de Guadalajara. Villa Cortes Jacqueline, Universidad de Sonora. Villa Cortes Maritza, Universidad de Sonora. Asesor: Mg. Claudio Alberto Moreno Arias, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

  El problema que ocasionan los plásticos de un solo uso ha trascendido de manera preocupante, con consecuencias catastróficas para el medio ambiente y la salud pública. Estos materiales son desechados rápidamente tras su uso y permanecen en el medio ambiente durante tiempos prolongados contaminando los diversos ecosistemas. En respuesta a esto, existe un interés progresivo en convertir estos residuos plásticos en una fuente de combustible viable. Debido a este problema, la pirólisis se ha convertido en una tecnología prometedora para convertir plásticos de un solo uso en combustibles útiles, en nuestro caso el uso de polipropileno.



METODOLOGÍA

1. ​Obtención y preparación de la materia prima Para este proyecto de investigación se utilizó polipropileno (PP), esto debido a su composición química y características. El uso de polipropileno en la pirólisis es beneficioso porque permite recuperar valor de residuos plásticos para la transformación a combustibles. Estos materiales fueron obtenidos de los desechos de negocios locales los cuales fueron recolectados para posteriormente ser desinfectados y separados para llevarlos a un molino y así obtener el material triturado para facilitar una descomposición más uniforme. 2. Conversión mediante pirólisis en combustibles: La materia prima previamente triturada se alimenta al pirolizador. Este reactor está diseñado para soportar temperaturas extremadamente altas y mantener un ambiente libre de oxígeno para evitar la combustión. La degradación térmica del plástico produce una mezcla de productos gaseosos, líquidos y sólidos. Los gases y vapores producidos se condensan en una fracción líquida que contiene el aceite negro El vapor obtenido en el proceso de pirólisis es dirigido al sistema de condensación. Aquí se enfrían y se condensan en diversos productos líquidos. El black oil es uno de los principales componentes de estos líquidos. El black oil puede requerir un post-procesamiento adicional para mejorar su calidad y propiedades. Esto puede incluir la eliminación de impurezas, el ajuste de su viscosidad y la separación de otros subproductos líquidos. 3. Destilación del black oil Después de este proceso de pirólisis, el black oil recolectado es destilado, este proceso busca separar los componentes de esta mezcla compleja para obtener productos útiles como combustibles líquidos o materias primas para otros procesos. En este proceso el aceite de pirólisis se somete a una destilación fraccionada para separar los hidrocarburos en diferentes fracciones, similares a las que se obtienen del petróleo crudo, después se procede a la selección de fracciones donde se seleccionan las fracciones que tienen propiedades similares al diésel convencional. 4. Mezcla con diesel convencional Las fracciones seleccionadas del aceite de pirólisis se mezclan con diésel convencional en proporciones específicas, que varían según las propiedades deseadas del combustible final. Estas en proporciones: plástico 5%, llantas al 10%, black oil 10% y black oil al 100%, todo esto para reducir contaminantes. 5. Pruebas con motores Se observó el rendimiento del motor por medio del voltaje y la corriente suministrados por un voltímetro y la pinza amperimétrica al igual que la eficiencia de los aceites obtenidos en su respectivo porcentaje de concentración.


CONCLUSIONES

Con este proyecto se logró conocer una solución viable y prometedora para la gestión de residuos plásticos y una opción para la creación de combustibles mediante el proceso de pirólisis. Esto tomando en cuenta la conciencia pública para un cambio transformador hacia una economía circular y sostenible. De igual forma se obtuvieron conocimientos sobre el proceso a los que se someten los petróleos y como los solemos aprovechar así como nuevas técnicas y prácticas del proceso de pirólisis.
Villa Cortes Maritza, Universidad de Sonora
Asesor: Mg. Claudio Alberto Moreno Arias, Fundación Universidad de América

CARACTERIZACIÓN DE ACEITE DE PIRÓLISIS DE RESIDUOS PLÁSTICOS DE UN SOLO USO (POLIPROPILENO)


CARACTERIZACIÓN DE ACEITE DE PIRÓLISIS DE RESIDUOS PLÁSTICOS DE UN SOLO USO (POLIPROPILENO)

Mendez Lomeli Valeria Irais, Universidad de Guadalajara. Villa Cortes Jacqueline, Universidad de Sonora. Villa Cortes Maritza, Universidad de Sonora. Asesor: Mg. Claudio Alberto Moreno Arias, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

  El problema que ocasionan los plásticos de un solo uso ha trascendido de manera preocupante, con consecuencias catastróficas para el medio ambiente y la salud pública. Estos materiales son desechados rápidamente tras su uso y permanecen en el medio ambiente durante tiempos prolongados contaminando los diversos ecosistemas. En respuesta a esto, existe un interés progresivo en convertir estos residuos plásticos en una fuente de combustible viable. Debido a este problema, la pirólisis se ha convertido en una tecnología prometedora para convertir plásticos de un solo uso en combustibles útiles, en nuestro caso el uso de polipropileno.



METODOLOGÍA

1. ​Obtención y preparación de la materia prima Para este proyecto de investigación se utilizó polipropileno (PP), esto debido a su composición química y características. El uso de polipropileno en la pirólisis es beneficioso porque permite recuperar valor de residuos plásticos para la transformación a combustibles. Estos materiales fueron obtenidos de los desechos de negocios locales los cuales fueron recolectados para posteriormente ser desinfectados y separados para llevarlos a un molino y así obtener el material triturado para facilitar una descomposición más uniforme. 2. Conversión mediante pirólisis en combustibles: La materia prima previamente triturada se alimenta al pirolizador. Este reactor está diseñado para soportar temperaturas extremadamente altas y mantener un ambiente libre de oxígeno para evitar la combustión. La degradación térmica del plástico produce una mezcla de productos gaseosos, líquidos y sólidos. Los gases y vapores producidos se condensan en una fracción líquida que contiene el aceite negro El vapor obtenido en el proceso de pirólisis es dirigido al sistema de condensación. Aquí se enfrían y se condensan en diversos productos líquidos. El black oil es uno de los principales componentes de estos líquidos. El black oil puede requerir un post-procesamiento adicional para mejorar su calidad y propiedades. Esto puede incluir la eliminación de impurezas, el ajuste de su viscosidad y la separación de otros subproductos líquidos. 3. Destilación del black oil Después de este proceso de pirólisis, el black oil recolectado es destilado, este proceso busca separar los componentes de esta mezcla compleja para obtener productos útiles como combustibles líquidos o materias primas para otros procesos. En este proceso el aceite de pirólisis se somete a una destilación fraccionada para separar los hidrocarburos en diferentes fracciones, similares a las que se obtienen del petróleo crudo, después se procede a la selección de fracciones donde se seleccionan las fracciones que tienen propiedades similares al diésel convencional. 4. Mezcla con diesel convencional Las fracciones seleccionadas del aceite de pirólisis se mezclan con diésel convencional en proporciones específicas, que varían según las propiedades deseadas del combustible final. Estas en proporciones: plástico 5%, llantas al 10%, black oil 10% y black oil al 100%, todo esto para reducir contaminantes. 5. Pruebas con motores Se observó el rendimiento del motor por medio del voltaje y la corriente suministrados por un voltímetro y la pinza amperimétrica al igual que la eficiencia de los aceites obtenidos en su respectivo porcentaje de concentración.


CONCLUSIONES

Con este proyecto se logró conocer una solución viable y prometedora para la gestión de residuos plásticos y una opción para la creación de combustibles mediante el proceso de pirólisis. Esto tomando en cuenta la conciencia pública para un cambio transformador hacia una economía circular y sostenible. De igual forma se obtuvieron conocimientos sobre el proceso a los que se someten los petróleos y como los solemos aprovechar así como nuevas técnicas y prácticas del proceso de pirólisis.
Villa Diaz Ana Cristina, Universidad Autónoma de Sinaloa
Asesor: Dr. Alfonso Talavera López, Universidad Autónoma de Zacatecas

SíNTESIS DE TITANO SILICATOS IMPREGNADOS CON PT-SN EMPLEADOS EN LA REACCIóN DE DESHIDROGENACIóN DE PROPANO PARA EL ESTUDIO DEL EFECTO DE LA CANTIDAD DE TI.


SíNTESIS DE TITANO SILICATOS IMPREGNADOS CON PT-SN EMPLEADOS EN LA REACCIóN DE DESHIDROGENACIóN DE PROPANO PARA EL ESTUDIO DEL EFECTO DE LA CANTIDAD DE TI.

Beltrán Herrera Jorge Andrés, Universidad Autónoma de Sinaloa. Villa Diaz Ana Cristina, Universidad Autónoma de Sinaloa. Asesor: Dr. Alfonso Talavera López, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Con una producción mundial de aproximadamente 78 millones de toneladas de propileno, éste supone una de las olefinas más demandadas en la industria debido a sus múltiples usos. Existen dos procesos principales en la producción de propileno: en torno al 56% de su producción mundial es obtenida como subproducto de la producción de etileno, mientras que un 33% se obtiene como producto en el refino del petróleo. Sólo un 7% es producido a partir de la deshidrogenación de propano y la transformación de etileno y butilenos. Se espera que el consumo de propileno crezca a un nivel ligeramente superior al PIB mundial durante los próximos cinco años. La media de dicho crecimiento podría rondar el 5% anual, siendo incluso superior al crecimiento del etileno, por lo que se espera un mayor auge dentro de la industria del plástico con el uso del polipropileno en detrimento del polietileno. En ese sentido, una de las tecnologías que está cobrando especial importancia es la deshidrogenación de parafinas (propano), debido a la mayor disponibilidad de propano procedente de estas reservas. En líneas generales, su precio ha disminuido notablementedebido a su grandisponibilidad, loque hace al proceso de deshidrogenación más atractivo, como tecnología alternativa para la producción de propileno. La producción de propileno a partir de la deshidrogenación de propano supone un gran reto de optimización, puesto que es un proceso altamente endotérmico, que se encuentra limitado por el equilibrio termodinámico y en el cual, además de la reacción principal, coexisten reacciones secundarias como la de craqueo térmico del propano o la de formación de coque, la cual provoca una rápida desactivación del catalizador.



METODOLOGÍA

Se realizó revisión bibliográfica referente al tema y se calculó la termodinámica de la reacción de deshidrogenación de propano, con el objetivo de conocer los valores máximos de conversión que se podrían obtener a las condiciones que se van a implementar en los posteriores experimentos, para después comenzar con la síntesis de los soportes SBA-16 y KIT-6 para la posterior implementación de Ti y de la fase activa Pt-Sn mediante impregnación húmeda incipiente.   Para la síntesis de SBA-16 se comenzó diluyendo 6.42g de Pluronic F-127 en una solución de agua-HCl con agitación vigorosa durante 2 horas hasta su completa disolución, una vez completado lo anterior, se agregaron 24 mL de 1-Butanol y se dejó agitando por una hora. Posteriormente, se agregaron 32.6 mL de tetraetil ortosilicato (TEOS) y se dejó agitando por 24 horas, una vez transcurrido este tiempo se mete a una autoclave y se lleva a 100°C por 24 horas, después se filtró y se lavó dos veces el contenido, para llevarlo a secar por 24 horas a 100°C, finalmente, se llevó a calcinar a 550°C por 6 horas.   Para la síntesis del soporte KIT-6, se comenzó por diluir 12g de Pluronic P123 en una solución de agua-HCl cuidando que la temperatura estuviera cercana a los 35°C hasta la completa disolución del Pluronic P123. Una vez disuelto, se agregaron 14.8 mL de 1-Butanol y se dejó agitando por 1 hora para posteriormente agregar 33.4 mL de TEOS y dejarlo agitando por 24 horas. Posteriormente se lleva a una autoclave y se lleva a 100°C por 24 horas, para después filtrar y lavar el producto, el cual se llevó a secar por 24 horas a 100°C y finalmente se llevó a calcinar a 550°C por 6 horas.   Se siguió el mismo procedimiento para la implementación de Ti a los soportes sintetizados, el cual consiste en pesar aproximadamente 3g de soporte, ya sea KIT-6 o SBA-16, y se disolvieron en una solución agua-HCl, esperando a que llegara a una temperatura de 5°C, una vez llegada a la temperatura, se ajustó el pH a 10 utilizando hidróxido de amonio. Se añadió una solución de etanol- propóxido de titanio (IV)-ACAC, en las proporciones necesarias para tener cierto porcentaje de titanio deseado, en este trabajo se utilizaron porcentajes de 10, 13 y 16, posteriormente se dejó agitando a 5°C por 2 horas y una vez cumplido el tiempo se llevó a secar por 24h a 100°C y a calcinar por 4 horas a 400°C.   Una vez obtenidos los titanosilicatos, se llevó a cabo una impregnación húmeda incipiente, donde se pesaron 0.0291g de cloruro de estaño y 0.015g de nitrato de tetraaminoplatino (II) necesarios para obtener los porcentajes de Pt y Sn deseados en el catalizador, los cuales fueron diluidos en un cierto volumen de agua desionizada que es igual al volumen de poro del soporte que se va a impregnar. Se fue agregando la solución gota a gota a 1 gramo de soporte y mezclando hasta acabar la solución, posteriormente se llevó a secar a 100°C.   Una vez obtenidos los catalizadores, se llevaron a cabo diferentes experimentos para evaluar los siguientes parámetros: Conversión. Selectividad. Desactivación. Los experimentos se llevaron a cabo de la misma manera, solamente variando el catalizador empleado, para realizar cada experimento se comenzó pesando 150mg del catalizador escogido, el cual fue introducido en el reactor de flujo continuo en el que se llevó a cabo la reacción de deshidrogenación de propano a una temperatura de 520°C con un tiempo de reacción de 6 horas, en el cual entraban los siguientes flujos: 13mL/min de propano(C3H8), 2.2mL/min de hidrógeno (H2) y 135mL/min de nitrógeno (N2). Se caracterizaron los gases de salida del reactor mediante un cromatógrafo de gases, donde los resultados arrojados por el equipo serán utilizados para la evaluación de los parámetros mencionados anteriormente.


CONCLUSIONES

Durante esta estancia de verano se lograron adquirir conocimientos teóricos y prácticos a cerca de la deshidrogenación directa de propano, en donde se realizó un extenso trabajo en la fabricación de catalizadores adecuados para este tema y la manipulación del sistema de reacción para la obtención de los resultados de dicha reacción, sin embargo, al tratarse de un contenido amplio los primeros datos arrojados en la primera etapa no fueron los esperados ya que no se cumplieron todos los objetivos. Se espera que en las siguientes etapas se obtengan los resultados que complementen nuestro trabajo.  
Villa Juarez Nicol Karelyx, Instituto Tecnológico de Acapulco
Asesor: Mtro. Segundo Victor Olivares Muñoz, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas

PELíCULAS BIOACTIVAS BASADAS EN RESIDUOS AGROINDUSTRIALES PARA EXTENDER LA VIDA úTIL DE FRESAS.


PELíCULAS BIOACTIVAS BASADAS EN RESIDUOS AGROINDUSTRIALES PARA EXTENDER LA VIDA úTIL DE FRESAS.

Medina Magaña Lizeth, Instituto Tecnológico Superior de Puruándiro. Saenz Garcia Hammer Ali, Instituto Tecnológico de Toluca. Salas Wences Arlyn, Instituto Tecnológico de Acapulco. Villa Juarez Nicol Karelyx, Instituto Tecnológico de Acapulco. Asesor: Mtro. Segundo Victor Olivares Muñoz, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas



PLANTEAMIENTO DEL PROBLEMA

Las fresas tienen un tiempo de vida útil muy corto, de 2 a 3 días sin refrigeración, lo que causa pérdidas económicas y desperdicio de alimentos. Existe una necesidad de soluciones naturales y sostenibles para extender su vida útil. Este proyecto busca desarrollar biopelículas a base de aceites esenciales de cáscara de lima, combinados con Tween 20, glicerol, pectina y almidón, para extender la vida útil de las fresas de 2-3 días a 6-12 días sin refrigeración. Se evaluará la efectividad de estas biopelículas para inhibir el crecimiento microbiano y mantener la calidad de las fresas.



METODOLOGÍA

Obtener y evaluar resudious de cascara de lima. Selecionar la fresa cumpliendo con las caracteristicas requeridas. Extraer aceite escencial de lima. Medir los biopolimeros utilizados: Aceite esencial de lima, tween, gliserol, almidón, pectina. Incorporar y mezclar elementos requeridos para las boipeliculas con agua destilada. .Recubrir la fresa en la mezcla obtenida. Reposar la fresa durante el tiempo requerido a temperatura ambiente.


CONCLUSIONES

Realizando uno de los tratamientos se obtuvo un resultado esperado, ya que la fresa con la boipelicula aparentemente estaba mas brillora, con una tonalidad mas rojiza. En comparación con las que no tenian las biopeliculas, estas estaban mas opacas y rugosas. Mencionando que el proyecto no se a concluido, debido a que lleva mas tiempo y pruebas con dististos tratamientos los cuales se llevaran a cabo en meses posteriores, sin embargo, con el tratamiento realizado se tuvueron buenos resultados.
Villafan Equihua Aldo Jesus, Instituto Tecnológico Superior Purépecha
Asesor: M.C. Jonathan Zavala Díaz, Instituto Tecnológico de Morelia

APLICACIóN DE TéCNICAS DE RECONOCIMIENTO DE ENTIDADES NOMBRADAS PARA ANONIMIZACIóN Y ETIQUETADO DE SíNTOMAS Y MEDICAMENTOS EN NOTAS CLíNICAS


APLICACIóN DE TéCNICAS DE RECONOCIMIENTO DE ENTIDADES NOMBRADAS PARA ANONIMIZACIóN Y ETIQUETADO DE SíNTOMAS Y MEDICAMENTOS EN NOTAS CLíNICAS

Villafan Equihua Aldo Jesus, Instituto Tecnológico Superior Purépecha. Asesor: M.C. Jonathan Zavala Díaz, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

Las notas clínicas contienen información relevante sobre síntomas, diagnósticos y tratamientos, asi como informacion que requiere protección. Proponemos usar técnicas de reconocimiento de entidades nombradas (NER, por sus siglas en ingles) para identificar síntomas y medicamentos, asi como anonimizar automáticamente datos personales. Evaluaremos diversas técnicas de NER para determinar cuál ofrece los mejores resultados en el contexto clínico. Basándonos en esta evaluación, recomendaremos la técnica más efectiva para la tarea y propondremos mejoras e implementaciones específicas para optimizar su rendimiento en el entorno clínico. Esta estrategia garantizará tanto la protección de la privacidad del paciente como la eficacia en el manejo de la información clínica.



METODOLOGÍA

Para llevar a cabo esta investigación, se han seleccionado y probado diversos modelos de reconocimiento de entidades nombradas, tanto en inglés como en español. Los modelos utilizados incluyen dslim/bert-base-NER, Babelscape/wikineural-multilingual-ner, Clinical-AI-Apollo/Medical-NER, entre otros. Las notas clínicas se analizaron utilizando estos modelos para identificar y etiquetar entidades médicas como síntomas, medicamentos, nombres de pacientes, fechas y otros datos relevantes.


CONCLUSIONES

En nuestra investigación, los modelos "lcampillos/roberta-es-clinical-trials-ner" y "PlanTL-GOB-ES/es_anonimization_core_lg" fueron los que proporcionaron los mejores resultados en comparación con otros modelos probados. La combinación de estos dos modelos permitió una identificación y etiquetado más preciso de síntomas y medicamentos en las notas clínicas. "lcampillos/roberta-es-clinical-trials-ner" destacó por su precisión en el reconocimiento de terminología médica en español, mientras que "PlanTL-GOB-ES/es_anonimization_core_lg" complementó eficazmente al mejorar la anonimización de los datos. Esta combinación resultó ser la más efectiva para nuestros objetivos de análisis y protección de la información clínica.
Villafan Rosas Jose Antonio, Universidad Tecnológica de Tecamachalco
Asesor: Dr. José Jorge Carreño Zagarra, Universidad de Investigación y Desarrollo

CONTROL AUTOMáTICO A TRAVéS DE PID FRACCIONAL


CONTROL AUTOMáTICO A TRAVéS DE PID FRACCIONAL

Villafan Rosas Jose Antonio, Universidad Tecnológica de Tecamachalco. Asesor: Dr. José Jorge Carreño Zagarra, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

En la ingeniería de control, los sistemas dinámicos complejos, especialmente aquellos que presentan comportamientos anómalos o no lineales, han sido un desafío constante para los investigadores y profesionales del área. Estos sistemas se encuentran frecuentemente en diversas aplicaciones, desde el control de procesos industriales hasta la modelización de sistemas biológicos y económicos. Tradicionalmente, se ha empleado el control clásico de orden entero, como los controladores PID, para gestionar la dinámica de estos sistemas. Sin embargo, en muchos casos, los métodos clásicos no son suficientes para capturar completamente el comportamiento inherente de los sistemas complejos, lo que puede resultar en un rendimiento subóptimo o inestabilidad. Recientemente, la teoría del cálculo fraccional ha ganado terreno como una herramienta poderosa para modelar y controlar sistemas dinámicos con características no estándar, tales como memoria a largo plazo y efectos de histéresis. El control fraccional, que utiliza derivadas e integrales de orden no entero, ofrece una mayor flexibilidad y precisión en la descripción del comportamiento dinámico de sistemas complejos. En este contexto, surge la necesidad de investigar y desarrollar estrategias de control fraccional que puedan ser implementadas de manera efectiva en sistemas reales. En particular, es crucial entender cómo los controladores fraccionarios, como el PIʎDµ, pueden mejorar la estabilidad y el rendimiento de sistemas dinámicos que no responden adecuadamente a los métodos de control tradicionales. Por tanto, durante este proyecto de investigación se propone estudiar la aplicación del control fraccional en un sistema dinámico de interés, evaluando su desempeño en comparación con los controladores clásicos de orden entero. Se espera que los resultados obtenidos puedan contribuir al desarrollo de técnicas de control más robustas y eficientes para una amplia gama de aplicaciones industriales y científicas.



METODOLOGÍA

Se utilizó una placa TCLab junto con un microcontrolador Arduino Uno para la implementación del sistema de control. La placa TCLab, que cuenta con un sistema de calefacción basado en resistencias y un sensor de temperatura, fue configurada para operar con una temperatura máxima de 70°C, con el fin de garantizar la seguridad del sistema y evitar posibles daños a los componentes. El experimento comenzó con la recolección de datos de la respuesta térmica del sistema. Se aplicaron cambios controlados en la temperatura, y se registraron las respuestas correspondientes utilizando el sensor de la placa TCLab. Estos datos fueron fundamentales para el diseño y la implementación de los controladores PID y fraccional. Todo el análisis y simulación del sistema se realizó utilizando MATLAB y Simulink, herramientas que permitieron modelar el sistema y simular los diferentes controladores. Para el diseño del controlador PID clásico, se empleó el método de Ziegler-Nichols, un enfoque estándar en la sintonización de controladores. Los parámetros obtenidos mediante este método fueron KP=18.8, KI​=0.30, y KD = 0.075KD​. Estos parámetros se implementaron en el modelo Simulink del sistema. Se realizaron pruebas para verificar el desempeño del controlador PID, y se ajustaron los parámetros. Posteriormente, se procedió al diseño de un controlador fraccional PIʎDµ. Este diseño se realizó también en MATLAB y Simulink, utilizando los datos recolectados del sistema y ajustando los parámetros fraccionales para mejorar el desempeño del sistema. Los parámetros óptimos determinados fueron KP=13.56, KI=0.50, λ=0.7, KD=0.2K y μ=0.5. Estos parámetros se implementaron en el modelo Simulink. Finalmente, se realizaron pruebas comparativas entre el controlador PID clásico y el controlador fraccional. Los resultados se evaluaron en términos de estabilidad, tiempo de respuesta y robustez ante perturbaciones en el sistema. El controlador fraccional mostró mejoras significativas en la respuesta dinámica del sistema en comparación con el controlador PID tradicional, particularmente en términos de reducción de error y mejora en la estabilidad del sistema bajo condiciones variables.


CONCLUSIONES

Las conclusiones obtenidas a partir de estas pruebas proporcionaron una perspectiva clara sobre la efectividad del control fraccional en sistemas dinámicos complejos, mostrando su superioridad en comparación con los métodos clásicos en ciertas aplicaciones. El uso de MATLAB y Simulink fue crucial para el modelado, simulación y análisis detallado de los controladores, permitiendo una implementación más eficiente y precisa en el sistema físico.
Villafuerte Torres Telsy Itzel, Instituto Politécnico Nacional
Asesor: Mtra. Rosalía Bones Martinez, Instituto Tecnológico Superior de Huauchinango

TORNO DUPLICADOR PARA MEJORAR LA PRODUCTIVIDAD DE LOS ARTESANOS DE LA COMUNIDAD DE TLACOMULCO PUEBLA, MUNICIPIO DE HUAUCHINANGO PUEBLA.


TORNO DUPLICADOR PARA MEJORAR LA PRODUCTIVIDAD DE LOS ARTESANOS DE LA COMUNIDAD DE TLACOMULCO PUEBLA, MUNICIPIO DE HUAUCHINANGO PUEBLA.

Villafuerte Torres Telsy Itzel, Instituto Politécnico Nacional. Asesor: Mtra. Rosalía Bones Martinez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Desde el año 2000 a la fecha, el comercio entre China y México ha ido creciendo, sin embargo, en la competencia México está en desventaja ya que exporta solo el 10% de lo que importa debido al gran abismo tecnológico que existe entre las dos naciones. Dicha diferencia tecnológica se debe, en su mayoría, a la falta de apoyos por parte de inversionistas tanto públicos como particulares. La principal problemática es la llegada de los productos chinos, que ofrecen artículos con precios competitivos (bajo costo), mayor estética y capacidad de respuesta en cantidad, hace que los artesanos de comunidades marginadas como Tlacomulco, Puebla no puedan competir, lo que impacta directamente en la economía de sus familias. Durante el verano de investigación se estudian alternativas para realizar un torno duplicador que facilite las tareas de producción de los artesanos, para mejorar la calidad de sus productos, estandarizar y acelerar el proceso de torneado, con el objetivo de lograr que compitan contra los productos chinos.



METODOLOGÍA

En la primera etapa del proyecto se realizó una visita al pueblo de Tlacomulco, municipio de Huauchinango Puebla, lugar en donde se implementará el prototipo del torno copiador; con la finalidad de recabar información acerca de las medidas y los espacios en donde se planea proponer el modelo. Asi como tambien,  se aplicó un cuestionario a los artesanos para conocer sobre la producción y la forma de venta de las artesanías. Datos obtenidos: Medidas antropométricas: Estatura: 1.52 m                                           Altura al codo: 1.00 m   Envergadura: 1.57 m                                   Largo del brazo: 68 cm Medidas de las piezas sin maquinar: Longitud: 10-80 cm                                      Diámetro: 1-3 in La producción es la siguiente: Las artesanías que se producen son en su mayoría utensilios de cocina como palitas, rodillos y cucharas. Aunque también producen masajeadores. Las artesanías que más se venden son palitas y cucharas. La temporada en la que se observan más ventas es en las fiestas decembrinas. Todo se comercializa dentro del mismo pueblo. El tiempo de producción varía entre piezas, después de ver la demostración de uno de los artesanos, vimos que en 10 minutos se producen aproximadamente 13 palitas. Para los rodillos, en una jornada de 8 horas, se realizan 40 piezas. Sus principales clientes son una bodega local y algunos clientes independientes que ya ubican a los artesanos para pedir piezas por volumen. Las bodegas y comerciantes revenden los productos. Venden por mayoreo a sus principales clientes. Lo que más les gustaría es implementar nuevas tecnologías que les permitan mejorar sus tiempos de proceso, la calidad de las piezas y reducir la cantidad de desperdicio de material. Posterior a la visita se seleccionaron las alternativas de mecanismos, dimensiones, formas de sujeción de las partes, etc., con base en la investigación previa acerca de distintos tornos caseros de fácil implementación. Para la sujeción y el ajuste de las piezas, se opta por un mecanismo que esté incorporado a las distintas piezas del torno. Para la pieza original, con la ayuda de una punta de diente (acoplada al eje del cabezal fijo) y una punta de copa (acoplada al contrapunto). Para la pieza original se optan por dos tornillos con una terminación puntiaguda, incorporados tanto al cabezal fijo como al cabezal móvil, para que, al momento de realizar el ajuste con el cabezal móvil, ambas piezas queden fijas y centradas en el torno. Debido a que la madera que se va a maquinar es muy blanda, no es necesario incorporar mecanismos más complejos o externos al prototipo. Para el riel, la opción más viable es implementar un perfil prefabricado, lo que facilita la manufactura y el diseño de este, en este caso se optó por un perfil U-700. El material utilizado para la fabricación del cabezal fijo y el cabezal móvil son principalmente láminas de distintos grosores como 3mm, 10 mm y 20 mm. Las dimensiones principales del torno son 1.5 m de bancada y 14 cm entre los centros de cada pieza, la longitud de la pieza es adaptable según lo que se vaya a maquinar. Conociendo las dimensiones principales se comienza con el diseño CAD en el software SolidWorks, al finalizar el diseño, se realizan los planos de cada pieza. Una vez teniendo los planos, se comienza con la fabricación de cada una de las piezas que conforman al prototipo y se realizan los ajustes pertinentes. Para finalizar con el proceso, se realizan las pruebas necesarias para avalar el funcionamiento correcto del prototipo.


CONCLUSIONES

Durante la estancia de verano se logró diseñar un torno que se adaptara a las necesidades de los artesanos y que fuera de fácil fabricación y replica, además de que se lograron concluir los planos de cada pieza y el manual de armado del prototipo, sin embargo, la parte final, que es la fabricación del prototipo y las pruebas de funcionamiento, no pudieron ser realizadas, porque es una parte compleja que necesita de más tiempo. Se espera que el prototipo sea realizado a la brevedad, para poder observar un crecimiento en la producción de los artesanos, una mejora de calidad en los productos y un menor desperdicio de materia prima.
Villalobos Salas María Fernanda, Instituto Tecnológico de Culiacán
Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León

REMOCIóN DE FóSFORO DE ORGANOFOSFORADOS POR MEDIO DEL PROCESO DE ELECTROCOAGULACIóN.


REMOCIóN DE FóSFORO DE ORGANOFOSFORADOS POR MEDIO DEL PROCESO DE ELECTROCOAGULACIóN.

Villalobos Salas María Fernanda, Instituto Tecnológico de Culiacán. Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

El incremento en la demanda alimenticia, orilla a los agricultores a aumentar el uso de agroquímicos para mejorar el rendimiento de las tierras lo que repercute en la calidad del suelo y del agua.  Los herbicidas y fertilizantes, como el glifosato y el monofosfato de amonio llegan a ecosistemas acuáticos por lixiviación, escorrentía y descargas puntuales en cuerpos de agua, aumentando en ellos la presencia de nutrientes como el nitrógeno y el fosforo, lo que causa el crecimiento excesivo de algas, la biomasa de las algas se descompone y consume oxígeno, de manera que los sistemas acuosos se dañan por agotamiento de oxígeno, a este fenómeno ambiental se le conoce como eutrofización,  lo que amenaza la calidad del agua y la integridad biótica de estos ecosistemas. En la mayoría de los casos de eutrofización de aguas dulces, el único nutriente de las plantas que puede ser limitante es el fosforo.  Los métodos actuales de tratamiento de aguas son incapaces de remover efectivamente los contaminantes mencionados, por lo que los procesos electroquímicos representan una alternativa viable. 



METODOLOGÍA

Se utilizaron dos tipos de procesos electroquímicos, en primera instancia se empleó un tanque agitado, con dos electrodos de aluminio con un área superficial de 45 cm2 cada uno. Mientras que en el segundo proceso, se usó un reactor tipo filtro prensa con electrodos de aluminio con un área superficial de 64 cm2 cada uno.  En ambos procesos la preparación del material, soluciones electrolíticas, la toma de las muestras y la determinación de fósforo fue la misma.  Dentro de la preparación del material, se lavó lo necesario con jabón libre de fosfatos, posteriormente se enjuagó con una solución al 70% de ácido fuerte (H2SO4 y HNO3) y agua destilada para eliminar cualquier residuo. En el caso de las soluciones electrolíticas, se pesaron en una charola de plástico 0.3 g de cloruro de sodio (NaCl) y 0.7 g de sulfato de sodio (Na2SO4), a lo que se le añadió una cantidad variable de glifosato y monofosto de amonio (MAP); lo cual fue aforado a 1 L.   Las concentraciones de glifosato que fueron usadas, en los experimentos en tanque agitado fueron de 100 y 200 ppm, mientras que para las pruebas en el reactor se utilizó una concentración de 100 ppm de MAP y una mezcla de 50 ppm de glifosato con 50 ppm de MAP.  Antes de comenzar ambos procesos, se deben lijar los electrodos para favorecer el flujo de la corriente y garantizar la eficiencia del proceso. En el caso del reactor es necesario asegurarse de armarlo correctamente y evitar fugas.  La corriente utilizada fue variable en cada proceso, dependía de la densidad de corriente a utilizar y se calculó multiplicando esta por el área de los electrodos, usando en el primer proceso densidades de corriente de 9.5 mA/cm2, 11.5 mA/cm2, y para el reactor densidades de corriente de 2.5 mA/cm2, 5.5 mA/cm2 y 7.5 mA/cm2.  El proceso en el tanque agitado a una velocidad promedio de 300 rpm, se llevó a cabo durante 45 minutos, tomando 125 mL de muestra en los minutos 0, 5, 15, 30, 45. En el segundo proceso se utilizó un caudal de 2 L/min, durante 1 hora, tomando 125 mL de muestra en los minutos 0, 10, 20, 40 y 60.  La determinación de fosforo se realizó siguiendo el segundo método descrito en la Norma Mexicana NMX-AA-029-SCFI-2001 Análisis de aguas - Determinación de fosforo total en aguas naturales, residuales y residuales tratadas - Método de prueba. Para la preparación del material utilizado, se empleó jabón libre de fosfatos, y un sucesivo enjuague con ácido fuerte y agua destilada. Posteriormente, en vasos de precipitados, con ayuda de una pipeta, se colocaron 50 mL del sobrenadante de cada una de las muestras, a continuación, en vidrios de reloj se pesó 0.5 g de persulfato de potasio (K2S2O8), el cual actúa como agente oxidante y se añadió esa cantidad a cada alícuota, al igual que 1mL de ácido fuerte. Se debe preparar al menos un estándar por cada lote de muestras.  En una parrilla de calentamiento a 150°C se colocaron las muestras durante 90 minutos, colocando un vidrio de reloj con agua destilada en cada vaso para favorecer la condensación de la muestra.  Transcurrido el tiempo, y una vez enfriadas las muestras, se agregaron 2 gotas de fenolftaleína para titular con hidróxido de sodio (NaOH) y finalmente neutralizar las muestras con una o más gotas de ácido fuerte. Se agregó a cada muestra 10 mL de una solución de heptamolibdato de amonio y metavanadato de amonio (Solución AB), la cual es preparada siguiendo el inciso 4.3.8 de la norma. Se afora a 100 mL y se deja actuar por 15 minutos.  Para la elaboración de la curva de calibración se agregaron 0 mL, 10 mL, 20 mL, 30 mL, 40 mL y 50 mL de solución madre de fosfato de potasio monobásico con 50,0 µg de P como ortofosfato (PO43- ) por mL en matraces, con 10 mL de solución AB.  La medición de la absorbancia se realizó en un espectofotometro a una longitud de onda de 470 nm, se midió por duplicado cada muestra, haciendo lavados con agua destilada de la celda entre cada medición.  La absorbancia de las alícuotas es directamente proporcional a la concentración, en base a esto, se realizó la curva de calibración con el método de los mínimos cuadrados lineales.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los procesos electroquímicos para el tratamiento de aguas y así mismo ponerlos en práctica a un nivel batch y semi industrial. Los resultados obtenidos, específicamente para las muestras con una mezcla de herbicida y fertilizante, cuentan con una mayor eficiencia, incluso a bajas densidades de corriente, comparado con el porcentaje de remoción de las especies individualmente.  Así mismo, fue observable el límite al cual llega el sistema una vez alcanzado el equilibrio, logrando un 90% de remoción de fósforo antes de llegar a este punto. 
Villamarin Torres Emmanuel, Institución Universitaria Antonio José Camacho
Asesor: Dr. J. Reyes Juarez Ramirez, Universidad Autónoma de Baja California

INGENIERÍA DE PETICIONES PARA INTERACTUAR CON HERRAMIENTAS “GENERATIVE AI” PARA LA PROGRAMACIÓN DE SOFTWARE


INGENIERÍA DE PETICIONES PARA INTERACTUAR CON HERRAMIENTAS “GENERATIVE AI” PARA LA PROGRAMACIÓN DE SOFTWARE

Villamarin Torres Emmanuel, Institución Universitaria Antonio José Camacho. Asesor: Dr. J. Reyes Juarez Ramirez, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial generativa (Gen AI) se refiere al uso de la inteligencia artificial para crear contenido, como texto, imágenes, música, audio y vídeos, así como la generación de código. Las herramientas Gen AI son sistemas de software inteligentes que aprovechan algoritmos de aprendizaje automático y redes neuronales profundas para imitar funciones cognitivas humanas. Tienen la capacidad de aprender de los datos, adaptarse a nueva información y tomar decisiones basadas en patrones y conocimientos. Una forma de interactuar con las herramientas Gen AI es mediante la ingeniería de peticiones. Las herramientas Gen AI funcionan bien si el usuario le pide lo que necesita. Esto se hace mediante una petición (prompt), la cual es una instrucción de entrada para el modelo de lenguaje. Para maximizar la efectividad de las herramientas Gen IA se deben hacer peticiones de calidad. En este sentido, la calidad de un prompt influye directamente en la calidad de la respuesta generada por la herramienta. Entre más específica es la indicación dada la herramienta Gen AI, mejor será el resultado. En particular la generación de código de programación requiere especial atención para orquestar las indicaciones para las herramientas generativas, ya que el resultado debe ser una unidad funcional de código o un componente de código que pasará a formar parte de una solución mayor. Además, se necesita un esquema que permita valorar y mejorar la efectividad de estos resultados mediante la optimización de los prompts y una adecuada definición de los contextos del problema y de la solución. El objetivo de este proyecto es: Desarrollar patrones de comandos (indicaciones) para interactuar con herramientas Gen AI para el desarrollo de software basado en componentes.



METODOLOGÍA

Para lograr el objetivo planteado se realizaron las fases que a continuación se indican: Revisión de Herramientas Gen AI: Análisis y comparación de herramientas como GPT-4, DALL-E, GitHub Copilot y AIVA para entender sus funcionalidades y aplicaciones específicas en la generación de código y contenido. Determinar la estructura de un Prompt de programación: Definición de la estructura básica de un prompt, que incluye tarea, contexto, entradas, instrucciones y rol, para maximizar la relevancia de las respuestas generadas por la IA. Explorar las técnicas de Prompts: Exploración de técnicas de prompts como Zero-Shot, One-Shot, Few-Shot y otros enfoques específicos para la programación. Evaluación de cómo estas técnicas impactan la generación de resultados. Análisis del Dominio del Problema: Identificación de los componentes críticos del problema a resolver en programación, incluyendo objetivos, metas, partes interesadas, contexto y restricciones, para comprender mejor las necesidades del usuario. Esquematización del Dominio de la Solución: Abordaje del entorno abstracto de la solución, considerando el proceso de desarrollo, el entorno de construcción y las funciones del producto software final. Evaluación del Dominio de Computación: Revisión de conocimientos y habilidades necesarios, como algoritmos, lenguajes de programación y paradigmas que deben ser considerados en la solución, para mejorar la efectividad de la generación de código por parte de la IA. Propuesta y validación de un Esquema para Valoración de Resultados de Gen AI: Desarrollo de criterios para valorar la entrada y salida de datos, validación y verificación de resultados y estructura del código en diversos lenguajes de programación. Evaluación de cómo las herramientas Gen AI manejan estos aspectos y la necesidad de refinar los prompts para mejorar los resultados.


CONCLUSIONES

La integración de herramientas de inteligencia artificial en el entorno de desarrollo de software y de investigación representa una nueva era de posibilidades en la interacción hombre-máquina, la cual permite la optimización del código funcional generado hasta la aceleración de la investigación. Estas herramientas son catalizadores de la innovación y la eficiencia. Resultados Actuales: Las herramientas Gen AI, como GPT-4 y GitHub Copilot han demostrado capacidad para generar fragmentos de código y soluciones de programación. Sin embargo, la generación de código de alta calidad depende significativamente de la precisión y claridad de los prompts. Actualmente, estas herramientas pueden apoyar en la programación, pero aún requieren una guía detallada para ser verdaderamente efectivas. Esperanzas de Resultados: Se espera que, con la aplicación de técnicas de optimización de prompts y una mejor definición de los contextos, las herramientas Gen AI puedan generar mejores resultados en componentes de software funcional. En este caso, la generación de esquemas exclusivos de prompts para programación puede ayudar a incrementar el desempeño de las herramientas Gen AI en la generación de código. La correcta ingeniería de instrucciones es crucial para maximizar la relevancia y precisión de los resultados generados, permitiendo que estas herramientas sean más efectivas en la programación de software y en la solución de problemas complejos.
Villanueva López Ingrid, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato

ANÁLISIS DE DISTURBIOS ELÉCTRICOS A TRAVÉS DE UN RESTAURADOR DE VOLTAJE DVR


ANÁLISIS DE DISTURBIOS ELÉCTRICOS A TRAVÉS DE UN RESTAURADOR DE VOLTAJE DVR

Villanueva López Ingrid, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Con el paso de los años ha existido una tendencia a la búsqueda de generar energía eléctrica de bajas emisiones de carbono debido al alto impacto ambiental que los combustibles fósiles han demostrado tener. La integración de energías renovables a la red eléctrica del país, debido a su intermitencia, puede proveer disturbios eléctricos no deseados e importantes de erradicar de forma inmediata. En este proyecto de investigación se diseña un Dispositivo Restaurador de Voltaje Dinámico en Matlab Simulink que elimina disturbios como sags, swells, transitorios y armónicos mediante la implementación de un inversor, generador de pulsos, filtro LC y controlador Proporcional Integral. El DVR está diseñado para un parque solar fotovoltaico de capacidad instalada de 30 kW interconectado a 480V, es decir, baja tensión. Dicho sistema posee una generación estimada de 29.31 kW.  



METODOLOGÍA

Estado del arte de calidad de la energía eléctrica y Restaurador de Voltaje Dinámico (DVR) Diseño de DVR Implementación de inversor por medio de integración de IGBTs y filtro LC atenuador de armónicos Diseño de generador de pulsos Desarrollo de control PI y transformada de Park para control del sistema Integración de DVR a red eléctrica a evaluar Interconexión de sistema fotovoltaico a la red eléctrica Análisis de resultados obtenidos


CONCLUSIONES

El dispositivo DVR es empleado para proteger a las cargas sensibles de disturbios eléctricos, y en este caso, fue propuesto para reducir estos fenómenos en las instalaciones fotovoltaicas. La implementación conjunta de un inversor, un filtro LC, control Proporcional Integral y transformador de acoplamiento permite erradicar los disturbios eléctricos, tales como, sag, swell, armónicos y transitorios. Este dispositivo es una buena alternativa para mejorar la calidad de la energía ante la integración de energía solar fotovoltaica a la matriz energética, y así también de las demás energías renovables intermitentes. De este modo, poder generar energía no contaminante y de calidad, contribuyendo al séptimo Objetivo de Desarrollo Sostenible de la Agenda 2030, Energía Asequible y No Contaminante.  
Villasana Rangel Vicente, Instituto Tecnológico de Matamoros
Asesor: Mg. Juan Pablo Cardona Guio, Universidad Cooperativa de Colombia

MODELADO Y SIMULACIóN POR ELEMENTOS FINITOS DE ESFUERZOS Y DEFORMACIONES DE ELEMENTOS SOMETIDOS A TRACCIóN Y TORSIóN.


MODELADO Y SIMULACIóN POR ELEMENTOS FINITOS DE ESFUERZOS Y DEFORMACIONES DE ELEMENTOS SOMETIDOS A TRACCIóN Y TORSIóN.

Villasana Rangel Vicente, Instituto Tecnológico de Matamoros. Asesor: Mg. Juan Pablo Cardona Guio, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

En cualquier estructura, por más pequeña o grande que sea, sin importar su uso, siempre estará expuesto a fuerzas externas que le afectarán causando deformaciones; estas deformaciones pueden presentarse de distintas formas dependiendo de la fuerza que se esté aplicando sobre el elemento. Gracias a esto surgen problemas de vital importancia en el funcionamiento y propósito de este, pues estos factores externos pueden provocar deformaciones en la estructura, ocasionando fallos. Es imposible diseñar y construir un elemento que sea inmune a estas fuerzas, y es importante ser conscientes de que es responsabilidad del diseñador el prevenir lo mejor posible los fallos por estas fuerzas externas.



METODOLOGÍA

Se diseñan varios elementos buscando someterlos a distintas fuerzas, para posteriormente simular mediante el método de elemento finito, estos resultados se contrastan y verifican con cálculos realizados manualmente. De manera más detallada, primero se selecciona el tipo de esfuerzo que se aplicará al elemento. En este proyecto se tienen en cuenta la deformación por Torsión, Flexión, Carga axial y elementos combinados; este último, como indica su nombre, es la combinación de varios tipos de interacciones resultando en un análisis más completo, pues en la realidad los elementos se ven afectados por más de un solo tipo de fuerza externa.  Cabe destacar que la selección del tipo de esfuerzo a estudiar se selecciona primero por el orden del tema, no porque sea necesario antes de diseñar. Después seleccionamos el elemento o estructura al que se someterá la fuerza; aquí nos ayudamos de ejemplos en libros de estudio mecánico. A continuación, se realiza la evaluación e hipótesis de cómo se verá afectado el elemento, así como de la teoría detrás del experimento. Se selecciona el o los materiales que constituirán el elemento, para posteriormente diseñarlo en el programa ANSYS, donde también se seleccionó el material. Cuando el diseño y selección de materiales está listo, ahora se añaden las interacciones al modelo, es decir, si el modelo está sujeto o fijo en algún punto, si está soldado, unido, con algún otro elemento, cualquier tipo de interacción se debe tomar en cuenta en este punto. Es aquí también donde se añaden las fuerzas a las que será sometido, siendo alguna de las ya mencionadas. Finalmente, se corre la simulación, donde se verifican los datos y se contrastan con los cálculos manuales, comprobando o desmintiendo la hipótesis planteada.


CONCLUSIONES

Durante la estancia de verano se han logrado adquirir conocimientos vitales para el diseño mecánico, así como para el estudio de fuerzas y simulación de estas sobre elementos. Se ha logrado simular exitosamente mediante el método de elementos finitos y comprobado la gran utilidad que este método nos brinda a los ingenieros y diseñadores, además de comprender de manera más extensa la teoría detrás de estas interacciones y la adquisición de experiencia en el manejo de herramientas de diseño y simulación de elementos mecánicos, se espera en el tiempo que resta del proyecto de verano se fortalezcan estos conocimientos y se amplíen aún más, reafirmando así lo ya logrado en el transcurso del mismo.
Villaseñor Ramirez Martin Alonso, Universidad Tecnologica de León
Asesor: Mtra. Didia Carrillo Hernández, Universidad Tecnologica de León

APLICACIóN MóVIL DE REALIDAD AUMENTADA PARA LA VISUALIZACIóN DE PROCESOS AUTOMATIZADOS


APLICACIóN MóVIL DE REALIDAD AUMENTADA PARA LA VISUALIZACIóN DE PROCESOS AUTOMATIZADOS

Villaseñor Ramirez Martin Alonso, Universidad Tecnologica de León. Asesor: Mtra. Didia Carrillo Hernández, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

La enseñanza de sistemas de Controladores Lógicos Programables (PLC) enfrenta serios desafíos debido al acceso limitado a equipos costosos, la falta de material didáctico actualizado y métodos de enseñanza tradicionales que dificultan la comprensión práctica. Además, se busca desarrollar alternativas que invulucren sistemas mas moderno y de facil acceso para todos.  Para abordar estos problemas, se propone el desarrollo de una aplicación de realidad aumentada (RA) que permita a los estudiantes interactuar con modelos virtuales de sistemas PLC. Esta solución ofrecería una experiencia de aprendizaje accesible, interactiva y actualizable desde cualquier lugar, reduciendo la necesidad de equipos físicos costosos y cerrando la brecha educativa al proporcionar recursos de calidad a estudiantes.



METODOLOGÍA

Para el proyecto se inicia con una fase de investigación y análisis de requisitos. En esta etapa, se recopila información detallada sobre los PLC y se revisan casos de uso de realidad aumentada en educación técnica. Posteriormente, se identifican las necesidades educativas de los estudiantes, definiendo claramente los objetivos de la aplicación y las funcionalidades necesarias para ofrecer una experiencia de aprendizaje efectiva. Una vez recopilada la información necesaria, se procede al diseño del proyecto. Se crean bocetos y diagramas conceptuales para representar la interfaz y la interacción del usuario con la aplicación. Paralelamente, se define la arquitectura técnica del software, especificando los componentes de Unity y Vuforia que se utilizarán, así como la integración de los modelos 3D diseñados en Blender. En la fase de desarrollo, se modelan y animan los componentes del sistema PLC en Blender y se exportan para su uso en Unity. Luego, en Unity, se configura el proyecto, se integran los modelos y animaciones importados, y se desarrollan las interacciones del usuario con los modelos de PLC. La metodología también incluye pruebas exhaustivas y optimización del rendimiento para asegurar un funcionamiento fluido en diversos dispositivos móviles. Tras la fase de pruebas, se implementa una evaluación piloto en un entorno educativo real para obtener retroalimentación de estudiantes y profesores. Los comentarios recibidos se analizan y se identifican áreas de mejora, que se implementan en la fase de ajustes finales. Finalmente, se documenta todo el proceso de desarrollo y se entrega la aplicación lista para su implementación en la institucion. Esta metodología garantiza un desarrollo estructurado y efectivo, proporcionando una solución educativa innovadora y accesible para la enseñanza de sistemas PLC.


CONCLUSIONES

La implementación de una aplicación de realidad aumentada para la enseñanza de sistemas de Controladores Lógicos Programables (PLC)  representa una solución innovadora a los desafíos actuales de la educación técnica. Esta metodología, que combina investigación, diseño, desarrollo, pruebas y optimización, asegura que los estudiantes puedan acceder a recursos educativos avanzados sin la necesidad de equipos físicos costosos. La utilización de tecnologías como Unity, Vuforia y Blender no solo moderniza el proceso de aprendizaje, sino que también hace que la educación sea más accesible y equitativa. Al proporcionar una herramienta interactiva y actualizable, esta iniciativa prepara mejor a los estudiantes para enfrentar los retos de la industria moderna, mejorando sus perspectivas laborales y contribuyendo al desarrollo tecnologico.
Villaseñor Reyes Pedro Damián, Instituto Tecnológico de Tepic
Asesor: M.C. Jesús Gabriel Bernal Villanueva, Universidad Politécnica de Sinaloa

RESUMEN


RESUMEN

Murillo Orozco Josué Alejandro, Instituto Tecnológico de Tepic. Villaseñor Reyes Pedro Damián, Instituto Tecnológico de Tepic. Asesor: M.C. Jesús Gabriel Bernal Villanueva, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los sistemas de iluminación desempeñan un papel crucial en diversos ámbitos, ya sea en entornos escolares o laborales, donde se realizan una amplia gama de actividades que requieren condiciones óptimas de iluminación. Desde aulas y salones de clase hasta talleres industriales, contar con un sistema de iluminación adecuado puede tener un impacto significativo en el rendimiento y la productividad. Además, es fundamental cumplir con las normas y estándares que rigen la instalación de estos sistemas para garantizar un entorno de trabajo seguro y eficiente. La elección del tipo de iluminación puede influir en varios aspectos, como la salud visual, la concentración y la seguridad de los usuarios. Por ejemplo, una iluminación insuficiente o inadecuada puede causar fatiga ocular, disminuir la capacidad de atención y aumentar el riesgo de accidentes. Por otro lado, una buena iluminación puede mejorar el bienestar general y la satisfacción en el entorno de trabajo o estudio. Asimismo, la sostenibilidad energética se ha convertido en un aspecto cada vez más importante en el diseño de sistemas de iluminación de interiores, buscando minimizar el impacto ambiental y maximizar la eficiencia energética. Esto incluye la adopción de tecnologías más avanzadas, como las luminarias LED, que no solo consumen menos energía, sino que también tienen una vida útil más larga y requieren menos mantenimiento. En este contexto, la transición hacia sistemas de iluminación más eficientes no solo es una necesidad técnica y económica, sino también una responsabilidad ambiental. De tal forma, se realiza un análisis de las condiciones actuales de iluminación en los espacios pertenecientes al programa academico de ingenieria mecatronica (Aulas, Laboratorios/Talleres y Oficinas) de la Universidad Politecnica de Sinaloa.



METODOLOGÍA

Evaluación de los niveles de iluminación. Determinar el nivel promedio de iluminación (Lux) en los entornos de interés. Ubicación de los puntos de medición. Las áreas de trabajo se deben dividir en zonas del mismo tamaño para determinar las ubicaciones de los puntos de medición de acuerdo a lo establecido en la columna A, esto con ayuda de la Tabla 1 obtenida de la NOM-025-STPS-2008 [2]; en caso de que los puntos de medición coincidan con los puntos focales de las iluminarias se debe considerar el número de zonas de evaluación de acuerdo a lo establecido en la columna B de la Tabla 2. Se utilizará un Luxómetro modelo HS1010A para medir los niveles de iluminación. Debemos asegurarnos que las aulas, oficinas, laboratorios y talleres estén bajo condiciones normales de uso, con todas las luces artificiales encendidas y regular cualquier fuente de luz natural, es decir, utilizando persianas o cortinas en su posición habitual. El fotorreceptor del luxómetro se colocará a la altura del área de trabajo, esta puede variar dependiendo del local, ya sea un aula, en laboratorio o un taller. El entorno se dividirá en una cuadricula haciendo uso de la Tabla 2. Relación entre el índice de Áreas y el número de Zonas de Medición para asegurar una cobertura adecuada; se colocará el luxómetro en cada punto de la cuadricula, asegurándose de que el fotorreceptor este orientado de manera que no esté obstruido y reciba luz de manera directa y se hará registro de estos valores leídos para así obtener el nivel promedio de iluminación en cada entorno de interés.


CONCLUSIONES

Aulas. Una vez realizado el levantamiento de datos de las condiciones de iluminación, se obtuvieron los siguientes datos, únicamente en aulas: Se ha observado un aumento significativo en los niveles de iluminación promedio en las aulas 305, 306, 307 y 308. Esto se debe a la orientación de sus ventanas con respecto al sol, ya que estas están orientadas directamente hacia la dirección de la luz solar. Además, estas ventanas no cuentan con reguladores de luz natural, como persianas o cortinas, lo que permite una entrada sin control de la luz del sol. De igual forma, dos de estas aulas presentan un exceso de reflexión, esto también se debe a la mala regulación de la luz natural.   Con la información obtenida, podemos llegar a la conclusión de que solamente la mitad de las aulas en horario matutino cumplen con los niveles mínimos de iluminación según la NOM-025 [2].   Se observa una mejora notable con en los niveles de iluminación promedio en las aulas en el horario de medio día (12:00 hrs - 15:00 hrs). La gráfica muestra una mejora significativa en los niveles de iluminación en las aulas, con el porcentaje de aulas que cumplen con los estándares aumentando del 50% al 87%. Esta mejora se debe en gran parte a los cambios en la incidencia de la luz natural a lo largo del día. Por la mañana, la luz natural entra directamente a través de las ventanas. Sin embargo, al mediodía, la luz natural ya no entra directamente, lo que contribuye a una iluminación más uniforme y efectiva durante el mediodía. En el horario vespertino, al igual que el horario de mediodía, el 87% de las aulas cumplen con los niveles mínimos de iluminación que la NOM-025 establece para aulas. Se observa que solo el 43% de las oficinas cumple con los niveles mínimos de iluminación establecidos por la NOM-025 [2], esto se debe al mal estado de las luminarias, además, algunas oficinas tenían dañadas ciertas luminarias fluorescentes.   Talleres y Laboratorios. En este apartado se tomaron en cuenta tres horarios iguales a los mencionados anteriormente en Aulas, sin embargo, en la Celda de Manufactura la luz natural es despreciable, debido a esto solo se tomó una medición considerando únicamente la luz artificial. A continuación, se muestran los resultados obtenidos:  
Viloria Campo Alexandra, Universidad Cooperativa de Colombia
Asesor: Mg. Fredy Cuervo Lara, Universidad Cooperativa de Colombia

MOVILIDAD URBANA SOSTENIBLE


MOVILIDAD URBANA SOSTENIBLE

Viloria Campo Alexandra, Universidad Cooperativa de Colombia. Asesor: Mg. Fredy Cuervo Lara, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

MOVILIDAD URBANA SOSTENIBLE Viloria Campo Alexandra Milena, Universidad Cooperativa de Colombia - Sede Santa Marta, Alexandra.viloria@campusucc.edu.co Asesor Dr. Fredy Armando Cuervo Lara, Decano de la faculta de ingeniería Universidad Cooperativa de Colombia - Sede Santa Marta, Fredy.cuervo@ucc.edu.co   La ciudad de Santa Marta enfrenta desafíos significativos relacionados con la movilidad urbana debido al crecimiento poblacional, la expansión urbana y la dependencia de vehículos motorizados. Estos factores contribuyen a la congestión vehicular, la contaminación del aire y el deterioro de la calidad de vida de los habitantes. Además, la ciudad no cuenta con las vías necesarias y cómodas para transportarse eficientemente, como lo ha señalado el Instituto de Desarrollo Urbano y Regional (IDU). Este estudio se centra en identificar y analizar estrategias para mejorar la movilidad urbana de manera sostenible, promoviendo el uso de medios de transporte no motorizados y sistemas de transporte público eficientes.



METODOLOGÍA

La metodología utilizada en este estudio fue documental y mixta. Incluyó el análisis de los hábitos de transporte y las percepciones sobre la movilidad urbana en Santa Marta mediante datos proporcionados por la Secretaría de Movilidad de Santa Marta y otros informes relevantes. Se empleó el Sistema de Información Geográfica (SIG) para examinar los patrones de movilidad y detectar puntos críticos de congestión. Además, se llevaron a cabo encuestas a los residentes para recopilar información directa sobre sus experiencias y opiniones en relación con la infraestructura y los sistemas de transporte. Esta combinación de enfoques permitió obtener una visión detallada de los problemas actuales y las necesidades en la movilidad urbana. 


CONCLUSIONES

El estudio sobre la movilidad urbana en Santa Marta ha revelado que la ciudad enfrenta problemas significativos relacionados con la congestión vehicular y la falta de infraestructura adecuada. La información recopilada destaca la necesidad de mejorar las vías y promover alternativas de transporte más sostenibles. Se recomienda implementar estrategias que incluyan el desarrollo de infraestructura para peatones y ciclistas, así como mejorar el transporte público. Estas acciones podrían aliviar la congestión, reducir la contaminación y mejorar la calidad de vida en la ciudad.
Viveros Ambriz Estefania, Instituto Tecnológico Superior de Puruándiro
Asesor: Dr. Yair Rivera Julio, Corporación Universitaria Americana

ARTíCULOS IMPORTANTES SOBRE PROTOCOLOS DE CONOCIMIENTO CERO.


ARTíCULOS IMPORTANTES SOBRE PROTOCOLOS DE CONOCIMIENTO CERO.

Viveros Ambriz Estefania, Instituto Tecnológico Superior de Puruándiro. Asesor: Dr. Yair Rivera Julio, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

Las pruebas de conocimiento cero (ZKP) han emergido como una solución innovadora en el ámbito de la seguridad digital, donde los métodos tradicionales de seguridad y cifrado no siempre son suficientes para garantizar la privacidad y la integridad de la información. En un mundo donde los ataques cibernéticos se vuelven cada vez más sofisticados, la simple encriptación de datos no puede prevenir completamente el acceso no autorizado. Las ZKP permiten demostrar la veracidad de una afirmación sin divulgar información adicional, abordando una limitación crítica de los métodos de seguridad actuales. Este estado del arte se centra en explorar cómo las ZKP pueden revolucionar la seguridad digital en diversos sectores, mejorando tanto la privacidad como la transparencia.  



METODOLOGÍA

La metodología de investigación empleada es cualitativa y documental, enfocándose en cómo los protocolos de conocimiento cero no solo mejoran la seguridad y privacidad de los sistemas de información, sino que también proporcionan una guía clara y estructurada para desarrolladores y administradores. Casos de uso específicos, como transacciones financieras, gestión de registros médicos y sistemas de votación, ilustran cómo las ZKP pueden validar información sin revelar datos sensibles. Por ejemplo, en transacciones financieras, las ZKP permiten verificar la validez de una transacción sin exponer detalles de la misma, lo cual es esencial para proteger la privacidad del usuario y prevenir fraudes. Además, en la gestión de registros médicos, las ZKP aseguran que solo las partes autorizadas puedan acceder a información crítica sin comprometer la privacidad del paciente. Tecnologías y Protocolos de ZKP Las tecnologías zk-SNARKs y zk-STARKs son las más prominentes en la implementación de pruebas de conocimiento cero. Los zk-SNARKs permiten la verificación rápida y eficiente de datos sin interacción entre el probador y el verificador, mientras que los zk-STARKs ofrecen una mayor transparencia y escalabilidad, eliminando la necesidad de configuraciones confiables. Estas tecnologías son especialmente relevantes en el ámbito de las blockchain, donde se busca equilibrar la transparencia con la privacidad.


CONCLUSIONES

Los protocolos de conocimiento cero representan un avance significativo en la tecnología blockchain, ofreciendo un equilibrio entre privacidad y transparencia. Su implementación en diversas industrias no solo promete mejorar la seguridad de las transacciones, sino que también tiene el potencial de revolucionar la interacción digital, creando un entorno más seguro y privado para los usuarios. Además, el desarrollo continuo en este campo ha permitido identificar áreas adicionales de mejora y expansión, abriendo nuevas oportunidades para su aplicación en sectores como la salud, las finanzas y la administración pública. Los resultados esperados demuestran la importancia de seguir invirtiendo en esta tecnología, que promete transformar la seguridad y privacidad digital en múltiples aspectos de nuestra vida diaria.
Walle Tapia Pedro Emiliano, Universidad Autónoma de Baja California
Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

MEDICIóN DE FRECUENCIA CARDíACA BASADA EN INTERNET DE LAS COSAS MéDICAS


MEDICIóN DE FRECUENCIA CARDíACA BASADA EN INTERNET DE LAS COSAS MéDICAS

Walle Tapia Pedro Emiliano, Universidad Autónoma de Baja California. Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El monitoreo del ritmo cardíaco es fundamental para la detección temprana de problemas cardíacos. Existen múltiples formas de medir el ritmo cardíaco de una persona, los cuales son a través de las señales eléctricas con el electrocardiograma, a través del sonido con los ecocardiograma, a través de la presión sanguínea y a través de la luz con los sensores optoelectrónicos. Además de predecir posibles enfermedades o problemas cardíacos, el medir el ritmo cardíaco de una persona tiene múltiples usos, los cuales pueden ir desde aplicaciones al hacer ejercicio, así como monitorear la calidad de sueño de una persona. Las aplicaciones son grandes y siempre buscando ayudar a la calidad de vida de una persona. Este proyecto tiene como objetivo desarrollar un sistema de monitoreo de ritmo cardíaco utilizando un sensor optoelectrónico y tecnología IoT, permitiendo la medición en tiempo real y el análisis de datos en la nube.



METODOLOGÍA

Se comenzó buscando la tarjeta de desarrollo más adecuada para el proyecto. Al ser un proyecto de IoT, se debía encontrar una tarjeta que tuviera la capacidad de transmitir datos a través de Wi-Fi, por lo que se optó por una Raspberry Pi Pico W. De manera que el dispositivo fuera lo menos invasivo posible se optó por un sensor optoelectrónico, el cual permite medir el ritmo cardíaco de una persona colocando el dedo en el sensor. Los datos se enviaron a la plataforma ThingSpeak a través de protocolos HTTP, donde se almacenaron para su posterior análisis


CONCLUSIONES

El dispositivo y sistema desarrollados fueron precisos y efectivos en la medición y análisis del ritmo cardíaco en tiempo real. Este proyecto usa las ventajas de la tecnología IoT para monitorizar la salud, permitiendo la telemedicina, en donde un doctor especializado puede hacer un análisis específico de los datos recabados de un paciente desde la comodidad de su casa. Se identificaron algunas limitaciones, entre ello está la necesidad de mejorar la precisión en la medición y el análisis de datos, lo cual se seguirá trabajando.
Xicohtencatl Xicohtencatl Gomez Alexa Irene, Universidad Veracruzana
Asesor: Mtro. Erasmo José Aguilar Arriola, Universidad Nacional de Ingeniería

ESTUDIO DE LA RESILIENCIA URBANA DE LA DELEGACIóN IZTACALCO EN EL 2024 DE LA CIUDAD DE MéXICO


ESTUDIO DE LA RESILIENCIA URBANA DE LA DELEGACIóN IZTACALCO EN EL 2024 DE LA CIUDAD DE MéXICO

Xicohtencatl Xicohtencatl Gomez Alexa Irene, Universidad Veracruzana. Asesor: Mtro. Erasmo José Aguilar Arriola, Universidad Nacional de Ingeniería



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la delegación Iztacalco de la Ciudad de México enfrenta diversos desafíos urbanos que requieren un enfoque integral para mejorar su resiliencia. Este estudio tiene como objetivo analizar y evaluar las condiciones actuales de resiliencia urbana en Iztacalco. Para ello, se examinan variables como el uso del suelo, infraestructura, historia y cultura de la delegación. Con base en este análisis, se proponen estrategias para incrementar la capacidad de delegación para enfrentar y adaptarse a situaciones adversas. De forma general, la resiliencia se define como la capacidad de adaptación ante un agente perturbador, estado o una situación adversa. La resiliencia urbana se entiende como la capacidad de la ciudad para reducir las posibilidades de que se produzca un riesgo, absorberlo si ocurre y llevar a cabo actividades que permitan recuperarse rápidamente de los efectos.



METODOLOGÍA

La metodología utilizada en este proyecto se enfocó en primer lugar, en realizar un análisis de las variables. Luego, se revisaron investigaciones previas sobre resiliencia urbana y sus alcances para identificar las mejores prácticas de proyectos análogos. En la siguiente fase, se desarrolló el mapa síntesis de la delegación. Además, se realizó el mapa de incompatibilidades y transformaciones de la delegación. Se utilizaron herramientas de modelado tridimensional y simulación para evaluar las variables climáticas actuales. Finalmente, se presenta un análisis y contraste de las relaciones entre usos, infraestructuras y puntos débiles actuales en la delegación Iztacalco. Esta metodología garantiza un enfoque general del análisis de la resiliencia urbana, con la visión de mejorar la calidad de vida del área de estudio.


CONCLUSIONES

El estudio sobre la resiliencia urbana de la delegación Iztacalco ha demostrado que, existen áreas de oportunidad específicas para fortalecer la capacidad de la delegación para enfrentar y adaptarse a situaciones adversas. Las estrategias propuestas, que incluyen la mejora de infraestructuras con un enfoque sostenible y la participación comunitaria, tienen el potencial de transformar Iztacalco en una delegación más resiliente y mejor preparada para el futuro. Además, la implementación de herramientas de modelado tridimensional y simulación climatológica ha sido fundamental para comprender las dinámicas de la delegación y sus vulnerabilidades. Estos hallazgos subrayan la importancia de adoptar enfoques multidisciplinarios y tecnologías avanzadas en la planificación urbana. Se concluye que, con una planificación adecuada y la involucración activa de la comunidad, Iztacalco puede no solo mejorar su resiliencia urbana, sino también avanzar hacia un desarrollo urbano más sostenible y equitativo, mejorando así la calidad de vida de sus habitantes.
Xolalpa Moreno Itan Emir, Instituto Tecnológico de Iztapalapa
Asesor: M.C. Judith Pérez Marcial, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE UNA PáGINA WEB PARA CONSULTAR EL ESTADO DE áNIMO DE LOS ESTUDIANTES CON LA AYUDA DE LAS HERRAMIENTAS CHAT GTP Y CODEIUM.


DESARROLLO DE UNA PáGINA WEB PARA CONSULTAR EL ESTADO DE áNIMO DE LOS ESTUDIANTES CON LA AYUDA DE LAS HERRAMIENTAS CHAT GTP Y CODEIUM.

Ordoñez Rodriguez Angel Roberto, Instituto Tecnológico de Iztapalapa. Xolalpa Moreno Itan Emir, Instituto Tecnológico de Iztapalapa. Asesor: M.C. Judith Pérez Marcial, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de aplicaciones web suele ser complejo ya que requiere de diversas tecnologías y suele ser complejo y tardado, incluso se generaba código repetitivo, las herramientas han evolucionado desde el autocompletado de código y la identificación de errores por el desarrollador, además de las herramientas CASE (Computer-Aided Software Engineering), generan código para adaptarlo a los objetivos. Las distintas herramientas han estado en constante cambio ya que se dio a conocer principalmente por ser un Chatbot el cual respondía preguntas que se le hiciera, de aquí podemos dar un ejemplo que sería Chat GTP ya que tuvo una gran popularidad, gracias a esta popularidad se dio origen a otros tipos de herramientas. Por ejemplo, el autocompletado de código se ha convertido en una característica común en los editores de texto, facilitando el trabajo del desarrollador al sugerir y completar fragmentos de código de manera eficiente. Estas herramientas también ofrecen sugerencias de código, lo que resulta en una interacción más productiva. Actualmente, existen herramientas avanzadas que no solo autocompletan código, sino que también generan documentación, explican el código, y realizan otras funciones útiles. Estas herramientas ayudan de gran manera a reducir la cantidad de tiempo que se emplea el desarrollo, eliminando las tareas repetitivas y por ende los desarrolladores tienen más tiempo que pueden implementar en tareas más complejas y, al mismo tiempo, disminuye la cantidad de errores durante el proceso de desarrollo. El objetivo de esta investigación es determinar si la implementación de estas herramientas en el desarrollo de una página web es realmente beneficiosa. Se evaluará su impacto en la eficiencia del proceso de desarrollo y en la calidad del código final.



METODOLOGÍA

Primero se realizó el análisis de los objetivos que son la mejora de la eficiencia, productividad, calidad y velocidad en el desarrollo de software, Al igual se tuvo que realizar una recolección de datos que hablaran acerca sobre el desarrollo utilizando estas herramientas por lo que de hay se pudo dar un idea sobre lo que iba esta investigación integrando las herramientas al desarrollo. Pasamos a identificar con cuáles herramientas con las que vamos a trabajar esto nos dio un amplio conocimiento de conocer cuantas herramientas de éstas existen ya que cada una de estas se tenía que investigar sobre qué tecnologías emplea, sus características, ventajas y desventajas al utilizar, una vez teniendo nuestras diferentes herramientas investigadas pasamos a tener en cuentas con cuales y cuantas herramientas íbamos a trabajar por lo que llegamos a la conclusión de utilizar Chat GTP y codeium. Al estar decididos con qué herramientas íbamos a trabajar tuvimos que estar familiarizados sobre las funciones que tenían estas dos herramientas, para poder sacar todo el provecho al ocuparlas esto lo ocupamos en el editor de código que fue VS code. La instalación de estas dos herramientas no fue muy complejo ya que codeium solamente se metía a la extensiones que proporciona VS code y se bajaban los paquetes desde esa parte, en cambio chat gtp solamente se tuvo que meter a su página web oficial y realizar las preguntas. En el desarrollo se estuvo ocupando de diferentes formas las herramientas es decir que Chat GTP se tuvo más en cuenta al desarrollar y la explicaciones del back end, ya que en esta área no se tenía mucho conocimiento por lo que tuvimos mayores problemas por ende necesitábamos que los explicaran el cómo funcionaban y comentando errores que nos daban, por parte de codeium se ocupó para tareas un poco más sencillas ya que se le preguntaba por código pequeño y se nos ayudaba más al usar HTML y CSS ya que se iban haciendo comentarios del código. Por último se tuvo en cuenta que Chat GTP recaba más información que te pueda ayudar ya que en un solo chat puede comprender los errores que va cometiendo esto los corrige y de la alguna otra solución esto se puede realizar las veces que se nos esté dando el error hasta poder darnos una solución adecuada, por codeium solamente se le podía pedir codigo sin poder darle alguna información adicional para darle alguna feedback adicional para que le ayude a entender los errores que proporciona.


CONCLUSIONES

Con los resultados obtenidos de las pruebas realizadas, observamos que al desarrollar la página web y consultar a Chat-GPT, en algunas ocasiones las respuestas proporcionadas eran útiles. Sin embargo, en otras ocasiones, al implementar las sugerencias, el compilador generaba errores debido a sintaxis desactualizadas que probablemente dejarán de funcionar en el futuro. Este problema se intensificó al usar el motor GPT-3, ya que utilizamos la versión gratuita de Chat-GPT, la cual limita la cantidad de respuestas proporcionadas con el motor GPT-4. En cuanto a nuestra segunda herramienta, Codeium, se utilizó con menos frecuencia que Chat-GPT. Codeium requiere un conocimiento previo considerable sobre el tema en cuestión, ya que su principal función es el autocompletado de código. Aunque ofrece un comando que permite generar código a partir de una descripción, este es efectivo solo para fragmentos cortos y repetitivos. Para códigos extensos y específicos, Codeium a veces produce errores o no cumple con lo solicitado. A pesar de la potencia de estas herramientas, en varias ocasiones fue necesario intervenir y realizar cambios en el código proporcionado. Esto fue más efectivo en tecnologías como HTML y CSS, lo que permitió reducir el tiempo de desarrollo en estas áreas. Sin embargo, en otras tecnologías en las que teníamos menos conocimiento, el tiempo dedicado al desarrollo fue mayor. Las ventajas de usar estas herramientas incluyen el aumento de la eficiencia y productividad, ya que facilitan el análisis de grandes cantidades de datos y la toma de decisiones, además de automatizar tareas repetitivas. Asimismo, ayudan a mejorar la calidad del desarrollo al permitir identificar errores durante la escritura del código e incluso adaptarse a las necesidades y preferencias de los usuarios. Finalmente, al liberar a los desarrolladores de tareas repetitivas, estas herramientas permiten dedicar más tiempo a la investigación y a la implementación de nuevas funcionalidades, enriqueciendo así el proceso de desarrollo y potenciando la innovación
Yañez Aguirre Miriam Alondra, Instituto Tecnológico Superior de Guanajuato
Asesor: Esp. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato

MéTODO DE SECADO EN GARBANZO (CICER ARIETINUM) Y GRILLO (ACHETA DOMESTICUS) PARA LA ELABORACIóN DE HARINA Y SU APLICACIóN EN CHURROS COMO BOTANA.


MéTODO DE SECADO EN GARBANZO (CICER ARIETINUM) Y GRILLO (ACHETA DOMESTICUS) PARA LA ELABORACIóN DE HARINA Y SU APLICACIóN EN CHURROS COMO BOTANA.

Flores Morales Yahaira Stephania, Instituto Tecnológico Superior de Guanajuato. Hernández Sánchez Adriana, Instituto Tecnológico Superior de Guanajuato. Vargas Hernandez Paola Dannae, Instituto Tecnológico Superior de Guanajuato. Yañez Aguirre Miriam Alondra, Instituto Tecnológico Superior de Guanajuato. Asesor: Esp. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

De acuerdo en el mercado de botanas en México se ha observado que la mayoría de los productos aporta nutrientes deficientes como lo es el exceso de carbohidratos, déficit de proteínas, grandes cantidades de grasas, sodio y calorías, así como también una falta significativa de fibra. Estos productos ocasionan una mala alimentación, lo que provoca la probabilidad de desarrollar factores de riesgo como lo es la obesidad, que es agente importante para el desarrollo de enfermedades crónicas como puede ser la diabetes, hipertensión, colesterol alto e insuficiencia cardíaca. En México, 36.7% de los adultos vive con obesidad, y 37.4% de los niños de 5 a 11 años presenta sobrepeso y obesidad. Esto coloca a nuestro país en el quinto lugar a nivel mundial en obesidad y sobrepeso. Un aspecto adicional por considerar es la limitada variedad de opciones disponibles para personas con alergias alimentarias, como la intolerancia al gluten. La presencia de alérgenos en muchas botanas comerciales reduce aún más las alternativas para aquellos con necesidades dietéticas específicas. Ante esta situación, surge la necesidad de desarrollar un producto de botanas que ofrezca una opción saludable y apta para personas que busquen una opción saludable. Este producto debe abordar las deficiencias nutricionales observadas en el mercado actual, proporcionando un equilibrio adecuado de nutrientes, bajos niveles de grasas y sodio, y una fuente de fibra satisfactoria. La industria alimentaria plantea necesidades de producción específicas para cada sector y producto, desarrollando nuevos productos que sean capaces de cubrir las exigencias nutricionales.



METODOLOGÍA

En primer lugar, se coció un kilogramo de garbanzos únicamente con agua. Este paso es crucial para ablandar los garbanzos y facilitar su posterior procesamiento. Una vez cocidos, se dejaron enfriar ligeramente antes de ser triturados con una licuadora. Durante este proceso, se aseguró que los garbanzos quedaran en trozos muy pequeños, para facilitar el siguiente paso de secado. Después de triturar los garbanzos, los extendimos en una bandeja para horno y los sometimos a un proceso de secado que duró tres días, para eliminar toda la humedad y ser convertidos en harina. Sin embargo, al finalizar el secado, no se logró la consistencia deseada, ya que los garbanzos no se habían convertido en un polvo fino. Por ello, se volvió a licuar la mezcla y tamizarla, hasta asegurar obtener la textura fina. Para preparar la masa, se colocó un 50% de harina de garbanzo y 30% de harina de grillo, se añadió 330 ml de agua tibia y una cucharadita de aceite de oliva. Mezclamos bien todos los ingredientes hasta obtener una masa homogénea y suave. Luego, se introdujo la masa en una churrera para darle forma. En una sartén, se calentó aceite de oliva, cuidando de alcanzar la temperatura adecuada para freír los churros sin quemarlos. Una vez que el aceite estuvo lo suficientemente caliente, se comenzó a freír los churros. En otra prueba, se experimentó añadiendo chía a la masa. La chía actúa como un ingrediente emulsificante, lo que puede ayudar a mejorar la cohesión y textura de la masa. Donde se repitió el proceso de mezcla y cocción, observando cómo la adición de chía afectaba al resultado final.


CONCLUSIONES

Ambas pruebas experimentales no lograron replicar la textura de productos ya comercializados. A pesar de los esfuerzos, la combinación de estas harinas resultó en un producto final demasiado blando y pastoso, que no se pudo llevar a cocción. Esto sugiere que la proporción de harinas utilizada puede no ser la ideal o que se requiere la adición de otros ingredientes para mejorar la cohesión. Futuras pruebas deberán enfocarse en ajustar la proporción de harinas o explorar la incorporación de otros componentes que puedan potenciar las características deseadas en el churro, sin comprometer el valor nutricional.
Yañez Garcia Juan Jose, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Oscar Luis Sanchez Flores, Benemérita Universidad Autónoma de Puebla

ANáLISIS COMPARATIVO DE INDICADORES DE DESEMPEñO DE TIEMPOS DE CRUCE DE CONTENEDORES ENTRE EL CORREDOR INTEROCEáNICO Y EL CANAL DE PANAMá


ANáLISIS COMPARATIVO DE INDICADORES DE DESEMPEñO DE TIEMPOS DE CRUCE DE CONTENEDORES ENTRE EL CORREDOR INTEROCEáNICO Y EL CANAL DE PANAMá

Yañez Garcia Juan Jose, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Oscar Luis Sanchez Flores, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

A pesar de su indiscutible relevancia para el comercio internacional y la economía global, existe una brecha significativa en el conocimiento sobre la comparación sistemática del desempeño del Canal de Panamá y el Corredor Transoceánico en términos de tiempos de cruce de contenedores. Esta falta de información precisa dificulta la toma de decisiones estratégicas para optimizar el transporte marítimo de contenedores en la región de manera sostenible. Los estudios tradicionales sobre el desempeño de las rutas marítimas se han enfocado principalmente en indicadores técnicos como el tiempo promedio de cruce, sin considerar otros aspectos cruciales para una evaluación integral. Esta visión unidimensional ha limitado la comprensión del verdadero potencial de las rutas y ha impedido la identificación de estrategias óptimas para el transporte marítimo de contenedores. Es necesario superar las limitaciones de los enfoques tradicionales y desarrollar una metodología robusta para comparar el desempeño del Canal de Panamá y el Corredor Transoceánico, considerando no solo los tiempos de cruce, sino también una amplia gama de factores que influyen en la eficiencia y la sostenibilidad del transporte marítimo de contenedores.



METODOLOGÍA

En primera instancia, se conformó una base de datos exhaustiva con información detallada de 46 puertos estratégicamente ubicados en los distintos continentes. A partir de la base de datos, se construyó un diagrama de red que visualiza las interconexiones entre los puertos, permitiendo identificar los nodos críticos y las rutas marítimas más utilizadas. Mediante el análisis de esta red, se identificaron los factores que con mayor frecuencia generan retrasos en la llegada de los buques, tales como condiciones climáticas adversas, congestionamiento portuario, restricciones regulatorias y limitaciones en la infraestructura. Para comprender en profundidad los procesos logísticos involucrados, se diseñaron diagramas BPMN (Business Process Model and Notation) que modelan los procesos clave del Canal de Panamá y el Corredor Interoceánico. Los BPMN permiten visualizar los flujos de trabajo, identificar los cuellos de botella y evaluar el tiempo de ciclo de cada proceso. Con el objetivo de evaluar el impacto de diferentes variables en el desempeño del sistema logístico, se utilizó el software de simulación Arena. Se construyeron modelos de simulación que representan los procesos clave identificados en los diagramas BPMN. Estos modelos permiten simular diferentes escenarios. Los resultados obtenidos de las simulaciones se analizaron mediante indicadores clave de desempeño (KPIs). Este análisis permitió identificar las principales áreas de mejora y proponer recomendaciones para optimizar los procesos logísticos.


CONCLUSIONES

La estancia de verano permitió adentrarse en la complejidad de los flujos de carga marítima que convergen en el Canal de Panamá y el Corredor Interoceánico. A través del análisis de redes logísticas y la modelación parcial de los procesos en Arena, se identificaron los principales desafíos y oportunidades de mejora. Aunque las limitaciones de la licencia de Arena impidieron modelar todos los procesos, el trabajo realizado ha sido fundamental para comprender la dinámica del sistema y ha proporcionado insights valiosos para la toma de decisiones estratégicas. Los resultados obtenidos constituyen un punto de partida sólido para futuras investigaciones y proyectos de optimización.
Yañez Juárez Gibran Antonio, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Leonel Martínez Díaz, Universidad Simón Bolivar

EFECTO DEL NúMERO Y LONGITUD DE LOS TURBULIZADORES EN EL RENDIMIENTO DE LAS BOMBAS DE DISCO.


EFECTO DEL NúMERO Y LONGITUD DE LOS TURBULIZADORES EN EL RENDIMIENTO DE LAS BOMBAS DE DISCO.

Yañez Juárez Gibran Antonio, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Leonel Martínez Díaz, Universidad Simón Bolivar



PLANTEAMIENTO DEL PROBLEMA

En diversas industrias a nivel mundial, el uso de bombas para el transporte de diferentes fluidos es esencial. Sin embargo, muchas de estas bombas presentan limitaciones significativas, particularmente en el manejo de fluidos viscosos, lo que incrementa los costos de inversión, mantenimiento y reparación. Una alternativa viable es la bomba de disco, cuyo diseño operativo reduce el contacto entre el fluido y los componentes de la bomba, minimizando así el desgaste. Esta investigación se propone avanzar en el estudio del rendimiento de las bombas de disco mediante la variación en el número de turbulizadores de forma cuadrada en la periferia del disco y la variación de su longitud.



METODOLOGÍA

Se comenzó trabajando en el diseño experimental en SolidWorks, creando seis diferentes prototipos de discos para la bomba centrífuga. Los discos tenían las variables Nt (Número de turbulizadores) y Lt (Longitud de turbulizadores). En la variable Nt, se trabajó con 4 y 6 turbulizadores por disco, y en la variable Lt​, se emplearon 1/3 y 2/3 de la longitud del radio menor y del radio superior del disco. Una vez diseñados los impulsores, se procedió a la fabricación de cada disco mediante impresión 3D FFF. Posteriormente, se llevó a cabo la evaluación utilizando la variable ωomegaω, que representa la velocidad angular. Se emplearon los siguientes valores: ω1=94s-1 y  ω2 = 188s-1. Los discos fueron montados en una bomba centrífuga, parte de una unidad de bombas centrífugas en serie y paralelo modelo Armfield FM51, que proporciona datos precisos de rendimiento, comparación de las características de carga-flujo y presión. Durante la evaluación de acuerdo al diseño factorial 4x2 se trabajaron con 8 diferentes experimentos. Una vez realizada la evaluación física, se llevó a cabo una simulación del flujo en SolidWorks con las mismas variables de velocidad angular y medidas exactas, para comparar resultados y obtener una visualización del flujo en el impulsor.


CONCLUSIONES

Durante esta estancia de investigación, se reforzaron conocimientos teóricos sobre mecánica de fluidos y se aplicaron habilidades prácticas en el diseño de diversos impulsores fabricados. Al finalizar las evaluaciones, se obtuvieron diversas gráficas que ilustran las curvas de rendimiento en porcentaje y de carga en metros frente al caudal. Estos datos revelan diferencias significativas en rendimiento y consumo entre los distintos impulsores. Sin embargo, debido a la protección de la propiedad intelectual, los resultados se divulgarán únicamente en publicaciones autorizadas.
Zacarias Rocha Osbaldo, Instituto Tecnológico de Morelia
Asesor: Post-doc Jose Luddey Marulanda Arevalo, Universidad Tecnológica de Pereira

CARACTERIZACIÓN DE RECUBRIMIENTOS DUROS APLICADOS POR SOLDADURA SMAW: EVALUACIÓN POR DESGASTE ABRASIVO BAJO NORMA TECNICA ASTM G-65.


CARACTERIZACIÓN DE RECUBRIMIENTOS DUROS APLICADOS POR SOLDADURA SMAW: EVALUACIÓN POR DESGASTE ABRASIVO BAJO NORMA TECNICA ASTM G-65.

Acundo Tellez Xochitl, Universidad Tecnológica de Xicotepec de Juárez. Avila Pérez Esmeralda, Universidad Tecnológica de Xicotepec de Juárez. Cervantes Arellano Samantha, Instituto Tecnológico de Morelia. Lemus Chávez Martín, Instituto Tecnológico de Morelia. Zacarias Rocha Osbaldo, Instituto Tecnológico de Morelia. Asesor: Post-doc Jose Luddey Marulanda Arevalo, Universidad Tecnológica de Pereira



PLANTEAMIENTO DEL PROBLEMA

Los aceros juegan un papel fundamental en la vida útil de las herramentas que son sometidos a distintos trabajos; es por eso que la aplicación de estos recubrimientos es de ayuda importante para mejorar las propiedades mecánicas que requerimos ayudando a alargar su vida util, de esta manera podemos ahorrar capital.



METODOLOGÍA

Se aplicaron 2 tipos de recubrimientos duros Gridur 600 y Gridur 350, además de un electrodo de aporte E 6011 a  placas de acero de bajo carbono para posteriormete a estos recubrimientos y electrodo aplicarles prubeas de dureza Rockwell , aplicar pruebas de de desgaste abrasivo en una máquina que cumple con la Norma Técnica ASTM G-65 y finalmente realizar pruebas de cacterizacion. 


CONCLUSIONES

Con los datos obtenidos apartir de las pruebas podemos concluir que es muy importante saber a que trabajo sera sometidos nuestros aceros, la dureza que buscamos siempre se encontraran apartir de aplicar varias capas de recubrimiento esto es porque en la primera capa siempre encontraremos una mezcla de composicion del acero base con recubrimiento mientras en la tercera capa en su mayoria encontraremos un % de recubrimiento mayor aportando mayores durezas.
Zamora Arellano André, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Luis Armando Diaz Torres, Centro de Investigaciones en Óptica (CONACYT)

SíNTESIS Y CARACTERIZACIóN DE NANI0.35FE0.3MN0.35O2 PARA CáTODOS DE BATERíAS DE SODIO


SíNTESIS Y CARACTERIZACIóN DE NANI0.35FE0.3MN0.35O2 PARA CáTODOS DE BATERíAS DE SODIO

Zamora Arellano André, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Luis Armando Diaz Torres, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Hoy en día no es novedad escuchar sobre las baterías de litio y las aplicaciones que hay detrás de este elemento, ya que el litio se ha consolidado como el material por excelencia para construir baterías utilizadas desde en dispositivos electrónicos hasta en automóviles eléctricos. Las baterías de sodio han sido objeto de investigación desde antes de los años 90s; mucho antes que las de litio, pero gracias a que el litio destacó de manera impactante, el foco de las investigaciones científicas se centraron en él, provocando una pausa en el desarrollo de tecnologías que implementaran sodio como principal elemento que proporcionara energía de manera sencilla y, ahora que empezamos a ver las consecuencias causadas por la explotación del litio, este se vuelve una alternativa más asequible tanto en disponibilidad en el entorno así como también económicamente, además de que es mucho más fácil de desechar. El principal problema de las baterías de sodio en comparación con las de litio radica en la estabilidad de los materiales de construcción; la tasa de degradación por el paso de la corriente eléctrica de los compuestos que implementan sodio es mucho mayor, produciendo así una mayor resistividad al flujo eléctrico. Por lo cual se buscan materiales que brinden una mayor estabilidad estructural, una menor tasa de degradación y menor resistividad eléctrica, que su composición elemental sea lo más generosa ambientalmente y sea económicamente accesible. Los cátodos de sodio están compuestos principalmente por óxidos metálicos (NaxTMO2), que presentan una estructura que puede ser de tipo P2 y O3, siendo la segunda la que exhibe una gran capacidad específica de reversibilidad, lo que la hace una buena opción para su aplicación en el ensamblaje de baterías.



METODOLOGÍA

Una vez elegida la fórmula del compuesto a sintetizar, la cual fue NaNi0.35Fe0.3Mn0.35O2, se realizaron los cálculos necesarios para la estequiometría y así poder sintetizar 1 gramo de material utilizando como precursores los nitratos de sodio, níquel, hierro y manganeso; dado a que se realizó a través de la síntesis por combustión, se utilizó glicina en relación 1:1 con respecto a la masa total de los reactivos. Todos los reactivos fueron mezclados en una solución de agua destilada en agitación constante, se le aplicó calor para evaporar el exceso de agua, y cuando se tuvo una consistencia viscosa en la mezcla, se procedió a hacer la combustión en un horno precalentado, a 400°C durante 45 minutos. Después de la combustión, el material espumoso de color negro obtenido se pulverizó hasta obtener un polvo fino, el cual se separó en dos; uno para ser analizado posteriormente y otro para llevarse a tratamiento térmico a 800°C durante 12 horas en un horno. Todo el proceso se repitió para una segunda muestra, de fórmula NaNi0.5Mn0.5O2, pero sin agregar el nitrato de hierro, esto con fin de observar si había importancias significativas gracias a la adición del hierro. Para efectuar la caracterización del material, primero se llevaron los polvos a difracción de rayos X (DRX) con propósito de confirmar que el material presente era el reportado en la literatura. Una vez identificado el material, los polvos se llevaron a microscopía electrónica de barrido (MEB) para analizar su morfología estructural y composición química (EDS). Posteriormente, los materiales fueron caracterizados mediante un espectrómetro de FT-IR. Y por último, se realizó un análisis en el espectrofotómetro de UV-Visible. Con propósito de analizar electroquímicamente los materiales sintetizados (NaNi0.5Mn0.5O2, NaNi0.35Fe0.3Mn0.35O2), se realizaron electrodos de ambos materiales, empleando una relación 8:1:1 de material activo (polvo), aglutinante (fluoruro de polivinilideno - PVDF) y carbón activo nanométrico (carbon black), sobre aluminio y se recortaron de forma circular para emplearse en las baterías de sodio. Una vez con los electrodos, se procedió a ensamblar baterías de sodio dentro de una caja de guantes que contenía una atmósfera de argón dentro. Se ensamblaron de la forma siguiente: carcasa negativa, resorte, espaciador, sodio metálico, electrolito (perclorato de sodio em carbonato de propileno), separador de fibra de carbono, electrolito, electrodo, y por último la carcasa positiva. La batería se prensó en una prensa y quedó lista para su caracterización electroquímica. Las baterías de sodio que hasta el momento se han ensamblado, se caracterizarán a través de un potenciostato, para poder analizar los parámetros de carga y descarga, impedancia, voltamograma cíclico, eficiencia coulómbica, entre otros parámetros.


CONCLUSIONES

La creciente demanda global de soluciones de almacenamiento de energía sostenible, junto con las limitaciones inherentes a las tecnologías actuales, subraya la importancia de explorar y desarrollar nuevas alternativas que puedan ofrecer un equilibrio entre eficiencia, costo y sostenibilidad ambiental. En este contexto, las pilas de sodio se presentan como una solución potencialmente transformadora, con varias ventajas significativas que justifican su atención y desarrollo. La obtención de ambos materiales fue relativamente fácil de hacer; con base en las referencias citadas pudo verse que en efecto obtuvimos el material de estructura NaNi0.35Fe0.3Mn0.35O2, pero en el caso del NaNi0.5Mn0.5O2 se observaron varias fases presentes en la caracterización por DRX, mostrando manganatos y niquelatos de sodio, que pudieron ser resultado de las condiciones de tratamiento térmico empleadas. También cabe resaltar que la adición de hierro en esta estructura proporciona una mayor cristalinidad al material. Las baterías de sodio aún están pendientes por ser caracterizadas en su totalidad, para así poder procesar los datos obtenidos, analizarlos e interpretarlos, llegando a una conclusión mucho más solida de las propiedades mostradas por las baterías de sodio.  
Zamudio Sánchez Tania Carolina, Instituto Tecnológico de Morelia
Asesor: Dr. Jaime Sánchez Valente, Instituto Mexicano del Petróleo

ESTUDIO DEL DESEMPEñO DE CATIONES METáLICOS EN LA FOTODEGRADACIóN DE COMPUESTOS FENóLICOS ACUOSOS.


ESTUDIO DEL DESEMPEñO DE CATIONES METáLICOS EN LA FOTODEGRADACIóN DE COMPUESTOS FENóLICOS ACUOSOS.

Bribiesca Pineda Samanta Yareli, Instituto Tecnológico de Morelia. Zamudio Sánchez Tania Carolina, Instituto Tecnológico de Morelia. Asesor: Dr. Jaime Sánchez Valente, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el fenol y sus derivados constituyen una grave amenaza tanto para el medio ambiente como para la salud pública. La presencia de estos compuestos en fase líquida facilita la contaminación de los cuerpos de agua, lo cual puede desencadenar efectos adversos considerables en la integridad biológica de la fauna y en el bienestar de las poblaciones humanas que entran en contacto con dichas sustancias. Esta problemática impone la necesidad de investigar y desarrollar metodologías que aceleren la degradación de estos compuestos, con el objetivo de mitigar los potenciales daños derivados de su acumulación progresiva en el medio ambiente. En este contexto, los hidróxidos dobles laminares (HDL o hidrotalcita) han emergido como una alternativa prometedora y eficaz para abordar esta cuestión. En la actualidad, el fenol y sus derivados constituyen una grave amenaza tanto para el medio ambiente como para la salud pública. La presencia de estos compuestos en fase líquida facilita la contaminación de los cuerpos de agua, lo cual puede desencadenar efectos adversos considerables en la integridad biológica de la fauna y en el bienestar de las poblaciones humanas que entran en contacto con dichas sustancias. Esta problemática impone la necesidad de investigar y desarrollar metodologías que aceleren la degradación de estos compuestos, con el objetivo de mitigar los potenciales daños derivados de su acumulación progresiva en el medio ambiente. En este contexto, los hidróxidos dobles laminares (HDL o hidrotalcita) han emergido como una alternativa prometedora y eficaz para abordar esta cuestión. En la actualidad, el fenol y sus derivados constituyen una grave amenaza tanto para el medio ambiente como para la salud pública. La presencia de estos compuestos en fase líquida facilita la contaminación de los cuerpos de agua, lo cual puede desencadenar efectos adversos considerables en la integridad biológica de la fauna y en el bienestar de las poblaciones humanas que entran en contacto con dichas sustancias. Esta problemática impone la necesidad de investigar y desarrollar metodologías que aceleren la degradación de estos compuestos, con el objetivo de mitigar los potenciales daños derivados de su acumulación progresiva en el medio ambiente. En este contexto, los hidróxidos dobles laminares (HDL o hidrotalcita) han emergido como una alternativa prometedora y eficaz para abordar esta cuestión.



METODOLOGÍA

Se sintetizaron hidrotalcitas secundarias, terciarias y cuaternarias (MgCoCuAl, MgCoAl, MgCuAl, CoAl y CuAl) mediante el método de coprecipitación a baja saturación, manteniendo una relación divalente-trivalente de 3. La caracterización de estas muestras se realizó por difracción y fluorescencia de rayos X para confirmar la estructura deseada. El método de síntesis consiste en la adición simultánea y controlada de una solución metálica 1 M y una solución alcalina 2 M en un reactor herméticamente sellado, bajo agitación magnética constante a 500 rpm. El pH se mantiene estable en 9 durante todo el proceso. Una vez completada la precipitación de la solución metálica (reactivo limitante), se sellan las entradas del reactor para preservar la humedad. Posteriormente, se eleva la temperatura entre 65°C y 75°C, manteniendo estas condiciones durante 18 horas en un proceso denominado añejamiento. Tras este periodo, se procede a la filtración al vacío y al lavado con agua desionizada en una proporción de 10:1 (10L de agua para lavado por cada 1L de solución) para eliminar los iones no incorporados a la estructura. El producto se seca en una estufa a 100°C durante 18 a 20 horas, se muele y se tamiza a través de una malla No. 100. Para el proceso de fotocatálisis, se realizaron experimentos con soluciones de fenol a diferentes concentraciones: 50, 100 y 470 ppm. Se determinó que la solución de 50 ppm presentaba la mejor tasa de degradación. En base a estos resultados, se establecieron las siguientes condiciones: se utilizan 400 ml de solución de fenol a 50 ppm y 0.4 g de hidrotalcita en un reactor equipado con un recirculador que nos ayuda a mantener la reacción a 25°C, una lámpara UV de longitud de onda X λ y una bomba de oxígeno. Bajo agitación constante a 500 rpm, se permite un tiempo de adsorción fenol-HDL de 30 minutos en oscuridad, tomando muestras a los 0, 15 y 30 minutos. Posteriormente, se activa la lámpara UV y se toman muestras cada 30 minutos hasta completar 240 minutos de reacción. Cada hidrotalcita se somete a este proceso de fotocatálisis, cuantificando la degradación del fenol mediante espectrofotometría UV-Vis en un rango de 200 a 400 λ. Este procedimiento permite evaluar comparativamente la eficacia de las diferentes hidrotalcitas sintetizadas en la degradación fotocatalítica del fenol en solución acuosa.


CONCLUSIONES

Se observó que los materiales que contienen magnesio en su estructura son más resistentes mecánicamente. Además, hasta ahora, la hidrotalcita compuesta por magnesio, cobre, cobalto y aluminio (MgCuCoAl) ha mostrado ser la mejor para la fotodegradación de fenol en agua.
Zapata Coronado Laura Sophia, Universidad Cooperativa de Colombia
Asesor: Dr. José Antonio Vergara Camacho, Universidad Veracruzana

PROCEDIMIENTOS Y PATRONES PARA MITIGAR VULNERABILIDADES DE DISEñO INSEGURO EN APLICACIONES WEB.


PROCEDIMIENTOS Y PATRONES PARA MITIGAR VULNERABILIDADES DE DISEñO INSEGURO EN APLICACIONES WEB.

Zapata Coronado Laura Sophia, Universidad Cooperativa de Colombia. Asesor: Dr. José Antonio Vergara Camacho, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

El  estudio realizado aborda las vulnerabilidades presentes en el diseño inseguro de aplicaciones web, un tema crucial en la seguridad informática que podemos encontrar en el TOP 10 de OWASP. Estas vulnerabilidades surgen cuando se implementan prácticas de diseño deficientes, que pueden resultar en graves riesgos de seguridad si no se gestionan adecuadamente. Entre los problemas identificados se encuentran la inyección de código, la autenticación débil, la gestión inadecuada de errores y el acceso directo a objetos. Estos problemas pueden facilitar la pérdida de datos, accesos no autorizados y otros incidentes graves de seguridad. Identificar y mitigar estas vulnerabilidades es esencial para proteger la integridad, confidencialidad y disponibilidad de las aplicaciones web, así como para preservar la confianza y reputación de las organizaciones que las desarrollan y utilizan.



METODOLOGÍA

La metodología empleada en el trabajo incluye una Revisión Sistemática de la Literatura (RSL), donde se han recopilado datos de diversas fuentes como IEEE Xplore y Google Scholar. Se utilizaron criterios de inclusión para seleccionar papers relevantes publicados entre 2015 y 2024, escritos en inglés y con acceso completo. Además, se realizaron cadenas de búsqueda específicas para identificar estudios que abordaran al menos una pregunta de investigación relacionada con el diseño inseguro y las estrategias de mitigación


CONCLUSIONES

Los resultados obtenidos a través de la Revisión Sistemática de la Literatura revelan la necesidad crítica de integrar la seguridad desde las fases iniciales del desarrollo de software, un enfoque conocido como "Security by Design". Este enfoque permite identificar y mitigar posibles vectores de ataque desde el diseño, reduciendo así los riesgos antes de que se conviertan en amenazas reales. Se concluye que implementar mecanismos robustos de autenticación y autorización, como la autenticación multifactor (MFA) y la gestión segura de sesiones, es fundamental para proteger las aplicaciones web de accesos no autorizados. Asimismo, la gestión adecuada de errores, evitando la exposición de información sensible, es crucial para mantener la seguridad del sistema. Además, se destaca la importancia de mantener todos los componentes de software actualizados para protegerse contra vulnerabilidades conocidas. Las pruebas de seguridad periódicas, como las pruebas de penetración y el análisis de vulnerabilidades, son esenciales para identificar y resolver problemas de seguridad de manera proactiva.  
Zapien Garcia Carlos, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. German Herrera Vidal, Universidad del Sinú

DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA


DESAFíO HACIA LA INDUSTRIA 4.0 EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA CIUDAD DE CARTAGENA – COLOMBIA: BAJO UN ENFOQUE DE COMPLEJIDAD EN SISTEMAS DE MANUFACTURA

Martínez Mejía Carlos Eduardo, Instituto Tecnológico Superior de Ciudad Hidalgo. Velázquez Vidal Carlos Daniel, Instituto Tecnológico Superior de Uruapan. Zapien Garcia Carlos, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. German Herrera Vidal, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

La constante globalización hace que cada vez sea necesario que las Pymes se encuentren en constante actualización, adoptando nuevas estrategias y dando paso a la industria 4.0 para seguir siendo cada vez más competitivas. El objetivo de esta investigación es poder enfocarse en las problemáticas y desafíos que actualmente presentan este sector de empresas, investigando a fondo que son los factores que no permiten el desarrollo y avance de las mismas, además a su vez, que las vuelve más vulnerables a que no sigan adoptando un nuevo y mejorado paso a la tecnología y por ende todo termine en quiebra o pérdidas. Para el debido desarrollo de la investigación se tomó a el país de Colombia, enfocándonos en los principales departamentos para terminar con el departamento de Bolívar donde se encuentra la ciudad de Cartagena; que, observando la ubicación, cuenta con una gran oportunidad para la comercialización y desarrollo de empresas. 



METODOLOGÍA

La metodología para llevar a cabo la investigación se desarrolla en cuatro principales etapas que se conforman por, (1) Investigación de la documentación científica sobre la industria 4.0, (2) Investigación de la documentación científica sobre la industria 4.0 en el contexto nacional de Colombia, (3) Investigación de la documentación científica sobre la industria 4.0 en el contexto local Cartagena,-Colombia, (4) Análisis de los desafíos hacia la industria 4.0 en la ciudad de Cartagena, Colombia.  Investigación de la documentación científica sobre la industria 4.0. Los documentos utilizados (libros, tesis y artículos científicos) fueron obtenidos mediante la herramienta de Google académico. Investigación de la documentación científica sobre la industria 4.0 en el contexto nacional de Colombia. Se investigó documentación científica que examina cómo se está desarrollando la Industria 4.0 en Colombia, identificando investigaciones previas, tendencias actuales, desafíos, y oportunidades que se están presentando a nivel nacional en Colombia. Investigación de la documentación científica sobre la industria 4.0 en el contexto local de Cartagena, Colombia. Se investigó documentación científica que aporta conocimiento sobre los antecedentes, problemas y principales desafíos a nivel local de la ciudad de Cartagena hacía la industria 4.0. Análisis de los desafíos hacia la industria 4.0 en la ciudad de Cartagena, Colombia. Para el análisis de los desafíos hacia la industria 4.0 se tomaron en cuenta los principales problemas que los autores de los documentos de investigación abordaron cómo los principales desafíos que enfrenta la ciudad de Cartagena Colombia hacia la industria 4.0.


CONCLUSIONES

Los hallazgos encontrados nos dicen que las Pymes representan una parte crucial del tejido empresarial colombiano, constituyendo el 99.5% del total de empresas y generando aproximadamente el 65% del empleo. Sin embargo, estas empresas enfrentan una alta volatilidad económica y desafíos financieros significativos debido a la falta de acceso a garantías mobiliarias y créditos adecuados, lo que aumenta su riesgo de quiebra y su vulnerabilidad financiera.   Aunado a lo anterior y centrándonos en una parte específica, las Pymes en Cartagena, al igual que en el resto del país, enfrentan una serie de problemas, como la falta de recursos propios, la inadecuada estructura financiera, y la escasa formación del personal en nuevas tecnologías. Estos problemas resultan en una baja calidad de productos y una falta de ventajas competitivas, lo que pone en riesgo la sostenibilidad de estas empresas en el largo plazo. Eso sumado a problemas de gestión estratégica, y una baja participación en procesos de innovación provocan variaciones notables en su producción y la falta de visión estratégica a mediano y largo plazo limita la competitividad de las Pymes. Algunas recomendaciones que se sugieren son que las Pymes deben invertir en la formación y capacitación de su personal en nuevas tecnologías y procesos innovadores. Programas de capacitación y desarrollo profesional ayudarán a mejorar la calidad de los productos y servicios ofrecidos, incrementando su competitividad. A su vez es vital que las Pymes adopten una visión estratégica a mediano y largo plazo. La planificación estratégica permitirá a estas empresas anticipar desafíos y aprovechar oportunidades de manera más efectiva, mejorando su sostenibilidad y crecimiento. Esto va de la mano con la siguiente recomendación, ya que se debe incentivar la participación de las Pymes en procesos de innovación y abordar investigaciones sobre la industria 4.0 generando estrategias para implementar nuevas tecnologías en los procesos productivos y logísticos que permitan estandarizar los procesos y se aprovechen al máximo los recursos como mano de obra, tiempo, materia prima, etc., dando ese diferenciador que ayude al crecimiento de las Pymes. Para lo anterior es necesario ayuda del gobierno, Es esencial que las Pymes accedan a financiamiento adecuado. Se recomienda promover políticas públicas que faciliten el acceso a créditos y garantías mobiliarias. Las instituciones financieras deben simplificar los trámites administrativos y fomentar el crecimiento de las Pymes, esto genera mayor crecimiento económico y un impulso hacía nuevos horizontes en todo el país colombiano.
Zaragoza Mendoza Gonzalo, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Luis Guillermo Molero Suarez, Fundación Universitaria Compensar

CULTURA INNOVATIVA, UNA MIRADA DESDE LA INVESTIGACIóN INTERDISCIPLINAR, INCLUSIVA Y SOCIALMENTE RESPONSABLE.


CULTURA INNOVATIVA, UNA MIRADA DESDE LA INVESTIGACIóN INTERDISCIPLINAR, INCLUSIVA Y SOCIALMENTE RESPONSABLE.

Zaragoza Mendoza Gonzalo, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Luis Guillermo Molero Suarez, Fundación Universitaria Compensar



PLANTEAMIENTO DEL PROBLEMA

La elección de explorar el desarrollo de software educativo no fue casual. Esta línea de investigación responde a la creciente demanda de herramientas digitales que faciliten y mejoren la experiencia educativa, tanto para estudiantes como para docentes. Además, dada la experiencia previa en la orientación de asignaturas como inglés, matemáticas e informática, se identificó una necesidad clara de recursos tecnológicos que puedan servir como apoyo efectivo en la práctica pedagógica. La crisis sanitaria global de hace unos años, aceleró la integración de tecnologías asistivas en el ámbito educativo, creando un contexto ideal para investigar y desarrollar soluciones tecnológicas que atiendan a necesidades específicas. En particular, se observa un vacío en el desarrollo de software educativo adaptado a estudiantes con discapacidades. Sin mencionar que se observó cómo aplicar tecnologías inmersivas emergentes en diferentes ámbitos educativos



METODOLOGÍA

Para abordar el problema planteado, se aplicaron de manera complementaria las metodologías S.M.A.R.T. y Sprint. Estas herramientas fueron clave para estructurar, desarrollar y evaluar el proyecto. 1. Aplicación de la Metodología S.M.A.R.T. La metodología S.M.A.R.T. guió la definición clara y precisa de los objetivos del proyecto, asegurando que cada uno de ellos fuera: Específico: Se determinó que el objetivo principal del proyecto sería desarrollar un software educativo accesible que apoye la enseñanza con un enfoque particular en la inclusión de estudiantes con discapacidades además de apoyar al docente en la era digital  Medible: Para evaluar el éxito del software, se establecieron indicadores clave como el nivel de adopción por parte de los estudiantes, su rendimiento académico en las materias correspondientes, y la satisfacción general con la herramienta. Estos indicadores permitieron un seguimiento continuo del progreso y la efectividad del proyecto. Alcanzable: Se evaluaron los recursos disponibles, incluyendo el tiempo, presupuesto y capacidades técnicas del equipo, para asegurarse de que los objetivos establecidos fueran realistas y factibles dentro del contexto del proyecto. Relevante: El desarrollo del software no sólo respondió a una necesidad educativa específica, sino que también se alineó con la misión más amplia de promover una educación inclusiva, tal como se destaca en previas publicaciones.  Limitado en el Tiempo: Se estableció un cronograma detallado con plazos específicos para cada etapa del proyecto, desde el diseño y desarrollo inicial hasta las pruebas y la implementación final, asegurando que todas las tareas se completarán dentro del tiempo asignado. 2. Aplicación de la Metodología Sprint La metodología Sprint proporcionó un marco ágil y flexible para la ejecución del proyecto, permitiendo que el desarrollo del software se realizará de manera iterativa y eficiente: Planificación de Sprints: El proyecto se dividió en ciclos cortos (Sprints) enfocados en completar módulos específicos del software, como el desarrollo de interfaces accesibles, la integración de la base de datos con el backend y poner en producción el sitio web del proyecto. . Ejecución y Desarrollo: Durante cada Sprint, el equipo trabajó intensamente en las tareas asignadas, realizando reuniones diarias para monitorear el progreso, identificar obstáculos y realizar ajustes rápidos cuando fue necesario. Revisión y Retrospectiva de Sprints: Al final de cada Sprint, se revisó el trabajo realizado y se realizó una demostración del progreso a los interesados. Esta revisión permitió obtener retroalimentación temprana, facilitando ajustes antes de avanzar al siguiente Sprint. Las retrospectivas proporcionaron valiosas lecciones aprendidas que se aplicaron para mejorar la eficiencia y la calidad en Sprints posteriores. Iteración Continuada: Este ciclo de planificación, desarrollo, revisión y retrospección se repitió hasta que el software estuvo completamente desarrollado, probado e implementado, asegurando que se cumplieran todos los objetivos planteados de manera ordenada y con alta calidad.


CONCLUSIONES

Dado a que la investigación es una continuación de trabajos previamente publicados por los asesores, se espera que el tercer volumen con el mismo nombre de la investigación sea publicado en este semestre. Por lo que los resultados se verán plasmados en dicho libro.   Como conclusión personal, se puede decir que durante la estancia no solo se logró aplicar conocimientos previos en campos de programación tanto de frontend como backend, se logró ampliar el panorama sobre la aplicación de tecnología de vanguardia e inmersiva en campos educativos. En un mundo tan en constante cambio como el nuestro, tanto alumnos, como docentes, plataformas y medios tienen que estarlo también, de forma que los profesionistas del mañana puedan tener más y mejores herramientas que los ayuden a ser las mejores versiones de sí mismos, teniendo un acceso amplió a información de calidad y a herramientas que asemejan entornos reales de trabajo  
Zárate García José de Jesús, Instituto Tecnológico de Morelia
Asesor: Mg. Carolina Herrera Solera, Universidad del Sinú

RETOS DE LA INTELIGENCIA ARTIFICIAL Y LA TRANSFORMACIóN ENERGéTICA EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA INDUSTRIA MANUFACTURERA EN LA CIUDAD DE CARTAGENA – COLOMBIA


RETOS DE LA INTELIGENCIA ARTIFICIAL Y LA TRANSFORMACIóN ENERGéTICA EN PEQUEñAS Y MEDIANAS EMPRESAS (PYMES) DE LA INDUSTRIA MANUFACTURERA EN LA CIUDAD DE CARTAGENA – COLOMBIA

Gutiérrez Barrera Alejandro, Instituto Tecnológico de Morelia. Zárate García José de Jesús, Instituto Tecnológico de Morelia. Asesor: Mg. Carolina Herrera Solera, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

Este proyecto analiza los retos y oportunidades en el uso de la inteligencia artificial (IA) para ayudar a las pequeñas y medianas empresas (PYMES) de la industria manufacturera en Cartagena, Colombia, en su transición hacia modelos de energía más limpias y sostenibles. Se examinan las limitaciones y problemáticas que enfrentan las PYMES, a partir de este análisis, se proponen recomendaciones específicas para aprovechar las tecnologías de IA en el contexto energético.



METODOLOGÍA

Para esta investigación se usó un método documental. En el que se implementó una recolecta de información como Estructura empresarial en Colombia, Aporte a la economía nacional, Problemas, amenazas y debilidadesFactores que afectan el crecimiento o desarrollo en 5 semanas a través de fuentes como: Google Académico, publicaciones en LinkedIn, artículos científicos y datos nacionales como DANE. Durante este proceso se siguieron varios pasos: 1. Durante la primera semana investigamos en distintos foros ya mencionados acerca de Estructura empresarial en Colombia, Aporte a la economia nacional, Problemas, amenazas y debilidades haciendo foco en las Pymes de Colombia. 2. En la primera semana investigamos Factores que afectan el crecimiento o desarrollo, Trabajos Investigativos sobre Inteligencia Artificial y Transición energética foco en las Pymes de Colombia, donde destacamos la investigación de los trabajos sobre IA. 3. A partir de la tercera semana hicimos más énfasis en lo que es las Pymes de Cartagena buscando información acerca de Industria manufacturera en Cartagena, Estructura empresarial en Cartagena, Problemas, amenazas y debilidades. Esta información documentada la utilizamos para desarrollar la investigación acerca del cambio de transición energética en las Pymes y desenvolvernos en ideas del como la Inteligencia Artificial por medio de todo el mundo de sistemas pueden ayudar a optimizar este cambio energético.


CONCLUSIONES

Las PYMES en la industria manufacturera de Cartagena, Colombia, enfrentan significativos desafíos y retos al pasar a modelos de energía más limpia y sostenible, la falta de estructura y recursos adecuados limita su capacidad para implementar cambios necesarios, además de retos como el acceso limitado a tecnologías avanzadas y la capacitación del personal hacia estas nos abre una puerta a la inteligencia artificial (IA) que se presenta como una herramienta prometedora para superar estas barreras ayudando al monitoreo y diagnóstico de equipos energéticos, la optimización del consumo energético, la predicción de fallas en sistemas y la mejora de la eficiencia. Algunas posibles implementaciones de inteligencia artificial en las PyMEs dado el contexto recaudado en la investigación son: La implementación de una herramienta de inteligencia artificial con un modelo preentrenado de fácil configuración como VoiceFlow, que permite la creación de chatbots automáticos de interacción inmediata con un lenguaje humano que evite tecnicismos y le permita al personal de las empresas realizar preguntas sobre las tecnologías involucradas. Con esta propuesta se buscaría solucionar el problema de la capacitación del personal y el desconocimiento por parte del personal sobre el uso y la implementación de nuevas tecnologías. La implementación de un modelo de inteligencia artificial creado a base de librerías multilenguaje como TensorFlow. Requiere la intervención de personal con conocimiento en programación, inversión en una base de datos, acceso a computadoras con capacidad de procesamiento paralelo suficiente para el entrenamiento de la inteligencia y acceso a información suficiente para los entrenamientos. Permitiría desarrollar un modelo para optimizar el uso de recursos energéticos, analizar el estado de los dispositivos implementados para obtener energía, entre otras aplicaciones.
Zarza Reyes Kewin, Universidad Tecnológica de Zinacantepec
Asesor: Dr. Juan David Ospina Correa, Corporación Universitaria Remington

UNA APROXIMACIÓN ESTOCÁSTICA PARA ESTABLECER BENEFICIOS AMBIENTALES Y ECONÓMICOS DE UNA ECONOMÍA CIRCULAR PARA LOS RESIDUOS DE CONSTRUCCIÓN Y DEMOLICIÓN


UNA APROXIMACIÓN ESTOCÁSTICA PARA ESTABLECER BENEFICIOS AMBIENTALES Y ECONÓMICOS DE UNA ECONOMÍA CIRCULAR PARA LOS RESIDUOS DE CONSTRUCCIÓN Y DEMOLICIÓN

Peñalver Navas David Arturo, Universidad de la Guajira. Ponce Aguilar Edgar, Tecnológico de Estudios Superiores de Valle de Bravo. Zarza Reyes Kewin, Universidad Tecnológica de Zinacantepec. Asesor: Dr. Juan David Ospina Correa, Corporación Universitaria Remington



PLANTEAMIENTO DEL PROBLEMA

La industria de la construcción produce grandes cantidades de residuos sólidos, lo que exige mejorar su gestión para optimizar la recuperación y reutilización de materiales. Para abordar este desafío, proponemos un modelo de gestión estratégica que combina estadística Bayesianos (a través de árboles de decisión) y solución numérica mediante un método de muestreo Monte Carlo. El método de Monte Carlo permite simular distintos escenarios y determinar el nivel de incertidumbre asociada al proceso, mientras que los modelos Bayesianos mejoran la toma de decisiones bajo riesgo. Esta combinación facilita la transición de los esquemas de recuperación de residuos sólidos hacia una economía circular, la optimización en la predicción de costos, reduciendo el riesgo de sobreestimación, alineándose con los Objetivos de Desarrollo Sostenible (ODS).



METODOLOGÍA

En este estudio, presentamos un enfoque Estocástico Multidimensional mediante la minimización dinámica de riesgos en cadenas de suministro bayesianas para evaluar los beneficios ambientales y económicos de una economía circular en el manejo de Residuos de Construcción y Demolición (RCD). Este enfoque permite una toma de decisiones informada basada en la relevancia de los principios fundamentales de reducir, reutilizar y reciclar. El marco metodológico propuesto facilita la transición hacia una economía circular al permitir la toma de decisiones bajo condiciones de riesgo e incertidumbre. Se destacan las ventajas específicas de este enfoque sobre otras metodologías existentes, lo que facilita su adopción en la industria de la construcción. El éxito de este enfoque se basa en la sustitución de modelos de estimación deterministas por cadenas de Márkov adecuadamente parametrizadas en el espacio de estados. Esta nueva aproximación no sólo mejora la precisión de las estimaciones, sino que también permite el establecimiento de indicadores clave para la detección de anomalías, la ingeniería de procesos, la estimación de costos y la validación logística. La metodología es aplicable a cualquier tipo de edificación, independientemente de su ubicación geográfica.


CONCLUSIONES

Las mejoras alcanzadas se deben principalmente a la sustitución de modelos de estimación deterministas por cadenas de Márkov, que han sido cuidadosamente parametrizadas en el espacio de estados. Esta nueva aproximación permite establecer indicadores precisos para la detección de anomalías, la ingeniería de procesos, la estimación de costos y la validación logística, aplicables a cualquier tipo de edificación en cualquier ubicación geográfica. Los resultados obtenidos se alinean con los Objetivos de Desarrollo del Milenio (ODM), ampliando el enfoque tradicional hacia un paradigma de desarrollo sustentable. Esta evolución no solo se enfoca en el consumo humano, sino que también considera el desarrollo sustentable, integrando tres elementos fundamentales para el bienestar de las personas y las sociedades: crecimiento económico (ODS-9), inclusión social (ODS-11) y protección del medio ambiente (ODS-12). Se estima que el mercado global de Residuos de Construcción y Demolición (RCD) alcanzará un valor de 37.100 millones de dólares para el año 2025. Este mercado incluye materiales diversos como hormigón, ladrillos, piedras, metal y vidrio. La simulación realizada mediante nuestro modelo estocástico respalda estas proyecciones y confirma el potencial de optimización en la gestión de RCDs
Zatarain Guerrero Natalia Lizeth, Universidad Autónoma de Nayarit
Asesor: Dra. Idania Valdez Vázquez, Universidad Nacional Autónoma de México

PRODUCCIóN DE HIDRóGENO A PARTIR DE BIOMASAS PRETRATADAS CON LíQUIDOS IóNICOS


PRODUCCIóN DE HIDRóGENO A PARTIR DE BIOMASAS PRETRATADAS CON LíQUIDOS IóNICOS

Zatarain Guerrero Natalia Lizeth, Universidad Autónoma de Nayarit. Asesor: Dra. Idania Valdez Vázquez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La producción de hidrógeno se lleva a cabo mediante diversos métodos que separan el elemento hidrógeno de otros compuestos químicos, uno de los métodos más utilizados para la producción biológica de hidrógeno es a través de la fermentación oscura, un proceso atractivo porque permite el uso de una amplia variedad de residuos orgánicos altamente disponibles, como lodos activados, biomasa de algas, residuos de alimentos, aguas residuales y biomasas lignocelulósicas. La biomasa lignocelulósica incluye residuos forestales, agrícolas y agroindustriales, compuestos principalmente de tres polímeros (hemicelulosa, celulosa y lignina), extractivos y cenizas. El principal inconveniente del uso de estas biomasas lignocelulósicas para la producción biológica de hidrógeno es su resistencia a la degradación biológica debido a su contenido de celulosa cristalina y lignina. Este desafío se ha abordado mediante una serie de etapas, que incluyen el acondicionamiento de la biomasa (reducción de tamaño y pretratamientos), la sacarificación y la fermentación, donde cada una de estas operaciones unitarias aumenta los costos operativos.



METODOLOGÍA

Se emplearon cuatro tipos de biomasa: maíz, sorgo, pasto y agave. Para una mejor comprensión, se acondicionó una parte de la biomasa con un pretratamiento utilizando líquidos iónicos, mientras que otra parte se dejó sin tratar. Esto permitió comparar la producción de hidrógeno entre las biomasas pretratadas y las no tratadas. Iniciamos con la preparación de materiales para el montaje del experimento. Decidimos hacerlo por triplicado y con diferentes concentraciones al 5% y 10%, utilizando biomasa pretratada con líquidos iónicos y sin tratar, lo que nos dio un total de 12 reactores por cada material (maíz, sorgo, pasto y agave). Realizamos los cálculos para cada concentración y preparamos el material, incluyendo los inóculos para cada tipo de biomasa y un medio mineral elaborado a partir de urea, KH₂PO₄ y CaCl₂. Colocamos cada uno de estos componentes en los reactores, nivelamos el pH hasta alcanzar un valor de 6.5, gaseamos con nitrógeno durante 5 minutos y finalmente dejamos los reactores en la agitadora.  Después del montaje, continuamos con el seguimiento de los reactores, midiendo la producción de gas diariamente durante una semana y registrándola, ya que es parte de los resultados y nos sirve para darnos cuenta si vamos bien. De igual manera, los últimos dos días del seguimiento extraemos gas para analizarlo en un cromatógrafo de gas (SRI) y verificar si hay producción de hidrógeno. Posteriormente, comenzamos a realizar los análisis necesarios para descubrir qué es lo que estamos produciendo realmente. Realizamos análisis de ácidos grasos volátiles (AGVs), demanda química de oxígeno (DQO), cromatografía líquida de alta eficiencia (HPLC) y azúcares. Finalmente, después de realizar los distintos análisis mencionados, analizamos los resultados para determinar la producción de hidrógeno de los distintos tipos de biomasa y verificar si un pretratamiento nos ayuda en la obtención de este.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos teóricos sobre la producción de hidrógeno mediante consorcios microbianos y se aplicaron en la práctica utilizando técnicas de fermentación oscura con biomasas pretratadas y sin tratar. Sin embargo, debido a la magnitud del trabajo, aún se encuentra en la fase de análisis y no se pueden presentar los datos obtenidos. Se espera recolectar todos los resultados para llegar a una conclusión precisa sobre cuál es la mejor biomasa y si el pretratamiento con líquidos iónicos mejora la producción de hidrógeno.
Zazueta Gutiérrez Jesús Antonio, Universidad de Sonora
Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa

ANáLISIS DE REGISTROS SíSMICOS EN SUELOS BLANDOS DE LA CDMX.


ANáLISIS DE REGISTROS SíSMICOS EN SUELOS BLANDOS DE LA CDMX.

Zazueta Gutiérrez Jesús Antonio, Universidad de Sonora. Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Gran parte del territorio mexicano forma parte de una zona llamada ¨Cinturón de Fuego del Pacifico¨ o ¨Anillo de Fuego del Pacifico¨ la cual tiene aproximadamente 40 km de longitud, en esta misma ocurre actividad sísmica a diario y en diferentes partes a la vez debido al numero de volcanes que la conforman, en México por ejemplo el que mas actividad tiene es el Popocatépetl. El análisis de los registros sísmicos es de suma importancia en la ingeniería civil ya que con la interpretación de los datos registrados se puede obtener parámetros de diseño que por normativa deben ser respetados para que una estructura sea segura. En México han ocurrido tragedias debido a situaciones extraordinarias como el sismo del 19 de septiembre de 1985 que alcanzo una magnitud de 8.1 en la escala de Richter, con duración de minuto y medio.



METODOLOGÍA

La metodología empleada para este caso fue recopilar información en artículos científicos, registros de acelerómetros y programación de las ecuaciones necesarias para analizar la información previamente obtenida para finalmente obtener las medidas de intensidad con las cuales posteriormente se puede hacer un análisis y programación más a fondo para determinar los espectros de diseño, un parámetro indispensable a la hora de diseñar una estructura en una zona que se conoce previamente que es de constante actividad sísmica.


CONCLUSIONES

De la presente investigación se ha logrado recopilar un conjunto de registros sísmicos analizados con diferentes características como lo es el tipo de suelo, ubicación e intensidades de la actividad sísmica registrada. Con esto se pudo realizar la programación de las ecuaciones necesarias para obtener acelerogramas, grafica de velocidad e intensidad de Arias con las cuales posteriormente se pueden determinar espectros de respuesta lineales, parámetros que son necesarios al momento de realizar un diseño estructural. Además, se utilizaron diversas técnicas de investigación para obtener la información necesaria tanto para realizar el proceso de programación, así como para comprender lo necesario del tema. Llegue a la conclusión de que en México es primordial investigar la zona en la cual se va a realizar el diseño y obtener así los parámetros de diseño a considerar según sea la zona, ya que la mayor parte del territorio mexicano es propenso a presentar actividad sísmica, pero según sean las condiciones del suelo y la ubicación será diferente la intensidad con la que esta se presente. Cabe mencionar que gracias al Verano de Investigación Científica he reforzado mi formación académica en el área de Ingeniería Sísmica y Diseño Estructural.
Zazueta Morales Kevin David, Universidad Tecnológica de Nayarit
Asesor: Mtro. Paulo César Gómez Sánchez, Universidad de Guadalajara

INTELIGENCIA ARTIFICIAL APLICADA A LA EDUCACIóN SUPERIOR


INTELIGENCIA ARTIFICIAL APLICADA A LA EDUCACIóN SUPERIOR

Miramontes Escobar Julian Enrique, Universidad Tecnológica de Nayarit. Zazueta Morales Kevin David, Universidad Tecnológica de Nayarit. Asesor: Mtro. Paulo César Gómez Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Alrededor del 39% de las escuelas piensan en utilizar herramientas de IA pero aún no han diseñado planes concretos para realizarlo. La implementación de la inteligencia artificial en la educación superior enfrenta distintos obstáculos que pueden truncar su adopción de manera eficiente y equitativa. El primero de ellos es la desigualdad en el acceso a la tecnología ya que no todos los estudiantes tienen acceso a dispositivos adecuado y a una conexión a internet confiable. Esto puede acentuar las desigualdades preexistentes en el sistema educativo y crear brechas digitales significativas. Otro aspecto importante es la privacidad y la seguridad de los datos ya que las herramientas de IA recopilan y analizan grandes cantidades de datos personales e inclusive institucionales de los estudiantes lo que puede llevar a riesgos de mal uso o brechas de seguridad si no se gestionan de una manera adecuada. El tercer obstáculo y uno de los más críticos es la dependencia a estas tecnologías, esta puede ser contraproducente y limitar la capacidad de los estudiantes para desarrollar habilidades fundamentales lo que puede afectar gravemente el proceso educativo.



METODOLOGÍA

Para el seguimiento de esta línea de investigación fue necesario consultar diferentes fuentes bibliográficas y artículos que se enfocaran sobre la utilidad de las tecnologías de IA en la educación, tras una revisión previa se descartó aquella información que no era muy relevante y se le dio enfoque a algunos ejemplos donde estas herramientas han sido implementadas de manera exitosa en diferentes países, principalmente con el uso de plataformas adaptativas. A partir de aquí se extrajeron ventajas y puntos positivos que puede suponer implementar la IA en la educación superior y se pudieron definir una serie de buenas prácticas para implementarla de manera efectiva y segura.


CONCLUSIONES

Como resultado de la investigación se encontró que la implementación de la IA en la educación superior presenta ventajas significativas para revolucionar los métodos de aprendizaje existentes pero a la par también presenta desafíos igualmente importantes. La mayores áreas de aplicación de tecnologías de IA resultaron ser en primera instancia las plataformas adaptativas las cuales utilizan algoritmos para analizar el rendimiento del estudiante y personalizar la experiencia educativa, proporcionando materiales y recursos que se adapten a su ritmo y estilo de aprendizaje; algunos ejemplos de éxito son Liulishou en china la cual es una plataforma para aprender inglés o Dialogflow la cual se utiliza en la Universidad de Oriente en México para acompañar a los estudiantes. En segunda, se encontró que otra de las herramientas de IA más utilizadas es la IA generativa la cual permite la generación de contenido como textos, imágenes, videos, código fuente, entre muchas otras cosas, estas herramientas sin duda son muy útiles en infinidad de áreas, sin embargo, puede que no siempre de las respuestas correctas por lo que su uso se recomienda más como herramienta de apoyo que como una fuente confiable de información. Entre las ventajas se encuentran la personalización del aprendizaje, la optimización de la enseñanza y la automatización de tareas administrativas, lo que permite a los educadores enfocarse en actividades pedagógicas más significativas. Además, la capacidad de la IA para analizar grandes volúmenes de datos facilita la toma de decisiones informadas y mejora la retención de contenidos. Para aprovechar al máximo las ventajas de la IA, se deben implementar buenas prácticas y estrategias. Estas incluyen formación y capacitación continua para que los profesores y el personal administrativo puedan interpretar y utilizar los datos generados por la IA de manera efectiva. Es esencial establecer políticas de ética y uso responsable para evitar la dependencia excesiva de la tecnología y proteger la privacidad y seguridad de los datos. Además, es crucial realizar evaluaciones continuas del impacto de las herramientas de IA en el rendimiento académico para ajustar y mejorar las estrategias de enseñanza. La integración gradual y estratégica de la IA también es importante para garantizar una transición suave y la aceptación por parte de estudiantes y profesores. Finalmente, promover la alfabetización en IA entre los estudiantes y el personal educativo puede ayudar a reducir las brechas digitales y mejorar la enseñanza, asegurando un uso responsable y efectivo de estas herramientas​.
Zepeda Estrada Josue Sebastián, Instituto Tecnológico Superior de Apatzingán
Asesor: Mtro. Adrian López Hernández, Instituto Tecnológico Superior de Apatzingán

AGEDRONIC


AGEDRONIC

Juarez Jiménez Pedro Alberto, Instituto Tecnológico Superior de Apatzingán. Zepeda Estrada Josue Sebastián, Instituto Tecnológico Superior de Apatzingán. Asesor: Mtro. Adrian López Hernández, Instituto Tecnológico Superior de Apatzingán



PLANTEAMIENTO DEL PROBLEMA

La implementación de vehículos aéreos no tripulados (VANTS) en la ingeniería, permite obtener un levantamiento fotogramétrico de alta resolución espacial, con menor tiempo y sobre todo disminuyendo el costo sobre un levantamiento topográfico convencional. La elevada precisión que tiene la fotogrametría debido a la estereoscópica permite una excelente identificación de los detalles topográficos, la digitalización directa de los polígonos y la correcta georreferenciación de las líneas o áreas resultantes. Resultados de investigaciones demuestran las ventajas de utilizar drones en la ingeniería por las características que estos presentan, si bien, los drones tienen una amplia área de trabajos en los que pueden ser utilizados; para este proyecto se busca la calidad de un levantamiento, pero con las ventajas de la fotogrametría. A través de los resultados obtenidos en los estudios y análisis de este proyecto, se buscará el diseño de una cartografía urbana e hidrológica del municipio de Apatzingán por medio del análisis geoespacial con el uso de drones, en zonas de riesgo. Este proyecto a su vez pretende ayudar con una metodología que permita desarrollar e implementar estudios hidrológicos; que cumplan con las características necesarias de acuerdo a las normativas propias del estudio.



METODOLOGÍA

La metodología para el análisis geoespacial en estudios y diseños urbanos e hidrológicos mediante el uso de drones implica los siguientes pasos: 1. Planificación: Definir objetivos, área de estudio y requisitos técnicos. 2. Recopilación de datos: Utilizar drones equipados con sensores y cámaras para recopilar imágenes y datos geoespaciales. 3. Procesamiento de datos: Utilizar software especializado para procesar las imágenes y datos recopilados, incluyendo la creación de modelos digitales del terreno y ortofotos. 4. Análisis geoespacial: Aplicar técnicas de análisis geoespacial, como SIG (Sistema de Información Geográfica), para examinar y modelar fenómenos urbanos e hidrológicos. 5. Visualización y comunicación: Presentar los resultados a través de mapas, gráficos y visualizaciones 3D para facilitar la comprensión y toma de decisiones. 6. Monitoreo y actualización: Realizar vuelos periódicos para monitorear cambios y actualizar los datos geoespaciales. Algunas aplicaciones incluyen: - Análisis de crecimiento urbano y planificación de infraestructura - Evaluación de riesgos de inundaciones y modelado hidrológico - Monitoreo de la calidad del agua y detección de cambios ambientales


CONCLUSIONES

La incorporación de drones en el análisis geoespacial ha revolucionado los estudios y diseños urbanos e hidrológicos, ofreciendo una herramienta poderosa para la recolección de datos precisos y detallados. Esta tecnología permite la captura de imágenes de alta resolución y la creación de modelos tridimensionales del terreno, facilitando la evaluación de áreas urbanas y naturales con una precisión sin precedentes. Los drones permiten una monitorización continua y eficiente, reduciendo costos y tiempos en comparación con los métodos tradicionales. En el ámbito urbano, proporcionan información crucial para el desarrollo sostenible, la planificación de infraestructuras y la gestión del espacio público. En los estudios hidrológicos, su capacidad para mapear cuencas, analizar flujos de agua y evaluar riesgos de inundación es invaluable. En conjunto, el uso de drones en el análisis geoespacial se erige como una innovación clave para enfrentar los desafíos contemporáneos de la planificación urbana y la gestión de recursos hídricos, promoviendo decisiones informadas y estratégicas que contribuyen al bienestar y resiliencia de las comunidades.
Zepeda García Jesús Andany, Instituto Tecnológico Superior de Los Reyes
Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo

FACTORES GENERADORES DEL VALLE DE LA MUERTE


FACTORES GENERADORES DEL VALLE DE LA MUERTE

Madrigal Equihua Paola Ines, Instituto Tecnológico Superior de Los Reyes. Medina Ramirez Christian Ariel, Instituto Tecnológico Superior de Irapuato. Rolon Chávez Jafeth Valente, Instituto Tecnológico Superior de Los Reyes. Zepeda García Jesús Andany, Instituto Tecnológico Superior de Los Reyes. Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo



PLANTEAMIENTO DEL PROBLEMA

Dentro del marco de la innovación y el emprendimiento académico, el concepto denominado "valle de la muerte" continúa siendo un obstáculo crucial para la exitosa transición de proyectos desde su concepción inicial hasta su viabilidad económica, según investigadores (Björklund et al., 2020). Esta dificultad es especialmente relevante en instituciones de enseñanza superior como el Tecnológico Nacional de México, donde la generación y aplicación de conocimiento son metas esenciales. Es importante destacar que, en la actualidad el término "valle de la muerte" no se utiliza mucho en los Tecnológicos Nacionales de México. No existen investigaciones específicas sobre esta expresión debido a la falta de información proporcionada por las instituciones tecnológicas. En el contexto de las instituciones de educación superior mexicana, se ha resaltado la relevancia de los entornos de emprendimiento universitario para impulsar la innovación (Guerrero et al., 2019). No obstante, subsiste una brecha importante en la comprensión sobre cómo funcionan estos ecosistemas, en particular los mecanismos de financiamiento que operan en ellos, en cuanto a su influencia en la supervivencia y el éxito de los proyectos durante la denominada etapa del "valle de la muerte" en el Tecnológico Nacional de México. La financiación ha sido identificada como un elemento clave en la habilidad de los proyectos para superar este desafío crítico. No obstante, la verdadera repercusión de este factor ya sea positiva o negativa, aún no se ha esclarecido adecuadamente en el ámbito específico del Tecnológico Nacional de México. Esta entidad, como parte esencial del sistema educativo superior de México, muestra rasgos singulares que necesitan ser examinados minuciosamente para comprender cómo la financiación impacta en el éxito de los proyectos innovadores. Este estudio tiene como objetivo responder a las siguientes interrogantes de investigación: ¿De qué forma la financiación impacta en la capacidad de los proyectos del Tecnológico Nacional de México para superar el desafío del "valle de la muerte? La investigación de estas cuestiones es fundamental para desarrollar una comprensión más profunda de los mecanismos que facilitan o impiden el éxito de los proyectos innovadores en el contexto de la educación superior mexicana. Los resultados de este estudio podrían proporcionar información valiosa para la formulación de políticas y estrategias más efectivas de apoyo a la innovación y el emprendimiento en el Tecnológico Nacional de México y otras instituciones similares. Haciendo mención del Tecnológico Nacional de México Campus los Reyes, se destaca que el aspecto predominante en el valle de la muerte es la financiación, debido a la falta de recursos asignados para proyectos universitarios en el Tecnológico, lo cual necesita ser planificado con antelación para obtener la aprobación de los directivos.



METODOLOGÍA

Caracterizado por su enfoque exploratorio y descriptivo, se dedica a comprender y describir la relación entre la financiación, la innovación y su influencia en los proyectos de investigación del Tecnológico Nacional de México. Esto se enfoca principalmente en el desafío del "valle de la muerte" en el ámbito del emprendimiento académico. El objetivo de esta investigación es abordar un problema complejo y poco explorado, con el propósito de generar conocimiento que ayude a comprender los factores que afectan el éxito de los proyectos innovadores en la educación superior mexicana. A través de este enfoque, se busca responder preguntas específicas sobre cómo la financiación afecta la capacidad de los proyectos del Tecnológico Nacional de México para hacer frente al desafío del "valle de la muerte". Este enfoque facilita la exploración de un territorio poco estudiado y fomenta nuevas perspectivas que pueden enriquecer el ámbito del emprendimiento académico y la innovación tecnológica. Al detallar y analizar estas particularidades, se busca ofrecer una visión integral de la situación actual y de las posibles implicaciones para el diseño de políticas y estrategias de respaldo a la innovación en instituciones educativas semejantes.


CONCLUSIONES

El problema conocido como "valle de la muerte" supone un obstáculo importante para la innovación y el emprendimiento en el Tecnológico Nacional de México y, por ende, en la educación superior del país. Estudios han demostrado que la falta de financiamiento adecuado, la poca coordinación entre los actores del ecosistema de innovación y la escasa ayuda gubernamental son factores críticos que dificultan la transición de los proyectos desde la fase de investigación y desarrollo hacia su viabilidad comercial. Una forma de superar estos retos es mediante la adopción de un enfoque integral que incluya el fortalecimiento de los mecanismos de financiamiento, la promoción de una mayor colaboración entre universidades, centros de investigación, empresas y entidades financieras, así como la implementación de políticas públicas más efectivas que apoyen a los emprendedores en las fases clave de desarrollo de sus proyectos. La creación de un ecosistema sólido que respalde la creatividad y el espíritu emprendedor resulta fundamental para asegurar que las ideas innovadoras puedan prosperar y convertirse en ventajas tangibles para la sociedad.
Zepeda García Ma. Lizbeth, Universidad de Guadalajara
Asesor: Dra. Margarita Sanchez Dominguez, Centro de Investigación en Materiales Avanzados (CONACYT)

NANODENDRITAS AG-CU ELECTRODEPOSITADAS SOBRE LATAS RECICLADAS DE ALUMINIO PARA APLICACIONES SERS


NANODENDRITAS AG-CU ELECTRODEPOSITADAS SOBRE LATAS RECICLADAS DE ALUMINIO PARA APLICACIONES SERS

Zepeda García Ma. Lizbeth, Universidad de Guadalajara. Asesor: Dra. Margarita Sanchez Dominguez, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El presente trabajo realizado durante el verano de la investigación científica y tecnológica del pacífico 2024;  nos enfocamos en la detección de los compuestos perfluorados (PFAS) a partir de sustratos SERS basados en nanoestructuras plasmónicas. Los PFAS conocidos popularmente como forever chemicals, son contaminantes persistentes en el ambiente; se encuentran en numerosos productos de consumo cotidiano, desde cosméticos, envases de comida rápida hasta utensilios de cocina resistentes al calor (teflón), etc, y están presentes, por tanto, en el agua potable, el aire y el suelo. Siendo un grave problema ya que tienen una alta persistencia en el medio ambiente y una tendencia a bioacumularse en organismos vivos (estudios resientes han demostrado que los compuestos perfluorados pueden absorberse a través de la piel humana e incluso ingerirse a través de la leche materna).  Para la elaboración del sustrato SERS se utilizó la técnica de electrodepósito simple para sintetizar nanodendritas de Ag-Cu sobre un sustrato de aluminio elaborado a partir de latas recicladas previamente tratadas.



METODOLOGÍA

En esta investigación se propuso obtener sustratos SERS basados en nanodendritas de Ag-Cu sobre latas de aluminio (Al) reutilizadas. Como primer paso se recolectaron latas de Al marca Coca-Cola los cuales fueros usadas como sustratos de aluminio, después se cortaron y se lijaron con el objetivo de eliminar la pintura exterior, posteriormente se realizaron cortes de 2.5 x 3 cm y finalmente se pulieron con lijas de un  tamaño de partícula de 400 y 800. Una vez obtenido el sustrato de Al de la lata reciclada se implementaron diferentes metodologías reportadas en la literatura para el desengrasado y tratamiento químico de la lata de Al con el objetivo de asegurar el depósito de las nanodendritas de Ag-Cu.   Para obtener nanodendritas de Ag-Cu por la técnica de electrodepósito simple, se usó la metodología reportada por el grupo de investigación (Rivera y colaboradores, Nanotechnology 31 (2020) 465605 (8pp)). Para la síntesis se usó una celda 3D de un volumen de 15 cm3, se usó como cátodo el sustrato de aluminio limpio y como ánodo un electrodo de cobre electrolítico como electrolito se preparó una mezcla de nitrato de plata y nitrato de cobre (1:1) a una concentración de 10 mM y posteriormente se aplicaron las condiciones de tiempo y voltaje necesarias para la formación de las nanodendritas de Ag-Cu.  Por último se secaron en una estufa a 50-60°C por 5 min, el sustrato obtenido se guardó en una caja Petri y se cubrió con aluminio para evitar cualquier reacción con el ambiente. Para determinar las mejores condiciones de síntesis se usaron dos técnicas de caracterización: AFM y SEM.   Por último, se realiza una evaluación del sustrato SERS en espectroscopía Raman usando como analito el ácido perfluorooctanosulfónico (PFOS) a diferentes concentraciones.


CONCLUSIONES

Se obtuvieron con éxito sustratos nanoestructurados basados en dendritas bimetálicas de AgCu sobre sustratos de Al utilizando latas reutilizadas por la técnica de electrodepósito simple. El efecto SERS de las nanodendritas bimetálicas de AgCu mostró la detección de 4-ATP a concentraciones ultra bajas con un factor de aumento 3.9 x1013, y permitió la detección del compuesto PFOA  de hasta 0.414 ppm logrando amplificar la señal hasta 2.5x105 veces. Esta investigación demuestra la viabilidad de desarrollar sustratos económicos, eficientes y sostenibles, cumpliendo con los objetivos de desarrollo sostenible-ODS, principalmente con el objetivo 3 acerca de garantizar una vida saludable y promover el bienestar para todos y el objetivo 6 acerca de garantizar la disponibilidad y la gestión sostenible del agua y el saneamiento para todos
Zepeda Osornio Victor Gael, Universidad La Salle Bajío
Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional

ANáLISIS DE DEFORMACIóN DE VEHíCULOS SINIESTRADOS MEDIANTE PROYECCIóN DE LUZ


ANáLISIS DE DEFORMACIóN DE VEHíCULOS SINIESTRADOS MEDIANTE PROYECCIóN DE LUZ

Flores Díaz Fernando, Universidad de Sonora. Ramirez Perez Saul Elias, Instituto Politécnico Nacional. Zepeda Osornio Victor Gael, Universidad La Salle Bajío. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La digitalización 3D es una herramienta de utilidad en la industria para la evaluación y reconstrucción de daños estructurales. Esta tecnología permite obtener una reconstrucción precisa de la estructura de un vehículo, identificando deformaciones y daños post-impacto con un gran detalle. Actualmente en México y en muchos otros países, se encuentra un gran interés para mejorar esta tecnología. Esto motivado principalmente por el alto costo de los métodos cotidianos de evaluación de daños vehiculares. La limitada disponibilidad de tecnología genera un desafío para los fabricantes de automóviles, talleres de reparación y empresas de seguros. Asimismo es importante destacar la capacidad de evaluar y reparar daños de manera precisa y eficiente para mejorar la seguridad vial y reducir los costos referentes con los daños vehiculares. Este proyecto de investigación, fue llevado a cabo con la finalidad de adaptar la tecnología de digitalización 3D para hacerla más accesible y económica, facilitando su uso en un mercado más amplio. Principalmente la intención del proyecto es ofrecer una herramienta accesible que promueva una mejor evaluación y reconstrucción de accidentes, mejorando la seguridad vial y reduciendo los costos asociados con los daños vehiculares.



METODOLOGÍA

Para llevar a cabo este proyecto, se siguió una metodología estructurada que incluyó las siguientes etapas: Selección del Modelo: Se eligió un modelo de carro de juguete para la digitalización debido a su facilidad de manipulación y costo reducido. Se utilizaron dos carros, el primero de referencia y al segundo se le hicieron deformaciones, simulando siniestros. Este modelo permitió realizar escenarios de impacto y generar mediciones precisas para poder evaluar la precisión de la digitalización 3D en un entorno controlado. Digitalización 3D: Se utilizó la técnica de proyección de franjas, que implica proyectar patrones de luz sobre la superficie de los modelos vehiculares y capturar las deformaciones en el patrón proyectado con un proyector Epson W39 utilizando una cámara web Logitech C310. Esta técnica es conocida por su capacidad para capturar detalles finos y generar datos precisos con rapidez de forma eficiente. En este caso, se generan nubes de puntos con aproximadamente 3.6 millones de puntos por modelo, proporcionando una representación detallada de la superficie del vehículo. Comparación de Modelos: Se realizó la digitalización de ambos modelos con el carro de referencia y el deformado con siniestros. Las reconstrucciones obtenidas de ambos modelos se compararon utilizando MATLAB, permitiendo identificar y cuantificar los daños y deformaciones en la estructura del vehículo. Este análisis permitió evaluar la efectividad de la técnica de proyección de franjas para la identificación de daños post-impacto. Análisis de Datos: Se realizaron análisis detallados de las nubes de puntos utilizando MATLAB. Este análisis incluyó la identificación de áreas de deformación. Los resultados del análisis permitieron validar y demostrar su capacidad para generar reconstrucciones precisas de daños vehiculares.


CONCLUSIONES

Durante la estancia del verano de investigación del programa Delfín en el CITEDI-IPN. Se adquirieron conocimientos teóricos y prácticos sobre la digitalización 3D. La técnica de proyección de franjas es una herramienta eficaz para la evaluación de daños vehiculares, proporcionando reconstrucciones detalladas y precisas. La implementación de esta tecnología a un modelo más accesible y económico es un gran resultado. El desarrollo de una herramienta para fabricantes de automóviles, talleres de reparación y empresas de seguros mejorará la evaluación y reparación de daños vehiculares, promoviendo la tecnología de digitalización 3D. De esta manera, se puede procesar la evaluación de un vehículo siniestrado y hacer más precisos los presupuestos de costos de reparación. En resumen, este proyecto ha demostrado la viabilidad de adaptar tecnologías avanzadas para un uso más amplio, también ha usado las bases para el campo de la digitalización 3D en la industria automotriz. Adicionalmente, el proyecto facilita la detección de fallas estructurales potenciales. Esto significa que, además de realizar pruebas en vehículos siniestrados, se podría evaluar de manera rutinaria y a bajo costo cualquier vehículo para identificar fallas potenciales antes de que ocurran. Así, este proyecto podría contribuir a la mejora de la seguridad vial y a la reducción de los costos asociados con la reparación de daños vehiculares cuando estos ya han ocurrido.
Zerrweck Faz Anacristina, Instituto Tecnológico de Piedras Negras
Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa

CALIDAD Y SOSTENIBILIDAD EN EL SECTOR AGROINDUSTRIAL. MEJORA CONTINUA Y PRáCTICAS INNOVADORAS PARA UN FUTURO RESPONSABLE.


CALIDAD Y SOSTENIBILIDAD EN EL SECTOR AGROINDUSTRIAL. MEJORA CONTINUA Y PRáCTICAS INNOVADORAS PARA UN FUTURO RESPONSABLE.

Ochoa Nava Fernanda Ximena, Instituto Tecnológico de Piedras Negras. Paz Chávez José Eduardo, Instituto Tecnológico de Piedras Negras. Rodriguez López Hannia Citlaly, Instituto Tecnológico de Piedras Negras. Romero Bobadilla Oscar, Instituto Tecnológico de Piedras Negras. Zerrweck Faz Anacristina, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La agroindustria en Colombia es crucial para la economía del país, abarcando desde la producción agrícola hasta la transformación y comercialización de productos. La diversidad climática permite cultivar una amplia gama de productos como café, banano, flores, cacao y palma de aceite, que no solo abastecen al mercado nacional, sino que también generan ingresos significativos por exportaciones. Sin embargo, el sector enfrenta desafíos como la necesidad de mejorar la infraestructura rural, adaptarse al cambio climático y adoptar tecnologías avanzadas para ser más productivo y sostenible. La calidad es un factor clave para la competitividad de la agroindustria colombiana, siendo fundamental cumplir con estándares rigurosos y obtener certificaciones internacionales como Buenas Prácticas Agrícolas (BPA) e ISO [1]. Además, las certificaciones de comercio justo y orgánicas ayudan a asegurar prácticas comerciales equitativas y sostenibles, lo cual es esencial para acceder a mercados globales exigentes. El apoyo gubernamental y la inversión en investigación y desarrollo son esenciales para fomentar la innovación y fortalecer la cadena de valor agrícola. Programas que promuevan la asociatividad y el acceso a créditos para pequeños y medianos productores son vitales para el crecimiento del sector. En conjunto, el desarrollo sostenible y la responsabilidad social empresarial son fundamentales para asegurar que el avance de la agroindustria beneficie a todos los actores involucrados, desde los agricultores hasta los consumidores.



METODOLOGÍA

Para la realización de esta investigación se inició con la elaboración de un estado del arte de una forma metódica sobre los temas de la agroindustrial, calidad, sostenibilidad, mejora continua y agricultura de precisión para un futuro responsable. Esta investigación está dirigida a los comerciantes, emprendedores y agricultores, para que tengan mayor consciencia sobre los beneficios a largo plazo que se obtienen al hacer uso y aplicación de las tecnologías de precisión aplicada en la agricultura, además de la aplicación de métodos y técnicas sostenibles para asegurar la producción y consumo responsable de los productos y fortalecer la resiliencia y capacidad de adaptación a riesgos relacionados con el clima. Posteriormente, se realizó un estudio mediante encuestas a los comerciantes locales sobre los temas investigados para saber si cuentan con conocimiento sobre estos temas y los beneficios que conlleva la aplicación de estas tecnologías. De igual manera se asistió a conferencias y expos en donde se pudo recabar más información respecto a la Agroindustria. Finalmente, se concluyó con el análisis de la información recabada que podemos tener una visión integral sobre la importancia de implementar tecnologías de precisión y prácticas sostenibles en la agroindustria.


CONCLUSIONES

Las encuestas realizadas fueron de gran ayuda, ya que nos permitieron darnos cuenta de que, aunque la mayoría de las personas cuentan con conocimientos básicos sobre la agricultura de precisión y las tecnologías asociadas, estos conocimientos no siempre cumplen con los estándares de calidad necesarios para aprovechar al máximo dichas tecnologías. Nuestra investigación ha demostrado que es esencial mantenerse en constante mejora e innovación en tecnologías de precisión. La evolución tecnológica es rápida, y para mantenernos competitivos y eficientes, debemos adoptar nuevas herramientas y técnicas que mejoren la precisión y la eficacia en las prácticas agrícolas. Además, la sostenibilidad se ha convertido en un componente crucial de la agricultura moderna. Las prácticas sostenibles no solo ayudan a preservar el medio ambiente, sino que también contribuyen a la salud a largo plazo de los cultivos y del suelo. Esto incluye el uso de tecnologías que permiten un uso más eficiente de los recursos, como el agua y los fertilizantes, y que reducen el impacto ambiental negativo.
Zevallos de la Flor Dennis Angel, Universidad Nacional José María Arguedas
Asesor: Dra. Alexandra Cerón Vivas, Universidad Pontificia Bolivariana

ADSORCIóN DE FóSFORO EMPLEANDO LODOS ALUMBRADOS


ADSORCIóN DE FóSFORO EMPLEANDO LODOS ALUMBRADOS

Mejia Zavaleta Eduardo, Universidad Veracruzana. Portilla Linares Naomi Anaid, Universidad Veracruzana. Zevallos de la Flor Dennis Angel, Universidad Nacional José María Arguedas. Asesor: Dra. Alexandra Cerón Vivas, Universidad Pontificia Bolivariana



PLANTEAMIENTO DEL PROBLEMA

El fósforo (P) es un nutriente crucial, frecuentemente limitante, para el desarrollo de organismos en la mayoría de los ecosistemas y también es un componente vital para diversas industrias. Sin embargo, con el aumento de la población global y la intensificación de la industrialización, se liberan cantidades excesivas de nitrógeno (N) y fosforo (P), lo que resulta en una serie de problemas ambientales, incluyendo la eutrofización y el agotamiento del oxígeno, que tienen un impacto significativo en el equilibrio ecológico e incluso en la salud pública. En la investigación actual, se está estudiando la eliminación de fósforo de las aguas residuales, ya que se considera que cuando el nivel de nitrógeno supera los 0,2 mg/L y el de fósforo supera los 0,02 mg/L, el agua se convierte eutrófica. 



METODOLOGÍA

Para el desarrollo de la metodología fue necesario visitar la Planta de Tratamiento de Lodos, que recientemente fue incorporada a la Planta de Tratamiento de Agua Potable Bosconia (PTAP-B), para el tratamiento de los lodos generados por su operación. La primera actividad dentro del laboratorio consistió en reducir la cantidad de agua presente en el lodo, debido a lo complejo que era manipularlo, para lo cual se sometió por 2 hrs al horno a 110 °C. Una vez que el lodo se enfrió hasta llegar a temperatura ambiente, se realizaron esferas de dicho lodo con un peso aproximado de 1.2 grs cada una, además, que, debido a la naturaleza de las pruebas a realizar, fue necesario elaborar una gran cantidad de dichas esferas. El siguiente proceso fue llevar a cabo el secado de las anteriores, con lo cual, la primera parte fue sometida a la mufla a 400 °C por 10 minutos, para posteriormente elevar la temperatura a 600 °C por 5 minutos. Por otro lado, para la segunda mitad, solamente se dejaron secar al aire libre por 48 hrs. Fue necesario realizar una solución de fosfato monobásico de potasio con una concentración de 50 mg/L, de la cual se depositaron 200 ml en un balón 1000 ml, el cual más tarde fue aforado con agua destilada, para obtener una concentración de 10mg/l. Cabe mencionar, que dicho proceso fue repetido con un segundo balón de 1000 ml, para posteriormente ser neutralizados en el rango de pH de 6.5-7.0. Se realizaron dos distintas pruebas entre la solución de fósforo y el material de ambos tipos, la primera bajo el nombre de cinética adsorción, consistió en verter 100 ml de los balones neutralizados en un matraz Erlenmeyer de 100 ml y agregar 3 esferas de lodo (aproximadamente de 0.6 grs cada una). Este proceso fue replicado en 9 matraces más, con el objetivo de hacer 5 muestras por duplicado, las cuales variarían con 30 minutos, una hora, dos horas, cuatro horas y ocho horas de agitación en un shaker a 300 rpm. Mientras que la segunda prueba se realizó bajo el nombre de isoterma de adsorción, la cual consistió en 5 matraces Erlenmeyer de 100 ml por duplicado, con concentraciones en mg/L de 1, 5, 10, 15 y 20, terminando el aforo con agua destilada. A diferencia de la anterior, en esta no se varió el tiempo de agitación, sino la concentración de fósforo en la solución. Los 10 matraces pertenecientes a la prueba fueron sometidos a agitación continua por 48 hrs, lo cual implicó reprogramaciones constantes del shaker. Una vez que cada uno de los matraces de cada prueba cumplían su tiempo, estos eran sacados del agitador, retirando las esferas de lodo y almacenadas en el refrigerador para su próximo análisis en el cromatógrafo. Para lograr identificar al compuesto en cada una de las concentraciones en el rango de lectura del cromatógrafo, fueron necesarias realizar disoluciones por 4 y 8 veces, con lo cual fueron analizadas las muestras.  


CONCLUSIONES

A pesar de que las pruebas arrojaron algunos valores que no concuerdan con la curva de adsorción, de manera general se observó una retención de fósforo por parte de las esferas, obteniendo mejores resultados con el material secado a la mufla, por lo que con ambas pruebas se logra identificar el potencial al usar lodos alumbrados como material adsorbente de fósforo. Próximamente se gestionará una serie de análisis a las esferas mediante un laboratorio externo a la universidad, con lo cual quedan pendientes más resultados de dicho trabajo, además que nuestro trabajo cumple la función de conocer si es posible el objetivo, por lo tanto, se continuará estudiando en el futuro.
Zorrilla Murillo Isabel Cristina, Universidad Autónoma de Occidente
Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato

DESARROLLO DE EXPERIENCIA EN REALIDAD VIRTUAL (VR) PARA LA DIFUSIóN DE INFORMACIóN SOBRE LA BIODIVERSIDAD DE SANTIAGO DE CALI.


DESARROLLO DE EXPERIENCIA EN REALIDAD VIRTUAL (VR) PARA LA DIFUSIóN DE INFORMACIóN SOBRE LA BIODIVERSIDAD DE SANTIAGO DE CALI.

Garzon Toro Julian Camilo, Universidad Autónoma de Occidente. Zorrilla Murillo Isabel Cristina, Universidad Autónoma de Occidente. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Desarrollo de experiencia en realidad virtual (VR) para la difusión de información sobre la biodiversidad de Santiago de Cali. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato. Estudiantes: Julian Camilo Garzón Toro e Isabel Cristina Zorrilla Murillo, Universidad Autónoma de Occidente, Santiago de Cali. Planteamiento del problema Cali, conocida como la "Sucursal del Cielo", y Colombia, con su vasto y diverso ecosistema, albergan una extraordinaria variedad de aves. Estas aves no solo son un tesoro natural sino también un componente vital de nuestros ecosistemas, desempeñando roles esenciales en la polinización, control de plagas y dispersión de semillas. Sin embargo, enfrentan amenazas constantes debido a la urbanización, deforestación y cambio climático. Objetivos del proyecto El principal objetivo de este proyecto de RV es resaltar la riqueza natural de Cali y Colombia, promoviendo la conciencia y la protección de las aves y sus hábitats. A través de una experiencia interactiva y educativa, buscamos: Educar y Sensibilizar: Proporcionar a los usuarios conocimientos sobre las diversas especies de aves que habitan en la región, su importancia ecológica y las amenazas que enfrentan. Fomentar la Conservación: Inspirar a la comunidad a participar activamente en la conservación de las aves y sus hábitats mediante acciones concretas y sostenibles. Promover el Patrimonio Natural: Valorizar la biodiversidad local como parte del patrimonio natural de Cali y Colombia, generando un sentido de orgullo y responsabilidad en su preservación. En la era de la tecnología y la información, la preservación del patrimonio natural se ha convertido en un desafío crucial para las sociedades contemporáneas. En este contexto, la Realidad Virtual (RV) emerge como una herramienta innovadora para fomentar la conciencia y la educación ambiental. Nuestro proyecto de RV, centrado en la ciudad de Cali y el país Colombia, busca contribuir a la Meta 11.4 del Objetivo de Desarrollo Sostenible 11 (ODS 11), la cual se enfoca en redoblar los esfuerzos para proteger y salvaguardar el patrimonio cultural y natural del mundo.



METODOLOGÍA

Metodología Para llevar a cabo nuestro proyecto de investigación, inicialmente nos enfocamos en profundizar nuestro entendimiento sobre la historia de la computación gráfica y la evolución de la realidad virtual y aumentada. Este proceso incluyó la participación en asesorías virtuales con el Dr. Luis Armado Garcia, lo cual nos permitió adquirir conocimientos fundamentales sobre estas tecnologías emergentes. Una vez adquirida esta base teórica, comenzamos a aplicar los conocimientos adquiridos mediante ejercicios prácticos de programación web utilizando HTML y A-Frame. Esta etapa práctica fue esencial para consolidar nuestras habilidades y prepararnos para el desarrollo de nuestro proyecto final. Dado que el objetivo principal del proyecto era preservar e informar sobre la biodiversidad y conservación de especies de aves, nos dedicamos a investigar en profundidad sobre las distintas especies que habitan en el Ecoparque de las Garzas, ubicado en la ciudad de Cali. Esta investigación nos proporcionó la información necesaria para crear contenido relevante y preciso para nuestra experiencia de realidad virtual. Decidimos elegir 6 especies (Aramides cajaneus, Butorides striata, Pyrocephalus rubinus, Phimosus infuscatus, Pitangus sulphuratus, Nyctibius griseus) que habitan el ecoparque y armamos una escena de RV recreando una zona del este mismo. Con toda la información reunida, procedimos a desarrollar una experiencia de realidad virtual utilizando HTML y A-Frame. La experiencia se materializó en un museo virtual de aves, que presenta modelos 3D de las especies investigadas, así como información relevante sobre cada una de ellas. Finalmente, compilamos todos los aspectos de nuestra investigación y desarrollo en una página web, la cual resume nuestra estancia de investigación y el avance del proyecto. Esta página web sirve como un recurso integral que despliega las experiencias realizadas y los conocimientos adquiridos.


CONCLUSIONES

Conclusiones. Durante el desarrollo de nuestro proyecto de realidad virtual, logramos adquirir una comprensión teórica sólida sobre la historia de la computación gráfica y la evolución de la realidad virtual y aumentada. Aplicamos estos conocimientos mediante ejercicios prácticos en programación web utilizando HTML y A-Frame, lo cual nos permitió crear una experiencia interactiva que destaca la biodiversidad de las aves en Cali y Colombia. A medida que el proyecto avanza, el enfoque no solo ha sido en la creación técnica, sino también en generar un impacto en la conciencia social sobre la importancia de preservar nuestra biodiversidad. La experiencia de realidad virtual desarrollada busca educar a los usuarios sobre las especies de aves y su ecosistema, promoviendo un mayor aprecio y responsabilidad hacia el patrimonio natural. Esperamos que este esfuerzo contribuya a inspirar a la comunidad a participar activamente en la conservación y protección de la biodiversidad local.
Zuleta García Jonathan Andrés, CIAF Educación Superior
Asesor: Dr. José Antonio Vergara Camacho, Universidad Veracruzana

ESCANEO DE APLICACIONES WEB: HERRAMIENTAS Y METODOLOGíAS PARA LA DETECCIóN DE VULNERABILIDADES DE COMPONENTES VULNERABLES Y OBSOLETOS CON BASE EN TOP TEN DE OWASP


ESCANEO DE APLICACIONES WEB: HERRAMIENTAS Y METODOLOGíAS PARA LA DETECCIóN DE VULNERABILIDADES DE COMPONENTES VULNERABLES Y OBSOLETOS CON BASE EN TOP TEN DE OWASP

Zuleta García Jonathan Andrés, CIAF Educación Superior. Asesor: Dr. José Antonio Vergara Camacho, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

En la revolución digital 4.0 donde se quiere establecer a las nuevas tecnologías como pioneras para el desarrollo de la humanidad, se ha vuelto imperante en todos los casos y debido al gran manejo de información ya sea sensible o no, el tema de la ciberseguridad para las plataformas que quieren salir al mercado digital. En este punto, la OWASP(Open Web Application Security Project) da a conocer un total de 10 vulnerabilidades conocidas para las aplicaciones web, mejor conocido como el Top Ten de OWASP, las cuales son:  A01:2021-Broken Access Control, A02:2021-Cryptographic Failures , A03:2021-Injection, A04:2021-Insecure Design, A05:2021-Security Misconfiguration, A06:2021-Vulnerable and Outdated Components, A07:2021-Identification and Authentication Failures, A08:2021-Software and Data Integrity Failures, A09:2021-Security Logging and Monitoring Failures, A10:2021-Server-Side Request Forgery.   Este documento tiene como objetivo realizar una revisión sistemática a la vulnerabilidad conocida como componentes vulnerables y obsoletos, analizando 2 preguntas de investigación, sus motivaciones y respuestas, asimismo como contemplar el proceso por el cual se hizo la revisión de los documentos, fuentes de información y cadenas de búsqueda para las bases de datos.



METODOLOGÍA

MÉTODO DE INVESTIGACIÓN El método utilizado para realizar esta Revisión Sistemática de la Literatura se basa en los lineamientos propuestos por Kitchenham & Charters [18], que se describen a continuación. A. Etapa de planificación En la fase de planificación, el proceso de formulación de las preguntas de investigación, los términos clave de búsqueda. y se describe la estrategia a seguir para la obtención de los estudios primarios. 1) Preguntas de investigación Para lograr el objetivo de esta investigación, se han definido tres preguntas de investigación que se muestran en la Tabla I. Estas preguntas de investigación son importantes porque sirven como guía para la presente investigación. 2) Fuentes de datos y estrategia de búsqueda Las fuentes consideradas son IEEE Xplore, Google Scholar y ScienceDirect porque son fuentes donde se publican muchos de los estudios en el área de tecnología. Los términos clave definidos para la búsqueda se muestran en tablas. y los términos relacionados utilizados para crear la cadena de búsqueda.


CONCLUSIONES

La ciberseguridad en los tiempos actuales es tan importante como seguir evolucionando hacia un futuro tecnológico, en este documento se ha hecho una revisión sistemática con 2 preguntas de investigación por las cuales hemos detectado una serie de respuestas de cómo y con qué herramientas podemos controlar y predecir componentes vulnerables en una aplicación web, combinado con el uso de herramientas avanzadas de escaneo, es crucial para mantener una postura de seguridad robusta. Para finalizar es fundamental estar al pendiente de atacantes y las malas configuraciones para mitigar los riesgos asociados a este tema y de esta manera proteger sus aplicativos webs contra amenazas y garantizar la seguridad de los datos y las operaciones
Zumaya Mercado Ciara Gabriella, Universidad de Guadalajara
Asesor: Dra. Mónica Patricia Camas Náfate, Universidad de Guadalajara

EVALUACIóN DE CONFORT TéRMICO DE CASAS-HABITACIóN DE LADRILLO ROJO, CONCRETO, ADOBE Y BAHAREQUE EN BASE A LA DIGNIFICACIóN DE VIVIENDA EN MéXICO.


EVALUACIóN DE CONFORT TéRMICO DE CASAS-HABITACIóN DE LADRILLO ROJO, CONCRETO, ADOBE Y BAHAREQUE EN BASE A LA DIGNIFICACIóN DE VIVIENDA EN MéXICO.

Zumaya Mercado Ciara Gabriella, Universidad de Guadalajara. Asesor: Dra. Mónica Patricia Camas Náfate, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Al hablar de dignificación de vivienda deberíamos hablar también de la pobreza energética de las mismas, en donde, dentro de este último término, nos topamos con la definición de confort térmico. El confort térmico en viviendas es la relación entre la sensación favorable de una persona y el ambiente térmico al interior de su hogar, lo cual involucra varios factores como lo es la humedad, velocidad de viento y temperaturas; de ahí la importancia de una correcta planeación de los hogares entorno a la región climática donde se construirán, y, que según SEMADET, en México se han identificado 7 grandes regiones climáticas: cálido subhúmedo, seco y semiseco, seco desértico, cálido húmedo, templado subhúmedo, templado húmedo y frío. En el artículo 4 de la Constitución Política de los Estados Unidos Mexicanos (2024) se menciona que Toda familia tiene derecho a disfrutar de vivienda digna y decorosa. (p. 10), y, aunque poco se hable sobre el tema, según el Consejo Nacional de Evaluación de la Política de Desarrollo Social, CONEVAL, el derecho a la vivienda digna implica que los ciudadanos tengan la posibilidad de acceder a un hogar con algunas condiciones, entre las que se encuentra que sea una vivienda con materiales y diseño de calidad. Sin embargo, a nivel nacional se cuentan con programas de crédito o programas de vivienda cuyos materiales de construcción, sea cual sea la región climática donde se construya, se componen de ladrillo firme o concreto, materiales que, si bien son altamente resistentes, no son agradables a ciertas condiciones climáticas, olvidando por completo que la pobreza energética también involucra el confort térmico. Es por ello que el presente trabajo se hará con el fin de determinar la interacción del material con el confort térmico de la habitación, haciendo a su vez el balance de energía de cada sistema.



METODOLOGÍA

Se emplearon cuatro habitaciones construidas a una escala de 5:1 referentes a dimensiones reales de una habitación promedio de casas INFONAVIT. Las habitaciones fueron la base de nuestro proyecto de investigación, siendo construidas con cuatro materiales distintos: ladrillo rojo, concreto, adobe y bahareque. Las bases (piso) están hechas de concreto para las dos primeras de ellas y de tierra para las dos últimas. Las habitaciones se expusieron a la intemperie en el techo de una vivienda ubicada en Zapopan, Jalisco. Se tomaron mediciones de  radiación, velocidad de viento, humedad absoluta -tanto ambiental como dentro de la construcción- y temperaturas -ambiental, en techo, en el exterior de los muros y al interior de la habitación (cerca de la puerta, cerca de la ventana, en media habitación y piso)-. Las herramientas de medición que se emplearon para este caso de estudio fueron solarímetro, anemómetro, higrómetros, termopares y medidor de temperatura de radiación (pistola láser) respectivamente.  Se hicieron pruebas durante tres días en un horario de 11:00 am a 5:30 pm, donde cada hora se tomaron las mediciones antes mencionadas. Para el mejor análisis de resultados se realizó un formato de tabla para concentrar los datos de manera manual y que fuera clara la información obtenida, y así, posteriormente, poder transcribirlo en digital para graficar los resultados. Una vez se tuvieron los resultados en una hoja de Excel, se procedió a seguir con los cálculos propios del balance de energía, donde con ayuda de distintas ecuaciones se calculó la transferencia de calor total de cada sistema analizado.


CONCLUSIONES

Durante este trabajo de investigación se obtuvieron los resultados de la transferencia de calor de cada sistema analizado, en donde se pudo comprobar la importancia de una correcta planeación del material que se debería emplear en las construcciones de viviendas. Dentro de estos resultados se tuvo que la transferencia total de calor fue negativa para tres sistemas: ladrillo rojo, concreto y bahareque, pero ¿Qué significa esto? Esto, en términos energéticos, significa que cada una de esas habitaciones está gastando más energía de la que consume. Según la ISO7730:2005 el confort térmico es de entre los 20°C y 25°C, de manera que el adobe, al ser el único material con una transferencia de calor positiva, estaba ganando temperatura; es decir, aunque el material es buen aislante para temperaturas ambientales menores, no es un material apto para alcanzar el confort térmico en zonas climatológicas donde la temperatura sea mayor a 35°C, ya que permite alojar el calor, pero su disipación es más lenta, mientras que los demás materiales que se emplearon perdieron energía, ya que el techo, al ser de lámina galvanizada, es un gran conductor de calor, sin embargo, el material de los muros no dejó que el este se quedara al interior de la habitación. Con base a los resultados obtenidos podemos concluir que el material con mayor adaptabilidad al confort térmico en la zona de estudio sería el ladrillo rojo, mientras que el adobe necesitaría de un sistema de adecuación térmica extra, lo que se reduce en mayor energía.  Pero ¿De qué manera se podrían adaptar las demás viviendas ya edificadas que se componen de materiales que no llegan a alcanzar el confort térmico? Pues bien, esa es la segunda etapa de este proyecto de investigación, en donde se pretende diseñar un sistema de enfriamiento a base de barro y agua para colocarlo en las ventanas de los hogares y que así se pueda mejorar la temperatura del aire al interior.
Zúñiga Blas Eugenia Alejandra, Universidad Veracruzana
Asesor: Dra. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional

DESARROLLO DE RECURSOS TECNO-EDUCATIVOS DE REALIDAD EXTENDIDA COMO APOYO AL APRENDIZAJE DE TEMAS BIOéTICOS Y DE BIOSEGURIDAD.


DESARROLLO DE RECURSOS TECNO-EDUCATIVOS DE REALIDAD EXTENDIDA COMO APOYO AL APRENDIZAJE DE TEMAS BIOéTICOS Y DE BIOSEGURIDAD.

Zúñiga Blas Eugenia Alejandra, Universidad Veracruzana. Asesor: Dra. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La educación en el campo de la bioética es fundamental para la formación de profesionales competentes que trabajen con seres vivos. La bioética no solo aborda cuestiones éticas importantes relacionadas con la vida y la salud, sino que también guía la práctica del profesionista de manera responsable. De forma similar, los protocolos de bioseguridad son cruciales para garantizar prácticas responsables y seguras en el manejo de organismos vivos y materiales biológicos. En este contexto, las nuevas tecnologías son un recurso potencial como herramientas para mejorar y enriquecer la enseñanza en estas áreas. A pesar del creciente uso de tecnologías educativas en diversos campos, la revisión sistemática realizada en la presente investigación revela que actualmente no existen desarrollos de recursos tecno-educativos específicamente diseñados para el aprendizaje de la bioética o los protocolos de bioseguridad. Esta carencia no solo limita el potencial de los métodos de enseñanza actuales, sino que también restringe el impacto positivo que las tecnologías modernas podrían tener. El desarrollo de estos recursos podría ofrecer a los estudiantes experiencias de aprendizaje más accesibles y efectivas, contribuyendo así a la formación de profesionales mejor preparados. En este trabajo, se diseñó la primera etapa de desarrollo para un modelo en realidad virtual enfocado en la enseñanza del protocolo de colocación del Equipo de Protección Personal (EPP) en laboratorios. Este modelo servirá para que, una vez desarrollado el software completo, los usuarios conozcan los pasos correctos y la forma adecuada de colocar cada material de protección, cumpliendo así con los estándares de bioseguridad.



METODOLOGÍA

Se realizó una revisión sistemática siguiendo la guía PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-Analyses). La revisión sistemática de la literatura se llevó a cabo con el objetivo de encontrar estudios existentes y en proceso de desarrollo sobre proyectos tecno-educativos relacionados con temas bioéticos, enfocándose principalmente en artículos que trataran sobre: 1) bioética, 2) el uso de realidad extendida, 3) posibles áreas de desarrollo en los recursos tecno-educativos, 4) la ayuda que brindan las herramientas digitales en la comprensión de la bioética y 5) la generación de un cambio en el paradigma educativo. Se buscó en diversas bases de datos como Scopus y Web of Science, estableciendo criterios de inclusión y exclusión de artículos según las necesidades de la investigación. Tras concluir la revisión sistemática de los artículos, se observó que el desarrollo de material tecno-educativo específicamente con tecnología de realidad mixta se limita a la enseñanza de procedimientos médicos o de laboratorio, o a la enseñanza de la ética sin la parte biológica. Esta revisión sistemática está prevista para ser publicada como un artículo de revisión sistemática de literatura. Para ello, se ha desarrollado un proyecto editorial con el objetivo de identificar las revistas potenciales en las que podría llevarse a cabo la publicación. En el contexto brindado por la revisión sistemática, se realizó un estudio de mercado para conocer el estado de los productos tecno-educativos de interés. Se analizaron todas las características relevantes de los softwares encontrados, como el costo, el sector al que pertenecen (privado, público, institucional), los requerimientos de hardware y las funciones relevantes a la temática principal. Para el desarrollo del software del recurso tecno-educativo para bioseguridad, se utilizó la tecnología de realidad mixta con el objetivo de ofrecer una herramienta que muestre el protocolo correcto para la colocación del EPP. El proceso comenzó con el escaneo en 3D mediante la aplicación del dispositivo WIDAR, que utiliza la tecnología LiDAR (Light Detection And Ranging). Este sistema de medición masiva de posiciones a distancia está basado en un sensor de barrido láser, el cual emite impulsos y registra los entornos en función de la superficie, permitiendo así obtener imágenes tridimensionales (3D) de los objetos reflejados. La primera etapa del desarrollo del software se centró en escanear y producir el modelo 3D del EPP, comenzando con la bata desechable y las gafas protectoras. La persona se colocaba el EPP y se situaba con los brazos extendidos a 45°. Tras el escaneo con la aplicación WIDAR, se obtenía un archivo en formato .fbx, posteriormente ejecutado en el programa Blender para la edición del aspecto del modelo 3D, incluyendo la colocación de un esqueleto para su posterior animación, así como la edición de luces y texturas. En etapas posteriores del desarrollo del software, se espera que los usuarios puedan ver animaciones que muestren paso a paso la colocación del EPP en el entorno virtual. Las evidencias de lo realizado durante la estancia se encuentran en:  https://drive.google.com/drive/folders/1PJ3NhzG25mxpVdX2amI-ZLBXx9cKMlI0?usp=sharing


CONCLUSIONES

Durante la estancia de investigación, adquirí conocimientos en el escaneo de objetos y personas para la obtención de modelos 3D, así como en el uso de herramientas pertinentes para su edición. También obtuve un mejor entendimiento de la forma y los pasos necesarios para realizar una revisión sistemática, además de los aspectos que se deben tener en cuenta para su desarrollo. En cuanto al tema de investigación, se espera que tenga un impacto positivo en los tipos de recursos tecno-educativos, ya que en el campo no se han encontrado recursos de este tipo enfocados en los temas de la investigación, ni utilizando la tecnología de realidad mixta en la que se espera desarrollar.
Zuñiga Hernandez Edher Lorenzo, Universidad Autónoma de Tamaulipas
Asesor: Dr. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas

ERGONOMíA EN DISPOSITIVOS DE ASISTENCIA PERSONAL PARA EL CUIDADO DE PERSONAS CON DISCAPACIDAD FíSICA MOTRIZ.


ERGONOMíA EN DISPOSITIVOS DE ASISTENCIA PERSONAL PARA EL CUIDADO DE PERSONAS CON DISCAPACIDAD FíSICA MOTRIZ.

Zuñiga Hernandez Edher Lorenzo, Universidad Autónoma de Tamaulipas. Asesor: Dr. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

El uso de dispositivos de asistencia es indispensable para usuarios que requieren movilidad a pesar de contar con alguna fisica motriz, y la ergonomia interviene ya que ayuda a prevenir lesiones relacionadas con el uso de los dispositivos de asistencia, como trastornos musculoesqueléticos, que pueden resultar posturas incomodad, movimientos repetitivos o esfuerzos excesivos. Al adaptar un diseño ergonómico se pueden reducir los riesgos. La agenda 2030 tambien busca el bienestar del ser humano, ya que aqui participa sus siguientes objetivos: ODS 3: Salud y bienestar. ODS 9: Industria, innovación e infraestructura. ODS 11: Ciudades y comunidades sostenibles.



METODOLOGÍA

Para llevar a cabo la siguiente investigación se investiga en distintos buscadores de información confiable, tesis, repositorios (de México, España, Chile y Perú), métodos de evaluación como el RULA, NIOSH y Fuerzas para evaluar la ergonomía de los dispositivos de asistencia y calcular su nivel de riesgo. Investigar los antecedentes, la historia, alcances y componentes de los dispositivos de asistencia, para después evaluar cada uno de los dispositivos de asistencia para calcular su índice de riesgo.


CONCLUSIONES

En conclusión, la ergonomía es esencial y cumple su función en alguno de los objetivos de la agenda 2030, conlleva en innovar y promover el bienestar de las personas, y también crear una comunidad inclusiva, segura y sostenible, ya que al implementar un diseño ergonómico ayuda a mejorar los dispositivos de asistencia para que el dispositivo sea adaptado al usuario y al entorno, la ergonomía no solo se centra en la comodidad, también se enfoca en la seguridad y satisfacción del usuario.
Zuñiga Mejia Michelle, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mg. Ivanhoe Rozo Rojas, Universidad Católica de Colombia

ANáLISIS DE LA CAPACIDAD DE PROCESOS MEDIANTE LA APLICACIóN DEL CICLO DMAIC PARA DETERMINACIóN DE MEJORAS EN ORGANIZACIONES COLOMBIANAS. CASO SECTOR ALIMENTOS Y EDUCACIóN


ANáLISIS DE LA CAPACIDAD DE PROCESOS MEDIANTE LA APLICACIóN DEL CICLO DMAIC PARA DETERMINACIóN DE MEJORAS EN ORGANIZACIONES COLOMBIANAS. CASO SECTOR ALIMENTOS Y EDUCACIóN

Zuñiga Mejia Michelle, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mg. Ivanhoe Rozo Rojas, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

La medición de la capacidad de los procesos es una métrica en la gestión y control de la calidad para evaluar la variabilidad y la tendencia central de una característica específica, comparando las especificaciones de diseño para verificar su adecuación, asegurando la calidad del producto y la satisfacción del cliente. Es así como las organizaciones de cualquier sector económico deberían emplear métodos estadísticos que les permitan garantizar el cumplimiento de las especificaciones establecidas por las partes de interés. En específico, se seleccionaron dos casos de los sectores alimenticio y educativo para evaluar la capacidad de sus procesos a través de variables críticas que permitieran comparar su desempeño con relación a la metodología Lean Six Sigma. 



METODOLOGÍA

Presentar los resultados del análisis de la capacidad de procesos en dos organizaciones colombianas de los sectores Alimentos y Educación aplicando el ciclo DMAIC de la metodología lean six sigma. Para ello, se empleó el ciclo DMAIC en las 4 primeras etapas (Definir, Medir, Analizar y Mejorar), sustentado en un enfoque cuantitativo basado en la ISO  10017 en lo relacionado con el análisis de la capacidad de procesos. Se utilizaron dos casos empresariales colombianos consideradas en grandes empresas de los sectores de Alimentos y Educación ubicados en la ciudad de Bogotá.


CONCLUSIONES

La medición de la capacidad de procesos se realizó empleando atributos o variables, en las que se obtuvo como resultado que para servicios y productos es conveniente identificar el requisito crítico para la calidad y proceder con la medición. Se identifica que existe una brecha potencial de mejoramiento en los procesos analizados y que se puede gestionar con eventos Kaizen. De igual manera, se prevé que las organizaciones analizadas deben fortalecer las capacidades de las personas en análisis estadístico de procesos para reforzar estrategias de mejoramiento continuo.
Zuñiga Riestra Jacqueline, Universidad de Guadalajara
Asesor: Dr. Francisco Joel Cervantes Lozano, Universidad de Guadalajara

ANÁLISIS POLARIMÉTRICO DE CÉLULAS HELA POR MEDIO DE UNA CÁMARA PIXELADA.


ANÁLISIS POLARIMÉTRICO DE CÉLULAS HELA POR MEDIO DE UNA CÁMARA PIXELADA.

Zuñiga Riestra Jacqueline, Universidad de Guadalajara. Asesor: Dr. Francisco Joel Cervantes Lozano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Realizar un estudio de cambios en las estructuras de células Hela por medio de sistema polarimétrico que contiene una cámara pixelada para observar cambios en su comportamiento cuando las células son inducidas mediante el fenómeno de difusión pasiva (osmosis).



METODOLOGÍA

Para el análisis polarimétrico de las células HeLa se incluye lo siguiente: 1. Preparación de la Muestra: Las células HeLa se cultivan y se preparan en un portaobjetos, cuyo se coloca en una placa para medir actividad electrofisiológica para su observación microscópica. 2. Aplicación de Soluciones: Se aplican soluciones hipotónicas, isotónicas e hipertónicas a las células en intervalos regulares para observar los cambios físicos debido a la ósmosis. 3. Iluminación y Polarización: La muestra se ilumina con luz polarizada, utilizando un polarizador antes de que la luz llegue a la muestra. 4. Captura de Imágenes: La cámara pixelada Kiralux CS505MUP equipada con un analizador polarimétrico captura múltiples imágenes de la muestra bajo diferentes condiciones de polarización y en distintos intervalos de tiempo. 5. Procesamiento de Datos: Las imágenes se procesan para extraer información sobre la polarización en cada píxel, determinando parámetros como el ángulo de polarización y el grado de polarización. 6. Interpretación de Resultados: Los datos polarimétricos se utilizan para inferir propiedades estructurales y ópticas de las células HeLa, así como los cambios físicos inducidos por las diferentes soluciones.


CONCLUSIONES

La metodología como ya se mencionó consistió en aplicar las soluciones ya mencionadas para poder ver el efecto deseado en las células HeLa, y se tomó una grabación con la cámara sensible a la polarización, a continuación, se describe el proceso: Se aplico las soluciones en la siguiente secuencia: isotónica-hipotónica- isotónica-hipertónica durante intervalos de 0 a 35 segundos y un rango de 120 a 480 frames entre cada una de ellas, se observó lo siguiente: T=0 s: Las células HeLa se observaron con su forma y tamaño típicos. La polarización de la luz mostró un patrón uniforme en la mayoría de las células. T=10 s: Se inyectó solución hipotónica, observando una ligera hinchazón en las células, con un cambio sutil en el ángulo de polarización. El grado de polarización mostró variaciones menores. T=15 s: Las células continuaron hinchándose, y los cambios en el ángulo de polarización se volvieron más pronunciados. El retardo óptico indicó una mayor acumulación de agua en las células. Después, algunas células comenzaron a mostrar signos de lisis. La polarización de la luz reveló patrones irregulares, y el grado de polarización disminuye en áreas donde las células se han roto. T=20 s: Se inyectó solución isotónica, causando que las células no tuvieran cambios apreciables, confirmando que la solución no induce variaciones osmóticas. T=25 s: Se observó una ligera contracción en las células, con cambios mínimos en el ángulo de polarización. El grado de polarización mostró una leve disminución. T=30 s: Las células continuaron contrayéndose, y los cambios en el ángulo de polarización se volvieron más evidentes. El retardo óptico sugiere una pérdida de agua en las células. Después, las células mostraron una contracción significativa, con patrones irregulares de polarización de la luz. El grado de polarización disminuye considerablemente en las áreas donde las células se han encogido. T=35 s: Se perdió el cultivo celular. Los resultados obtenidos confirman la efectividad del análisis polarimétrico para detectar cambios osmóticos en las células HeLa. La cámara Kiralux CS505MUP demostró su potencial al capturar y analizar imágenes polarimétricas con alta precisión. Las diferencias observadas entre las soluciones hipotónica, isotónica e hipertónica proporcionaron información sobre la respuesta celular a diferentes condiciones osmóticas, contribuyendo a una mejor comprensión de la dinámica celular. Cabe mencionar que las imágenes obtenidas fueron editadas mediante MATLAB. En conclusion, Este trabajo confirma la capacidad del análisis polarimétrico para detectar y medir cambios osmóticos, proporcionando información valiosa sobre la dinámica interna y la respuesta a diferentes condiciones. La alta resolución y sensibilidad de la cámara pixelada permitieron capturar imágenes detalladas y precisas, facilitando un análisis cuantitativo de los parámetros polarimétricos. El procesamiento de las imágenes mediante MATLAB fue crucial para extraer e interpretar los datos, ya que sin esto no hubiera sido posible realizar la observación ni obtener el resultado deseado. Se espera que se amplíe este trabajo para futuras investigaciones, ya que, los hallazgos de este estudio no solo mejoran nuestra comprensión de la dinámica celular, sino que también destacan el potencial de la polarimetría para aplicaciones en diagnóstico biomédico, investigación celular y desarrollo de fármacos.